آینده اخبار جعلی/ هر چه را که میبینید، میشنوید یا میخوانید باور نکنید>
در عصر فتوشاپ، فیلترها و شبکههای اجتماعی دیگر دیدن تصاویر دستکاری شده، عادی است. اما به زودی نسل تازهای از ابزارهای دستکاری و تغییر ویدئو و صدا نیز راهی بازار خواهند شد. ابزارهایی که با پیشرفت در هوش مصنوعی و گرافیک کامپیوتری اجازه خلق ویدئوهای جعلی از هر چهرهای را فراهم میکنند.
احتمالا در آینده بعید نیست ویدئوهایی از چهرههای مشهور ببنیم که سخنانی دور از انتظار میگویند. این آینده اخبار جعلی است.
اکنون گروههای پژوهشی بسیاری در سراسر جهان روی ضبط و تولید مصنوعی عناصر تصویری و صوتی رفتار انسانی کار میکنند.
در دانشگاه استنفورد نرمافزاری توسعه داده شده که قادر است با دستکاری چهرهها در ویدئو، حالات چهره فرد دیگری را به آن منتقل کند. در این روش فردی با وبکم صحبت میکند و نرمافزار مستقیما حالات چهره او را به تصاویر چهره فرد دیگری در ویدئوی اصلی منتقل میکند. گروه پژوهشی دانشگاه استنفورد با استفاده از این نرمافزار ویدئوهایی از جرج دبلیو بوش، ولادیمیر پوتین و دونالد ترامپ را دستکاری و همانند عروسک خیمه شببازی همان چیزی که مد نظرشان بود بر چهره آنها پدیدار کردند.
نرمافزارهای این چنین در وهله اول ابزار سرگرمی مناسبی هستند که با افزودن صداهای مصنوعی، خروجی بسیار باورپذیری تولید میکنند. با استفاده از صدای مصنوعی دیگر تنها تصاویر دستکاری شده پوتین یا ترامپ را نمیبینیم بلکه صدایشان جعلی آنها را نیز میشنویم.
پژوهشگران دانشگاه آلاباما روی تولید صدا پژوهش میکنند. با استفاده از ۳ تا ۵ دقیقه صدای فرد هدف که زنده ضبط شده یا از یوتیوب و رادیو به دست آمده، میتوان صدایی جعلی تولید کرد که انسان و سیستمهای ایمنی بیومتریک را فریب میدهد. در این روش مهاجم با میکروفن صحبت میکند و نرمافزار صدای او را به صدای فرد هدف تبدیل میکند.
استارتآپ کانادایی «لیربرد» نیز قابلیتهای مشابهی دارد و برای تبدیل متن به کتابهای صوتی با صدای شخصیتهای مشهور بازیهای ویدئویی استفاده میشود.
در نگاه نخست شاید نیت تمام این پژوهشها خیرخواهانه باشد اما ترکیب آنها میتواند به تولید اخبار جعلی از چهرههای مشهور ختم شود.
تکنولوژیهای این چنین فراتر از اخبار جعلی کاربردهای بسیاری دارند. نیش ساکسینا استاد و پژوهشگر دانشگاه آلاباما در بیرمنگام در این باره گفت: «با این تکنولوژیها میتوانید با صدای مادر فردی برای او پیام بگذارید یا فردی را با انتشار یک فایل صوتی بدنام کنید.»
چنین تکنولوژیهایی هنوز به تکامل نرسیدهاند. هنوز صداها اندکی روباتی هستند و حالات صورتی تا حدودی غیرطبیعی جلوه میکنند. اما با گذر زمان قادر خواهند بود که تصویر و صدای فرد را کاملا طبیعی بازسازی کنند تا جایی که تشخیص جعلی بودنش برای انسان بسیار دشوار شود.
در حال حاضر اعتماد عمومی به رسانهها با گسترش شایعات و اخبار جعلی در شبکههای اجتماعی دچار فرسایش شده است و با ورود این دست تکنولوژیها اهمیت موشکافی در هر محتوایی که به نظر واقعی میرسد دو چندان میشود. با در نظر گرفتن سختگیری رسانههای معتبر شاید این دست محتواها از زیر دست آنها بیرون نرود اما در این میان تکلیف مطالبی که در شبکههای اجتماعی منتشر میشوند چه میشود، مطالبی که شاید فاجعهای سیاسی یا دیپلماتیک به وجود آورد.
ساکسینا در این باره گفت: «اگر کسی با چهره ترامپ و صدای ترامپ در ویدئو چیزی بگوید مردم باور میکنند ترامپ است. هر چند که برای گول زدن مردم احتیاجی به این دست چیزها هم نیست اما با ورودشان وضعیت را بسیار بدتر میکنند.»
ترجمه: فرزاد مظفری٬ منبع: گاردین/ ۲۶ جولای
منبع:خبرآنلاین