کدام چهره واقعی است؟
آیا میتوانید تفاوت بین یک چهره واقعی و ساخته شده توسط هوش مصنوعی را تشخیص دهید؟ همه چهرهها در عکس بالا قلابی هستند و توسط هوش مصنوعی ساخته شدهاند.
در گذشته شاید اسم وبسایت ThisPersonDoesNotExist.com (این فرد وجود ندارد) به گوشتان خورده باشد که با استفاده از هوش مصنوعی، به طرز عجیبی چهرههای قلابی ولی واقعینما ایجاد میکند. به تبع آن، یک وبسایت دیگر هم بوجود آمد: WhichFaceIsReal.com (کدام چهره واقعی است) که این امکان را به شما میدهد توانایی خود برای تمایز بین یک چهره کاملا واقعی و یک چهره قلابی ساخته شده توسط هوش مصنوعی را آزمایش کنید.
اگرچه WhichFaceIsReal.com هدف بالاتری دارد. این وبسایت توسط دو پژوهشگر از دانشگاه واشنگتن، جوین وست و کارل برگستورم، ساخته شده است، که هر دو درباره چگونگی گسترش اطلاعات در جامعه تحقیق میکنند. آنها فکر میکنند بوجود آمدن قلابیهای ساخته هوش مصنوعی می تواند مشکلساز باشد و اعتماد جامعه بر شواهد را زیر سوال ببرد، و می خواهند در راستای آموزش عموم در این باره تلاش کنند.
وست میگوید: «تلاش ما برای آموزش عموم جامعه و آگاهسازی مردم از وجود این تکنولوژی است، همانطور که بالاخره اکثر مردم آگاه شدند یک تصویر میتواند فوتوشاپ شود.»
هر دو وبسایت از یک روش یادگیری ماشین به نام «گان» (GAN: generative adversarial network) یا شبکه مولد هماورد برای تولید تصاویر قلابی استفاده میکنند. این شبکهها با تدقیق در انبارهای عظیم داده (در این مورد، تعداد زیادی پرتره آدمهای واقعی) الگوهای موجود در آنها را یاد میگیرند، و سپس آن چیزی که دیدهاند را تکثیر میکنند.
دلیل اینکه گانها خیلی خوب هستند این است که خودشان را محک میٰزنند. یک بخش از شبکه، چهرهها را بوجود میآورد، و بخش دیگر، آنها را با داده آموزشی مقایسه میکند. اگر این بخش بتواند تفاوت را تشخیص دهد، چهره بوجود آمده دوباره به بخش رسم برمیگردد تا کارش را بهتر کند. به عنوان مثال یک معلم هنر سختگیر را در نظر بگیرید که اجازه ترک کلاس را به شما نمیدهد تا شما تعداد چشمهای درستی را روی پرتره ذغالی خود ترسیم کنید. صحبت از پیکاسوهای هوش مصنوعی نیست، فقط واقعگرایی در میان است.
با وجود چهرههای ساختهشده توسط هوش مصنوعی، برگستورم و وست درباره استفاده مخرب آنها در گسترش اطلاعات غلط بعد از یک حمله تروریستی هشدار میدهند. به عنوان مثال، هوش مصنوعی میتواند یک مجرم قلابی را بوجود آورد که در شبکههای اجتماعی منتشر و پخش میشود.
در این موارد خبرنگاران معمولا سعی میکنند تصدیق منبع یک تصویر را توسط ابزارهایی مانند جستجوی تصویری معکوس گوگل انجام دهند. ولی این کار در مورد قلابی هوش مصنوعی جواب نمیدهد. برگستورم میگوید: «اگر شخصی به عنوان مظنون در یک موقعیتی با اطلاعات غلط معرفی شود و تصویری از شخصی انتشار یابد که اصلا وجود خارجی ندارد؟ فقط به سختی ردیابی آن فکر کنید.»
پژوهشگران و افراد دانشگاهی در حال توسعه ابزارهای متنوعی هستند که بتوانند قلابیهای عمیق را تشخیص دهند. تعدادی وجود دارند که شامل چهرههای نامتقارن، دندانهای دارای انحراف، موهای غیرواقعی و گوشهایی که اصلا شبیه گوش نیستند.
ولی این قلابیها بیشتر پیشرفت خواهند کرد. تا سه سال دیگر که اصلا قابل تشخیص و تمایز نخواهند بود. و وقتی این اتفاق بیافتد، دانستن نیمی از کارزار است. برگستورم میگوید: «پیغام ما مشخصا این نیست که مردم نباید هیچ چیز را باور کنند. پیغام ما برعکس آن است: زودباور نباشید.»
نظرات کاربران
نظراتتان را با دیگران به اشتراک بگذارید.