کدام چهره واقعی است؟

نویسنده: مدیر سایت ۲۰ اسفند ۱۳۹۷

آیا می‌توانید تفاوت بین یک چهره واقعی و ساخته شده توسط هوش مصنوعی را تشخیص دهید؟ همه چهره‌ها در عکس بالا قلابی هستند و توسط هوش مصنوعی ساخته شده‌اند.

در گذشته شاید اسم وبسایت  ThisPersonDoesNotExist.com (این فرد وجود ندارد) به گوشتان خورده باشد که با استفاده از هوش مصنوعی، به طرز عجیبی چهره‌های قلابی ولی واقعی‌نما ایجاد می‌کند. به تبع آن، یک وبسایت دیگر هم بوجود آمد: WhichFaceIsReal.com (کدام چهره واقعی است) که این امکان را به شما می‌دهد توانایی خود برای تمایز بین یک چهره کاملا واقعی و یک چهره قلابی ساخته‌ شده توسط هوش مصنوعی را آزمایش کنید.

 

اگرچه WhichFaceIsReal.com هدف بالاتری دارد. این وبسایت توسط دو پژوهشگر از دانشگاه واشنگتن، جوین وست و کارل برگستورم، ساخته شده است، که هر دو درباره چگونگی گسترش اطلاعات در جامعه تحقیق می‌کنند. آنها فکر می‌کنند بوجود آمدن قلابی‌های ساخته هوش مصنوعی می تواند مشکل‌ساز باشد و اعتماد جامعه بر شواهد را زیر سوال ببرد، و می خواهند در راستای آموزش عموم در این باره تلاش کنند.

وست می‌گوید: «تلاش ما برای آموزش عموم جامعه و آگاه‌سازی مردم از وجود این تکنولوژی است، همانطور که بالاخره اکثر مردم آگاه شدند یک تصویر می‌تواند فوتوشاپ شود.»

 

هر دو وبسایت‌ از یک روش یادگیری ماشین به نام «گان» (GAN: generative adversarial network) یا شبکه مولد هماورد برای تولید تصاویر قلابی استفاده می‌کنند. این شبکه‌ها با تدقیق در انبارهای عظیم داده (در این مورد، تعداد زیادی پرتره آدم‌های واقعی) الگوهای موجود در آنها را یاد می‌گیرند، و سپس آن چیزی که دیده‌اند را تکثیر می‌کنند.

دلیل اینکه گان‌ها خیلی خوب هستند این است که خودشان را محک می‌ٰزنند. یک بخش از شبکه، چهره‌ها را بوجود می‌آورد، و بخش دیگر،‌ آنها را با داده آموزشی مقایسه می‌کند. اگر این بخش بتواند تفاوت را تشخیص دهد، چهره بوجود آمده دوباره به بخش رسم برمی‌گردد تا کارش را بهتر کند. به عنوان مثال یک معلم هنر سخت‌گیر را در نظر بگیرید که اجازه ترک کلاس را به شما نمی‌دهد تا شما تعداد چشم‌های درستی را روی پرتره ذغالی خود ترسیم کنید. صحبت از پیکاسوهای هوش مصنوعی نیست، فقط واقع‌گرایی در میان است.

 

با وجود چهره‌های ساخته‌شده توسط هوش مصنوعی، برگستورم و وست درباره استفاده مخرب آنها در گسترش اطلاعات غلط بعد از یک حمله تروریستی هشدار می‌دهند. به عنوان مثال، هوش مصنوعی می‌تواند یک مجرم قلابی را بوجود آورد که در شبکه‌های اجتماعی منتشر و پخش می‌شود.

در این موارد خبرنگاران معمولا سعی می‌کنند تصدیق منبع یک تصویر را توسط ابزارهایی مانند جستجوی تصویری معکوس گوگل انجام دهند. ولی این کار در مورد قلابی هوش مصنوعی جواب نمی‌دهد. برگستورم می‌گوید: «اگر شخصی به عنوان مظنون در یک موقعیتی با اطلاعات غلط معرفی شود و تصویری از شخصی انتشار یابد که اصلا وجود خارجی ندارد؟ فقط به سختی ردیابی آن فکر کنید.»

پژوهشگران و افراد دانشگاهی در حال توسعه ابزارهای متنوعی هستند که بتوانند قلابی‌های عمیق را تشخیص دهند. تعدادی وجود دارند که شامل چهره‌های نامتقارن، دندان‌های دارای انحراف، موهای غیرواقعی و گوش‌هایی که اصلا شبیه گوش نیستند.

ولی این قلابی‌ها بیشتر پیشرفت خواهند کرد. تا سه سال دیگر که اصلا قابل تشخیص و تمایز نخواهند بود. و وقتی این اتفاق بیافتد، دانستن نیمی از کارزار است. برگستورم می‌گوید: «پیغام ما مشخصا این نیست که مردم نباید هیچ چیز را باور کنند. پیغام ما برعکس آن است: زودباور نباشید.»

منبع: theverge.com

اشتراک گذاری:
Related news

نظرات کاربران

نظراتتان را با دیگران به اشتراک بگذارید.

Copyright © 2019 DMOND Inc. All rights reserved