صفحه نخست

دیگه چه خبر

فرهنگ و هنر

خانواده و جامعه

چند رسانه ای

صفحات داخلی

۱۵ اسفند ۱۳۹۹ - ۱۳:۲۳

وقتی احراز هویت به یک شوخی تبدیل می‌شود!

توضیح دادن حجم احساساتی که بعد از دیدن زنده شدن عکس قدیمی یکی از عزیزان از دست رفته‌مان تنها با زدن یک دکمه تجربه می‌کنیم کار دشواری است. در حالی که به گونه‌ای چشمک می‌زند و سرش را تکان می‌دهد که انگار همین دیروز زنده بوده است و سالها پیش یعنی قبل از آنکه فیلمبرداری به امری عادی تبدیل شود، از دنیا نرفته است.
کد خبر: ۳۵۸۱۳
به نقل از سی‌ان‌ان، این تصاویر متحرک که احساساتی ناراحت کننده و کمی هیجان انگیز ایجاد می‌کند توسط برنامه‌ هوش مصنوعی به نام "نوستالژی عمیق" (Deep Nostalgia) ساخته می‌شوند که از پلتفرم "مای هریتج"(MyHeritage) آمده است.
فناوری ساخت این تصاویر با هوش مصنوعی پیچیده نیست. از کاربران دعوت می‌شود تا عکس‌های قدیمی افراد محبوب‌شان را ارائه دهند تا این برنامه با استفاده از یادگیری عمیق حرکاتی از پیش تعیین شده را بر روی بخش‌های صورت آن‌ها اعمال کند.
این برنامه همچنین لحظاتی که در تصویر اصلی ثبت نشده مانند لبخند با دندان‌های پیدا و بخش‌های کناری سر را نیز ایجاد می‌کنند و همه‌ی این‌ها تصویری می‌سازند که شاید کاملا طبیعی نباشد اما عمیقا تاثیرگذارند.
پاسخ ما به این تصاویر نوستالژیک می‌تواند ریختن اشک به دیدن تصویر لبخند زدن مادربزرگ و یا احساس عجیب از دیدن یک شخصیت تاریخی باشد.
هینی فرید(Hany Farid)، مدیر دانشکده اطلاعات دانشگاه برکلی(Berkeley) می‌گوید: هنگامی که ما مادربزرگ‌ یا پدربزرگ‌مان را زنده می‌بینیم احساس خارق‌العاده‌ای به ما دست می‌دهد که کمی ترسناک نیز هست. مغز پیچیده‌ ما از مدت‌ها قبل به چیزهایی که تقریبا مشابه انسان هستند اما انسان نیستند واکنش نشان می‌دهد. این واکنش به نام "دره‌ی وهمی"(uncanny valley) شناخته می‌شود و دیپ ‌فیک‌ها و تصاویری که به وسیله‌ی هوش مصنوعی ساخته شده‌اند این بخش زنگ خطر قدیمی مغز را به صدا درمی‌آورند.
حتی برنامه‌ی "MyHeritage" نیز این موضوع را توضیح داده است و نوشته: اگرچه نتایج می‌تواند بحث‌برانگیز باشد و سخت است که نسبت به این فناوری بی‌تفاوت باشیم اما هنگامی که یکی از کسانی که دوست داریم در محیطی کمی واقعی قرار می‌گیرد هر دو بخش مغز ما که مسئول ترس و عشق هستند فعال می‌شوند حتی اگر بدانیم که چیزی که به آن نگاه می‌کنیم واقعی نیست.
فرید می‌گوید: مغز ما تصاویر افراد را متفاوت از اشیاء بی‌جان پردازش می‌کند این موضوع در شبکه‌ی عصبی ما انجام می‌شود.
لا مار جورل بروس(La Marr Jurelle Bruce)، استاد دانشگاه مریلند که تصویری متحرک از فردریک داگلاس(یکی از رهبران بزرگ ضد برده داری در آمریکا) به اشتراگ گذاشت و توجه بسیاری را جلب کرد می‌گوید: احساس شگفتی من با کمی احساس ترس همراه بود.
"دیپ فیک‌ها"(Deepfakes) که ترکیبی از تصویر و صدا هستند برای سال‌ها مورد بحث اخلاق‌گرایان در حوزه دیجیتال بوده‌اند مخصوصا زمانی که این موضوع در ساخت فیلم‌های جعلی و هرزه نگاری استفاده شود می‌تواند موسسات ملی و مالی را تهدید کند.
قضیه وقتی خطرناک‌تر می‌شود که تصور کنیم با پیشرفت فناوری "دیپ‌فیک" چه سوءاستفاده‌هایی می‌توان از این فناوری انجام داد تا جایی که شاید روزی مقوله هویت و احراز آن به یک شوخی تبدیل شود.
برای استفاده مثبت از این فناوری شرکت‌ها از آن برای ساخت کمپین‌های تبلیغاتی استفاده می‌کنند که برای افراد شخصی‌سازی شده است. به گفته‌ی متخصصان بازده‌ تبلیغات زمانی بیشتر می‌شود که مصرف‌کننده با آن برند یا محصول ارتباط بیشتری برقرار کند و ببیند که آن محصول به گونه‌ای خاص در زندگی‌اش نقش دارد و مدلی شبیه به خودش و با زبان خودش آن را نمایش می‌دهد.
چنین برنامه‌هایی ارتباطی مشابه "نوستالژی عمیق" ایجاد می‌کنند اما در حقیقت هیچ چیز انسانی در هوش مصنوعی وجود ندارد.
"فرید" تاکید می‌کند که یادگیری ماشینی که به گسترش فناوری‌های متحرک ساز کمک می‌کند مانند فناوری "نوستالژی عمیق" بخشی از دنیای بزرگ هوش‌های مصنوعی است. یادگیری ماشینی داده‌ها را با دقت بررسی می‌کند و الگوها را پیدا می‌کند. در حالی که یک برنامه با دریافت اطلاعات بیشتر می‌تواند پیشرفت کند اما هیچ هوش یا تجزیه‌ و تحلیلی در نحوه‌ی استفاده از این الگوها وجود ندارد. اپلیکیشن‌های زیادی وجود دارند که از این داده‌ها سود زیادی می‌برند.
ایجاد گرافیک رایانه‌ای هوش‌های مصنوعی از صورت انسان‌ها خطری دیگر برای امنیت ما در محیط مجازی است اگرچه گاهی هم ایرادات آن هنگامی که نمی‌داند با بخش‌های غیر عادی مثل عینک و گوش‌ها چه کند خنده‌دار است و حتی در پیچیده‌ترین "دیپ فیک"‌ها مثل دیپ فیک تام کروز(Tom Cruise) نیز تناقض‌های جزئی وجود دارد که باعث می‌شود به حقیقت آن شک کنیم. با این حال این مشکلات جزئی با پیشرفت این فناوری از بین خواهند رفت و فرید می‌گوید زمان آن رسیده تا شرکت‌ها به پیامدهای اخلاقی این فناوری نگاهی نقادانه داشته باشند.
او افزود: ما باید ساختن چنین چیزهایی را متوقف کنیم و در مورد آن‌ها سوال کنیم پیش از آن که خیلی دیر شود.
برنامه‌ی "نوستالژی عمیق" MyHeritage پیش از استفاده به افراد در مورد استفاده بدون اجازه از عکس دیگران هشدار می‌دهد و می‌گوید برای حفظ امنیت افراد این شرکت گزینه‌ی افزودن صدا به تصاویر قرار نداده است.
در آینده شاید برنامه‌های دیگری این خلل‌ها را پر کنند تا ما بتوانیم افرادی که برای مدت‌ها ندیده‌ایم را ببینیم با آن‌ها صحبت کنیم. چنین فناوری چالش‌های فراوانی در برابر امنیت و باورپذیری خواهد داشت اما هنگامی که می‌بینیم کسانی که دوستشان داریم به ما لبخند می‌زنند مقاومت در برابر این فناوری بسیار دشوار خواهد شد.
ارسال نظرات
انتشار نظرات حاوی توهین، افترا و نوشته شده با حروف (فینگلیش) ممکن نیست.