واقع گرایی فریبنده هوش مصنوعی- چهره های سفیدی که چشم را فریب می دهند
واقع گرایی فریبنده هوش مصنوعی- چهره های سفیدی که چشم را فریب می دهند -بر اساس تحقیقات جدیدی که توسط یکی از دانشگاهیان UCL انجام شده است، چهره های سفید تولید شده توسط هوش مصنوعی (AI) اکنون واقعی تر از صورت انسان به نظر می رسند.
در این مطالعه که توسط محققان دانشگاه ملی استرالیا انجام شد و در مجله Psychological Science منتشر شد ، افراد بیشتری تصور میکردند چهرههای تولید شده توسط هوش مصنوعی انسان هستند تا چهرههای افراد واقعی.
دکتر Eva Krumhuber (روانشناسی و علوم زبان UCL) گفت: “هوش مصنوعی به سطح شگفت انگیزی از واقع گرایی رسیده است، و در اینجا متوجه می شویم که گاهی اوقات حتی می تواند واقعی تر از واقعیت به نظر برسد – فراواقع گرایی – به طوری که ما می توانیم بسیار واقعی باشیم.
به راحتی فریب داده می شود تا فکر کنیم چهره ای که با هوش مصنوعی تولید شده است واقعی است.
برای این مطالعه، محققان به 124 شرکتکننده تصاویری از چهرههای سفید مختلف نشان دادند و از آنها خواستند قضاوت کنند که آیا چهره واقعی است یا توسط الگوریتم StyleGAN2 ایجاد شده است.
برای چهرههای هوش مصنوعی، شرکتکنندگان در دو سوم مواقع آنها را واقعی ارزیابی کردند – بیشتر از چهرههای واقعی.
تعصب نژادی و درک چهره های هوش مصنوعی
با این حال، این الگو در تحقیقات دیگر با استفاده از همان الگوریتمی که چهره افراد با قومیت های مختلف را در بر می گرفت، یافت نشد.
دلیل این اختلاف این است که الگوریتمهای هوش مصنوعی به طور نامتناسبی روی چهرههای سفید آموزش داده میشوند.
دکتر ایمی داول (دانشگاه ملی استرالیا) نویسنده ارشد این مقاله گفت: «اگر چهرههای سفید هوش مصنوعی بهطور مداوم واقعیتر تلقی شوند، این فناوری میتواند پیامدهای جدی برای افراد رنگینپوست با در نهایت تقویت تعصبات نژادی آنلاین داشته باشد.
این مشکل در حال حاضر در فناوریهای هوش مصنوعی فعلی که برای ایجاد عکسهایی با ظاهر حرفهای استفاده میشوند، آشکار است.
وقتی برای رنگین پوستان استفاده می شود، هوش مصنوعی رنگ پوست و چشم آنها را به رنگ سفید پوستان تغییر می دهد.
بیشرئالیسم هوش مصنوعی و پیامدهای آن
محققان دریافتند یکی از مسائل مربوط به “هیپر واقع گرایی” هوش مصنوعی این است که مردم اغلب متوجه نمی شوند که فریب خورده اند.
الیزابت میلر، یکی از نویسندگان این مطالعه و کاندیدای دکترا در دانشگاه ملی استرالیا، گفت: «نگرانی، افرادی که فکر میکردند چهرههای هوش مصنوعی اغلب واقعی هستند، بهطور متناقض، بیشترین اطمینان را داشتند که قضاوتهایشان درست است.»
این بدان معناست که افرادی که تقلبکنندگان هوش مصنوعی را با افراد واقعی اشتباه میگیرند، نمیدانند که فریب خوردهاند.
محققان همچنین توانستند بفهمند چرا چهرههای هوش مصنوعی مردم را فریب میدهند.
دکتر کرومهوبر میگوید: «در زمانهای قدیم، اغلب ناهماهنگیهایی بین چهرههای مصنوعی و انسانمانند وجود داشت و در نتیجه اثر دره عجیبی ایجاد میکرد.
به ویژه، چشم ها (یعنی انکسار، سایه زدن) سرنخ هایی را در مورد واقعی یا مصنوعی بودن صورت ارائه می دهند.
به نظر می رسد که ما اکنون بر دره عجیب و غریب برای تصاویر ثابت غلبه کرده ایم.
دکتر داول افزود: «به نظر می رسد که هنوز تفاوت های فیزیکی بین هوش مصنوعی و چهره انسان وجود دارد، اما مردم تمایل دارند آنها را به اشتباه تفسیر کنند.
به عنوان مثال، چهرههای سفید هوش مصنوعی تمایل به تناسب بیشتری دارند و مردم این را به عنوان نشانهای از انسانیت اشتباه میگیرند.
با این حال، ما نمی توانیم برای مدت طولانی به این نشانه های فیزیکی تکیه کنیم.
فناوری هوش مصنوعی آنقدر سریع در حال پیشرفت است که احتمالاً به زودی تفاوت بین هوش مصنوعی و چهره انسان از بین خواهد رفت.
پیامدهای اطلاعات نادرست و سرقت هویت
محققان استدلال می کنند که این روند می تواند پیامدهای جدی برای گسترش اطلاعات نادرست و سرقت هویت داشته باشد و باید اقدامات لازم انجام شود.
دکتر داول گفت: «فناوری هوش مصنوعی نمیتواند از هم جدا شود، بنابراین فقط شرکتهای فناوری میدانند پشت صحنه چه میگذرد.
باید شفافیت بیشتری در مورد هوش مصنوعی وجود داشته باشد تا محققان و جامعه مدنی بتوانند مسائل را قبل از تبدیل شدن به یک مشکل بزرگ شناسایی کنند.
به گفته محققان، افزایش آگاهی عمومی می تواند نقش مهمی در کاهش خطرات ناشی از این فناوری داشته باشد.
دکتر کرومهوبر که تحقیقات و تدریس او در UCL به بررسی فرآیندهای اجتماعی-شناختی و عاطفی زیربنایی فناوریهای نوظهور و تأثیر آنها بر ذهن انسان میپردازد، گفت: «با توجه به اینکه انسانها دیگر نمیتوانند چهرههای هوش مصنوعی را تشخیص دهند، جامعه به ابزارهایی نیاز دارد که بتواند هوش مصنوعی را به دقت شناسایی کند.»
دکتر داول نتیجه گرفت: “آموزش مردم در مورد واقعیت گرایی درک شده از چهره های هوش مصنوعی می تواند به مردم کمک کند تا نسبت به تصاویری که آنلاین می بینند به طور مناسب شک داشته باشند.”