هوش مصنوعی

واقع گرایی فریبنده هوش مصنوعی- چهره های سفیدی که چشم را فریب می دهند

واقع گرایی فریبنده هوش مصنوعی- چهره های سفیدی که چشم را فریب می دهند -بر اساس تحقیقات جدیدی که توسط یکی از دانشگاهیان UCL انجام شده است، چهره های سفید تولید شده توسط هوش مصنوعی (AI) اکنون واقعی تر از صورت انسان به نظر می رسند.

در این مطالعه که توسط محققان دانشگاه ملی استرالیا انجام شد و در مجله Psychological Science منتشر شد ، افراد بیشتری تصور می‌کردند چهره‌های تولید شده توسط هوش مصنوعی انسان هستند تا چهره‌های افراد واقعی.

دکتر Eva Krumhuber (روانشناسی و علوم زبان UCL) گفت: “هوش مصنوعی به سطح شگفت انگیزی از واقع گرایی رسیده است، و در اینجا متوجه می شویم که گاهی اوقات حتی می تواند واقعی تر از واقعیت به نظر برسد – فراواقع گرایی – به طوری که ما می توانیم بسیار واقعی باشیم.

به راحتی فریب داده می شود تا فکر کنیم چهره ای که با هوش مصنوعی تولید شده است واقعی است.

برای این مطالعه، محققان به 124 شرکت‌کننده تصاویری از چهره‌های سفید مختلف نشان دادند و از آن‌ها خواستند قضاوت کنند که آیا چهره واقعی است یا توسط الگوریتم StyleGAN2 ایجاد شده است.

 برای چهره‌های هوش مصنوعی، شرکت‌کنندگان در دو سوم مواقع آنها را واقعی ارزیابی کردند – بیشتر از چهره‌های واقعی.

تعصب نژادی و درک چهره های هوش مصنوعی

با این حال، این الگو در تحقیقات دیگر با استفاده از همان الگوریتمی که چهره افراد با قومیت های مختلف را در بر می گرفت، یافت نشد.

 دلیل این اختلاف این است که الگوریتم‌های هوش مصنوعی به طور نامتناسبی روی چهره‌های سفید آموزش داده می‌شوند.

دکتر ایمی داول (دانشگاه ملی استرالیا) نویسنده ارشد این مقاله گفت: «اگر چهره‌های سفید هوش مصنوعی به‌طور مداوم واقعی‌تر تلقی شوند، این فناوری می‌تواند پیامدهای جدی برای افراد رنگین‌پوست با در نهایت تقویت تعصبات نژادی آنلاین داشته باشد.

این مشکل در حال حاضر در فناوری‌های هوش مصنوعی فعلی که برای ایجاد عکس‌هایی با ظاهر حرفه‌ای استفاده می‌شوند، آشکار است.

 وقتی برای رنگین پوستان استفاده می شود، هوش مصنوعی رنگ پوست و چشم آنها را به رنگ سفید پوستان تغییر می دهد.

این تصویر توسط هوش مصنوعی، به طور خاص با Midjourney V5.2 تولید شده است
این تصویر توسط هوش مصنوعی، به طور خاص با Midjourney V5.2 تولید شده است

بیشرئالیسم هوش مصنوعی و پیامدهای آن

محققان دریافتند یکی از مسائل مربوط به “هیپر واقع گرایی” هوش مصنوعی این است که مردم اغلب متوجه نمی شوند که فریب خورده اند.

الیزابت میلر، یکی از نویسندگان این مطالعه و کاندیدای دکترا در دانشگاه ملی استرالیا، گفت: «نگرانی، افرادی که فکر می‌کردند چهره‌های هوش مصنوعی اغلب واقعی هستند، به‌طور متناقض، بیشترین اطمینان را داشتند که قضاوت‌هایشان درست است.»

این بدان معناست که افرادی که تقلب‌کنندگان هوش مصنوعی را با افراد واقعی اشتباه می‌گیرند، نمی‌دانند که فریب خورده‌اند.

محققان همچنین توانستند بفهمند چرا چهره‌های هوش مصنوعی مردم را فریب می‌دهند.

دکتر کرومهوبر می‌گوید: «در زمان‌های قدیم، اغلب ناهماهنگی‌هایی بین چهره‌های مصنوعی و انسان‌مانند وجود داشت و در نتیجه اثر دره عجیبی ایجاد می‌کرد.

 به ویژه، چشم ها (یعنی انکسار، سایه زدن) سرنخ هایی را در مورد واقعی یا مصنوعی بودن صورت ارائه می دهند.

 به نظر می رسد که ما اکنون بر دره عجیب و غریب برای تصاویر ثابت غلبه کرده ایم.

دکتر داول افزود: «به نظر می رسد که هنوز تفاوت های فیزیکی بین هوش مصنوعی و چهره انسان وجود دارد، اما مردم تمایل دارند آنها را به اشتباه تفسیر کنند.

 به عنوان مثال، چهره‌های سفید هوش مصنوعی تمایل به تناسب بیشتری دارند و مردم این را به عنوان نشانه‌ای از انسانیت اشتباه می‌گیرند.

 با این حال، ما نمی توانیم برای مدت طولانی به این نشانه های فیزیکی تکیه کنیم.

 فناوری هوش مصنوعی آنقدر سریع در حال پیشرفت است که احتمالاً به زودی تفاوت بین هوش مصنوعی و چهره انسان از بین خواهد رفت.

پیامدهای اطلاعات نادرست و سرقت هویت

محققان استدلال می کنند که این روند می تواند پیامدهای جدی برای گسترش اطلاعات نادرست و سرقت هویت داشته باشد و باید اقدامات لازم انجام شود.

دکتر داول گفت: «فناوری هوش مصنوعی نمی‌تواند از هم جدا شود، بنابراین فقط شرکت‌های فناوری می‌دانند پشت صحنه چه می‌گذرد.

 باید شفافیت بیشتری در مورد هوش مصنوعی وجود داشته باشد تا محققان و جامعه مدنی بتوانند مسائل را قبل از تبدیل شدن به یک مشکل بزرگ شناسایی کنند.

به گفته محققان، افزایش آگاهی عمومی می تواند نقش مهمی در کاهش خطرات ناشی از این فناوری داشته باشد.

دکتر کرومهوبر که تحقیقات و تدریس او در UCL به بررسی فرآیندهای اجتماعی-شناختی و عاطفی زیربنایی فناوری‌های نوظهور و تأثیر آنها بر ذهن انسان می‌پردازد، گفت: «با توجه به اینکه انسان‌ها دیگر نمی‌توانند چهره‌های هوش مصنوعی را تشخیص دهند، جامعه به ابزارهایی نیاز دارد که بتواند هوش مصنوعی را به دقت شناسایی کند.»

دکتر داول نتیجه گرفت: “آموزش مردم در مورد واقعیت گرایی درک شده از چهره های هوش مصنوعی می تواند به مردم کمک کند تا نسبت به تصاویری که آنلاین می بینند به طور مناسب شک داشته باشند.”

واقع گرایی فریبنده هوش مصنوعی- چهره های سفیدی که چشم را فریب می دهند

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا