هوش مصنوعی

توهم هوش مصنوعی

توهم هوش مصنوعی -توهم هوش مصنوعی جایی است که یک مدل زبان بزرگ (LLM) مانند GPT4 OpenAI یا Google PalM اطلاعات یا حقایقی نادرست را ایجاد می کند که بر اساس داده ها یا رویدادهای واقعی نیستند.آگهی ها

توهم هوش مصنوعی چیست؟

Avivah Litan، معاون تحلیلگر در Gartner، توضیح می دهد:

توهمات خروجی های کاملاً ساخته شده از مدل های زبان بزرگ هستند. 

اگرچه آنها حقایق کاملاً ساخته شده را نشان می دهند، خروجی LLM آنها را با اطمینان و اقتدار نشان می دهد.

توهمات خروجی های کاملاً ساخته شده از مدل های زبان بزرگ هستند. 
توهمات خروجی های کاملاً ساخته شده از مدل های زبان بزرگ هستند. 

چت ربات های مولد مبتنی بر هوش مصنوعی می توانند هر گونه اطلاعات واقعی، از نام ها، تاریخ ها، و رویدادهای تاریخی گرفته تا نقل قول ها یا حتی کدها را بسازند.

توهمات به اندازه‌ای رایج هستند که OpenAI در واقع هشداری برای کاربران درون ChatGPT صادر می‌کند که می‌گوید «ChatGPT ممکن است اطلاعات نادرستی درباره افراد، مکان‌ها یا حقایق تولید کند».

چالشی که برای کاربران وجود دارد این است که مرتب کنند چه اطلاعاتی درست است و چه اطلاعاتی درست نیست.

نمونه هایی از توهمات هوش مصنوعی
نمونه هایی از توهمات هوش مصنوعی

نمونه هایی از توهمات هوش مصنوعی

در حالی که نمونه های زیادی از توهمات هوش مصنوعی وجود دارد که همیشه در حال ظهور هستند، یکی از قابل توجه ترین نمونه ها به عنوان بخشی از یک ویدیوی تبلیغاتی که توسط گوگل در فوریه 2023 منتشر شد رخ داد.

سپس، ربات چت هوش مصنوعی Bard به اشتباه ادعا کرد که تلسکوپ فضایی جیمز وب اولین تلسکوپ فضایی را گرفته است. تصویر سیاره ای خارج از منظومه شمسی

به همین ترتیب، در دموی راه اندازی Microsoft Bing AI در فوریه 2023، Bing بیانیه درآمد Gap را تجزیه و تحلیل کرد و خلاصه ای نادرست از حقایق و ارقام ارائه کرد.

این مثال‌ها نشان می‌دهند که کاربران نمی‌توانند همیشه به ربات‌های چت اعتماد کنند تا پاسخ‌های واقعی را تولید کنند. با این حال، خطرات ناشی از توهمات هوش مصنوعی فراتر از انتشار اطلاعات نادرست است.

در واقع، طبق گفته تیم تحقیقاتی Vulcan Cyber، ChatGPT می‌تواند آدرس‌های اینترنتی ، مراجع و کتابخانه‌های کدی را تولید کند که وجود ندارند یا حتی بسته‌های نرم‌افزاری بالقوه مخرب را به کاربران ناشناس توصیه کند.

در نتیجه، سازمان‌ها و کاربرانی که با LLM و هوش مصنوعی مولد آزمایش می‌کنند ، باید دقت لازم را هنگام کار با این راه‌حل‌ها انجام دهند و خروجی را از نظر دقت بررسی کنند.

چه چیزی باعث توهم هوش مصنوعی می شود؟

برخی از عوامل کلیدی پشت توهمات هوش مصنوعی عبارتند از:

  • داده های آموزشی قدیمی یا با کیفیت پایین؛
  • داده های طبقه بندی یا برچسب گذاری نادرست؛
  • خطاهای واقعی، ناسازگاری، یا سوگیری در داده های آموزشی؛
  • برنامه نویسی ناکافی برای تفسیر صحیح اطلاعات؛
  • فقدان زمینه ارائه شده توسط کاربر؛
  • تقلا برای استنباط مقصود عبارات محاوره ای، عبارات عامیانه یا طعنه.

نوشتن دستورات به زبان انگلیسی ساده و با جزئیات تا حد امکان بسیار مهم است. به این ترتیب، در نهایت این وظیفه فروشنده است که برنامه‌ریزی و نرده‌های محافظ کافی را برای کاهش پتانسیل توهم اجرا کند.

خطرات توهم هوش مصنوعی چیست؟

یکی از خطرات اصلی توهم هوش مصنوعی این است که کاربر در مورد دقت خروجی سیستم هوش مصنوعی بیش از حد پاسخ دهد.

در حالی که برخی از افراد مانند ساتیا نادلا، مدیر عامل مایکروسافت، استدلال کرده‌اند که سیستم‌های هوش مصنوعی مانند مایکروسافت کوپایلوت ممکن است «به‌طور مفیدی اشتباه باشند»، این راه‌حل‌ها می‌توانند اطلاعات نادرست و محتوای نفرت‌انگیز را منتشر کنند، اگر کنترل نشود.

پرداختن به اطلاعات نادرست تولید شده توسط LLM چالش برانگیز است زیرا این راه حل ها می توانند محتوایی تولید کنند که در سرویس جزئیات، قانع کننده و قابل اعتماد به نظر می رسد اما در واقعیت نادرست است و در نتیجه کاربر به حقایق و اطلاعات نادرست باور می کند.

اگر کاربران محتوای تولید شده توسط هوش مصنوعی را به صورت واقعی دریافت کنند، احتمال انتشار اطلاعات نادرست و نادرست در کل اینترنت وجود دارد.

در نهایت، خطر تعهدات قانونی و انطباق نیز وجود دارد. به عنوان مثال، اگر سازمانی از یک سرویس مبتنی بر LLM برای برقراری ارتباط با مشتریان استفاده کند که رهنمودهایی را صادر می‌کند که به دارایی کاربر آسیب می‌زند یا محتوای توهین‌آمیز را دوباره منتشر می‌کند، ممکن است در معرض خطر پیگرد قانونی قرار گیرد.

چگونه می توان توهمات هوش مصنوعی را تشخیص داد؟

بهترین راه برای یک کاربر برای تشخیص اینکه آیا یک سیستم هوش مصنوعی دارای توهم است این است که به صورت دستی خروجی ارائه شده توسط راه حل را با یک منبع شخص ثالث بررسی کند.

 بررسی حقایق، ارقام و استدلال‌ها علیه سایت‌های خبری، گزارش‌های صنعتی، مطالعات و کتاب‌ها از طریق موتور جستجو می‌تواند به تأیید صحت یا عدم صحت بخشی از اطلاعات کمک کند.

اگرچه بررسی دستی گزینه خوبی برای کاربرانی است که می‌خواهند اطلاعات نادرست را شناسایی کنند ، اما در یک محیط سازمانی، تأیید هر بخش از اطلاعات ممکن است از نظر لجستیکی یا اقتصادی مناسب نباشد.

به همین دلیل، ایده خوبی است که از ابزارهای خودکار برای بررسی مجدد راه حل های هوش مصنوعی برای توهم استفاده کنید. به عنوان مثال، ابزار منبع باز انویدیا NeMo Guardrails می تواند توهمات را با بررسی متقابل خروجی یک LLM در مقابل دیگری شناسایی کند.

به طور مشابه، Got It AI راه حلی به نام TruthChecker ارائه می دهد که از هوش مصنوعی برای تشخیص توهم در محتوای تولید شده GPT-3.5+ استفاده می کند.

البته، سازمان‌هایی که از ابزارهای خودکار مانند Nemo Guardrails و Got It AI برای بررسی واقعیت‌های سیستم‌های هوش مصنوعی استفاده می‌کنند، باید دقت لازم را در تأیید میزان مؤثر بودن این راه‌حل‌ها در شناسایی اطلاعات نادرست انجام دهند و برای تعیین اینکه آیا اقدامات دیگری وجود دارد یا خیر، ارزیابی ریسک انجام دهند. که باید برای از بین بردن مسئولیت احتمالی اتخاذ شود.

نتیجه

هوش مصنوعی و LLM ممکن است برخی از قابلیت‌های هیجان‌انگیز را برای شرکت‌ها باز کنند، اما برای کاربران مهم است که به خطرات و محدودیت‌های این فناوری‌ها توجه داشته باشند تا بهترین نتایج را به دست آورند.

در نهایت، راه‌حل‌های هوش مصنوعی زمانی بیشترین ارزش را دارند که برای تقویت هوش انسان به جای تلاش برای جایگزینی آن استفاده می‌شوند.

تا زمانی که کاربران و شرکت ها تشخیص دهند که LLM ها پتانسیل ساخت اطلاعات و تأیید داده های خروجی را در جای دیگر دارند، خطرات انتشار یا جذب اطلاعات نادرست به حداقل می رسد.

توهم هوش مصنوعی

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا