فناوریهوش مصنوعی1

آیا هوش مصنوعی فوق هوشمند به ما حمله خواهد کرد؟

آیا هوش مصنوعی فوق هوشمند به ما حمله خواهد کرد؟ آیا یک ابرهوش مصنوعی (AI) به طور ناگهانی ظاهر می شود یا دانشمندان شاهد آمدن آن خواهند بود و فرصتی برای هشدار به جهان خواهند داشت؟

 این سوالی است که اخیراً با ظهور مدل‌های زبانی بزرگ مانند ChatGPT که با افزایش اندازه خود به توانایی‌های جدید گسترده‌ای دست یافته‌اند، توجه زیادی را به خود جلب کرده است .

 برخی از یافته‌ها به «ظهور» اشاره می‌کنند، پدیده‌ای که در آن مدل‌های هوش مصنوعی به روشی دقیق و غیرقابل پیش‌بینی هوش به دست می‌آورند.

 اما یک مطالعه اخیر این موارد را “سراب” نامیده است – مصنوعات ناشی از نحوه آزمایش سیستم ها – و نشان می دهد که توانایی های نوآورانه در عوض به تدریج ایجاد می شوند.

بهبود در عملکرد مدل های زبان بزرگ مانند ChatGPT بیشتر از آنچه به نظر می رسد قابل پیش بینی است.

برخی از محققان فکر می‌کنند که هوش مصنوعی در نهایت می‌تواند به هوش عمومی دست یابد، در اکثر وظایف با انسان‌ها تطابق داشته باشد و حتی پیشی بگیرد. 
برخی از محققان فکر می‌کنند که هوش مصنوعی در نهایت می‌تواند به هوش عمومی دست یابد، در اکثر وظایف با انسان‌ها تطابق داشته باشد و حتی پیشی بگیرد. 

دبورا راجی، دانشمند کامپیوتر در بنیاد موزیلا که بر روی ممیزی هوش مصنوعی مطالعه می‌کند، می‌گوید: «فکر می‌کنم آن‌ها کار خوبی کردند که گفتند «هیچ چیز جادویی اتفاق نیفتاده است».

 این یک “نقد واقعا خوب، محکم و مبتنی بر اندازه گیری” است.

این کار هفته گذشته در کنفرانس یادگیری ماشینی NeurIPS در نیواورلئان ارائه شد.

هرچه بزرگتر بهتر

مدل‌های زبان بزرگ معمولاً با استفاده از حجم عظیمی از متن یا اطلاعات دیگر آموزش داده می‌شوند که از آنها برای ایجاد پاسخ‌های واقع بینانه با پیش‌بینی آنچه در آینده می‌آید استفاده می‌کنند.

 حتی بدون آموزش صریح، آنها موفق به ترجمه زبان، حل مسائل ریاضی و نوشتن شعر یا کد کامپیوتری می شوند.

 هر چه مدل بزرگتر باشد – برخی دارای بیش از صد میلیارد پارامتر قابل تنظیم هستند – عملکرد بهتری دارد.

 برخی از محققان گمان می‌کنند که این ابزارها در نهایت به هوش عمومی مصنوعی (AGI) دست می‌یابند که در اکثر وظایف با انسان‌ها تطابق دارند و حتی از آنها فراتر می‌روند.

ChatGPT تست تورینگ را شکست – رقابت برای یافتن روش‌های جدید ارزیابی هوش مصنوعی در جریان است

تحقیقات جدید ادعاهای ظهور را به روش های مختلفی مورد آزمایش قرار دادند.

 در یک رویکرد، دانشمندان توانایی‌های چهار اندازه مدل GPT-3 OpenAI را برای جمع کردن اعداد چهار رقمی مقایسه کردند.

 با نگاهی به دقت مطلق، عملکرد بین سایز سوم و چهارم مدل از نزدیک به 0٪ تا نزدیک به 100٪ متفاوت بود.

 اما اگر به جای آن تعداد ارقام به درستی پیش بینی شده در پاسخ در نظر گرفته شود، این روند کمتر افراطی است.

 محققان همچنین دریافتند که می‌توانند منحنی را با دادن سؤالات تستی بیشتر به مدل‌ها کاهش دهند – در این مورد، مدل‌های کوچک‌تر گاهی اوقات به درستی پاسخ می‌دهند.

در مرحله بعد، محققان عملکرد مدل زبان LaMDA گوگل را در چندین کار بررسی کردند.

 کارهایی که برای آنها جهش ناگهانی در هوش ظاهری نشان داد، مانند تشخیص کنایه یا ترجمه ضرب المثل ها، اغلب کارهای چند گزینه ای بودند که پاسخ ها به طور مجزا به عنوان درست یا غلط نمره گذاری می شدند.

 در عوض، وقتی محققان احتمالاتی را که مدل‌ها روی هر پاسخ قرار می‌دهند – یک متریک پیوسته – بررسی کردند، نشانه‌های ظهور ناپدید شدند.

در نهایت، محققان به بینایی کامپیوتری روی آوردند، حوزه ای که کمتر ادعای ظهور در آن وجود دارد. آنها مدل هایی را برای فشرده سازی و سپس بازسازی تصاویر آموزش دادند.

 صرفاً با تعیین یک آستانه سخت برای صحت، آنها می توانند ظهور ظاهری را القا کنند.

 یجین چوی، دانشمند کامپیوتر در دانشگاه واشنگتن در سیاتل که هوش مصنوعی و عقل سلیم را مطالعه می کند، می گوید: «آنها در روشی که تحقیقات خود را طراحی کردند خلاق بودند.

هیچ چیز منتفی نیست

یکی از نویسندگان مطالعه، Sanmi Koyejo، دانشمند کامپیوتر در دانشگاه استنفورد در پالو آلتو، کالیفرنیا، می‌گوید با توجه به اینکه برخی سیستم‌ها «تغییرات فاز» ناگهانی را نشان می‌دهند، پذیرش ایده ظهور برای مردم غیرمنطقی نبود.

 او همچنین خاطرنشان می‌کند که این مطالعه نمی‌تواند به طور کامل آن را در مدل‌های زبانی بزرگ رد کند – چه رسد به سیستم‌های آینده – اما اضافه می‌کند که “مطالعات علمی تا به امروز قویاً نشان می‌دهد که بیشتر جنبه‌های مدل‌های زبان واقعاً قابل پیش‌بینی هستند”.

راجی خوشحال است که می بیند جامعه به جای توسعه معماری شبکه های عصبی، توجه بیشتری به معیارسنجی می کند.

 او مایل است که محققان حتی فراتر رفته و بپرسند که وظایف چقدر با استقرار در دنیای واقعی مرتبط است.

 به عنوان مثال، آیا آزمون LSAT برای وکلای مشتاق، همانطور که GPT-4 انجام داده است، به این معنی است که یک مدل می تواند به عنوان یک وکیل حقوقی عمل کند؟

این کار همچنین پیامدهایی برای ایمنی و سیاست هوش مصنوعی دارد.

 راجی می‌گوید: «جمعیت AGI از ادعای قابلیت‌های نوظهور استفاده کرده‌اند.

 ترس بی دلیل می تواند منجر به خفقان مقررات شود یا توجه را از خطرات مبرم تر منحرف کند.

 او می‌گوید: «مدل‌ها در حال بهبود هستند و این پیشرفت‌ها مفید هستند. “اما آنها هنوز به آگاهی نزدیک نشده اند.”

منبع

برای آموزش رایگان هوش مصنوعی به کانال مهندس حمید تدینی در یوتیوب بپیوندید

آیا هوش مصنوعی فوق هوشمند به ما حمله خواهد کرد؟

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا