هوش مصنوعی

شبکه های عصبی هوش مصنوعی

در 10 سال گذشته، بهترین عملکرد سیستم های هوش مصنوعی – مانند تشخیص دهنده های گفتار در تلفن های هوشمند یا آخرین مترجم خودکار گوگل – از تکنیکی به نام “یادگیری عمیق” ناشی شده اند.

یادگیری عمیق در واقع نام جدیدی برای رویکردی به هوش مصنوعی به نام شبکه های عصبی است که بیش از 70 سال است که مد شده و از مد افتاده است.

 شبکه های عصبی اولین بار در سال 1944 توسط وارن مک کالو و والتر پیتس، دو محقق دانشگاه شیکاگو که در سال 1952 به عنوان اعضای موسس آنچه که گاهی اوقات اولین بخش علوم شناختی نامیده می شود، به MIT نقل مکان کردند، پیشنهاد شد.

شبکه های عصبی تا سال 1969 حوزه اصلی تحقیقات در علوم اعصاب و علوم کامپیوتر بودند، تا زمانی که، طبق افسانه های علوم کامپیوتر، آنها توسط ریاضیدانان MIT، ماروین مینسکی و سیمور پاپرت کشته شدند، که یک سال بعد از مدیران مشترک این شبکه شدند. آزمایشگاه جدید هوش مصنوعی MIT.

این تکنیک سپس در دهه 1980 از تجدید حیات برخوردار شد، در دهه اول قرن جدید دوباره در کسوف قرار گرفت و در دهه دوم مانند باندبازان بازگشته است که عمدتاً توسط افزایش قدرت پردازش تراشه‌های گرافیکی تغذیه می‌شود.

توماسو پوجیو، پروفسور یوجین مک درموت، پروفسور مغز و علوم شناختی در MIT، محقق مؤسسه تحقیقات مغز مک گاورن MIT و مدیر مرکز مغز MIT، می‌گوید: «این ایده وجود دارد که ایده‌ها در علم کمی شبیه اپیدمی‌های ویروس‌ها هستند . ، ذهن ها و ماشین ها . ظاهراً پنج یا شش نوع اصلی ویروس آنفولانزا وجود دارد و ظاهراً هر کدام با دوره‌ای حدود 25 سال بازمی‌گردند.

 افراد مبتلا می شوند و پاسخ ایمنی ایجاد می کنند و بنابراین تا 25 سال آینده آلوده نمی شوند. و سپس نسل جدیدی وجود دارد که آماده آلوده شدن به همان سویه ویروس است.

 در علم، مردم عاشق یک ایده می شوند، در مورد آن هیجان زده می شوند، آن را با چکش می میرند، و سپس ایمن می شوند – آنها از آن خسته می شوند. پس ایده‌ها باید از همین نوع تناوب برخوردار باشند!»

مسائل سنگین

شبکه های عصبی هوش مصنوعی
شبکه های عصبی هوش مصنوعی

شبکه‌های عصبی وسیله‌ای برای انجام یادگیری ماشینی هستند که در آن رایانه با تجزیه و تحلیل مثال‌های آموزشی انجام برخی وظایف را می‌آموزد.

 معمولاً نمونه ها از قبل به صورت دستی برچسب گذاری شده اند. به عنوان مثال، یک سیستم تشخیص شی ممکن است هزاران تصویر برچسب‌گذاری شده از ماشین‌ها، خانه‌ها، فنجان‌های قهوه و غیره را دریافت کند و الگوهای بصری را در تصاویر بیابد که به طور مداوم با برچسب‌های خاص مرتبط هستند.

یک شبکه عصبی که بطور آزاد بر روی مغز انسان مدل سازی شده است، متشکل از هزاران یا حتی میلیون ها گره پردازشی ساده است که به طور متراکم به هم متصل هستند.

 بیشتر شبکه‌های عصبی امروزی در لایه‌هایی از گره‌ها سازمان‌دهی شده‌اند، و «تغذیه به جلو» هستند، به این معنی که داده‌ها از طریق آنها فقط در یک جهت حرکت می‌کنند.

 یک گره مجزا ممکن است به چندین گره در لایه زیر خود متصل شود، که از آن داده ها را دریافت می کند، و چندین گره در لایه بالای خود، که داده ها را به آنها ارسال می کند.

به هر یک از اتصالات ورودی خود، یک گره عددی را به نام “وزن” اختصاص می دهد.

 هنگامی که شبکه فعال است، گره یک آیتم داده متفاوت – یک عدد متفاوت – را روی هر یک از اتصالات خود دریافت می کند و آن را در وزن مربوط ضرب می کند.

 سپس محصولات به دست آمده را با هم جمع می کند و یک عدد به دست می آید. اگر این عدد کمتر از مقدار آستانه باشد، گره هیچ داده ای را به لایه بعدی ارسال نمی کند.

 اگر عدد از مقدار آستانه تجاوز کند، گره “آتش” می زند، که در شبکه های عصبی امروزی به طور کلی به معنای ارسال عدد – مجموع ورودی های وزنی – در طول تمام اتصالات خروجی آن است.

هنگامی که یک شبکه عصبی در حال آموزش است، تمام وزن ها و آستانه های آن در ابتدا روی مقادیر تصادفی تنظیم می شوند.

 داده‌های آموزشی به لایه پایینی – لایه ورودی – وارد می‌شوند و از لایه‌های بعدی عبور می‌کنند و به روش‌های پیچیده‌ای ضرب و جمع می‌شوند تا در نهایت به لایه خروجی تبدیل شوند.

 در طول تمرین، وزن‌ها و آستانه‌ها به‌طور مداوم تنظیم می‌شوند تا زمانی که داده‌های تمرینی با برچسب‌های یکسان به طور مداوم خروجی‌های مشابهی را به همراه داشته باشند.

ذهن و ماشین

شبکه های عصبی توصیف شده توسط مک کالو و پیتس در سال 1944 دارای آستانه و وزن بودند، اما آنها به صورت لایه ای مرتب نشده بودند و محققان هیچ مکانیسم آموزشی را مشخص نکردند.

 آنچه مک کالو و پیتس نشان دادند این بود که یک شبکه عصبی در اصل می تواند هر عملکردی را که یک کامپیوتر دیجیتال می تواند محاسبه کند.

 نتیجه بیشتر علوم اعصاب بود تا علوم کامپیوتر: نکته این بود که می‌توان مغز انسان را به عنوان یک دستگاه محاسباتی در نظر گرفت.

شبکه های عصبی همچنان ابزار ارزشمندی برای تحقیقات علوم اعصاب هستند. برای مثال، طرح‌بندی‌های شبکه یا قوانین خاص برای تنظیم وزن‌ها و آستانه‌ها، ویژگی‌های مشاهده‌شده در آناتومی عصبی و شناخت انسان را بازتولید کرده‌اند، که نشانه‌ای از این است که آنها چیزی در مورد نحوه پردازش اطلاعات توسط مغز دریافت می‌کنند.

اولین شبکه عصبی قابل آموزش، پرسپترون، توسط فرانک روزنبلات، روانشناس دانشگاه کرنل در سال 1957 نشان داده شد. طراحی پرسپترون بسیار شبیه شبکه عصبی مدرن بود، با این تفاوت که تنها یک لایه با وزن ها و آستانه های قابل تنظیم داشت که بین ورودی ها قرار می گرفت. و لایه های خروجی

پرسپترون ها تا سال 1959 یک حوزه تحقیقاتی فعال در روانشناسی و رشته نوپای علوم کامپیوتر بودند، زمانی که مینسکی و پیپرت کتابی با عنوان “پرسپترون ها” منتشر کردند، که نشان داد اجرای محاسبات نسبتاً معمولی بر روی پرسپترون ها به طور عملی زمان بر است.

پوجیو می‌گوید: «البته، اگر ماشین‌هایی را که کمی پیچیده‌تر هستند، مانند دو لایه، استفاده کنید، همه این محدودیت‌ها به نوعی ناپدید می‌شوند. اما در آن زمان، این کتاب تأثیر سرد کننده ای بر تحقیقات شبکه عصبی داشت.

پوجیو می گوید: «شما باید این چیزها را در چارچوب تاریخی قرار دهید. آنها برای برنامه نویسی بحث می کردند – برای زبان هایی مانند Lisp. چند سال قبل، مردم هنوز از کامپیوترهای آنالوگ استفاده می کردند.

 در آن زمان اصلاً مشخص نبود که برنامه نویسی راه حلی است. فکر می کنم کمی زیاده روی کردند، اما طبق معمول سیاه و سفید نیست.

 اگر این را به عنوان رقابت بین محاسبات آنالوگ و محاسبات دیجیتال در نظر بگیرید، آنها برای چیزی که در آن زمان درست بود مبارزه کردند.

شبکه های عصبی هوش مصنوعی

دوره ای

با این حال، در دهه 1980، محققان الگوریتم‌هایی را برای اصلاح وزن‌ها و آستانه‌های شبکه‌های عصبی توسعه دادند که برای شبکه‌هایی با بیش از یک لایه به اندازه کافی کارآمد بود و بسیاری از محدودیت‌های شناسایی شده توسط مینسکی و پیپرت را حذف کردند. این رشته از رنسانس برخوردار بود.

اما از نظر فکری، چیزی رضایت بخش در مورد شبکه های عصبی وجود دارد. آموزش کافی ممکن است تنظیمات شبکه را تا حدی اصلاح کند که بتواند داده ها را به طور مفید طبقه بندی کند، اما این تنظیمات به چه معناست؟

 تشخیص‌گر شی به چه ویژگی‌های تصویری نگاه می‌کند، و چگونه آن‌ها را در نشانه‌های بصری متمایز ماشین‌ها، خانه‌ها و فنجان‌های قهوه در کنار هم قرار می‌دهد؟ نگاهی به وزن اتصالات فردی به این سوال پاسخ نمی دهد.

در سال‌های اخیر، دانشمندان کامپیوتر شروع به ارائه روش‌های مبتکرانه برای استنتاج استراتژی‌های تحلیلی اتخاذ شده توسط شبکه‌های عصبی کرده‌اند.

 اما در دهه 1980، استراتژی های شبکه ها غیرقابل کشف بود. بنابراین در اواخر قرن، شبکه‌های عصبی با ماشین‌های بردار پشتیبان جایگزین شدند، رویکردی جایگزین برای یادگیری ماشینی که بر اساس برخی ریاضیات بسیار تمیز و ظریف است.

تجدید حیات اخیر در شبکه های عصبی – انقلاب یادگیری عمیق – به لطف صنعت بازی های رایانه ای صورت می گیرد.

 تصاویر پیچیده و سرعت سریع بازی‌های ویدیویی امروزی به سخت‌افزاری نیاز دارد که بتواند به آن ادامه دهد و نتیجه واحد پردازش گرافیکی (GPU) بوده است که هزاران هسته پردازشی نسبتاً ساده را روی یک تراشه بسته‌بندی می‌کند.

 طولی نکشید که محققان متوجه شدند که معماری یک GPU به طرز چشمگیری شبیه به یک شبکه عصبی است.

پردازنده‌های گرافیکی مدرن، شبکه‌های یک لایه دهه 1960 و شبکه‌های دو تا سه لایه دهه 1980 را قادر ساختند تا در شبکه‌های 10، 15 و حتی 50 لایه امروزی شکوفا شوند.

 این همان چیزی است که “عمیق” در “یادگیری عمیق” به آن اشاره می کند – عمق لایه های شبکه. و در حال حاضر، یادگیری عمیق مسئول سیستم‌های با بهترین عملکرد تقریباً در هر زمینه‌ای از تحقیقات هوش مصنوعی است.

نتیجه

عدم شفافیت این شبکه ها هنوز برای نظریه پردازان ناراحت کننده است، اما در این زمینه نیز پیشرفت هایی وجود دارد. پوجیو علاوه بر مدیریت مرکز مغزها، ذهن‌ها و ماشین‌ها (CBMM)، برنامه تحقیقاتی مرکز را در چارچوب‌های نظری برای هوش رهبری می‌کند .

 اخیرا پوجیو و همکارانش در CBMM یک مطالعه نظری سه بخشی از شبکه های عصبی منتشر کرده اند.

بخش اول که ماه گذشته در مجله بین المللی اتوماسیون و محاسبات منتشر شد ، به محدوده محاسباتی می پردازد که شبکه های یادگیری عمیق می توانند اجرا کنند و زمانی که شبکه های عمیق نسبت به شبکه های کم عمق برتری دارند.

 بخش‌های دوم و سوم که به‌عنوان گزارش‌های فنی CBMM منتشر شده‌اند، به مشکلات بهینه‌سازی جهانی می‌پردازد، یا تضمین می‌کند که شبکه تنظیماتی را پیدا کرده است که به بهترین وجه با داده‌های آموزشی خود مطابقت دارد، و بیش از حد، یا مواردی که در آن شبکه تا این حد هماهنگ می‌شود.

به ویژگی های داده های آموزشی خود که نمی تواند به سایر نمونه های همان دسته ها تعمیم دهد.

هنوز سؤالات نظری زیادی وجود دارد که باید به آنها پاسخ داده شود، اما کار محققان CBMM می تواند به اطمینان حاصل شود که شبکه های عصبی در نهایت چرخه نسلی را که آنها را به مدت هفت دهه به نفع خود آورده و از بین برده است، بشکنند.

شبکه های عصبی هوش مصنوعی

مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است. مهندس حمید تدینی: نویسنده و وبلاگ نویس مشهور، متخصص در زبان برنامه نویسی و هوش مصنوعی و ساکن آلمان است. مقالات روشنگر او به پیچیدگی های این زمینه ها می پردازد و به خوانندگان درک عمیقی از مفاهیم پیچیده فناوری ارائه می دهد. کار او به دلیل وضوح و دقت مشهور است.
نمایش بیشتر

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

همچنین ببینید
بستن
دکمه بازگشت به بالا