انقلاب مدرن هوش مصنوعی در طی یک مسابقه تحقیقات مبهم آغاز شد. سال 2012، سومین سال مسابقه سالانه ImageNet ، بود، تیم ها را برای ساخت سیستم های بینایی رایانه ای به چالش کشیدند که می بایست 1000 شی از حیوانات گرفته تا مناظر و مردم را تشخیص بدهد. در دو سال اول ، بهترین تیم ها نتوانسته اند حتی به 75٪ دقت برسند. اما در سال سوم ، گروهی متشکل از سه محقق ( یک استاد و دانشجویانش ) ناگهان از این حدعبور کردند. آنها با درصد خیره کننده 10.8 در مسابقه برنده شدند. آن استاد جفری هینتون بود و روشی كه آنها به كار برده بودند، یادگیری عمیق نامیده شد.
هینتون از دهه 1980 در واقع با یادگیری عمیق کار می کرد ، اما اثربخشی آن به دلیل کمبود داده و قدرت محاسباتی محدود شده بود. اعتقاد راسخ وی به این تکنیک در نهایت سودهای کلانی را پی داشت. چهارمین سال مسابقات ImageNet ، تقریباً همه تیم ها از یادگیری عمیق استفاده می کردند و به موفقیت های معجزه آسایی دست یافتند. به زودی یادگیری عمیق در مورد وظایفی فراتر از شناسایی تصویر و همچنین در طیف وسیعی از صنایع نیز اعمال شد. سال گذشته ، به دلیل کمک های بنیادی خود در این زمینه ، هینتون در کنار سایر پیشگامان هوش مصنوعی یان لکون و یوشوا بنگیو جایزه تورینگ را دریافت کرد.
شما فکر می کنید یادگیری عمیق برای باز سازی تمام جنبه های هوش انسان کافی خواهد بود. چه چیزی باعث می شود که انقدر مطمئن باشید ؟
من معتقدم یادگیری عمیق قادر به انجام همه کارها خواهد بود ، اما فکر می کنم که باید چندین پیشرفت مفهومی داشته باشد. به عنوان مثال ، در سال 2017 Ashish Vaswani و همکاران. ترانسفورماتورهایی را معرفی کرد که بردارهای بسیار خوبی را برای معنی کلمات نشان می دهند. این یک موفقیت مفهومی بود. اکنون تقریباً این ترانسفورماتور در بهترین پردازش های زبان طبیعی مورد استفاده قرار می گیرد. ما به تعداد بیشتری از این موقفیت ها نیاز داریم.
و اگر این پیشرفت ها را داشته باشیم ، آیا می توانیم با یادگیری عمیق ،هوشی نزدیک به هوش انسان بسازیم؟
آره. به ویژه پیشرفت هایی که در زمینه دستیابی به ناقلین بزرگ فعالیت عصبی برای پیاده سازی مواردی مانند منطق ایجاد می شود. اما ما همچنین به افزایش گسترده مقیاس نیز نیاز داریم. مغز انسان حدود 100 تریلیون پارامتر یا همان سیناپس دارد. آنچه اکنون ما آن را یک مدل واقعاً بزرگ می نامیم ، مانند GPT-3 ، 175 میلیارد پارامتردارد. هزار برابر کوچکتر از مغز . GPT-3 اکنون می تواند متنی کاملاً قابل قبول تولید کند ولی همچنان در مقایسه با مغز هنوز کوچک است.
وقتی می گویید مقیاس ، منظور شما شبکه های عصبی بزرگتر است یا داده های بیشتر یا هر دو؟
هر دو. نوعی اختلاف بین آنچه در علوم کامپیوتر اتفاق می افتد و آنچه در مورد انسان اتفاق می افتد وجود دارد. انسان در مقایسه با مقدار داده ای که دریافت می کنند ، مقدار زیادی پارامتر دارد. شبکه های عصبی به طرز حیرت انگیزی در پردازش به مقدار کمی داده با تعداد زیادی پارامتر مهارت دارند ، اما انسان ها در این مورد حتی بهتر ماشین ها هستند.
بسیاری از افراد در این زمینه معتقدند که عقل سلیم توانایی بزرگ بعدی برای ورود به آن است. قبول دارید؟
موافقم که این یکی از موارد بسیار مهم است. من همچنین فکر می کنم کنترل موتور بسیار مهم است و شبکه های عصبی عمیق اکنون در این زمینه مهارت پیدا می کنند. به ویژه ، برخی از کارهای اخیر در Google نشان داده است که شما می توانید کنترل حرکتی خوبی داشته باشید و آن را با زبان ترکیب کنید ، بنابراین می توانید یک کشو را باز کنید و یک بلوک را بیرون بیاورید ، و سیستم می تواند به زبان طبیعی به شما بگوید که چه کاری انجام می دهد. برای مواردی مانند GPT-3 ، که این متن شگفت انگیز را ایجاد می کند ، واضح است که برای تولید آن متن باید چیزهای زیادی درک کند ، اما کاملاً مشخص نیست که چقدر آن را درک می کند. اما اگر چیزی کشو را باز کند و یک بلوک را بیرون بیاورد و بگوید ، “من فقط یک کشو را باز کردم و یک بلوک را بیرون آوردم” ، سخت است بگویم که نمی فهمد چه کاری انجام می دهد.
واقعا مطالب خوبی می گذارید
میشه خواهش کنم منبع را بفرمایید
مطلب خیلی عالی