تهران- ایرنا- گروهی از محققان دانشگاه استنفورد در کالیفرنیای آمریکا می‌گویند ارزیابی‌های مربوط به توانایی‌های نوظهور هوش مصنوعی بر تحلیل نادرست آماری متکی بوده‌ و در حد یک سراب است.

به گزارش گروه علم و آموزش ایرنا از «تک‌اکسپلور»، به نظر می‌رسد که پایانی برای پیش‌بینی‌های مربوط به ابرهای توفانی در زمانی که رایانه‌ها سرانجام بخواهند امور را به دست خود بگیرند یا بهتر بگوییم به پردازشگرهای خود بسپارند، وجود ندارد.

«استیفن هاکینگ» دانشمند انگلیسی هشدار داده است: توسعه هوش مصنوعی می‌تواند پایان نژاد انسان باشد. «ایلان ماسک» از بنیانگذاران شرکت «اوپن‌ ای‌.آی» نیز گفته است: هوش مصنوعی مرا وحشت زده می‌کند. این فناوری توانایی بیش از تصورات دارد و سرعت پیشرفت آن بالا است.

در یک نامه امضا شده توسط بیش از هزار نفر از رهبران بخش فناوری در سال جاری میلادی خاطرنشان شده بود که فناوری‌های هوش مصنوعی «خطرهای بزرگی برای جامعه و انسانیت هستند». این افراد خواستار ایجاد وقفه‌ای در تحقیقات مربوط به هوش مصنوعی تا زمان درک بهتر خطرات مرتبط بر آن شدند.

«یوشوا بنیگو» استاد و محقق هوش مصنوعی در دانشگاه مونترئال کانادا می‌گوید: ما باید بسیار هوشیار باشیم.

رسانه‌های بسیاری هر چند که دورنمای تحولات مثبت ناشی از هوش مصنوعی در حوزه‌های گوناگون صنعت، اقتصاد، علوم، آموزش، کشاورزی، پزشکی و تحقیقات را نادیده نمی‌گیرند اما در عین حال بطور فزاینده‌ای درباره پیامدهای ناخواسته فناوری‌های هوش مصنوعی هشدار داده و زنگ‌های خطر را به صدا درمی‌آورند.

یکی از حوزه‌های موجب نگرانی، رفتارهای نوظهور است که منظور از آن یک رشته تراکنش‌ها یا تعامل‌های پیش بینی نشده و برنامه‌ریزی‌نشده در درون یک سامانه و ناشی از رفتارهای برنامه‌ریزی‌شده ساده‌تر است.

محققان می‌گویند شواهد چنین رفتارهایی در مدل‌هایی که به خودی خود زبان یاد می‌گیرند، مشاهده شده است. زمانی که سیستم‌های آموزش دیده برای بازی شطرنج یا «گو» راهبردهای اولیه‌ای برای پیشرفت تولید می‌کنند یا زمانی که ربات‌ها در الگوهای حرکتی خود تنوع‌هایی به نمایش می‌گذارند، در ابتدا برنامه ریزی نشده بود.

«اتان دایر» دانشمند علوم رایانه شرکت «گوگل» می‌گوید: من هر چند تلاش می‌کنم که برای شگفتانه‌هایی آماده باشم اما باز هم از کارهایی که این مدل‌ها می‌توانند انجام دهند، شگفت‌زده می‌شوم. اما «دایر» ممکن است شگفت‌زده شود اگر بداند که یک تیم تحقیقاتی در دانشگاه «استنفورد» آب سردی بر گزارش‌های مربوط به «رفتارهای نوظهور» ریخته است.

«رایان شافر»، «براندو میراندا» و «سانمی کوییجو» (محققان استنفورد) در مقاله‌ای که هفته گذشته منتشر شد، گفتند شواهد و مدارک مربوط به «رفتارهای نوظهور» (سامانه‌های هوش مصنوعی) بر اساس آماری استوار بوده که احتمالا به نادرستی تفسیر شده اند.

آنان خاطرنشان می‌کنند: پیام ما این است که توانایی‌های گزارش شده قبلی درباره رفتارهای نوظهور هوش مصنوعی ممکن است سرابی ناشی از تحلیل های نادرست باشد. این تیم تحقیقاتی همچنین خاطرنشان کرده است که عدم استفاده از نمونه‌های آماری به اندازه کافی گسترده نیز در ارائه این نتایج نادرست نقش داشته و روش‌شناسی (متدلوژی) نیز احتمالا منجر به نتایج گمراه کننده در تحقیقات قبلی شده است.

برچسب‌ها