به گزارش گروه علمی آموزش ایرنا از «وایرد»، یک تیم از دانشمندان کامپیوتر یک نوع انعطافپذیرتر از مدل یادگیری ماشین را ایجاد کردهاند که شگردش این است که باید هر از گاهی آنچه را که میداند، فراموش کند. این مدل جدید می تواند چیزهای بیشتری درباره چگونگی فهم زبان توسط این برنامهها مشخص کند.
«جیا کئون» (Jea Kwon) یک مهندس هوش مصنوعی در موسسه علوم پایه در کره جنوبی گفت که این تحقیقات جدید به معنی یک پیشرفت قابل توجه در این حوزه است.
موتورهای زبانی هوش مصنوعی که امروزه به کار میروند، بیشتر از شبکههای عصبی مصنوعی نیرو میگیرند. هر «نورون» در این شبکهها یک کارکرد مکانیکی است که از دیگر نورونها سیگنال دریافت میکند، برخی محاسبات را انجام می دهد و سیگنال هایی ارسال می کند.
در ابتدا این جریان شامل اطلاعاتی کم و بیش تصادفی یا رندوم است اما از طریق آموزش، جریان اطلاعات بین نورون ها بهبود پیدا می کند چرا که شبکه با دادههای آموزش تطبیق می یابد.
فرایند شیوه آموزشی کنونی قدرت محاسباتی زیادی لازم دارد و اگر مدل خوب کار نکند یا نیاز کاربر تغییر کند، تطبیق دادن آن دشوار است.
در این حال «میکل ارتکست» بنیانگذار استارتاپ هوش مصنوعی «ریکا» و همکارانش تلاش کردهاند تا بر این محدودیتها غلبه کنند. این محققان پس از آموزش مدل به یک زبان تمام «توکن»های آن زبان را پاک کردند و مدل را به یک زبان دیگر آموزش دادند که لایههای مربوطه را با توکنهای جدید هماهنگ کرد.
هر چند که این مدل دربردارنده اطلاعات نامربوط بود اما این بازآموزی جواب داد؛ این مدل توانست زبان جدید را یاد بگیرد و پردازش کند. این محققان می گویند که سطوح عمیقتر شبکه کار ذخیره سازی اطلاعات انتزاعیتر را انجام می دهد که این به یادگیری زبان دوم کمک می کند.
این محققان نتیجه گیری کردند که به نظر می رسد فراموشی هر از گاهی موجب بهبود کار مدلهای زبانی در یادگیری زبان بطور کلی می شود. این رویکرد همانند شیوه کار مغز انسان ها است. مغز انسان به جای حفظ کردن حجم زیادی از اطلاعات مبسوط، کلیات تجارب را به یاد میسپارد.