تهران- ایرنا- محققان یک سیستم یادگیری ماشینی ابداع کرده‌اند که با شناسایی گفت‌وگوهای خطردار در اینستاگرام می‌تواند فرصت‌هایی برای پلتفرم‌ها و والدین به منظور محافظت از کاربران جوان و آسیب‌پذیر در عین حفظ حریم خصوصی آنها فراهم سازد.

به گزارش گروه علم و آموزش ایرنا از «تک‌اکسپلور»، در حالی که سازمان‌های تنظیم مقررات با چالش‌های محافظت از کاربران جوان‌ رسانه‌های اجتماعی در برابر سوءاستفاده و باج‌خواهی در عین صیانت از حریم خصوصی آنها دست و پنجه نرم می‌کنند، یک تیم از محققان چهار دانشگاه آمریکا راهی برای استفاده از فناوری یادگیری ماشین برای علامت‌دار کردن گفت‌وگوهای خطرناک در اینستاگرام بدون نیاز به شنود کاربران پیشنهاد کرده‌اند.

این تیم از محققان به تازگی نتایج تحقیقات خود را در ارتباط با شناخت اینکه چه نوع از داده‌های ورودی از قبیل «متادیتا»، متن و تصویر می‌تواند بیشترین سودمندی را برای مدل‌های یادگیری ماشین به منظور شناسایی گفت‌وگوهای پرخطر داشته باشد، در نشریه «اقدامات انجمن کنفرانس ماشین‌های محاسباتی درباره تراکنش انسان – رایانه» منتشر کردند.

یافته‌های آنها حاکی از آن است که گفت‌وگوهای خطردار (ریسکی) از طریق مشخصات متادیتا از قبیل طول گفت‌وگو و چگونگی درگیر شدن کاربران در گفت‌وگوها قابل ردیابی و شناسایی هستند.

تلاش های این محققان به یکی از مشکلات رو به رشد در محبوب‌ترین رسانه اجتماعی بین نوجوانان ۱۳ تا ۲۱ ساله در کشور آمریکا می‌پردازد. مطالعات اخیر نشان داده است که اذیت و آزار در اینستاگرام موجب افزایش افسردگی در میان کاربران و به خصوص موجب اختلالات روانی و تغذیه‌ای در میان دختران نوجوان شده است.

در همین حال پلتفرم‌ها (رسانه‌های اجتماعی) تحت فشارهای فزاینده‌ای برای محافظت از حریم خصوصی کاربران قرار دارند. در نتیجه، شرکت «متا» اداره‌کننده فیسبوک و اینستاگرام، در تدارک رمزگذاری نهایی تمام پیام ها در پلتفرم های این شرکت است. این بدان معنا است که محتوای پیام ها از لحاظ فنی ایمن است و تنها توسط افراد حاضر در گفت‌وگو قابل دسترسی خواهد بود.

اما این تدابیر امنیتی همچنین استفاده از فناوری‌های خودکار برای ردیابی و جلوگیری از ریسک‌های آنلاین را دشوارتر می‌سازد. در این حال سیستم ابداعی جدید محققان از الگوریتم‌های یادگیری ماشین در یک رویکرد لایه‌ای استفاده کرده است که یک پروفایل متادیتا از گفت‌وگوهای ریسکی ایجاد می‌کند. این برنامه در آزمایش‌ها، دقت و صحت ۸۷ درصدی در زمینه شناسایی گفت‌وگوهای خطردار نشان داده است.

این محققان برای تحلیل تصاویر و فیلم‌ها که نقش مهمی در ارتباطات اینستاگرامی دارند، یک مجموعه از برنامه‌ها را مورد استفاده قرار دادند و سپس برنامه‌های یادگیری ماشین با استفاده از یک تحلیل متنی، بار دیگر پروفایلی از کلمات نشانگر تصاویر و فیلم‌های خطردار در گفت‌وگوها را ایجاد کردند. در این مورد نیز این سیستم یادگیری ماشین تصاویر و فیلم‌های خطردار را با دقت و صحت ۸۵ درصدی شناسایی کرده است.