به گزارش گروه علم و آموزش ایرنا از «تکاکسپلور»، در حالی که سازمانهای تنظیم مقررات با چالشهای محافظت از کاربران جوان رسانههای اجتماعی در برابر سوءاستفاده و باجخواهی در عین صیانت از حریم خصوصی آنها دست و پنجه نرم میکنند، یک تیم از محققان چهار دانشگاه آمریکا راهی برای استفاده از فناوری یادگیری ماشین برای علامتدار کردن گفتوگوهای خطرناک در اینستاگرام بدون نیاز به شنود کاربران پیشنهاد کردهاند.
این تیم از محققان به تازگی نتایج تحقیقات خود را در ارتباط با شناخت اینکه چه نوع از دادههای ورودی از قبیل «متادیتا»، متن و تصویر میتواند بیشترین سودمندی را برای مدلهای یادگیری ماشین به منظور شناسایی گفتوگوهای پرخطر داشته باشد، در نشریه «اقدامات انجمن کنفرانس ماشینهای محاسباتی درباره تراکنش انسان – رایانه» منتشر کردند.
یافتههای آنها حاکی از آن است که گفتوگوهای خطردار (ریسکی) از طریق مشخصات متادیتا از قبیل طول گفتوگو و چگونگی درگیر شدن کاربران در گفتوگوها قابل ردیابی و شناسایی هستند.
تلاش های این محققان به یکی از مشکلات رو به رشد در محبوبترین رسانه اجتماعی بین نوجوانان ۱۳ تا ۲۱ ساله در کشور آمریکا میپردازد. مطالعات اخیر نشان داده است که اذیت و آزار در اینستاگرام موجب افزایش افسردگی در میان کاربران و به خصوص موجب اختلالات روانی و تغذیهای در میان دختران نوجوان شده است.
در همین حال پلتفرمها (رسانههای اجتماعی) تحت فشارهای فزایندهای برای محافظت از حریم خصوصی کاربران قرار دارند. در نتیجه، شرکت «متا» ادارهکننده فیسبوک و اینستاگرام، در تدارک رمزگذاری نهایی تمام پیام ها در پلتفرم های این شرکت است. این بدان معنا است که محتوای پیام ها از لحاظ فنی ایمن است و تنها توسط افراد حاضر در گفتوگو قابل دسترسی خواهد بود.
اما این تدابیر امنیتی همچنین استفاده از فناوریهای خودکار برای ردیابی و جلوگیری از ریسکهای آنلاین را دشوارتر میسازد. در این حال سیستم ابداعی جدید محققان از الگوریتمهای یادگیری ماشین در یک رویکرد لایهای استفاده کرده است که یک پروفایل متادیتا از گفتوگوهای ریسکی ایجاد میکند. این برنامه در آزمایشها، دقت و صحت ۸۷ درصدی در زمینه شناسایی گفتوگوهای خطردار نشان داده است.
این محققان برای تحلیل تصاویر و فیلمها که نقش مهمی در ارتباطات اینستاگرامی دارند، یک مجموعه از برنامهها را مورد استفاده قرار دادند و سپس برنامههای یادگیری ماشین با استفاده از یک تحلیل متنی، بار دیگر پروفایلی از کلمات نشانگر تصاویر و فیلمهای خطردار در گفتوگوها را ایجاد کردند. در این مورد نیز این سیستم یادگیری ماشین تصاویر و فیلمهای خطردار را با دقت و صحت ۸۵ درصدی شناسایی کرده است.