به گزارش گروه علم و آموزش ایرنا از تارنمای گلوبال نیوز، محققان دانشگاه آلبرتا در کانادا راهی برای تشخیص علائم اولیه بیماری آلزایمر یافته اند. آنها از یک مدل یادگیری ماشینی برای تشخیص نشانه های صوتی استفاده کردند. این نشانه های صوتی الگوهای گفتاری خاصی هستند که با تشخیص آلزایمر یا سایر اشکال زوال عقل ارتباط دارند.
زهرا شاه، دانش آموخته دانشگاه آلبرتا و محقق اصلی این پژوهش گفت: ما علاقه مندیم به گفتار که پنجره ای به ذهن انسان می گشاید، نگاه کنیم. ایده ما این است که به گفتار به عنوان یک نشانگر زیستی بالقوه نگاه کنیم تا بتوانیم الگوهایی را شناسایی کنیم که ممکن است به تشخیص و کنترل اختلالات روانپزشکی مانند زوال عقل ناشی از آلزایمر کمک کنند.
این فناوری به بررسی سه ویژگی می پردازد: مکث در گفتار، طول یا پیچیدگی کلمه و قابل فهم بودن گفتار.
شاه توضیح داد: در بیماران مبتلا به زوال عقل، چون ممکن است نیاز به یادآوری بیشتر باشند، معمولا کلمات را فراموش می کنند و برای یادآوری کلمات به زمان نیاز دارند، بنابراین مکث های طولانی تری وجود خواهد داشت.
وی افزود: یک کلمه طولانیتر، پیچیدگی گفتاری بیشتری در مقایسه با کلمات کوتاهتر دارد. طولانی تر بودن کلمه، یک عامل پیچیدگی گفتار است. فرضیه ای که اینجا مطرح است این است که بیماران مبتلا به زوال عقل در مقایسه با افراد سالم پیچیدگی گفتاری کمتری دارند.
محققان ۲۳۷ فرد انگلیسی زبان و ۴۶ فرد یونانی زبان را به دو گروه تقسیم کردند. نیمی از آنها زوال عقل داشتند و نیم دیگر افراد گروه کنترل بودند.
این مدل توانست با دقت ۷۰ تا ۷۵ درصد بیماران آلزایمر را از افراد سالم تشخیص دهد.
شاه گفت: این شیوه مانند یک ابزار پشتیبانی برای تشخیص بالینی است، اما این ابزار به تنهایی یک ابزار تشخیصی نیست و به یک متخصص در روند تشخیص نیاز است.
این محقق اظهار داشت: این اولین گام است، تریاژ کردن(دسته بندی بیماران)، غربالگری برای جمعیت های بالقوه در معرض خطر و احتمالاً شناسایی افراد پرخطر و نیز درخواست انجام غربالگری های تکمیلی گام های بعدی است.
این فناوری قرار نیست جایگزین تشخیص بالینی شود. محققان امیدوارند این فناوری در نهایت به دسترسی آسان و قاعده مند بیماران به ابزار تشخیص زودهنگام بینجامد که برای همه افراد دارای گوشی هوشمند قابل دسترس باشد.
این پروژه هنوز در مراحل اولیه است، اما محققان فکر میکنند قابلیت بالایی دارد و میتواند به صورت یک اپلیکیشن قالببندی شود که به طور مداوم نظارت انجام نمی دهد، اما فرد می تواند برنامه را باز و از آن استفاده کند. برای مثال، میتوانید از برنامه بخواهید که هر روز از شما بپرسد روزتان چطور میگذرد؟ و فرد بهطور خودجوش پاسخ میدهد و برنامه میتواند در پسزمینه، به طور بالقوه به ویژگیهای سخنان شما نگاه کند تا ببیند چه تغییراتی کرده است.
با این شیوه همچنین فرصت هایی برای افزایش دسترسی به مراقبت های بهداشتی وجود دارد.
شاه گفت: ما دریافتیم گفتار به عنوان یک نشانگر زیستی و از دیدگاه مراقبتهای بهداشت روانی از راه دور واقعا جالب است. می توانیم به قابلیت استفاده از این نوع فناوری برای سلامت از راه دور و نظارت بر سلامت روان از راه دور فکر کنیم.
و از آنجا که به کلمات خاصی گوش نمی دهد، بلکه به مکث ها و طول کلمات توجه می کند، می تواند به طور گسترده در هر زبانی استفاده شود.
شاه گفت: بدون نگاه کردن به محتوای واقعی زبان، به نمونههای گفتاری نگاه میکنیم، زیرا به ویژگیهایی می نگریم که در زبانهای مختلف وجود دارند. بنابراین روی محتوای کلمه تمرکز نمی کنیم، بلکه به ویژگیهای دیگر توجه داریم.
این پژوهشگر ادامه داد: ما به دنبال ابزاری مستقل از ویژگی های زبانی هستیم که میتواند همین کار را انجام دهد. میخواهیم این فناوری در بسیاری از زبانهای مختلف مورد استفاده قرار گیرد، بنابراین دیگر به زبان انگلیسی محدود نخواهیم شد و این همان جایی است که ظرفیت توسعه پذیری وجود دارد.
این مدل یادگیری ماشینی در مقالهای منتشر شده است. این تیم تحقیقاتی در چالش بزرگ پردازش سیگنال ICASSP ۲۰۲۳ (کنفرانس بین المللی آکوستیک، گفتار و پردازش سیگنال) رتبه اول آمریکای شمالی و چهارم جهان را کسب کرد.