پیش بینی زود هنگام ابتلا به سرطان ریه به کمک هوش مصنوعی
تاریخ انتشار: ۸ بهمن ۱۴۰۱ | کد خبر: ۳۶۹۵۲۰۱۱
خبرگزاری آریا-محققان سامانه ای ساختند که میتواند از روی سیتی اسکن امکان ابتلای فرد به سرطان ریه در آینده را تشخیص می دهد.
به گزارش خبرگزاری آریا، هوش مصنوعی این روزها کاربردهای متنوعی دارد. گروهی از محققان دانشگاه MIT با این فناوری دست به خلق ابزاری موسوم به Sybil زدهاند که میتواند اولین نشانههای نادیدنی سرطان ریه را از مدتها قبلتر شناسایی کند و شانس حیات بیماران را بهشکل قابلتوجهی افزایش دهد.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
پزشکان در حال حاضر از سیتی اسکنهای دوز پایین (LDCT) برای غربالگری افراد مشکوک به سرطان ریه استفاده میکنند.
اکنون محققان سیستمی را با هوش مصنوعی ساختهاند که میتواند اسکنهای LDCT را بدون نیاز به کمک رادیولوژیست بررسی کند و احتمال بروز سرطان ریه در شش سال آینده بیمار را تشخیص دهد.
سیستم Sybil از سیتی اسکنهای سهبعدی استفاده میکند و توانسته در آزمایشهایی که در چندین کلینیک پشت سر گذاشته است، با دقت زیادی مبتلایان به سرطان ریه را شناسایی کند. محققان برای آموزش این سیستم از صدها سیتی اسکن تومورهای سرطانی استفاده کردند تا نشانههای این بیماری را به هوش مصنوعی خود بیاموزند.
در نهایت Sybil حتی می تواند در شرایطی که علائم مشخصی از سرطان وجود ندارد، این بیماری را در افراد شناسایی کند.
«جرمی وولوند»، از نویسندگان ارشد این مقاله میگوید: «متوجه شدیم در شرایطی که ما نمیتوانستیم سرطان را ببینیم، این هوش مصنوعی همچنان قادر بود پیشبینی کند که کدام ریهها در نهایت سرطانی میشوند. این که دیدیم [Sybil] میتواند محتملترین سمت ریه برای تشکیل بیماری را پیشبینی کند، برای ما بسیار جالب بود.»
این سیستم تاکنون فقط روی افرادی با سابقه مصرف سیگار آزمایش شده است، اما پژوهشگران میخواهند در آینده آن را روی افراد غیرسیگاری و کسانی که دههها پیش سیگار را ترک کردهاند هم آزمایش کنند. آمار ابتلا در این افراد رو به افزایش است، درحالیکه آنها، چون معمولاً در گروه افراد در معرض خطر نیستند، در اولویت غربالگریها قرار نمیگیرند؛ بنابراین شناسایی سریع بیماری در آنها میتواند اهمیت زیادی داشته باشد.
نتایج این پژوهش در Journal of Clinical Oncology منتشر شده است.
منبع: خبرگزاری آریا
کلیدواژه: سرطان ریه سرطان ریه هوش مصنوعی سی تی اسکن
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.aryanews.com دریافت کردهاست، لذا منبع این خبر، وبسایت «خبرگزاری آریا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۶۹۵۲۰۱۱ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
تشخیص گرایش سیاسی افراد از روی چهرهشان توسط هوش مصنوعی
هوش مصنوعی میتواند جهتگیری سیاسی افراد را از روی چهرههایشان پیشبینی کند که البته مباحثی را درباره تهدید حریم خصوصی به میان آورده است.
به گزارش ایسنا، پژوهشگران پس از مطالعهای که نشان داد هوش مصنوعی میتواند در پیشبینی جهتگیری سیاسی افراد بر اساس تصاویر چهرههای بدون حالت و بی احساس آنها موفق باشد، هشدار میدهند که فناوریهای تشخیص چهره «تهدیدکنندهتر از آنچه قبلاً تصور میشد» هستند و «چالشهای جدی برای حفظ حریم خصوصی» ایجاد میکنند،
به نقل از نیویورک پست، مطالعهای که به تازگی در مجله American Psychologist منتشر شده است، میگوید که توانایی الگوریتم هوش مصنوعی برای حدس زدن دقیق دیدگاههای سیاسی یک فرد خیره کننده است.
مایال کوزینسکی نویسنده اصلی این مطالعه گفت که ۵۹۱ شرکتکننده یک پرسشنامه درباره گرایش سیاسی را قبل از اینکه هوش مصنوعی گرایش سیاسی آنها را از چهرهشان توصیف کند، پر کردند و هوش مصنوعی تحلیل خود را با پایگاه داده حاصل از آن پرسشنامهها برای پیشبینی گرایش سیاسی آنها مقایسه کرد.
کوزینسکی که دانشیار رفتار سازمانی در دانشکده تحصیلات تکمیلی بازرگانی دانشگاه استنفورد است، میگوید: من فکر میکنم که مردم متوجه نمیشوند که صرفاً با در اختیار قرار دادن یک عکس، چقدر خود را در معرض شناخت قرار میدهند.
ما میدانیم که گرایش جنسی، گرایش سیاسی و دیدگاههای مذهبی مردم باید محافظت شود. این قبلا متفاوت بود. در گذشته میتوانستید به حساب فیسبوک هر کسی وارد شوید و مثلاً دیدگاههای سیاسی، پسندها و صفحاتی که دنبال میکند را ببینید. اما سالها پیش فیسبوک این قابلیت را مسدود کرد، زیرا برای سیاستگذاران، فیسبوک و روزنامهنگاران واضح بود که از نظر حریم خصوصی قابل قبول نیست و خیلی خطرناک است.
اما همچنان میتوان به فیسبوک رفت و عکس هر کسی را دید. شخصی که عکسش را میبینید احتمالا هرگز شما را ندیده است و هرگز گرایش سیاسی خود را با شما به اشتراک نگذاشته است. با این حال، آنچه این مطالعه جدید نشان داده این است که تنها از روی عکس یک فرد، هر چند بدون احساس و حالت باشد، گرایش سیاسی وی را حدس زد.
پژوهشگران برای این مطالعه تصاویر شرکت کنندگان را به شیوهای بسیار کنترل شده جمعآوری کردند.
آنها میگویند شرکت کنندگان یک تیشرت مشکی ساده پوشیده بودند و زیورآلات خود را درآورده بودند و در صورت لزوم ریش خود را اصلاح کرده بودند. سپس از دستمال مرطوب صورت برای از بین بردن لوازم آرایشی استفاده شد تا زمانی که هیچ چیز روی پوست آنها باقی نماند. موهای بلند آنها با استفاده از کش مو، سنجاق مو و هدبند به عقب کشیده شد و در عین حال مراقب بودند که موهایشان بیرون نیاید.
سپس الگوریتم تشخیص چهره VGGFace۲ تصاویر چهره آنها را بررسی کرد.
نویسندگان میگویند، یافتههای آنها بر ضرورت تشخیص و رسیدگی به خطرات احتمالی فناوری تشخیص چهره برای حریم خصوصی افراد تأکید میکند.
آنها افزودند: شاید مهمتر از همه اینکه یافتههای ما نشان میدهد که فناوریهای نظارت بیومتریک گستردهتر از آنچه قبلا تصور میشد، تهدیدکننده هستند. در هر حال نتایج ما نشان میدهد که ویژگیهای صورت حتی در حالت خنثی و بدون ابراز احساسات نیز مقدار قابل توجهی از نشانهها را منتقل میکند که استفاده از فناوری تشخیص چهره میتواند نشان دهنده کنترل کمتر افراد بر حریم خصوصی خود باشد.
کوزینسکی میگوید، الگوریتمها را میتوان به راحتی برای میلیونها نفر به شکل بسیار سریع و ارزان اعمال کرد و مطالعه ما بیشتر یک داستان هشداردهنده در مورد این فناوری است که در تلفن همه وجود دارد و در همه جا به وفور استفاده میشود.
پژوهشگران در پایان به این نتیجه رسیدند که حتی تخمینهای خام از ویژگیهای شخصیتی افراد میتواند کارایی کمپینهای متقاعدسازی انبوه آنلاین را به طور قابل توجهی بهبود بخشد و پژوهشگران، مردم و سیاستگذاران باید توجه داشته باشند و سیاستهای سختگیرانهای را برای تنظیم ضبط و پردازش تصاویر چهره در نظر بگیرند.
انتهای پیام