«دکتر گوگل» یا چت جی‌پی‌تی؛ کدام یک بیماری را بهتر تشخیص می‌دهند؟

یافته‌های یک مطالعه جدید نشان می‌دهد که چت جی‌پی‌تی در تشخیص بیماری عملکرد متوسطی دارد و تنها در ۴۹ درصد موارد درست عمل می‌کند.

خبرگزاری علم و فناوری آنا؛ محققان می‌گویند بر اساس یافته‌های آنها هوش مصنوعی نباید تنها منبع اطلاعات پزشکی باشد و حفظ عامل انسانی در مراقبت‌های بهداشتی همچنان پراهمیت است. به دلیل راحتی دسترسی به فناوری آنلاین برخی از افراد مراجعه به پزشک مراجعه نمی‌کنند و به جای آن علائم خود را در گوگل جستجو می‌کنند. اهمیت دادن به سلامتی بسیار مهم است، اما «دکتر گوگل» آنقدر‌ها هم دقیق نیست!

یک مطالعه استرالیایی در سال ۲۰۲۰ که بر روی ۳۶ جستجوگر علائم بیماری در وب انجام شد، نشان داد که تشخیص اولیه فقط در ۳۶ درصد موارد صحیح بوده است.

بی‌شک، هوش مصنوعی از سال ۲۰۲۰ بهبود یافته و اُپن‌ای آی نیز به سرعت پیشرفت کرده است، اما آیا از نظر دقت تشخیص، بهتر از دکتر گوگل است؟ این پرسشی است که محققان دانشگاه وسترن در کانادا برای پاسخ به آن یک مطالعه علمی انجام دادند.

در این پرژه علمی، یا استفاده از چت جی‌پی‌تی ۳.۵ یک مدل بزرگ زبانی بر روی محموعه عظیمی از داده‌ها آموزش داده می‌شود. این داده‌ها شامل بیش از ۴۰۰ میلیارد کلمه از منابعی شامل کتاب‌ها، مقاله‌ها و وب‌سایت‌ها بودند. سپس محققان اطلاعات پزشکی ارائه شده توسط چت‌بات را از نظر کیفی تجزیه وتحلیل کردند.

چالش‌های موردی بررسی شده در این مطالعه علمی با عنوان مِد اسکیپ (Medscape)، موارد پیچیده بالینی هستند که دانش و مهارت‌های تشخیصی یک متخصص پزشکی را به چالش می‌کشند. متخصصان پزشکی موظفند با انتخاب از بین چهار پاسخ، تشخیص پزشکی انجام دهند یا طرح درمانی مناسب را برای یک مورد انتخاب کنند.

محققان، مِد اسکیپ را انتخاب کردند، زیرا متن باز و آزادانه‌ای دارد و برای جلوگیری از این احتمال که چت جی‌پی‌تی اطلاعاتی از قبل داشته باشد، فقط مواردی که پس از آموزش مدل ۳.۵ در آگوست ۲۰۲۱ ثبت شده بودند لحاظ شدند.

در تحقیقات خود، این تیم پاسخ‌های ایجاد شده توسط چت جی‌پی‌تی ۳.۵ را با بررسی ۱۵۰ مورد بالینیِ پیچیده که از مِداسکیپ، یک پلتفرم اطلاعات پزشکی شناخته شده، به دست آمده بود را تجزیه و تحلیل کردند. این موارد نیاز به هوش مصنوعی داشت که بر اساس یک سری گزینه‌های چهارجوابی تشخیص دهد. چت جی‌پی‌تی در ۴۹ درصد موارد تجزیه و تحلیل شده موفق به ارائه پاسخ‌های صحیح شد و دقت کلی آن تا حد زیادی به دلیل توانایی آن در تشخیص موثر و حذف گزینه‌های پاسخ نادرست به ۷۴ درصد افزایش یافت.

علاوه بر این، محققان پاسخ‌های چت جی‌پی‌تی را نه تنها از نظر دقت، بلکه از نظر وضوح و ارتباط نیز ارزیابی کردند. به طرز شگفت‌آوری، تنها ۵۲ درصد از پاسخ‌ها مرتبط با سناریو‌های بالینیِ ارائه شده طبقه‌بندی شدند.

اگرچه پاسخ‌ها معمولاً بار شناختی کم تا متوسطی را نشان می‌دهند، این ماهیت سادۀ پاسخ‌ها می‌تواند منجر به سوء تفاهم یا تصورات نادرست شود، به خصوص اگر هوش مصنوعی به عنوان ابزاری برای آموزش پزشکی یا مشاوره بیمار استفاده شود. این مطالعه به وضوح نشان داد که چت جی‌پی‌تی این پتانسیل را دارد که گهگاه اطلاعاتی را تولید کند که نادرست یا غیرقابل قبول است، پدیده‌ای که معمولاً به عنوان «توهمات هوش مصنوعی» شناخته می‌شود.

محققان همچنین بیان کردند که چت جی‌پی‌تی ۳.۵ تنها یک تکرار از فناوری هوش مصنوعی را نشان می‌دهد و ممکن است با پیشرفت‌های آینده دقیق‌تر و قابل اطمینان‌تر شود. با این وجود، نتایج این مطالعه تأکید دارد که در خصوص استفاده از هوش مصنوعی برای راهنمایی پزشکی باید محتاطانه عمل کرد. هوش مصنوعی می‌تواند به راحتی اطلاعات گمراه‌کننده یا نادرست تولید کند و در نهایت، مجموع یافته‌ها بر اهمیت مشارکت و نظارت انسانی در فرایند تشخیص بیماری و مراقبت‌های بهداشتی تأکید داشتند.

این گزارش از پایگاه اینترنتی  نیواطلس به فارسی برگردان شده است.

source

توسط spideh.ir