بر اساس مطالعه جدیدی که بر روی نامزدهای داوری بالقوه در ایالات متحده در ژانویه مجله پزشکی هسته ای (JNM) منتشر شده است ، پزشکانی که از توصیه های هوش مصنوعی (AI) پیروی می کنند ، ممکن است کمتر از آنچه تصور می شود مسئول قصور پزشکی باشند. این مطالعه اولین اطلاعات مربوط به مسئولیت بالقوه پزشکان در استفاده از هوش مصنوعی در پزشکی شخصی را ارائه می دهد ، که اغلب می تواند از مراقبت های استاندارد منحرف شود.
ابزارهای جدید هوش مصنوعی می توانند به پزشکان در توصیه های درمانی و تشخیص ، از جمله تفسیر تصاویر پزشکی کمک کنند. اما اگر پزشکان به ابزارهای هوش مصنوعی تکیه کنند و همه چیز اشتباه پیش برود ، چقدر احتمال دارد هیئت منصفه آنها را از نظر قانونی مسئول بداند؟ بسیاری از این موارد هرگز به هیئت منصفه نمی رسند ، اما برای یکی از این موارد ، پاسخ به نظرات و شهادت متخصصان پزشکی و تصمیم گیری هیئت منصفه بستگی دارد. مطالعه ما اولین موردی است که بر آخرین جنبه تمرکز کرده است و نگرش های داوران بالقوه در مورد پزشکانی که از هوش مصنوعی استفاده می کنند را مطالعه کرده است. "
کوین توبیا ، JD ، PhD ، استادیار حقوق ، مرکز حقوق دانشگاه جورج تاون ، واشنگتن دی سی
برای تعیین قضاوت های احتمالی هیئت منصفه درباره مسئولیت ، محققان یک مطالعه آنلاین را روی نمونه ای از 2000 بزرگسال در ایالات متحده انجام دادند. هر شرکت کننده یکی از چهار سناریو را مطالعه کرد که در آن سیستم هوش مصنوعی توصیه دوز دارو را به پزشک ارائه می داد. سناریوها توصیه هوش مصنوعی (دوز استاندارد یا غیر استاندارد دارو) و تصمیم پزشک (پذیرش یا رد توصیه هوش مصنوعی) را تغییر می دهند. در همه سناریوها ، تصمیم پزشک متعاقباً باعث آسیب به بیمار می شود.
سپس شرکت کنندگان در مطالعه تصمیم پزشک را با ارزیابی اینکه آیا تصمیم درمانی که می تواند توسط "اکثر پزشکان" و "پزشک معقول" در شرایط مشابه گرفته شود ، ارزیابی کردند. نمرات بالاتر نشان دهنده توافق بیشتر و بنابراین مسئولیت کمتر است.
نتایج حاصل از مطالعه نشان داد که شرکت کنندگان از دو عامل مختلف برای ارزیابی استفاده پزشکان از سیستم های هوش مصنوعی پزشکی استفاده کردند: (1) استاندارد بودن درمان ارائه شده و (2) اینکه آیا پزشک از توصیه هوش مصنوعی پیروی می کند. شرکت کنندگان در مورد پزشکانی که توصیه استاندارد هوش مصنوعی را پذیرفتند نسبت به کسانی که آن را رد کردند ، قضاوت کردند. با این حال ، اگر یک پزشک توصیه غیر استاندارد هوش مصنوعی دریافت می کرد ، با رد آن از مسئولیت ایمن تر تشخیص داده نمی شد.
در حالی که ادبیات قبلی نشان می دهد افراد غیر شخصی از هوش مصنوعی بیزار هستند ، این مطالعه نشان داد که آنها در واقع با پذیرش توصیه های پزشکی هوش مصنوعی توسط پزشک مخالف نیستند. این یافته نشان می دهد که تهدید مسئولیت قانونی پزشک برای پذیرش توصیه های هوش مصنوعی ممکن است کوچکتر از آن چیزی باشد که معمولاً تصور می شود.
در دیدگاه دعوت شده در مورد مقاله JNM ، W. Nicholson Price II و همکارانش خاطرنشان کردند: "مسئولیت پذیری به احتمال زیاد بر رفتار پزشکانی که تصمیم می گیرند از توصیه های هوش مصنوعی پیروی کنند یا خیر ، بیمارستانهایی که ابزارهای هوش مصنوعی را برای استفاده پزشکان پیاده می کنند یا توسعه دهندگانی که ایجاد می کنند ، تأثیر می گذارد. این ابزار در وهله اول است. مطالعه توبیا و همکاران باید به عنوان یک ساحل مفید برای کارهای بیشتر برای آگاهی از پتانسیل ادغام هوش مصنوعی در عمل پزشکی عمل کند. "
در مقاله ای مرتبط با JNM ، نویسندگان مطالعه با ایرن بووات ، دکترا و کن هرمان ، MD ، MBA ، هر دو در زمینه پزشکی هسته ای و تصویربرداری مولکولی مصاحبه کردند. در مصاحبه ، نویسندگان در مورد اینکه آیا نتایج مطالعه آنها در سایر کشورها صادق است ، آیا هوش مصنوعی را می توان نوعی "متخصص پزشکی" در نظر گرفت و مزایای استفاده از هوش مصنوعی از منظر حقوقی ، در میان موضوعات دیگر.