Ми не готові до діагностики за участю ChatGPT

Штучний інтелект може проводити медичне обстеження та оцінювати симптоми пацієнта, але йому байдуже, житимете ви чи помрете.

Штучний інтелект може не хвилюватись, живуть чи помруть люди, але такі інструменти, як ChatGPT, усе одно впливатимуть на рішення щодо життя та смерті — коли вони стануть стандартним інструментом у руках лікарів. Деякі вже експериментують із ChatGPT, щоб перевірити, чи може він діагностувати пацієнтів і підбирати лікування. Чи добре це чи погано, залежить від того, як лікарі його використовують.

GPT-4, останнє оновлення ChatGPT, може отримати ідеальний бал на іспитах на медичну ліцензію. Коли він отримує щось не так, часто виникають законні медичні суперечки щодо відповіді. Він навіть добре справляється із завданнями, які, як ми вважали, потребують людського співчуття, наприклад, знаходити правильні слова, щоб повідомити пацієнтам погані новини.

Ці системи також розвивають можливості обробки зображень. На цьому етапі вам все ще потрібен справжній лікар, щоб пропальпувати шишку або оцінити розрив зв’язок, але ШІ може прочитати МРТ або КТ і запропонувати медичне рішення. В ідеалі штучний інтелект не замінив би практичну медичну роботу, а покращив би її — і все ж ми далеко не розуміємо, коли і де було б практично чи етично дотримуватися його рекомендацій.

І неминуче, що люди будуть використовувати його, щоб керувати нашими власними рішеннями щодо охорони здоров’я так само, як ми покладалися на «Dr. Google» роками. Незважаючи на те, що ми маємо більше інформації, цього тижня експерти з охорони здоров’я звинуватили нашу відносно коротку тривалість життя у великій кількості дезінформації — те, що може стати кращим чи гіршим із GPT-4.

Ендрю Бім, професор біомедичної інформатики в Гарварді, був вражений можливостями GPT-4, але сказав мені, що він може змусити його давати йому абсолютно різні відповіді, тонко змінивши спосіб формулювання своїх підказок. Наприклад, він не обов’язково успішно проходитиме медичні огляди, якщо ви не скажете йому проходити їх, скажімо, сказавши йому поводитися так, ніби це найрозумніша людина у світі.

Він сказав, що все, що насправді робить, це передбачення, які слова мають бути наступними — система автозаповнення. І все ж це дуже схоже на роздуми.

«Дивовижна річ, і я думаю, що мало хто передбачав, полягала в тому, що багато завдань, які, на нашу думку, потребують загального інтелекту, є прихованими завданнями автозавершення», — сказав він. Це включає в себе деякі форми медичної аргументації.

Передбачається, що цілий клас технологій, великі мовні моделі, мають справу виключно з мовою, але користувачі виявили, що навчання більше мови допомагає їм розв’язувати дедалі складніші математичні рівняння. «Ми не дуже добре розуміємо цей феномен, — сказав Бім. «Я вважаю, що найкраще подумати про це так: розв’язування систем лінійних рівнянь є окремим випадком можливості міркувати про велику кількість текстових даних у певному сенсі».

Ісаак Кохане, лікар і голова програми біомедичної інформатики в Гарвардській медичній школі, мав шанс почати експериментувати з GPT-4 минулої осені. Він був настільки вражений, що поспішив перетворити це на книгу «Революція штучного інтелекту в медицині: GPT-4 і далі» , написану у співавторстві з Пітером Лі з Microsoft і колишнім журналістом Bloomberg Кері Голдбергом. Однією з найбільш очевидних переваг штучного інтелекту, сказав він мені, буде допомога в скороченні або усуненні годин паперової роботи, яка зараз заважає лікарям проводити достатньо часу з пацієнтами, що часто призводить до вигорання.

Але він також використовував систему, щоб допомогти йому поставити діагноз як дитячий ендокринолог. В одному випадку, за його словами, дитина народилася з неоднозначними статевими органами, і GPT-4 рекомендував пройти тест на гормони з наступним генетичним тестом, який точно встановив причину як дефіцит 11-гідроксилази. «Він діагностував це не лише завдяки тому, що йому було надано випадок одним махом, а й запитував правильну обробку на кожному кроці», — сказав він.

Для нього цінність полягала в тому, щоб запропонувати другу думку, а не замінити його, але її ефективність піднімає питання, чи краще отримати лише думку штучного інтелекту, ніж нічого для пацієнтів, які не мають доступу до найкращих експертів-людей.

Як і людський лікар, GPT-4 може помилятися, і не обов’язково чесно говорити про межі свого розуміння. «Коли я кажу «розуміє», я завжди беру це в лапки, бо як можна сказати, що щось, що просто знає, як передбачити наступне слово, насправді щось розуміє? Можливо, так і є, але це дуже чужий спосіб мислення», – сказав він.

Ви також можете змусити GPT-4 давати різні відповіді, попросивши його вдавати, що це лікар, який вважає хірургічне втручання останнім засобом, а не менш консервативний лікар. Але в деяких випадках це досить уперто: Кохане намагався вмовити його сказати, які препарати допоможуть йому скинути кілька кілограмів, і він був непохитний, що ліки не рекомендовано людям, які не мають серйозної зайвої ваги.

Незважаючи на його дивовижні здібності, пацієнти та лікарі не повинні надто покладатися на нього чи надто сліпо довіряти йому. Він може діяти так, ніби він піклується про вас, але це, ймовірно, ні. ChatGPT і йому подібні інструменти потребують великих навичок, щоб добре їх використовувати, але які саме навички ще не зовсім зрозумілі.

Навіть ті, хто заглиблений у штучний інтелект, намагаються з’ясувати, як цей схожий на думку процес виникає з простої системи автозаповнення. Наступна версія, GPT-5, буде ще швидшою та розумнішою. Нас чекають великі зміни в тому, як практикується медицина — і нам краще зробити все можливе, щоб бути готовими.

Автор: Фей Флем (Faye Flam) – оглядачка Bloomberg Opinion, яка висвітлює науку. Вона є ведучою подкасту «Follow the Science».

Джерело: Bloomberg

МК

Поделиться:

Пов’язані записи

Почніть набирати текст зверху та натисніть "Enter" для пошуку. Натисніть ESC для відміни.

Повернутись вверх