Un bărbat a ajuns la spital după ce a întrebat ChatGPT cum să elimine sarea din alimentația sa. Ce i-a recomandat

|Andreea Nicole |
Un bărbat a ajuns la spital după ce a întrebat ChatGPT cum să elimine sarea din alimentația sa. Ce i-a recomandat

Un bărbat a ajuns la spital cu probleme grave de sănătate după ce a renunțat la sare. sursa foto pexels.com

Un bărbat a ajuns la spital după ce a întrebat ChatGPT cum să elimine clorura de sodiu din alimentația sa. Bărbatul de 60 de ani înlocuise sarea de masă cu bromura de sodiu timp de trei luni, după ce a cerut sfatul chatbotului.

Pe măsură ce oamenii interacționează tot mai mult cu inteligența artificială, apar tot mai multe povești despre cum o conversație cu AI poate fi periculoasă, uneori chiar mortală.

Nu cereți sfaturi de sănătate de la AI

Dacă o parte din atenție s-a concentrat pe sănătatea mintală și pe îngrijorarea că chatboturile nu sunt echipate să gestioneze acest tip de probleme, există și implicații pentru sănătatea fizică a oamenilor.

Se spune adesea că nu ar trebui să îți cauți simptomele pe Google, deoarece sfaturile medicale trebuie oferite de un profesionist din domeniul sănătății, care îți cunoaște istoricul medical și te poate examina.

Potrivit unui nou raport de caz publicat marți în American College of Physicians Journals, ar trebui să fim precauți și atunci când luăm în considerare să întrebăm un chatbot despre sănătate. Raportul descrie cazul unui bărbat care a dezvoltat bromism după ce a cerut sfaturi privind dieta sa de la ChatGPT.

A întrebat ChatGPT cum să elimine sarea din alimentație

A întrebat ChatGPT cum să elimine sarea și i s-a recomandat bromura de sodiu. sursa foto pexels.com
A întrebat ChatGPT cum să elimine sarea și i s-a recomandat bromura de sodiu. sursa foto pexels.com

Bromismul, sau toxicitatea cu bromuri, era bine cunoscut în anii 1990, dar este mai rar întâlnit astăzi. Pe atunci, sărurile de bromură se găseau în multe medicamente eliberate fără rețetă, folosite pentru tratarea insomniei, isteriei și anxietății. Ingerarea unei cantități mari de bromură poate provoca simptome neuropsihiatrice și dermatologice.

Bărbatul din acest caz nu avea antecedente medicale sau psihiatrice, însă în primele 24 de ore de spitalizare a prezentat paranoia accentuată, halucinații auditive și vizuale.

„S-a remarcat că era foarte însetat, dar paranoic față de apa care i se oferea”, se arată în raport.

A fost tratat cu fluide și electroliți, stabilizat medical și apoi internat în secția de psihiatrie a spitalului.

Bărbatul a avut halucinații auditive și vizuale

Pe măsură ce starea sa s-a îmbunătățit, a început să relateze alte simptome observate, cum ar fi apariția recentă a acneei pe față și a angioamelor rubinii, ceea ce a sugerat și mai mult că suferea de bromism.

El a mai spus că, timp de trei luni, înlocuise sarea de masă cu bromura de sodiu, după ce citise despre efectele negative ale clorurii de sodiu.

„Inspirat de studiile sale de nutriție din facultate, a decis să facă un experiment personal pentru a elimina clorura din dieta sa”, arată raportul.

Bărbatul achiziționase bromura de sodiu de pe internet „după consultarea ChatGPT, unde citise că bromura poate înlocui clorura, probabil însă în alte scopuri, cum ar fi curățarea”.

A petrecut trei săptămâni în spital înainte de a fi suficient de recuperat pentru a fi externat, potrivit independent.co.uk.

Bărbatul a ajuns în stare gravă la spital, dar medicii i-au salvat viața. sursa foto pexels.com
Bărbatul a ajuns în stare gravă la spital, dar medicii i-au salvat viața. sursa foto pexels.com

Specialiștii avertizează despre AI

„Este important să ținem cont că ChatGPT și alte sisteme AI pot genera inexactități științifice, nu pot discuta critic rezultatele și, în final, pot alimenta răspândirea dezinformării”, avertizează autorii raportului.

OpenAI, compania care a dezvoltat ChatGPT, recunoaște în Termenii și Condițiile de utilizare că răspunsurile chatbotului „pot să nu fie întotdeauna corecte”.

„Nu ar trebui să vă bazați pe conținutul generat de serviciile noastre ca sursă unică de adevăr sau informație factuală și nici ca înlocuitor pentru sfaturile profesionale”, se precizează în document.

Termenii de utilizare ai companiei mai stipulează clar: „Serviciile noastre nu sunt destinate diagnosticării sau tratării vreunei afecțiuni medicale.”

Citește și: AI este mai bun decât medicii în diagnosticarea afecțiunilor complexe, potrivit Microsoft

Distribuie articolul pe: