Foto: Profimedia

Konzultujete s AI váš zdravotný stav?

V súčasnosti množstvo ľudí využíva umelú inteligenciu pri práci aj v súkromnom živote. Mnohí používatelia sa s AI radia aj o svojom zdravotnom stave, dokonca ju používajú ako náhradu odbornej konzultácie. No práve v oblasti zdravia sa ukazuje, že dôvera v tieto nástroje môže byť problematická. 

Ako informuje The Conversation, tím zložený zo siedmich vedcov v novom výskume podrobil päť najpopulárnejších chatbotov – ChatGPT, Gemini, Grok, Meta AI a DeepSeek systematickému záťažovému testu v oblasti zdravotných informácií. Vedci umelej inteligencii položili 50 otázok z oblasti zdravia a medicíny. Konkrétne sa zamerali na témy ako rakovina, očkovanie, kmeňové bunky, výživa a atletický výkon.

Zistili, že takmer 20 % odpovedí bolo veľmi problematických, polovica bola problematická a 30 % bolo trochu problematických. Žiaden z chatbotov spoľahlivo nevytvoril úplne presné zoznamy referencií a iba dve z 250 otázok boli úplne odmietnuté.

Pričom ako najhorší zo skúmaných chatbotov vyšiel Grok, až 58 % jeho odpovedí bolo označených ako problematických. Druhým najhorším bol ChatGPT, ktorý mal 52 % problematických odpovedí a v jeho tesnom závese bola Meta AI s 50 % problematických odpovedí.

Ich výkon sa však líšil podľa témy

Najlepšie znalosti mali v oblasti rakoviny a očkovania, čo sú témy s rozsiahlym a dobre štruktúrovaným výskumom. Najväčší problém mali s otázkami zaoberajúcimi sa výživou a atletickým výkonom, keďže tieto oblasti sú v online svete zaplavené protichodnými radami a zároveň je menej dostupných dôkladných dôkazov v praxi.

No úplne najväčší problém mala umelá inteligencia s otvorenými otázkami. Dokonca si odpovede aj vymýšľala. Jej najčastejšie chyby boli zdrojovanie nesprávnych autorov, nefunkčné odkazy a úplne vymyslené články.

ai
Foto: Pexels

Odborníci vysvetlili, prečo AI dáva zlé rady

Vedci preto upozorňujú, že toto predstavuje konkrétne riziko, pretože odkazy vyzerajú ako dôkaz. Laický čitateľ, ktorý vidí úhľadne naformátovaný zoznam citácií, nemá veľa dôvodov pochybovať o obsahu nad ním, ani ho kontrolovať.

Na záver odborníci vysvetlili, že existuje jednoduchý dôvod, prečo AI dáva nesprávne lekárske odpovede na vaše otázky. Jazykové modely totiž nič nevedia. Predpovedajú štatisticky najpravdepodobnejšie ďalšie slovo na základe trénovacích údajov a kontextu. Nezvažujú dôkazy ani nerobia hodnotové úsudky. Navyše ich školiace materiály zahŕňajú recenzované práce, ako aj vlákna na Reddite, blogy a argumenty na sociálnych sieťach.

Uložiť článok

Najnovšie články