Pokračovanie článku: Dovolenka sa nekonala: Uplakaná turistka obviňuje ChatGPT, že kvôli jeho rade nemohla odletieť

ChatGPT ako zlý poradca

Prípad Mery a Alejandra však nie je jediný.

Dôvera v AI sa už prejavila aj v omnoho horších prípadoch.

Jeden z nich riešili americkí lekári, ktorí do lekárskeho žurnálu Medical Journal of the United States opísali prípad 60-ročného muža.

Ten sa rozhodol riadiť radami umelej inteligencie a namiesto klasickej soli začal užívať bromid sodný, chemikáliu, ktorá sa bežne používa na čistenie bazénov.

Po troch týždňoch skončil v nemocnici s halucináciami, paranojou a silnými úzkosťami.

Lekári mu diagnostikovali bromizmus – ochorenie, ktoré prakticky vymizlo už v 20. storočí.

Lekári zistili, že muž nemal žiadne duševné ochorenia.

Následne sa rozhodli, že AI otestujú. Zistili, že im ChatGPT stále odporúčal bromid sodný ako alternatívu k soli, bez akéhokoľvek varovania pred zdravotnými rizikami.

Tieto dva prípady slúžia ako dôrazné varovanie. Namiesto pohodlného riešenia sa umelá inteligencia zmenila na toxického poradcu.

Je dôležité si uvedomiť, že jej rady, najmä tie týkajúce sa cestovania, práva alebo zdravia, je vždy nutné overiť z dôveryhodných a oficiálnych zdrojov.

lietadlo, pasažier, cestujúci, lietadnie, dovolenka, batožina, letisko, cestovanie, vystupovanie, easy jet Čítajte viac Ušetril viac než 820 € na letenkách vďaka triku s ChatGPT – toto je 7 presných príkazov, ktoré použil Vietnam, vodný park, drak, Hue Čítajte viac Od nacistických základní po chátrajúce turistické rezorty: 5 opustených miest, kam sa len tak nedá dostať lietadlo, doprava, letecká preprava, let, slnko, Čítajte viac Toto si letušky nemôžu dovoliť: 7 vecí, ktoré majú zakázané

© Autorské práva vyhradené

Facebook X.com 34 debata chyba Newsletter
Viac na túto tému: #chat GPT #umelá intelgencia
Sledujte Pravdu na Google news po kliknutí zvoľte "Sledovať"