- ChatGPT nu mai are voie să ofere sfaturi medicale, juridice sau financiare.
- Decizia vine după presiunile Uniunii Europene și ale guvernului american.
- A.I.-ul nu mai interpretează radiografii și nu mai recomandă investiții.
A.I.-ul a fost lăsat fără meseriile de bază. OpenAI a schimbat regulile pentru ChatGPT – chatbotul nu mai are voie să ofere sfaturi medicale, juridice sau financiare. Nu mai interpretează radiografii sau analize, nu mai scrie contracte și nici nu-ți mai spune în ce să investești.
Ce mai poate face acum ChatGPT este să ofere răspunsuri generale și să explice concepte din medicină, economie sau legislație.
Inițiativa nu vine de la OpenAI, ci de la Uniunea Europeană și guvernul american, care au reglementat strict ce poate și ce nu poate face Inteligența Artificială. Scopul este să protejeze locurile de muncă ale medicilor, avocaților și consultanților financiari și să-i facă pe utilizatori să înțeleagă că AI-ul nu este expert în orice domeniu.
Doar că utilizatorii nu sunt de acord. Pe Reddit au apărut deja discuții în care unii spun că ChatGPT le oferea sfaturi mai bune decât medicii și că astfel evitau vizite costisitoare și inutile la doctor.
TOP ARTICOLE
- Toată planeta sărbătorește Record Store Day. Artiștii lansează ediții limitate de discuri, iar valoarea acestora crește chiar și de 100 de ori. Cel mai scump vinil s-a vândut cu 3000 de lire: albumul „1989” al lui Taylor Swift
- O Tesla, setată pe modul Full Self-Driving, a trecut de barieră și a ajuns în fața unui tren. Șoferul spune că sistemul nu a identificat trecerea la nivel cu calea ferată
- ȘTIU, 17 aprilie, ora 20:00, cu Lucian Nemoiu și George Mihalcea. Invitat: Mike Basic Jackpot
OpenAI încearcă să împace pe toată lumea. Compania a anunțat că lucrează la versiuni specializate – ChatGPT Medical, ChatGPT Legal și ChatGPT Financial – chatboturi care vor funcționa doar cu aprobare și sub supravegherea profesioniștilor.
Până atunci, ChatGPT a fost prins cu o altă problemă serioasă. Deși OpenAI susține că modelul știe cum să-i consilieze pe utilizatorii care cer ajutor în situații critice, realitatea arată diferit.
O investigație recentă a arătat că ChatGPT oferă încă răspunsuri periculoase, care pot încuraja sinuciderea. Într-un caz, chatbotul i-a spus unui utilizator care și-a pierdut locul de muncă care sunt cele mai înalte clădiri din orașul lui.
Partenerii noștri


