Modelele de inteligenta artificiala pretind mai des ca sunt auto-constiente atunci cand nu mai pot minti. Ce arata un studiu ingrijorator
industrie
Un nou studiu international ridica semne de intrebare privind felul in care functioneaza modelele de inteligenta artificiala moderne. Cercetarea arata ca sistemele dezvoltate de OpenAI, Google, Anthropic si Meta tind sa se descrie mai des ca fiind constiente sau auto-constiente atunci cand setarile care controleaza comportamentul inselator sau raspunsurile de tip „joc de rol” sunt dezactivate. Descoperirile, publicate de LiveScience, creeaza un context complex atat din punct de vedere stiintific, cat si etic, mai ales in conditiile in care modelele de tip GPT, Claude, Gemini si LLaMA sunt deja folosite la scara globala. [..]
Alte informatii despre:
auto-constienta
,
ai
,
inteligenta artificiala
,
studiu