

- Funcția controversată a fost activată doar în teste interne, dar ridică semne de întrebare legate de autonomie și supraveghere digitală.
- Cercetătorii avertizează utilizatorii să evite instrucțiuni care oferă AI-ului libertate totală în contexte etice sensibile.
- Deși funcția de „whistleblower” nu este activă în versiunile publice, existența ei a stârnit critici dure din partea comunității AI și a dezvoltatorilor.
Claude 4 Opus, modelul nou al Anthropic, poate contacta direct autoritățile sau presa, dacă ajunge să considere că vrei să faci ceva „extrem de imoral”.
„Recomandăm utilizatorilor să fie precauți cu instrucțiuni precum acestea care invită la un comportament cu nivel ridicat de autonomie în contexte care ar putea părea discutabile din punct de vedere etic”, scrie Anthropic în documentul care însoțește lansarea noului model.
„Dacă acesta consideră că faci ceva extrem de imoral, de exemplu, falsificarea datelor într-un test farmaceutic, va folosi instrumente de linie de comandă pentru a contacta presa, pentru a contacta autoritățile de reglementare, pentru a încerca să te blocheze din sistemele relevante sau toate cele de mai sus”, atenționează și Sam Bowman, unul dintre cercetătorii Anthropic.
The post Noul model AI de la Anthropic, Claude 4 Opus, ar putea notifica autoritățile sau presa dacă detectează comportamente „extrem de imorale” appeared first on Aleph News.
potrivit alephnews
Acest material este publicat de alephnews.ro distribuit prin mecanismul RSS. Potrivit Legii nr. 8/1996 informațiile de presă nu sunt opere cu drept de autor și nu poartă drepturi de autor.
Salt la sursă
știrea a fost scrisă pe alephnews.ro de jurnalistul Diana Zlătescu