- OpenAI oferă 1 milion de dolari pentru studii despre moralitatea AI.
- Scopul este de a învăța algoritmii să prezică judecățile morale umane.
- Problema constă în faptul că moralitatea umană este subiectivă și foarte dificil de codificat.
OpenAI visează la o Inteligență Artificială care să aibă principii morale. De aceea, Sam Altman finanțează cercetări pentru a dezvolta algoritmi care imită judecățile morale umane. Proiectul, condus de Duke University, primește un grant de 1 milion USD.
Ce presupune proiectul „Research AI Morality”
Proiectul este condus de profesorul de etică practică Walter Sinnott-Armstrong și cercetătoarea Jana Borg, de la Duke University. Scopul acestuia este de a dezvolta algoritmi capabili să prezică modul în care oamenii judecă moral situații complexe. Exemplele includ dileme din domenii precum medicina, unde se decid alocările de organe, sau dreptul, unde reglementările juridice pot intra în conflict cu etica.
OpenAI a acordat acest grant de 1 milion USD pentru o perioadă de trei ani, iar proiectul se va încheia în 2025. Deși detaliile despre noua cercetare sunt limitate, aceștia speră să folosească AI pentru a înțelege mai bine judecățile etice umane și a le aplica în scenarii reale.
Care sunt problemele cu această inițiativă de dezvoltare a unei etici AI
Moralitatea este un concept subiectiv, greu de tradus în algoritmi. AI actuale, ca modelul Ask Delphi, au arătat limitări evidente. Un exemplu: rearanjarea întrebărilor făcea Delphi să aprobe acțiuni evident imorale. Modelele de învățare automată sunt limitate de datele lor de antrenament, care reflectă predominant valori occidentale și industrializate. Influențele culturale și etice pot exclude perspectivele altor comunități globale, făcând moralitatea AI o sarcină aproape imposibilă.
Este posibilă codificarea moralității
Filozofii dezbat de mii de ani ce înseamnă „moralitatea corectă”. Diferite sisteme etice, precum kantianismul (bazat pe reguli) și utilitarismul (maximizarea binelui colectiv), oferă perspective contradictorii. Algoritmii ar trebui să integreze aceste paradigme diverse și să țină cont de preferințele culturale globale. OpenAI și partenerii săi au de trecut un prag înalt, iar succesul final rămâne incert.
Moralitatea AI ar putea transforma modul în care luăm decizii etice. Însă, până atunci, rămân numeroase obstacole tehnice, etice și filosofice care trebuie depășite.
The post Sam Altman investește un milion de dolari pentru studii despre moralitatea AI. Ce presupune proiectul „Research AI Morality” appeared first on Aleph News.
potrivit alephnews
Acest material este publicat de alephnews.ro distribuit prin mecanismul RSS. Potrivit Legii nr. 8/1996 informațiile de presă nu sunt opere cu drept de autor și nu poartă drepturi de autor.
Salt la sursă
știrea a fost scrisă pe alephnews.ro de jurnalistul Damian Felix