OpenAI dizolvă echipa care urmărea riscurile pe termen lung ale inteligenței artificiale, la mai puţin de un an de la anunţarea acesteia
OpenAI şi-a desfiinţat echipa concentrată pe riscurile pe termen lung ale inteligenţei artificiale, la doar un an după ce compania a anunţat formarea acesteia, a confirmat vineri o sursă familiarizată cu situaţia, pentru CNBC, transmite News.ro.
Persoana, care a vorbit sub rezerva anonimatului, a spus că unii dintre membrii echipei sunt reatribuiţi în mai multe alte echipe din cadrul companiei.
Vestea vine la câteva zile după ce ambii şefi de echipă, cofondatorul OpenAI Ilya Sutskever şi Jan Leike, şi-au anunţat plecarea de la startupul susţinut de Microsoft.
Leike a scris vineri că ”cultura şi procesele de siguranţă ale OpenAI au trecut pe planul din spate, comparativ cu produsele strălucitoare”.
Ştirea a fost publicată pentru prima dată de Wired.
Echipa de Superalignment a OpenAI, anunţată anul trecut, s-a concentrat pe ”descoperiri ştiinţifice şi tehnice pentru a conduce şi controla sistemele AI mult mai inteligente decât noi”. La acea vreme, OpenAI a spus că va dedica 20% din puterea sa de calcul iniţiativei, pe parcursul a patru ani.
Sutskever şi Leike şi-au anunţat marţi plecările pe X, la o distanţă de ore, dar vineri Leike a împărtăşit mai multe detalii despre motivul pentru care a părăsit startupul.
”!M-am alăturat pentru că am crezut că OpenAI ar fi cel mai bun loc din lume pentru a face această cercetare. Cu toate acestea, nu sunt de acord de ceva timp cu conducerea OpenAI cu privire la priorităţile de bază ale companiei, până când am ajuns la un punct de rupere”, a scris Leike pe X.
Leike a scris că consideră că această companie ar trebui să se concentreze mai mult mai mult pe securitate, monitorizare, pregătire, siguranţă şi impact societal.
”Aceste probleme sunt destul de greu de rezolvat şi sunt îngrijorat că nu suntem pe o traiectorie pentru a ajunge acolo. În ultimele luni, echipa mea a navigat împotriva vântului. Uneori ne luptam pentru calcule şi era din ce în ce mai greu să facem această cercetare crucială”, a scris el.
Leike a adăugat că OpenAI trebuie să devină ”o companie AGI pe primul loc în siguranţă”.
”Construirea unor maşini mai inteligente decât oamenii este un efort în mod inerent periculos. OpenAI îşi asumă o responsabilitate enormă în numele întregii umanităţi. Dar, în ultimii ani, cultura şi procesele de siguranţă au trecut pe planul din spate comparativ cu produsele strălucitoare”, a scris el.
Leike nu a răspuns imediat la o solicitare de comentariu, iar OpenAI nu a oferit imediat un comentariu.
Plecările importante au loc la câteva luni după ce OpenAI a trecut printr-o criză de conducere, care l-a implicat pe cofondatorul şi CEO-ul Sam Altman.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankCitește și...
© 2024 G4Media.ro - Toate drepturile rezervate
Acest site foloseşte cookie-uri.
Website găzduit de Presslabs.
2 comentarii