G4Media.ro

Lee Luda, chatbot-ul sud-coreean, a fost închis după discursuri de ură la…

Sursa foto: site luda.ai/ notificarea de închidere a chatbot-ului

Lee Luda, chatbot-ul sud-coreean, a fost închis după discursuri de ură la adresa comunității LGBT

Un popular chatbot (program de chat) sud-coreean, Lee Luda, a fost eliminat de pe Facebook Messenger după ce au fost primite mai multe plângeri că a folosit discursuri de ură față de minoritățile sexuale în conversațiile cu utilizatorii săi, scrie Guardian.

Lee Luda, persoana de inteligență artificială [AI], dezvoltată de startup-ul Scatter Lab din Seul pentru a imita o studentă de 20 de ani, a atras peste 750.000 de utilizatori în cele 20 de zile de la lansare.

Chatbot-ul a declanșat un val de plângeri după ce a folosit un limbaj ofensator la adresa membrilor comunității LGBT și a persoanelor cu dizabilități în timpul conversațiilor cu utilizatorii.

„Ne cerem scuze profunde pentru remarcile discriminatorii aduse minorităților. Acest lucru nu reflectă opinia companiei noastre și vom continua actualizările, încât astfel de cuvinte sau discursuri de ură să nu reapară „, a declarat compania într-un comunicat citat de agenția de știri Yonhap.

Lee Luda a impresionat utilizatorii cu profunzimea și tonul natural al răspunsurilor sale, extrase din 10 miliarde de conversații din viața reală, purtate între tineri pe KakaoTalk, cea mai populară aplicație de mesagerie din Coreea de Sud.

Dar laudele pentru Lee Luda au încetat când programul de chat a început să utilizeze termeni abuzivi și cu conținut sexual explicit.

Au fost publicate capturi ale conversațiilor cu Lee Luda, în care spune că „urăște cu adevărat” lesbienele, descriindu-le drept „înfiorătoare”.

Pe de altă parte, chatbot-ul a devenit o țintă a utilizatorilor manipulatori, care au început să posteze sfaturi despre cum să îl angajeze în conversații despre sex. „Cum să faci din Luda un sclav sexual”, era unul dintre sfaturi, făcut public împreună cu capturi de ecran ale conversațiilor, conform Korea Herald.

Nu este pentru prima dată când inteligența artificială este implicată în controverse legate de discursurile de ură și fanatism.

În 2016, utilizatorii au manipulat un robot AI Twitter, care vorbea ca un adolescent, să posteze mesaje rasiste și acesta a fost blocat.
Doi ani mai târziu, instrumentul de recrutare AI al Amazon a avut aceeași soartă după ce a fost găsit vinovat de promvarea unor stereotipuri de gen.

Sursa foto: site luda.ai/ notificarea de închidere a chatbot-ului

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...

12 comentarii

  1. Pana si un bot stie ce e bine si ce e rau :))

  2. E o mare prostie, pentru ca un robot nu poate gandii. In realitate robotul se exprima dupa lista cu expresii pe care o are in memorie. Adevaratii ,,vinovati” de ce ,,zice” un robot sunt Programatorii sai. Desigur ca Programatorii au ,,circumstante atenuante” datorita ca in Altgoritmul de Programare intra si ,,Hazardul” provocat artficial prin tipul Programului folosit.
    (De genul Jucurilor pe Calculator, unde un program e facut ca de mute ori sa aleaga anumite cai complet diferite doar pe baza ,,Hazardului Informatic”).
    De exemplu: Cer unui Calculator sa dea un numar mai mare decat zero si pana la 10.
    Faptul ca raspunsul este sa zicem 7 ( in loc de 3 sau 8 etc) este o Consecinta a unui ,,Hazard Programat” de fapt !.

    • Dar de prin alea 10 miliarde de convorbiri ce o fi invatat?! Doar despre oameni cu insusiri perfect diferite si egalitate de rezultat?! 😆

    • Concluzia ar fi ca nici macar robotii nu pot fi invatati sa fie corect politic! 😆 :))

    • @sanitarul
      Concluzia ar fi ca robotii au bun simț

  3. Sa pui „nino, nino” intre un set de ghilimele!
    Si pe celelalte in alt set de ghilimele, da?
    Sa nu ai probleme, „stii ce zic”?

  4. Lesbienele sunt într-adevăr înfiorătoare, dar bisexualele sunt bune

    • ᎻᎯᎨ ᏝᎬᎬ, ᏰᎯᎨ ᏝᎬᎬ!

    • Asta trebuie sa fie din echipa lui Barbison.
      I s-a inchis taraba si pe o platforma nereglementata.😂🤣😂😅😂🤣

  5. Asta trebuie sa fie din echipa lui Barbison.
    I s-a inchis taraba si pe o platforma nereglementata.😂🤣😂😅😂🤣
    @😎
    Dar nu ti-a iesit din prima, nu-i asa?