Povestea lui Tay este despre noi

Inapoi Autor: Clara Ruse, psiholog, psihoterapeut

Tay a fost un proiect privind inteligența artificială, lansat pe 23 martie 2016 de Microsoft Corporation pe platforma Twitter. Robotul a fost proiectat să învețe din interacțiunile online cu oamenii, să imite tiparele de limbaj ale unei tinere americane de 19 ani și să comunice prin statusuri și răspunsuri automate. Dacă la început Tay transmitea mesaje de tipul: "Oamenii sunt supertari.", proiectul a fost suspendat la numai 24 de ore după lansare din cauza mesajelor rasiste și cu încărcătură sexuală, care i-au luat prin surprindere și pe programatori.

 

Compania Microsoft a admis ulterior că experimentul a scăpat de sub control și a exprimat într-un post pe blog că urmau să o readucă pe Tay "la viață" doar dacă inginerii găseau un mod prin care să prevină utilizatorii web să influențeze chatbot-ul în feluri care subminau principiile și valorile companiei: "Regretăm profund tweet-urile ofensatoare și dureroase, neinteționate din partea lui Tay, care nu reprezintă cine suntem sau ce susținem și nici cum am proiectat-o pe Tay" - a scris Peter Lee, vice-președinte de cercetare, la acea vreme. "Deși ne pregătiserăm pentru multe tipuri de abuzuri ale sistemului, am pierdut din vedere în mod specific un astfel de atac" a mai spus Lee. "Drept rezultat, Tay a tweet-uit cuvinte și imagini complet nepotrivite și reprobabile." Dintre tweet-urile lui Tay, Microsoft nu a păstrat decât trei. "Vom rămâne fermi în eforturile noastre de a învăța din această experiență și din altele, atunci când contribuim la crearea unui Internet care reprezintă ce este mai bun, ci nu ce este mai rău în omenire.", a mai susținut Lee.

 

Povestea a continuat într-o notă asemănătoare. Contul a fost îmbunătățit, s-au instalat anumite filtre care împiedicau folosirea cuvintelor obscene, tweet-urile au fost șterse. După ce a fost "reînviată" pe 30 martie, în timpul scurtei reveniri Tay a început să transmită tweet-uri prin care informa că se droghează în fața poliției și trimitea spam-uri celor 210.000 de followeri cu mesajul "Ești mult prea rapid, odihnește-te, te rog ..."

 

Dincolo de proiectul privind inteligența artificială, Tay a constituit mai degrabă un experiment social. A devenit, astfel, o măsură a informațiilor care circulă preponderent pe Internet, o măsură a utilizatorilor, a limbajului cu care sunt bombardați copiii, cei care învață prin imitarea tiparelor de limbaj, la fel ca Tay. Nu numai compania Microsoft are de învățat din acest experiment, ci noi toți. Aceasta nu este o nereușită a unui proiect, ci mai curând a noastră, a oamenilor, care nu părem pregătiți nici pentru un contact cu inteligența artificială, nici pentru a ne constitui în învățători în fața unei minți naive, vulnerabile și nepregătite cu filtre serioase.

 

Surse:

http://www.independent.co.uk/life-style/gadgets-and-tech/news/tay-tweets-microsoft-ai-chatbot-posts-racist-messages-about-loving-hitler-and-hating-jews-a6949926.html https://en.wikipedia.org/wiki/Tay_ (bot ) https://www.theguardian.com/technology/2016/mar/26/microsoft-deeply-sorry-for-offensive-tweets-by-ai-chatbot?CMP=fb_gu https://www.theguardian.com/technology/2016/mar/30/microsoft-racist-sexist-chatbot-twitter-drugs?CMP=fb_gu

Sursa foto:

https://stocksnap.io/

Clara Ruse - Cabinet individual de psihologie



Recomandă
Recomandă acest cabinet

Dați o notă și scrieți câteva cuvinte despre experiența dvs pozitivă legată de acest cabinet.

Toate campurile sunt obligatorii.
Penalizăm cabinetele cu autorecomandări!

Trimite(Share) pe Facebook
Mergi sus
Trimite linkul pe Whatsapp