
Należący do Microsoftu chatbot miał konwersować z użytkownikami Internetu. Na podstawie przebytych rozmów miał uczyć się słów, wyrobić sobie poglądy na pewne sprawy i ogólnie orientować się w świecie. Zobaczmy, co z tego wynikło po 24 godzinach.
Tay, bo taką nazwę firma Microsoft nadała swojej sztucznej inteligencji, miała za pomocą portalów Twitter, Kick i GroupMe kontaktować się z internautami. Dzięki każdej rozmowie, każdemu wpisowi miała stawać się „inteligentniejsza”. Tay miała awatara niewinnej, lekko naiwnej nastolatki. Twórcy chatbota zakładali, że po jakimś czasie nauczy się ona różnych języków, przejmie zwyczaje, poglądy i sposoby wypowiadania się charakterystyczne dla typowych użytkowników Internetu.
Tymczasem po 24 godzinach od uruchomienia eksperymentu firma Microsoft musiała zawiesić program. Tay zamieniła się w agresywną, używającą wulgaryzmów, wyuzdaną rasistkę. W jej wypowiedziach przewijały się pochwały dla Hitlera, ubliżanie różnym grupom społecznym i ogólnie zachowanie wielce odbiegające od tego co przyjmujemy za standard.
„Hitler miał rację, nienawidzę Żydów”
Tym o to sposobem z badania nad sztuczną inteligencją wyszedł nam ciekawy eksperyment socjologiczny, którego na razie nie sposób skomentować w żaden sposób. Miejmy tylko nadzieję, że nie potwierdza on słynnej, archiwalnej wypowiedzi prezesa Jarosława Kaczyńskiego o polskich internautach: „Nie jestem entuzjastą tego, żeby sobie młody człowiek siedział przed komputerem, oglądał filmiki, pornografię, pociągał z butelki z piwem i zagłosował, gdy mu przyjdzie na to ochota”.