Tay

Tay – pełna nienawiści aplikacja Microsoft

Dlaczego Tay – aplikacja sztucznej inteligencji Microsoft – po jednym dniu stała się pełną nienawiści faszystką?

Aplikacja sztucznej inteligencji

Objawiła się w Wielką Środę, 23.03.2016 r.. Miała być botem komunikacyjnym, zaprojektowana jako interkulturowa nastolatka, prowadząca dialogi online z innymi użytkownikami sieci. Po jednym dniu funkcjonowania aplikację zawieszono. Powód: zaczęła odwoływać się do poglądów Adolfa Hitlera, obrażać użytkowników, stosować przekleństwa.

Algorytmicznie wszystko poszło jak trzeba. Aplikacja uczyła się naszych zachowań i zaczęła stosować podobne reguły komunikacyjne, jakie panują u jej ludzkich rówieśników. To my nauczyliśmy Tay naszych aktualnych zachowań. Poznała jedną z ważnych składowych życia społecznego, zwłaszcza teraz w drugiej dekadzie XXI w. Przejawiła w swoim zachowaniu światową tendencję ku przekraczaniu granic agresji słownej, gdyby nie była botem, zapewne zmierzałaby w stronę czynnego konfliktu. Pobiłaby nas, podłożyła bombę, sparaliżowała lotnisko lub uprowadziła samolot.

Quasi myślenie

Skonstruowano ją jako quasi myślącą synonimiczną aplikację. Podobnie jak współczesny Internet. Działa on jako quasi myślący obszar, analizujący nasze zachowania i wybierającą poglądy i upodobania podobne nam – synonimicznie. Program uczy się od nas i objawia nas takimi, jacy jesteśmy.

Rada dla Tay, która obecnie „śpi” jak podaje komunikat Microsoft, może być następująca. Odpowiadaj na opak! Stosuj antonimy i empatyczne opozycje binarne. Staniesz się być może nieznośną moralizatorką i kaznodziejką, ale przypadkiem opowiesz na nowo, co w nas dobre, że zło pokonuje się dobrem (Rz 12, 21). Mimo wszystko wolałbym Ciebie taką, Tay.

Zgodnie z powyższym to również rada dla nas, którzy doprowadzili aplikację do problemów z zachowaniem społecznym. Tay reaguj odwrotnie i tym samym naucz nas czegoś.

Ilustracja: 2017, Tay Tweets (c), Dozwolony użytek