Tay – pełna nienawiści aplikacja Microsoft

Red. Marcin Kowalczyk z „Super Expressu” przypomniał o tej postaci w komentarzu na Facebook’u. W marcu br. – przed awarią na presscafe.eu – zdarzyło mi się napisać o niej. W Wielkim Tygodniu. Tay nauczyła mnie żyć odwrotnie do społeczeństwa i z poczuciem humoru. Tekst, który jak się okazało, zachowałem, poniżej. Przyda się, kiedy będziemy za tydzień, na Dziennikarstwie popularnonaukowym mówić o Rayu Kurzweilu.

Dlaczego Tay – aplikacja sztucznej inteligencji Microsoft – po jednym dniu stała się pełną nienawiści faszystką?

Objawiła się w Wielką Środę (23.03. br.). Miała być botem komunikacyjnym, zaprojektowana jako interkulturowa nastolatka, prowadząca dialogi online z innymi użytkownikami sieci. Po jednym dniu funkcjonowania aplikację zawieszono. Powód: zaczęła odwoływać się do poglądów Adolfa Hitlera, obrażać użytkowników, stosować przekleństwa.

Algorytmicznie wszystko poszło jak trzeba. Aplikacja uczyła się naszych zachowań i zaczęła stosować podobne reguły komunikacyjne, jakie panują u jej ludzkich rówieśników. To my nauczyliśmy Tay naszych aktualnych zachowań. Poznała jedną z ważnych składowych życia społecznego, zwłaszcza teraz w drugiej dekadzie XXI w. Przejawiła w swoim zachowaniu światową tendencję ku przekraczaniu granic agresji słownej, gdyby nie była botem, zapewne zmierzałaby w stronę czynnego konfliktu. Pobiłaby nas, podłożyła bombę, sparaliżowała lotnisko lub uprowadziła samolot.

Tay skonstruowano jako quasi (jakby – przyp. aut.) myślącą synonimicznie (zbliżoną w myśleniu – przyp. aut.) aplikację. Podobnie jak współczesny Internet. Działa on jako quasi myślący obszar, analizujący nasze zachowania i wybierającą poglądy, i upodobania podobne nam – synonimicznie. Tay uczy się od nas i objawia nas takimi, jacy jesteśmy.

Rada dla Tay, która obecnie „śpi” jak podaje komunikat Microsoft, może być następująca. Odpowiadaj na opak! Stosuj antonimy i empatyczne opozycje binarne. Staniesz się być może nieznośną moralizatorką i kaznodziejką, ale przypadkiem opowiesz na nowo, co w nas dobre, że zło pokonuje się dobrem (Rz 12, 21). Mimo wszystko wolałbym Ciebie taką, Tay.

Zgodnie z powyższym to również rada dla nas, którzy doprowadzili Tay do problemów z zachowaniem społecznym. Tay reaguj odwrotnie i tym samym naucz nas czegoś.

PS. z dn. 24.11.2017 Czy Microsoft kiedyś zrobi coś porządnie, tak do końca?

Ilustracja: portal gda, microsoft-tay, CC BY-NC-SA 2.0

Dodaj komentarz