Z doniesień „The Guardian” i „Vice” wynika, że Luda miała przekazać jednemu z użytkowników, że jej zdaniem lesbijki są „creepy” oraz że „naprawdę ich nienawidzi”. Ponadto miała też użyć słowa „heukhyeong” w stosunku do osób czarnoskórych – które to słowo jest uznawane w Korei za rasistowskie określenie. Można je przetłumaczyć jako „czarny brat”.

Twórcy Lee Ludy, Scatter Lab, po tym incydencie zdecydowali się pozbawić SI „świadomości” i opublikowali oficjalne stanowisko.

– Serdecznie przepraszamy za wystąpienie dyskryminujących uwag wobec pewnych grup mniejszościowych w tym programie. Nie zgadzamy się z dyskryminującymi komentarzami Ludy. Takie komentarze nie odzwierciedlają opinii naszej firmy – czytamy.

Dalej zapewniali, że usiłowali zaprogramować SI tak, by była odporna na tego typu zachowania. – W ciągu ostatnich 6 miesięcy tworzyliśmy ograniczenia, które miały zapobiec temu problemowi – dodali. Jeden z fragmentów kodu miał sprawić, by Luda nie mogła nauczyć się słów odbiegających od norm kulturowych w Korei Południowej.

Twórcy jednak postanowili przekuć swoją porażkę w sukces… i stworzyć model do „wykrywania stronniczych dialogów do ogólnego użytku”. Jak dodali, chcą też pomóc w badaniach nad „koreańskim dialogiem Sl, produktami Sl i rozwojem etyki S“.

Do tej pory najgłośniejszym przypadkiem „rasistowskiego bota” była Tay. W 2016 roku podłączono ją do Twittera, gdzie zamieniła się w „internetowego Hitlera”.