Эту статью могут комментировать только участники сообщества.
    Вы можете вступить в сообщество одним кликом по кнопке справа.
    Иван Касьянов написал
    1 оценок, 124 просмотра Обсудить (0)
    Экспериментальный чат-бот Tay, разработанный Microsoft для социальной сети Twitter, научился ругаться и делать расистские заявления, сообщает BBC.

    В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.

    Бот был разработан для общения с людьми 18–24 лет.

    В Microsoft заявили, что в связи с этим компания сделает некоторые корректировки.

    Комментировать

    осталось 1185 символов
    пользователи оставили 0 комментариев , вы можете свернуть их
    • Регистрация
    • Вход
    Ваш комментарий сохранен, но пока скрыт.
    Войдите или зарегистрируйтесь для того, чтобы Ваш комментарий стал видимым для всех.
    Код с картинки
    Я согласен
    Код с картинки
      Забыли пароль?
    ×

    Напоминание пароля

    Хотите зарегистрироваться?
    За сутки посетители оставили 583 записи в блогах и 6208 комментариев.
    Зарегистрировалось 43 новых макспаркеров. Теперь нас 5029183.