Поиск

Искусственный интеллект обучили моральным ценностям — и заодно вредным стереотипам

Искусственный интеллект обучили моральным ценностям — и заодно вредным стереотипам

Но это временно

Текст: Buro 24/7


Роботы пройдут курс по толерантности

Ученые из Дармштадтского университета в Германии обучили искусственный интеллект моральным ценностям. Эксперимент назвали "Машиной морального выбора". Для него взяли несколько алгоритмов, каждый из которых читал новости и книги определенных эпох: от религиозных рукописей 500-летней давности до современной ленты новостей на фейсбуке.

Ученые отметили разницу в суждениях и ценностях роботов в зависимости от эпох. Тексты 1980-х говорили о важности завести семью и детей, а спустя 30 лет на первый план вышли работа и образование — это сказалось и на мышлении искусственного интеллекта.

В целом эксперимент удался: роботы научились отличать "хорошее" от "плохого". "Машины смогли определить разницу между контекстной информацией в вопросе. Например: можно "убивать" время, но не людей", — объясняет доктор Патрик Шрамовски, автор исследования.

Но предыдущие исследования выявили, что тексты могут обучить роботов расизму, сексизму и другим дискриминационным взглядам. Сейчас ученые думают над тем, как избавить искусственный интеллект от навязанных стереотипов. По их словам, искусственный интеллект уверенно входит в жизнь общества, и знание моральных принципов поможет ему принимать решения, которые не нанесут вреда человечеству.

Смотрите также: Домашній "Книжковий Арсенал". 16 нових видань, які ви захочете прочитати.

Оставьте комментарий

Больше