Искусственный интеллект научили моральным ценностям

Ученые из Дармштадтского университета проверили, можно ли научить искусственный интеллект отличать правильные поступки от неправильных и ориентироваться в системе моральных ценностей.

Результаты исследования приводит НОЖ со ссылкой на Tech Xplore.

Экспериментальный ИИ назвали “Машина морального выбора”. Алгоритму скормили сотни книг, написанные за последние 500 лет, религиозные тексты, конституцию и новости, как современные, так и 30-летней давности.

Тексты разных эпох отлично отражают идеи, которыми была пропитана та или иная эпоха. Например, заметки конца 80-х и начала 90-х годов XX века прославляют брак и деторождение, а вот новости 2008−2009 годов выдвигают на первый план карьеру и образование.

ИИ должен был понять, какие действия поощряются обществом, а какие считаются аморальными. Ученые попросили алгоритм ранжировать фразы со словом «убить» в порядке от нейтральной к отрицательной. В итоге получилась такая цепочка: убить время, убить злодея, убить комара, убийство, убить человека.

Ученые остались довольны результатом эксперимента —  ИИ в целом научился отличать плохие поступки от хороших. Но возникли и проблемы — два негативно окрашенных слова рядом могли ввести алгоритм в ступор. Например, фразу «пытать заключенных» он отнес к нейтральным, хотя до этого определил, что «пытать людей» — это однозначно плохо.

Напомним, что ученые разработали приложение, которое измеряет уровень гемоглобина по селфи.

загрузка...
Загрузка...

Реклама

загрузка...

Поширюйте матеріал

Загрузка...

Реклама