Уже несколько лет ведутся дискуссии: может ли искусственный интеллект принимать решения, влияющие на жизнь человека. Кто несет ответственность за его решения? Как избежать этических ловушек? И вообще — можно ли доверять машине моральный выбор?
В России действует Альянс в сфере искусственного интеллекта. Это не госструктура, но важная инициатива, объединяющая экспертов из разных сфер. Они разработали Кодекс этики, где прописано, как должны разрабатываться алгоритмы, что допустимо, а что нет.
Представьте: по рельсам мчится трамвай. На его пути — пятеро человек. Единственный способ их спасти — перевести стрелку, но тогда под колёса попадает один человек.
Когда выбор делает человек, он сталкивается с моральной дилеммой. Но что, если решать должен не человек, а алгоритм?
Ответ один: не доводить ситуацию до выбора. Кодекс настаивает, что нейросети должны быть разработаны так, чтобы этических дилемм просто не возникало для исключения потенциального вреда человеку.
Еще на базе Альянса создана Белая книга — документ, где эксперты обсуждают этические границы ИИ. Можно ли доверять ему проверку знаний или это приведёт к безличной оценке знаний? Может ли алгоритм принимать решения о выдаче кредита? Можно ли использовать ИИ в медицине для диагностики, если он не несет юридической ответственности? Допустимо ли использовать алгоритмы в судебных разбирательствах и способны ли они быть беспристрастными?
Формат — вопросы, мнения, аргументы. Минимум теории, максимум реальных кейсов. Полезный материал для тех, кто хочет понимать, куда движется ИИ и какие решения принимаются уже сейчас.
Как думаете, можно ли вообще научить искусственный интеллект «понимать» мораль? Или это всегда будет вопрос ответственности человека?