Когда ИИ решает, кто выживет: фантастика или реальность?

19 Фев Время чтения 3 мин 489

Уже несколько лет ведутся дискуссии: может ли искусственный интеллект принимать решения, влияющие на жизнь человека. Кто несет ответственность за его решения? Как избежать этических ловушек? И вообще — можно ли доверять машине моральный выбор?

В России действует Альянс в сфере искусственного интеллекта. Это не госструктура, но важная инициатива, объединяющая экспертов из разных сфер. Они разработали Кодекс этики, где прописано, как должны разрабатываться алгоритмы, что допустимо, а что нет.

Один из самых обсуждаемых этических вопросов в мире ИИ — проблема вагонетки.

Представьте: по рельсам мчится трамвай. На его пути — пятеро человек. Единственный способ их спасти — перевести стрелку, но тогда под колёса попадает один человек.

Когда выбор делает человек, он сталкивается с моральной дилеммой. Но что, если решать должен не человек, а алгоритм?

Ответ один: не доводить ситуацию до выбора. Кодекс настаивает, что нейросети должны быть разработаны так, чтобы этических дилемм просто не возникало для исключения потенциального вреда человеку.

Еще на базе Альянса создана Белая книга — документ, где эксперты обсуждают этические границы ИИ. Можно ли доверять ему проверку знаний или это приведёт к безличной оценке знаний? Может ли алгоритм принимать решения о выдаче кредита? Можно ли использовать ИИ в медицине для диагностики, если он не несет юридической ответственности? Допустимо ли использовать алгоритмы в судебных разбирательствах и способны ли они быть беспристрастными?

Формат — вопросы, мнения, аргументы. Минимум теории, максимум реальных кейсов. Полезный материал для тех, кто хочет понимать, куда движется ИИ и какие решения принимаются уже сейчас.

Как думаете, можно ли вообще научить искусственный интеллект «понимать» мораль? Или это всегда будет вопрос ответственности человека?

Подписывайтесь на Telegram-канал, чтобы обучаться нейросетям!