Кристиан Веске: автоматизация не гарантирует справедливости

Говоря о дискриминации, мы представляем, как специалист по найму не приглашает на собеседование "слишком старого" кандидата, как условия труда матери, вернувшейся из отпуска по уходу за ребенком, остаются на уровне многолетней давности, или как кого-то лишают услуги из-за его инвалидности. Но что происходит, когда решение принимает не человек, а компьютер?
В Эстонии все чаще используются системы автоматизированного принятия решений, основанные на искусственном интеллекте и алгоритмах. Они помогают принимать решения быстрее и эффективнее, будь то назначение различных пособий, подача заявки на работу или доступ к услугам. Иногда человек может даже не осознавать, что за решением стоит не другой человек, а автоматизированная система.
Эстонское цифровое государство стало историей успеха, которой мы по праву можем гордиться. ИТ-решения помогают сократить бюрократию, ускорить процедуры и предложить более удобные услуги. Однако использование автоматизированных систем стремительно расширяется на все сферы жизни. Например, искусственный интеллект уже хотят использовать для анализа успеваемости учащихся и оценки их уровня.
Технологии внедряются и в тех областях, где на кону стоит безопасность людей. Например, в военной промышленности разрабатываются системы, способные анализировать ситуации и принимать решения быстрее человека. По оценкам экспертов, технологии развиваются быстрее, чем регулирующая их правовая база.
Нам не должно быть достаточно того, что системы эффективны - они должны быть еще и справедливыми. Хотя автоматизация может сделать услуги более удобными, ни одна система не застрахована от ошибок. Автоматизированные решения могут отражать уже существующее в обществе неравенство.
Если данные или предпосылки, использованные при создании системы, предвзяты, то и решения могут быть предвзятыми. Это означает, что человек может оказаться в невыгодном положении из-за своего пола, возраста, национальности или другого защищенного законом признака, даже если такая дискриминация не является преднамеренной. Это не просто теоретический риск: случаи из других стран показывают, какими могут быть реальные последствия таких систем.
Например, в Нидерландах так называемый скандал с детскими пособиями привел к ситуации, когда автоматизированная система ошибочно пометила тысячи семей как мошенников. Зачастую это были люди с двойным гражданством или миграционным прошлым. Семьи лишились пособий, столкнулись с экономическими трудностями, и в итоге этот инцидент привел к отставке всего правительства.
Похожие проблемы возникали и на рынке труда. Инструмент для найма, созданный Amazon, начал систематически отдавать предпочтение кандидатам-мужчинам, поскольку он обучался на исторических данных, где доминировали мужчины. Система автоматически начала занижать оценки резюме, указывающим на женский пол, что привело к явной дискриминации женщин.
Часто такая предвзятость скрыта. Решение кажется нейтральным, но на самом деле таковым не является. Кроме того, в случае автоматизированных решений сложно понять, как именно был сделан вывод. Если человек, например, получает отрицательный ответ на свое заявление без четкого обоснования, ему может быть трудно отстоять свои права.
Автоматизированные системы должны строиться так, чтобы они были справедливыми и прозрачными. Вопрос не в том, используем ли мы искусственный интеллект, а в том, как мы это делаем. Так, чтобы он поддерживал всех людей, или так, чтобы он незаметно углублял существующее неравенство?
Редактор: Ирина Догатко



