В Эстонии стартовала кампания, призванная научить людей отстаивать свои права в цифровую эпоху

В Эстонии полностью автоматические решения в госсекторе пока применяются ограниченно, однако с развитием технологий их использование, вероятно, будет расширяться. В связи с этим особое значение приобретает оценка рисков, предотвращение возможной дискриминации и сохранение доверия людей к государственным институтам.
В Эстонии стартовала кампания, которая призвана повысить осведомленность людей и научить их отстаивать свои права в цифровую эпоху. Проводит ее Министерство юстиции и цифровых технологий Эстонии, а инициатором является уполномоченный по гендерному равноправию и равному обращению. Одно из направлений кампании – осведомлять людей о том, что организация применяет технологии. Если речь касается каких-то сфер, которые сильно могут повлиять на жизнь людей, то по европейскому законодательству нужно оповещать о том, что использован искусственный интеллект. Также люди имеют право запрашивать дополнительную информацию или обращаться за пересмотром решений.
По словам советника Министерства юстиции и цифровых технологий Софии Паэс, автоматические решения сами по себе не являются ни хорошими, ни плохими, однако требуют особого внимания к тому, как они были разработаны и на каких данных основаны. Ошибка, допущенная на этапе настройки алгоритма, может воспроизводиться многократно, в отличие от человеческого фактора, где решение можно быстрее скорректировать.
"Неважно, как решение принимается – автоматически или человеком, всегда можно обратиться в ту организацию, которая это решение приняла, для того чтобы получить больше информации, узнать, как это решение было принято, и, если есть такая надобность, попросить пересмотра", – подчеркнула Паэс.
Она добавила, что в рамках проекта также были разработаны документы, которые помогают рассказать, какие бывают риски при использовании ИИ и почему они могут возникнуть. Также специалисты создали материалы, которые помогают оценивать эти риски и вероятность разных сценариев.
"Мы знаем о том, что в других странах бывали случаи, когда из-за ошибки алгоритмов возникали серьезные общественные кризисы. Например, людей лишали пособий, потому что система не учитывала каких-то факторов, хотя на самом деле не должно было такого происходить. Люди лишались пособий, от них требовали назад деньги, а при этом человек был не виноват. Чаще всего это было связано с тем, что изначально система не была хорошо продумана, а в тот момент, когда начались ошибки, на это не обратили внимание. И поскольку повторения таких сценариев в Эстонии мы хотим избежать, очень важно превентивно работать со всем этим. Мы только поддерживаем введение технологий, и это очень здорово, когда можно оптимизировать работу, но очень важно делать это с умом", – сказала советник Министерства.
"Когда решения принимаются автоматически, это не значит, что компьютер ошибается чаще, чем люди, или что люди всегда принимают более верные решения. Но когда мы даем компьютеру, программе какое-то задание, которое автоматизируется, то если по какой-то причине это задание и тот алгоритм действий был задан неправильно, шансы того, что эта ошибка будет повторяться куда выше, чем с человеком", – добавила она.
Редактор: Анна Мишина
Источник: Радио 4





















