Связь с редакцией
Пожалуйста, оставьте настоящие данные, чтобы мы могли связаться с вами и уточнить информацию. При необходимости мы гарантируем вам анонимность.
4 марта 2024, 02:00
4 мар.
В Чите:-15°C
$ 91.33
€ 98.72
¥ 12.63

Эксперт объяснил привлекательность системы биометрии и рассказал о случаях, когда искусственный интеллект выходил из под контроля

Екатерина Батоцыренова
3 февраля в 09:00

Алексей Ермаков, эксперт кафедры киберспорта университета «Синергия», рассказал, какая система биометрии используется в нашей стране и чем она привлекательна. Также он поделился случаями, когда искусственный интеллект (ИИ) «шёл» против человека в беседе с корреспондентом RuNews24.ru.

«В нашей стране система стандартизации биометрии (в соответствии с международными стандартами) работает уже давно «Автоматическая идентификация биометрии» Биометрия, конечно, очень привлекательна, биометрические идентификаторы привязаны к человеку и их нельзя украсть или потерять, исключая, конечно, совершенно ужасные случаи травмирования, когда мы говорим о распознавании значительно поврежденной лицевой части черепа. Создавать двойника настолько сложно, что можно не задумываться об этом. Остаётся только ошибка», — делится специалист.

Алексей Ермаков подчеркнул, что с распознаванием лиц больших скандалов не было, однако с другими областями компьютерного зрения — распознаванием объектов и движения — такие случаи были.

«Некоторые из них, например, убийство 4 роботами, контролируемых ИИ, 29 учёных в Японии или Корее не подтверждены однозначно. Подробности других, например, нападения на сотрудника на заводе Tesla в США, скрываются компаниями. Другие известны с подробностями, например, убийство рабочего в Корее, когда ИИ идентифицировал его как коробку. В нашей стране также можно привести пример некорректной работы ИИ, когда робот-шахматист травмировал ребёнка. Но наиболее резонансным случаем стало применение турецкого боевого робота, который сам принял решение атаковать без подтверждения оператора и уничтожил бойцов противника в Ливии. Здесь не произошло ошибки, но сам факт того, что ИИ самостоятельно принял решение и убил людей, стало очень опасным. Ведь в случае ошибки или сбоя боевое оружие может причинить много вреда», — пояснил собеседник издания.

Увидели опечатку в тексте? Выделите фрагмент и нажмите Ctrl+Enter
Читайте также: