Чтобы не отравиться данными. О слабостях искусственного интеллекта

 

Искусственный интеллект (ИИ) — модная тема. Но пока вопросов к его использованию, особенно в контексте кибербезопасности, гораздо больше, чем ответов. Как и у любого алгоритма, мы должны понимать обратную сторону ИИ, связанную со слабостью математических методов.
Здесь обычно все проблемы возникают из–за двух больших блоков. Первый — слабость самого алгоритма либо осознанное внесение в него ошибок, чтобы он принимал решение не так, как это закладывалось изначально авторами. Это можно сделать с распознаванием фотографий, изображений, голоса, видео. И система не сумеет распознать либо, наоборот, будет принимать абсолютно противоположное решение.
Второй большой блок проблем — это данные. Любой алгоритм ИИ требует набора данных, на которых он будет обучаться, чтобы впоследствии генерить те или иные выводы. И если случайно либо осознанно дать на вход некорректные данные, то ИИ не будет работать эффективно, а зачастую будет работать со знаком минус, создавая при этом чувство ложной защищенности. Существует даже такой тип атак — poison data, то есть отравление данных, когда в существующие данные вносятся какие–то фальшивые события, картинки, и это приводит к тому, что ИИ начинает сбоить, принимать неправильные решения.
При внедрении ИИ, помимо тех головокружительных возможностей, которые он, по идее, предоставляет, надо понимать и все, что находится в нижней части айсберга, — все, связанное с правильной математикой, обеспечением правильности данных, правильным сбором этих данных, правильным обучением, а для этого нужны люди, которых сегодня, к сожалению, в достаточном количестве нет, потому что этому никто не учит.
На Западе, например, есть такая профессия — data scientist, специалист по работе с данными, годовой доход которого составляет $250 тыс., это минимальная нижняя планка, в то время как у обычного айтишника годовой доход — примерно $80–90 тыс. Практически трехкратная разница — из–за того, что таких специалистов очень мало. А если брать какие–то узкие сферы, то таких специалистов там наперечет, и их годовой доход может достигать $500 тыс. или даже $1 млн. За них ведется борьба, но, к сожалению, она пока безуспешна, потому что все равно людей не хватает. И даже при наличии хороших данных, правильных, целостных, и хорошей математики в виде моделей алгоритмов, если нет людей, то вся эта эпопея с ИИ пока обречена на неудачу.
И последний момент, на который надо сделать акцент, — то, что ИИ применяется не только в благих целях, но и в действиях злоумышленников: для кражи денег, кражи цифровой личности либо для создания фальшивой личности, чтобы кого–то шантажировать, либо это манипуляция общественным мнением и т. д. К сожалению, пока мало кто задумывается о незаконном применении ИИ, и за это практически невозможно наказать. У нас даже за хакерство нет нормальных статей, а уж за применение ИИ не по назначению их нет тем более. Ни в одной стране мира пока нет. Здесь у юристов еще непочатый край работы. Непонятно, как к этой теме подступаться. И в ближайшие 2–3 года депутатам и другим регуляторам точно будет не до того.