Предположительно, такая технология позволит в том числе выявлять вербовщиков в террористические группировки. Насколько это правомерно?
Искусственный интеллект проведет психоанализ россиян по соцсетям, пишет «Коммерсантъ». По данным издания, грант на исследования в этой области получил Институт системного программирования им. Иванникова.
Предполагается, что это будет технология психодиагностики профилей, которая поможет выявлять вербовщиков в террористические организации или, например, участников «групп смерти». Искусственный интеллект будет оценивать интересы, увлечения, записи пользователя, что позволит составить представление о его поведенческой активности. Однако не является ли это нарушением прав? Рассуждает Павел Катков, владелец юридической компании «Катков и партнеры» (КИП), член комитета Торгово-промышленной палаты по предпринимательству в сфере: «Для реализации этой инициативы ее авторам придется прежде всего преодолеть сопротивление социальных сетей, которое выразилось, в частности, в иске социальной сети "ВКонтакте" к компании Double Data, которая собирала данные пользователей "ВКонтакте", находящиеся в открытом доступе, для Национального бюро кредитных историй. Дело уже на втором круге, и суды пока так и не смогли определиться, считается ли такой сбор нарушением интеллектуальных прав "ВКонтакте" на базу данных пользователей соцсети, которые, как считает компания, она собрала и правообладателем которых, по ее мнению, является. Для аналогичного сбора данных о пользователях для указанных государственных целей тоже нужно будет понять, не является ли это нарушением указанных прав на базу данных, и если является, [нужно] делать это на основании лицензионного договора, ну а если не является, то оно должно не являться для всех — и для таких сборщиков данных, как Double, и для таких, как государство. Еще один вариант: государство может специальным образом прописать в федеральном законе, что сбор данных для таких целей не оплачивается социальным сетям и также является законным с точки зрения обработки персональных данных пользователей. Тогда в праве социальных сетей на базу данных, при условии, что оно еще и устоит в суде, о котором я упомянул, появится такая брешь: для коммерческих целей при использовании ваших баз данных мы платим, а для государственных, вот конкретно для этой, не платим. И вот где-то между всеми этими категориями и проблемами сейчас находится данный вопрос, но пока интрига, как он будет разрешен».
Даже закрытый профиль может не защитить от подобного анализа, предупреждают ИТ-специалисты. При каких условиях искусственный интеллект будет получать доступ к фотографиям и записям пользователей таких аккаунтов? Директор по информационным технологиям группы Т1 Павел Шульга говорит, что это вопрос этики: «Закрытый профиль — это всего лишь одна кнопочка в настройках и, соответственно, вопрос договоренности, скажем, наших властей с держателями этих соцсетей. Как я понимаю, для тех, кому нужен доступ к закрытой частой профиля, это не составляет никакой проблемы».
Успех искусственного интеллекта в распознавании определенной поведенческой активности отмечают многие специалисты. В частности, технология может вычислить, например, деструктивные группы в соцсетях. Об этом говорит президент группы компаний InfoWatch Наталья Касперская: «Все деструктивные группы устроены по принципу воронки вовлеченности. То есть внизу — группы широкого охвата, которые просто обозначают какую-то тематику, например, какое-то запрещенное вещество. Потом идут группы, которые эту тематику обостряют, идет прямое обсуждение его воздействия. Третье — закрытые группы, где обсуждают, например, закладки. А на четвертом уровне это всегда выход в офлайн*. Всегда заканчивается выводом в офлайн. Поэтому изучать это, конечно, надо, а вот принимать этические решения должен явно не искусственный интеллект».
В некоторых странах искусственный интеллект помогает следить за происшествиями или отдельными группами населения. Как указывает ТАСС, в Лос-Анджелесе, а также штатах Атланта и Филадельфия алгоритмы анализируют данные о произошедших преступлениях, чтобы сообщить, где может произойти преступление в будущем. В Китае подобную технологию использовали для видеослежки за уйгурами — населением китайского региона Синьцзян, говорится в докладе Human Rights Watch за 2018 год.
*Незаконные распространение, приобретение, хранение, перевозка, изготовление, переработка наркотиков, а также их употребление на территории РФ преследуются по закону. Business FM не поддерживает и не пропагандирует никакие из перечисленных деяний.