Питерские исследователи научили ИИ выявлять группы вредоносных ботов в соцсетях

Оnyxion

Местный
oCAL

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили искусственный интеллект обнаруживать группы вредоносных ботов в соцсетях независимо от того, на каком языке они пишут посты и комментарии.

Результаты исследования опубликованы в международном журнале JoWUA. Исследователи напоминают, что боты широко используются в чатах поддержки и для распространения рекламы. Также ботов активно применяют для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации.

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», — рассказал ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН (СПИИРАН входит в СПб ФИЦ РАН) Андрей Чечулин.

Разработчики проанализировали группы ботов и использовали информацию о неявных социальных связях между аккаунтами в качестве входных данных для модели искусственного интеллекта. Ученые изучили ботов, их активность в соцсетях и то, как они взаимодействуют друг с другом и прочими пользователями. Полученные данные позволяют с большой долей вероятности понять, какие аккаунты принадлежат людям, а какие являются ботами.

«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — считает Андрей Чечулин.

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные впоследствии можно использовать для расследования инцидентов безопасности.

«Например, мы смотрим аккаунт в соцсети какого-нибудь ресторана, а там масса негативных комментариев. Мы можем выявить, боты их оставили или реальные люди. Если боты, то ресторан поймет, что на него ведется атака. Кроме того, мы можем определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры, чтобы эффективно ответить на эту атаку», — резюмировал Андрей Чечулин.
 
Эх , технологии не стоят на месте это наше будуйшее ;)(y)
 
oCAL

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили искусственный интеллект обнаруживать группы вредоносных ботов в соцсетях независимо от того, на каком языке они пишут посты и комментарии.

Результаты исследования опубликованы в международном журнале JoWUA. Исследователи напоминают, что боты широко используются в чатах поддержки и для распространения рекламы. Также ботов активно применяют для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации.

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», — рассказал ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН (СПИИРАН входит в СПб ФИЦ РАН) Андрей Чечулин.

Разработчики проанализировали группы ботов и использовали информацию о неявных социальных связях между аккаунтами в качестве входных данных для модели искусственного интеллекта. Ученые изучили ботов, их активность в соцсетях и то, как они взаимодействуют друг с другом и прочими пользователями. Полученные данные позволяют с большой долей вероятности понять, какие аккаунты принадлежат людям, а какие являются ботами.

«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — считает Андрей Чечулин.

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные впоследствии можно использовать для расследования инцидентов безопасности.

«Например, мы смотрим аккаунт в соцсети какого-нибудь ресторана, а там масса негативных комментариев. Мы можем выявить, боты их оставили или реальные люди. Если боты, то ресторан поймет, что на него ведется атака. Кроме того, мы можем определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры, чтобы эффективно ответить на эту атаку», — резюмировал Андрей Чечулин.
классная тема!
 
oCAL

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили искусственный интеллект обнаруживать группы вредоносных ботов в соцсетях независимо от того, на каком языке они пишут посты и комментарии.

Результаты исследования опубликованы в международном журнале JoWUA. Исследователи напоминают, что боты широко используются в чатах поддержки и для распространения рекламы. Также ботов активно применяют для накрутки рейтингов, написания ложных положительных отзывов о товарах и распространения дезинформации.

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», — рассказал ведущий научный сотрудник лаборатории проблем компьютерной безопасности Санкт-Петербургского института информатики и автоматизации РАН (СПИИРАН входит в СПб ФИЦ РАН) Андрей Чечулин.

Разработчики проанализировали группы ботов и использовали информацию о неявных социальных связях между аккаунтами в качестве входных данных для модели искусственного интеллекта. Ученые изучили ботов, их активность в соцсетях и то, как они взаимодействуют друг с другом и прочими пользователями. Полученные данные позволяют с большой долей вероятности понять, какие аккаунты принадлежат людям, а какие являются ботами.

«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — считает Андрей Чечулин.

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные впоследствии можно использовать для расследования инцидентов безопасности.

«Например, мы смотрим аккаунт в соцсети какого-нибудь ресторана, а там масса негативных комментариев. Мы можем выявить, боты их оставили или реальные люди. Если боты, то ресторан поймет, что на него ведется атака. Кроме того, мы можем определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры, чтобы эффективно ответить на эту атаку», — резюмировал Андрей Чечулин.
Это уже давно делают на западе, просто никто не разглашает в теории
 
Угорі Унизу