moder
Администратор
Команда форума
В Роскомнадзоре изучили перспективы использования искусственного интеллекта (ИИ) для обеспечения безопасности интернет-среды посредством автоматического выявления в ней дезинформации.
В работе обозначены 12 групп технологий, соответствующих интересам РКН и других профильных организации. Речь идет об обнаружении посредством ИИ дипфейков, определении контекста происходящего на видео, автоматизации мониторинга и модерации контента, распознавании лиц, извлечении смысла из текста, проверке фактов, распознавании символики, извлечении и анализе метаданных, распознавании эмоций, поддержке различных решений при информационных атаках, а также о генерации и рекомендации контента. Все эти технологии могут быть использованы для автоматического выявления дезинформации в сети.
«Борьба с дезинформацией — одна из важнейших задач государства. Эффективно бороться с фейками без привлечения технологий на базе ИИ уже невозможно», – гласит текст исследования.
Реальные сроки реализации данной технологии оцениваются в 3-5 лет. «Интерес к автоматизации проверки фактов значительно поднялся во времена пандемии коронавируса, и с тех пор направление стало активно развиваться. Тем не менее даже экспериментальные решения не покрывают все этапы процесса, не включают в себя все форматы контента и не всегда являются правильно обученными», – сообщается в документе.
Впоследствии внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. «При этом высока вероятность, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов», – считают авторы исследования.
В работе обозначены 12 групп технологий, соответствующих интересам РКН и других профильных организации. Речь идет об обнаружении посредством ИИ дипфейков, определении контекста происходящего на видео, автоматизации мониторинга и модерации контента, распознавании лиц, извлечении смысла из текста, проверке фактов, распознавании символики, извлечении и анализе метаданных, распознавании эмоций, поддержке различных решений при информационных атаках, а также о генерации и рекомендации контента. Все эти технологии могут быть использованы для автоматического выявления дезинформации в сети.
«Борьба с дезинформацией — одна из важнейших задач государства. Эффективно бороться с фейками без привлечения технологий на базе ИИ уже невозможно», – гласит текст исследования.
Реальные сроки реализации данной технологии оцениваются в 3-5 лет. «Интерес к автоматизации проверки фактов значительно поднялся во времена пандемии коронавируса, и с тех пор направление стало активно развиваться. Тем не менее даже экспериментальные решения не покрывают все этапы процесса, не включают в себя все форматы контента и не всегда являются правильно обученными», – сообщается в документе.
Впоследствии внедрение автоматизированной проверки фактов приведет к тому, что каждая новость будет размечена специальными тегами на крупных платформах. «При этом высока вероятность, что корпорации будут некорректно размечать новости, чтобы сформировать выгодную оптику в отношении инфоповодов», – считают авторы исследования.