Сбер получил два патента Федеральной службы по интеллектуальной собственности на технологии, созданные в рамках исследования по выявлению дипфейков. Результатом работы является повышение точности и эффективности обнаружения синтетического изменения изображений лиц людей в видео.
Основу технологий составляет ряд ансамблей нейросетевых моделей класса EfficientNet (патент № 2768797) и метод амплификации и анализа средствами ИИ микроизменений в цветах объектов на кадрах (патент № 2774624). Объединенные в одну систему, они позволяют с высокой точностью определить синтетически измененные изображения лиц на видео.
Отличительной особенностью системы является возможность обработки видеоконтента с несколькими лицами в кадре. В этом случае система выявляет отдельное лицо, созданное синтетическим образом, и оценивает его достоверность, что позволяет противодействовать ряду методов обхода систем выявления дипфейков.
Показатели эффективности системы, при замерах на независимых тестовых выборках, составили 98%, что существенно выше показателей опубликованных аналогов.
Разработанные технологии предназначены для использования при решении следующих задач:
- защита от кибератак с обходом систем Face Recognition и Liveness Detection;
- выявление на ранних стадиях информационных атак с целью борьбы с фейковыми новостями;
- обеспечение защиты переговоров по видео-конференц-связи.
«Сбер постоянно совершенствует свои системы кибербезопасности и проводит научные исследования в данной области. Наши запатентованные изобретения позволят эффективно решать задачи по выявлению информационных атак и кибератак с использованием дипфейк-технологий. Синтетические видео, используемые для атак на Сбер и наших клиентов, будут выявлены на самых ранних стадиях», — сообщил Станислав Кузнецов, заместитель председателя правления Сбербанка.
Патент, содержащий метод амплификации и анализа средствами ИИ микроизменений в цветах объектов на кадрах, Федеральная служба по интеллектуальной собственности признала патентом недели.
Сообщить об опечатке
Текст, который будет отправлен нашим редакторам: