Статья:

БИОМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ: ПРОБЛЕМЫ И УГРОЗЫ

Журнал: Научный журнал «Студенческий форум» выпуск №42(178)

Рубрика: Технические науки

Выходные данные
Бойков И.А., Цыганок Д.И., Седнев А.В. БИОМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ: ПРОБЛЕМЫ И УГРОЗЫ // Студенческий форум: электрон. научн. журн. 2021. № 42(178). URL: https://nauchforum.ru/journal/stud/178/103160 (дата обращения: 30.12.2024).
Журнал опубликован
Мне нравится
на печатьскачать .pdfподелиться

БИОМЕТРИЧЕСКАЯ ИДЕНТИФИКАЦИЯ: ПРОБЛЕМЫ И УГРОЗЫ

Бойков Илья Александрович
студент, Московский государственный технический университет им. Н. Э. Баумана, РФ, г. Москва
Цыганок Дарья Игоревна
студент, Московский государственный технический университет им. Н. Э. Баумана, РФ, г. Москва
Седнев Анатолий Владимирович
студент, Московский государственный технический университет им. Н. Э. Баумана, РФ, г. Москва

 

С переходом в информационный век человечество столкнулось с ростом киберпреступности. Созданные способы защиты не дали 100% надежности. Тогда на смену им были разработаны методы защиты с использованием биометрических данных. Благодаря биометрическим данным люди могут пользоваться большинством банковских услуг дистанционно. Для обработки и хранения этих данных в России был принят закон “о биометрической идентификации” [1]. В данное время активно производится сбор биометрической информации. 

Хотя данный вид защиты и надежен, но он не дает 100 процентной защиты. Из возможных вариантов обхода защиты - обман Face ID при помощи маски, подделывания лица и голоса при помощи нейросетей. Собрав случайные фотографии из Facebook, представители Университета Северной Каролины смогли обойти четыре из пяти систем распознавания на конференции по безопасности Usenix в 2016 г. [2]. В середине октября 2020 года смогли украсть $35 млн из банка в ОАЭ при помощи искусственного интеллекта, которой имитировал голос главы банка. Работник в банке не смог отличить голос, сделанный искусственным интеллектом, и перевёл деньги думая, что такая операция является законной. [3]

Исследователи из лаборатории Security, Algorithms, Networking and Data (SAND) Чикагского университета протестировали программы синтеза дипфейк-голосов с целью узнать возможность обхода систем распознавания голоса в Amazon Alexa, WeChat и Microsoft Azure.

Разработчики SV2TTS утверждают, что программе потребовалось всего пять секунд для создания оптимальной имитации. SV2TTS, описываемый как «набор инструментов для клонирования голоса в реальном времени», смог обмануть Microsoft Azure примерно в 30% случаев и в 63% случаев успешно обманывал WeChat и Amazon Alexa. [4]

Так же при помощи сайта Lyrebird и минутной записи голоса, система может сгенерировать уникальный ключ, при помощи которого можно придать своему голосу характеристики голоса другого человека. Данный способ хоть и звучит проще, но может использоваться для телефонного мошенничества.

Биометрические системы хранят биометрическую модель, поэтому кража этих данных не так страшна, как звучит. Биометрическая модель содержит наборы цифр характеризующую личность, а не саму запись голоса или модель лица. Для идентификации пользователя система сверяет хранящуюся модель с построенной при проверке, и если они совпадают, то система дает разрешение воспользоваться запрошенной функцией.

Система построений этих моделей хранится в тайне разработчиком. Что позволяет быть уверенным, что у похитителей не получиться запустить сворованные данные на другой системе. Минимально необходимым количество опорных точек – 68, но зачастую их гораздо больше. По данным точкам вычисляется уникальный набор характеристик лица.

Основная проблема заключается в том, что для создания биометрических данных необходимо качественное оборудование, но не все отделения оборудованы по всем необходимым требованиям. Для построения качественной модели нужны идеальные условия.

Что бы избежать случаи, когда система принимает фотографии и маски за настоящих людей, была придумана система liveness detection [5].  Но уже в 2019 на BlackHat смогли обойти и эту систему. Так, например, Face ID, заметив, что пользователь надел очки, не пытается построить модель возле глаз, а берет ее в виде модели – чёрная область с белой точкой по центру. [6]

Исследователи из Университета Карнеги-Меллон разработали способ борьбы с системами биометрической видеослежки. Многие системы можно обойти с помощью простых 3D-печатных очков. Так как большинство систем распознавания опираются на сравнение расцветки пикселей в выборочных точках лица, сравнивая изображения с уже имеющимися в базе данных. Если же расцветку пикселей поменять, программное обеспечение путается. У данного исследования было две цели – имперсонация и «невидимость» в глазах электронных систем. Тестирование показало, что 9 из 10 систем провалилась.

Российская компания Vocord разработала систему FaceControl 3D, обрабатывающую снимки со стереокамер. Данная система автоматически строит виртуальные 3D-модели и сравнивает их с уже имеющимися данными или обычными фотографиями. Как заявляют разработчик, данная программа не испытывает проблем с распознаванием лиц даже при поворотах головы, макияжу, очкам или фанатской раскраски. Данная программа включена в реестр импортозамещения и планируется к поступлению на вооружение ФСБ, ФСО, МВД, городских администраций, банковского сектора и розничной торговли. [7]

Таким образом, мы видим, что использование биометрических данных является вынужденной мерой по борьбе с киберпреступностью. Рассмотренные выше методы защиты приобретают массовость и требуют больше внимания как со стороны специалистов, так и со стороны обычных пользователей.  Как мы видим, не стоит торопиться со сдачей персональных данных, а следует подождать улучшения ситуации. Использовать биометрические данные можно, но не стоит забывать о старых методах защиты. А еще лучше будет использовать их в совокупности. Тем самым Вы сможете получить достаточно надежную защиту ваших данных. Биометрические данные уже сейчас становятся на страже государственного порядка и содействуют раскрытию и предотвращении преступлений.

 

Список литературы:
1. Федеральный закон от 31 декабря 2017 г. N 482-ФЗ "О внесении изменений в отдельные законодательные акты Российской Федерации" // Российская Газета URL: https://rg.ru/2018/01/09/fz482-dok.html (дата обращения: 07.12.2021).
2. Как обмануть системы распознавания лиц // ВЕДОМОСТИ URL: https://www.vedomosti.ru/technology/articles/2018/03/28/755116-obmanut-sistemi (дата обращения: 07.12.2021).
3. Мошенники с помощью подмены голоса украли у банка 35 млн долларов // НТВ URL: https://www.ntv.ru/novosti/2619622/ (дата обращения: 07.12.2021).
4. Дипфейк-голоса могут обмануть IoT-устройства и людей после пяти секунд обучения // SecurityLab.ru URL: https://www.securitylab.ru/news/525619.php (дата обращения: 07.12.2021).
5. Антиспуфинг: как системы распознавания лиц противостоят мошенникам? // Хабр URL: https://habr.com/ru/company/speechpro/blog/436700/ (дата обращения: 07.12.2021).
6. Biometric Authentication Under Threat: Liveness Detection Hacking // blackhat URL: https://www.blackhat.com/us-19/briefings/schedule/#biometric-authentication-under-threat-liveness-detection-hacking-16130 (дата обращения: 07.12.2021).
7. 3D-печатные очки помогли обмануть биометрическую систему распознавания лиц // 3DTODAY URL: https://3dtoday.ru/blogs/news3dtoday/3dprinted-glasses-helped-to-deceive-a-biometric-system-of-face-recogni (дата обращения: 07.12.2021).