Методика генерации искусственных наборов данных и архитектура системы распознавания лиц для взаимодействия с роботами внутри киберфизического пространства

Методика генерации искусственных наборов данных и архитектура системы распознавания лиц для взаимодействия с роботами внутри киберфизического пространства

Малов Дмитрий Александрович *
Санкт-Петербургский институт информатики и автоматизации РАН (СПИИРАН), Лаборатория автономных робототехнических систем, м.н.с., 199178, Санкт-Петербург, 14-я линия В.О., д. 39, тел.: +7(931)358-83-78, Этот адрес электронной почты защищён от спам-ботов. У вас должен быть включен JavaScript для просмотра.

Летенков Максим Андреевич
Санкт-Петербургский институт информатики и автоматизации РАН (СПИИРАН), Лаборатория технологий больших данных социокиберфизических систем, м.н.с., 199178, Санкт-Петербург, 14-я линия В.О., д. 39


Материал поступил в редакцию 21 апреля 2019 года.

Аннотация
Рассматривается задача идентификации пользователя в киберфизическом пространстве на основе изображений его лица. Проанализированы существующие методы и подходы распознавания лиц. С учетом произведенного анализа предложена новая методика генерации искусственной выборки, которая позволяет создавать наборы данных для обучения нейронной сети. Также разработана архитектура самой системы, которая обеспечивает переобучение модели и подбор оптимальной конфигурации нейронной сети. В работе рассмотрены сценарии взаимодействия пользователей с мобильными робототехническими системами внутри киберфизического окружения на основе разработанной системы распознавания лиц.

Ключевые слова
Киберфизическое пространство, распознавание лиц, автономные робототехнические си-стемы, синтетические данные, искусственные нейронные сети.

DOI
https://doi.org/10.31776/RTCJ.7203

Индекс УДК 

004.032.26

Библиографическое описание 
Малов Д.А. Методика генерации искусственных наборов данных и архитектура системы распознавания лиц для взаимодействия с роботами внутри киберфизического пространства / Д.А. Малов, М.А. Летенков // Робототехника и техническая кибернетика. – Т. 7. - №2. – Санкт-Петербург : ЦНИИ РТК. – 2019. – С. 100-108.

Литература

  1. Generative adversarial nets / Goodfellow I. [et al.] // Advances in neural information processing systems. – 2014. – Pp. 2672-2680.
  2. Learning from simulated and unsupervised images through adversarial training / Shrivastava A. [et al.] // Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. – 2017. – Pp. 2107-2116.
  3. Wang X. Generative image modeling using style and structure adversarial networks / Wang X., Gupta A. // European Conference on Computer Vision. – Springer, Cham, 2016. – Pp. 318-335.
  4. Generative visual manipulation on the natural image manifold / Zhu J. Y. [et al.] // European Conference on Computer Vision. – Springer, Cham, 2016. – Pp. 597-613.
  5. Liu M. Y. Coupled generative adversarial networks / Liu M. Y., Tuzel O. // Advances in neural information processing systems. – 2016. – Pp. 469-477.
  6. Tuzel O. Global-local face upsampling network / Tuzel O., Taguchi Y., Hershey J. R. // ArXiv preprint arXiv:1603.07235. – 2016.
  7. Генерация фотореалистичных лиц знаменитостей. – URL: https://blog.insightdatascience.com/generating-custom-photo-realistic-faces-using-ai-d170b1b59255 (дата обращения: 10.02.2018). – Текст : электронный.
  8. Learning to discover cross-domain relations with generative adversarial networks / Kim T. [et al.] // ArXiv preprint arXiv:1703.05192. – 2017.
  9. Goodfellow I. Deep Learning / I. Goodfellow, Y. Bengio, A. Courville // MIT Press, 2016.
  10. Существующие реализации генеративно-состязательных сетей. – URL: https://github.com/eriklindernoren/Keras-GAN/blob/master/dcgan/dcgan.py (дата обращения: 10.02.2018). – Текст : электронный.
  11. Реализация генеративно-состязательных сетей с использованием библиотеки Torch. URL: http://torch.ch/blog/2015/11/13/gan.html (дата обращения: 10.02.2018). – Текст : электронный.

Полный текст статьи (pdf)

Адрес редакции:  Россия, 194064, Санкт-Петербург, Тихорецкий пр., 21   Тел.: +7(812) 552-13-25 e-mail: zheleznyakov@rtc.ru 
 
 
vk2    tg2