Технология SLAM (от англ. Simultaneous Localization And Mapping – одновременное построение карты и определение местоположения) на сегодняшний день является передовой в вопросе навигации мобильных роботов [1]. Она необходима для успешного перемещения робота по различного типа местности и заключается в построении карты окружающей среды и отслеживании его (робота) местоположения в этой среде, что осуществляется его бортовым компьютером. Как правило, информацию об окружающей среде бортовая система робота получает посредством датчиков, таких как лазерные и ультразвуковые дальномеры, одна, две или три видеокамеры. Ультразвуковые и лазерные датчики являются весьма дорогостоящими и, что самое главное, массивными устройствами, а использование ограниченного количества видеокамер хотя и дает намного больше информации (цвет, освещенность и т. д.), но обеспечивает далеко не полный обзор окружающего робот пространства. В связи с этим автор статьи ознакомился с публикациями, связанными с вопросами получения мобильным роботом информации об окружающей среде с большим полем обзора. Было обнаружено, что существует так называемая технология Omni-directional SLAM (от англ. Omni-directional – многонаправленный), которая для получения информации об окружающей среде использует следующие датчики: катадиоптрическая камера, массив из камер или камера со сверхширокоугольным объективом. В данном обзоре представляется информация о таких устройствах и разработках алгоритмов SLAM, работающих на их основе.
1. RoboCraft (технология SLAM) [Электронный ресурс]. – URL: http://robocraft.ru/blog/technology/724.html (дата обращения: 22.06.2018).
2. Omnidirectional sensors for mobile robots / S. Blumenthal, D. Droeschel, D. Holz, T. Linder, P. Molitor, H. Surmann // Workshop Proceedings of SIMPAR 2008, Venice, Italy, November, 3–7, 2008. – Venice, 2008. – P. 414–425.
3. Caruso D., Engel J., Cremers D. Large-scale direct slam for omnidirectional cameras // 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), September 28 – October 2, 2015, Hamburg, Germany. – Hamburg, 2015. – P. 141–148.
4. Rituerto A., Puig L., Guerrero J. Visual SLAM with an omnidirectional camera // 2010 20th International Conference on Pattern Recognition CPR 2010, 23–26 August 2010, Istanbul, Turkey: Proceedings. – Istanbul, 2010. – P. 348–351.
5. An omni-directional vSLAM based on spherical camera model and 3D modeling / Guofeng Tong, Zizhang Wu, NingLong Weng, Wenbo Hou // Proceedings of the 10th World Congress on Intelligent Control and Automation. – Beijing, China, 2012. – P. 4551–4556.
6. Benefit of large field-of-view cameras for visual odometry / Z. Zhang, H. Rebecq, C. Forster, D. Scaramuzza // 2016 IEEE International Conference on Robotics and Automation (ICRA). – Stockholm, Sweden, 2016. – P. 801–808.
7. Kaess M., Dellaert F. Probabilistic structure matching for visual SLAM with a multi-camera rig // Computer Vision and Image Understanding. – 2010. – Vol. 114. – P. 286–296.
8. Carrera G., Angeli A., Davison A.J. SLAM-based automatic extrinsic calibration of a multi-camera rig // 2011 IEEE International Conference on Robotics and Automation. – Shanghai, China, 2011. – P. 2652–2659.
9. Davison A., González Y., Kita N. Real-time 3D SLAM with wide-angle vision // IFAC Proceedings Volumes. – 2004. – Vol. 37 (8). – P. 868–873.
10. Scaramuzza D, Siegwart R. Appearance guided monocular omnidirectional visual odometry for outdoor ground vehicles // IEEE Transactions on Robotics. – 2008. – Vol. 24 (5). – P. 1015–1026.
11. Kim J., Chung M. SLAM with Omni-directional stereo vision sensor // Proceedings 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems. – Las Vegas, NV, 2003. – Vol. 1. – P. 442–447.
Алтухов В.Г. Обзор технологии навигации мобильных роботов Omni-directional vSLAM // Сборник научных трудов НГТУ. – 2018. – № 2 (92). – С. 81–92. – doi: 10.17212/2307-6879-2018-2-81-92.
Altukhov V.G. Obzor tekhnologii navigatsii mobil'nykh robotov Omni-directional vSLAM [A survey of mobile robot’s navigation technology Omni-directional vSLAM]. Sbornik nauchnykh trudov Novosibirskogo gosudarstvennogo tekhnicheskogo universiteta – Transaction of scientific papers of the Novosibirsk state technical university, 2018, no. 2 (93), pp. 81–92. doi: 10.17212/2307-6879-2018-2-81-92.