Preview

Мехатроника, автоматизация, управление

Расширенный поиск

Совместное распознавание подвижных и неподвижных объектов в системе технического зрения робота

https://doi.org/10.17587/mau.16.464-470

Полный текст:

Аннотация

Предложены модифицированные алгоритмы совместного обнаружения подвижных и неподвижных объектов, которые разделяются на два типа: известные объекты (неподвижные препятствия, например, стол, стул, компьютер и пр.) и подвижные объекты (например, люди). Представлены модифицированные алгоритмы распознавания для каждого типа объектов: для неподвижных объектов применяется модифицированный алгоритм поиска ближайших соседей совместно с деревьями поиска (KNN) и библиотекой FLANN; для подвижных объектов типа "человек" применены встроенные алгоритмы комплекта разработчика (SDK) Microsoft Kinect. Показана эффективность алгоритма поиска ближайших соседей при обнаружении неподвижных объектов. Эффективность нахождения объектов увеличена за счет применения алгоритма SURF. Результаты экспериментов показывают эффективность предложенного подхода при использовании в составе системы технического зрения мобильной робототехнической платформы.

Об авторах

Tuan Нгуен Туан Зунг
Астраханский государственный технический университет, г. Астрахань
Россия


И. А. Щербатов
Астраханский государственный технический университет, г. Астрахань
Россия


Список литературы

1. Navneet Dalai, Bill Triggs. Object Detection using Histograms of Oriented Gradients. URL: http://www.webcitation.org/6DvoEuAvL (дата обращения: 14.10.2014).

2. Ramisa A., Vasudevan S., Aldavert D., Toledo R., Lopez de Mantaras R. Evaluation of the SIFT Object Recognition Method in Mobile Robots. URL: http://www.iiia.csic.es/~mantaras/sift_eval.pdf (дата обращения: 14.10.2014).

3. Bay H., Ess A., Tuytelaars T., Van Gool L. Speeded-Up Robust Features (SURF) // Computer Vision and Image Understanding. 2008. Vol. 110, Issue 3. P. 346-359.

4. Marron R., Janet J. C# Implementation of SLAM Using the Microsoft Kinect. URL: http://old.ee.duke.edu/files/ece/GWD-D2012_Marron.pdf (дата обращения: 14.10.2014).

5. Shotton J., Fitzgibbon A. Cook M., Sharp Т., Finocchio M., Moore R., Kipman A., Blake A. Real-time human pose recognition in parts from single depth images // VISAPP International Conference on Computer Vision Theory and Applications. February 2013. Pp. 119-135.

6. Kefer M., Kubinger W. Evaluation of Kinect Depth Sensor for Use in Mobile Robotics // Annals of DAAAM for 2011 & Proceedings of the 22nd International DAAAM Symposium. 2011. Vol. 22, N. 1.

7. Knuth D. Section 6.1: Sequential Searching. Sorting and Searching. The Art of Computer Programming 3. Addison-Wesley. 1997. P. 396-408.

8. Muja M., Lowe D. G. Fast approximate nearest neighbors with automatic algorithm configuration // VISAPP International Conference on Computer Vision Theory and Applications. 2009. P. 331-340.

9. Mount D. M., Arya S. ANN: A Library for Approximate Nearest Neighbor Searching. URL: http://www.cs.umd.edu/~mount/ANN/ (дата обращения: 05.11.2014).

10. Connor M. The Simple, Thread-safe Approximate Nearest Neighbor (STANN). URL: https://sites.google.com/a/compgeom.com/stann/Home (дата обращения: 05.11.2014).

11. Forsyth D. A., Ponce J. Computer Vision: A Modern Approach // Robotics and Autonomous Systems. 2006. Vol. 11, N. 3. P. 84-92.

12. Обзор информации об алгоритме ближайшего соседа. URL: http://www.basegroup.ru/library/analysis/regression/knn/ (дата обращения: 05.11.2014).


Для цитирования:


Нгуен Туан Зунг ., Щербатов И.А. Совместное распознавание подвижных и неподвижных объектов в системе технического зрения робота. Мехатроника, автоматизация, управление. 2015;16(7):464-470. https://doi.org/10.17587/mau.16.464-470

For citation:


Nguen T.D., Shcherbatov I.A. Joint Recognition of the Moving and Stationary Objects in the Machine Vision Systems of Robots. Mekhatronika, Avtomatizatsiya, Upravlenie. 2015;16(7):464-470. (In Russ.) https://doi.org/10.17587/mau.16.464-470

Просмотров: 14


Creative Commons License
Контент доступен под лицензией Creative Commons Attribution 4.0 License.


ISSN 1684-6427 (Print)
ISSN 2619-1253 (Online)