<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.3 20210610//EN" "JATS-journalpublishing1-3.dtd">
<article article-type="research-article" dtd-version="1.3" xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xml:lang="ru"><front><journal-meta><journal-id journal-id-type="publisher-id">novtexmech</journal-id><journal-title-group><journal-title xml:lang="ru">Мехатроника, автоматизация, управление</journal-title><trans-title-group xml:lang="en"><trans-title>Mekhatronika, Avtomatizatsiya, Upravlenie</trans-title></trans-title-group></journal-title-group><issn pub-type="ppub">1684-6427</issn><issn pub-type="epub">2619-1253</issn><publisher><publisher-name>Commercial Publisher «New Technologies»</publisher-name></publisher></journal-meta><article-meta><article-id pub-id-type="doi">10.17587/mau.22.94-103</article-id><article-id custom-type="elpub" pub-id-type="custom">novtexmech-937</article-id><article-categories><subj-group subj-group-type="heading"><subject>Research Article</subject></subj-group><subj-group subj-group-type="section-heading" xml:lang="ru"><subject>РОБОТЫ, МЕХАТРОНИКА И РОБОТОТЕХНИЧЕСКИЕ СИСТЕМЫ</subject></subj-group><subj-group subj-group-type="section-heading" xml:lang="en"><subject>ROBOT, MECHATRONICS AND ROBOTIC SYSTEMS</subject></subj-group></article-categories><title-group><article-title>Об одном подходе к распознаванию сцен группой роботов на основе локального взаимодействия</article-title><trans-title-group xml:lang="en"><trans-title>An Approach to Scene Recognition Based on the Local Interaction of a Group of Robots</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author" corresp="yes"><name-alternatives><name name-style="eastern" xml:lang="ru"><surname>Московский</surname><given-names>А. Б.</given-names></name><name name-style="western" xml:lang="en"><surname>Moskovsky</surname><given-names>A. D.</given-names></name></name-alternatives><bio xml:lang="ru"><p>инженер-исследователь</p><p>г. Москва</p></bio><bio xml:lang="en"><p>Engineer-Researcher</p><p>Moscow, 123182</p></bio><email xlink:type="simple">moscowskyad@gmail.com</email><xref ref-type="aff" rid="aff-1"/></contrib><contrib contrib-type="author" corresp="yes"><name-alternatives><name name-style="eastern" xml:lang="ru"><surname>Бургов</surname><given-names>Е. В.</given-names></name><name name-style="western" xml:lang="en"><surname>Burgov</surname><given-names>E. V.</given-names></name></name-alternatives><bio xml:lang="ru"><p>инженер-исследователь</p><p>г. Москва</p></bio><bio xml:lang="en"><p>Moscow, 123182</p></bio><email xlink:type="simple">burgov.ev@yandex.ru</email><xref ref-type="aff" rid="aff-1"/></contrib><contrib contrib-type="author" corresp="yes"><name-alternatives><name name-style="eastern" xml:lang="ru"><surname>Овсянникова</surname><given-names>Е. Е.</given-names></name><name name-style="western" xml:lang="en"><surname>Ovsyannikova</surname><given-names>E. E.</given-names></name></name-alternatives><bio xml:lang="ru"><p>инженер-исследователь</p><p>г. Москва</p></bio><bio xml:lang="en"><p>Moscow, 123182</p></bio><email xlink:type="simple">eeovsyan@gmail.com</email><xref ref-type="aff" rid="aff-1"/></contrib></contrib-group><aff-alternatives id="aff-1"><aff xml:lang="ru">Национальный исследовательский центр "Курчатовский институт"<country>Россия</country></aff><aff xml:lang="en">National Research Center "Kurchatov Institute"<country>Russian Federation</country></aff></aff-alternatives><pub-date pub-type="collection"><year>2021</year></pub-date><pub-date pub-type="epub"><day>02</day><month>02</month><year>2021</year></pub-date><volume>22</volume><issue>2</issue><fpage>94</fpage><lpage>103</lpage><permissions><copyright-statement>Copyright &amp;#x00A9; Commercial Publisher «New Technologies», 2021</copyright-statement><copyright-year>2021</copyright-year><copyright-holder xml:lang="ru">Commercial Publisher «New Technologies»</copyright-holder><copyright-holder xml:lang="en">Commercial Publisher «New Technologies»</copyright-holder><license xlink:href="https://mech.novtex.ru/jour/about/submissions#copyrightNotice" xlink:type="simple"><license-p>https://mech.novtex.ru/jour/about/submissions#copyrightNotice</license-p></license></permissions><self-uri xlink:href="https://mech.novtex.ru/jour/article/view/937">https://mech.novtex.ru/jour/article/view/937</self-uri><abstract><p>Рассматривается подход к коллективному распознаванию группой аниматов — модельными агентами с некоторой степенью биоинспирированности. Биологической основой для формирования группы является семья муравьев. Смоделированы гнездо, часть семьи, занимающаяся добычей пищи (фуражировкой), кормовые объекты и вражеские особи. Важным биологически инспирированным механизмом является кинопсис — " язык поз" . С его помощью муравьи некоторых видов передают друг другу сигналы (угроза, добыча и т.д.).</p><p>Группа аниматов решает задачу сбора пищи и противодействия вражеским особям. Каждый анимат выбирает действие на основе наблюдаемой им сцены. Первый предложенный алгоритм описывает механизм зрительной памяти, который позволяет аниматору запоминать увиденные объекты в течение некоторого времени. Во втором алгоритме реализуется групповое распознавание объектов. С помощью средств локальной связи аниматы способны обмениваться информацией о наблюдаемой ими сцене, представленной в виде графа. Анимат, получая такую информацию от соседей, способен расширить свою картину мира и более корректно выбирать свое поведение на основе распознанной ситуации, чем если бы располагал только собственными данными. Предложенные алгоритмы были проверены на тестовой задаче в разработанной среде симуляции и показали, что их добавление способствует увеличению эффективности группы.</p><p>Эффективность группы определялась по количеству пищи, собранному за отведенный период времени. Аниматы, использовавшие зрительную память, показали повышение эффективности по всем исследуемым параметрам. Зависимость не монотонна: существует определенное значение, при котором достигается максимальная эффективность действий группы. Использование алгоритма группового распознавания также показало повышение эффективности по сравнению с базовой конфигурацией. Также проводилось исследование дистанции локального взаимодействия аниматов. Комбинация обоих алгоритмов также дает интересные результаты.</p></abstract><trans-abstract xml:lang="en"><p>The paper considers a group of animates (bio-inspired abstract models or technical devices) that use the visual analyzer described by the authors earlier. The visual analyzer recognizes the scene observed by the animat, determines the class of the situation and selects the corresponding behavior. The analyzer is based on the" language of poses" , borrowed from some species of ants, which allows them to visually inform other individuals of their condition. The first proposed algorithm describes a visual memory mechanism that allows an animat to remember seen objects for some time and select its behavior in a more stable way compared to a basic visual analyzer. The second algorithm describes a group recognition approach. Robots are able to exchange information about the scene they are observing presented in the form of a graph using local communication. The robot, receiving such information from its neighbors, is able to expand its picture of the world and more correctly choose its behavior based on the recognized situation than if it only had its own data. A demonstration task was set to test the efficiency, approximately simulating a colony of ants that gather food in a certain area. Colony, nest, food, and enemy individuals are modeled in the developed simulation environment. Group efficiency was defined as the amount of food collected over the allotted time period. Animates using the visual memory algorithm showed an increase in efficiency for all the studied memory parameters. Moreover, the dependence is not monotonic, and there is a certain value at which maximum efficiency is achieved. The use of the group recognition algorithm also showed an increase in efficiency compared to the basic visual analyzer. The experiments were carried out for different distances of local interaction. As with memory, there is a value of interaction distance at which the maximum efficiency is achieved. The combination of both algorithms also has interesting results. The experiments showed that the smaller the memory of the robot, the greater the increase in efficiency from using the collective recognition algorithm.</p></trans-abstract><kwd-group xml:lang="ru"><kwd>коллективное распознавание</kwd><kwd>групповая робототехника</kwd><kwd>анимат</kwd><kwd>зрительный анализатор</kwd><kwd>анализ сцен</kwd><kwd>локальная связь</kwd></kwd-group><kwd-group xml:lang="en"><kwd>collective recognition</kwd><kwd>a group of robots</kwd><kwd>animat</kwd><kwd>visual analyzer</kwd><kwd>scene analysis</kwd><kwd>local communication</kwd></kwd-group><funding-group xml:lang="ru"><funding-statement>Работа выполнена при частичном финансировании грантов РФФИ № 16-29-04412 офи_м (Обзор существующих решений, Постановка задачи, Визуальная память анимата, Коллективное распознавание, Эксперименты) и РФФИ № 17-29-07083 офи_м (Моделируемые объекты и механизмы, Описание демонстрационной задачи).</funding-statement></funding-group><funding-group xml:lang="en"><funding-statement>This work was supported, in part, by the Russian Foundation for Basic Research, grant ofi-m 16-29-04412 (which funded sections overview of existing solutions, problem statement, visual animat memory, collective recognition, experiments), and by the Russian Foundation for Basic Research, grant ofi-m 17-29-07083 (which funded sections simulated objects and mechanisms, description of the demonstration task).</funding-statement></funding-group></article-meta></front><back><ref-list><title>References</title><ref id="cit1"><label>1</label><citation-alternatives><mixed-citation xml:lang="ru">Sankaranarayanan A. C., Veeraraghavan A., Chellappa R. Object detection, tracking and recognition for multiple smart cameras // Proc. IEEE, 2008. Vol. 96, N. 10. P. 1606—1624.</mixed-citation><mixed-citation xml:lang="en">Sankaranarayanan A. C., Veeraraghavan A., Chellappa R. Object detection, tracking and recognition for multiple smart cameras, Proc. IEEE, 2008, vol. 96, no. 10, pp. 1606—1624.</mixed-citation></citation-alternatives></ref><ref id="cit2"><label>2</label><citation-alternatives><mixed-citation xml:lang="ru">Zervos M. Multi-Camera Face Detection and Recognition Applied to People Tracking // Sch. Comput. Commun. Sci. Ec. Polytech. Fédérale Lausanne. 2013. January.</mixed-citation><mixed-citation xml:lang="en">Zervos M. Multi-Camera Face Detection and Recognition Applied to People Tracking, Sch. Comput. Commun. Sci. Ec. Polytech. Fédérale Lausanne, 2013, January.</mixed-citation></citation-alternatives></ref><ref id="cit3"><label>3</label><citation-alternatives><mixed-citation xml:lang="ru">Yamashita A. et al. Human tracking with multiple cameras based on face detection and mean shift // 2011 IEEE Int. Conf. Robot. Biomimetics, ROBIO 2011. 2011. P. 1664—1671.</mixed-citation><mixed-citation xml:lang="en">Yamashita A. et al. Human tracking with multiple cameras based on face detection and mean shift, 2011 IEEE Int. Conf. Robot. Biomimetics, ROBIO 2011, 2011, pp. 1664—1671.</mixed-citation></citation-alternatives></ref><ref id="cit4"><label>4</label><citation-alternatives><mixed-citation xml:lang="ru">Harguess J., Hu C., Aggarwal J. K. Fusing face recognition from multiple cameras // 2009 Work. Appl. Comput. Vision, WACV 2009. 2009.</mixed-citation><mixed-citation xml:lang="en">Harguess J., Hu C., Aggarwal J. K. Fusing face recognition from multiple cameras, 2009 Work. Appl. Comput. Vision, WACV 2009, 2009.</mixed-citation></citation-alternatives></ref><ref id="cit5"><label>5</label><citation-alternatives><mixed-citation xml:lang="ru">An L., Kafai M., Bhanu B. Face recognition in multicamera surveillance videos using dynamic Bayesian network // 2012 6th Int. Conf. Distrib. Smart Cameras, ICDSC 2012. 2012.</mixed-citation><mixed-citation xml:lang="en">An L., Kafai M., Bhanu B. Face recognition in multicamera surveillance videos using dynamic Bayesian network, 2012 6th Int. Conf. Distrib. Smart Cameras, ICDSC 2012, 2012.</mixed-citation></citation-alternatives></ref><ref id="cit6"><label>6</label><citation-alternatives><mixed-citation xml:lang="ru">Карпов В. Э., Карпова И. П., Кулинич А. А. Социальные сообщества роботов. М.: УРСС, 2019. 352 p.</mixed-citation><mixed-citation xml:lang="en">Karpov V. E., Karpova I. P., Kulinich A. A. Social community robots, Moscow, URSS, 2019, 352 p.</mixed-citation></citation-alternatives></ref><ref id="cit7"><label>7</label><citation-alternatives><mixed-citation xml:lang="ru">SwarmRobot. Официальный сайт проекта SwarmRobot [Electronic resource]. 2016. URL: http://www.swarm-bots.org (дата обращения: 03.03.2020).</mixed-citation><mixed-citation xml:lang="en">SwarmRobot. The official website of the project SwarmRobot, 2016, available at: http://www.swarm-bots.org (accessed: 03.03.2020).</mixed-citation></citation-alternatives></ref><ref id="cit8"><label>8</label><citation-alternatives><mixed-citation xml:lang="ru">Kernbach S. Handbook Of Collective Robotics // Handbook of Collective Robotics — Fundamentals and Challenges. 2013. Vol. 2, № 2000. P. 978—981.</mixed-citation><mixed-citation xml:lang="en">Kernbach S. Handbook Of Collective Robotics, Handbook of Collective Robotics — Fundamentals and Challenges, 2013, vol. 2, no. 2000, pp. 978—981.</mixed-citation></citation-alternatives></ref><ref id="cit9"><label>9</label><citation-alternatives><mixed-citation xml:lang="ru">Giusti A. et al. Cooperative sensing and recognition by a swarm of mobile robots // IEEE Int. Conf. Intell. Robot. Syst. 2012. P. 551—558.</mixed-citation><mixed-citation xml:lang="en">Giusti A. et al. Cooperative sensing and recognition by a swarm of mobile robots, IEEE Int. Conf. Intell. Robot. Syst., 2012, pp. 551—558.</mixed-citation></citation-alternatives></ref><ref id="cit10"><label>10</label><citation-alternatives><mixed-citation xml:lang="ru">Stegagno P., Massidda C., Bülthoff H. H. Object Recognition in Swarm Systems: Preliminary Results // Workshop on the Centrality of Decentralization in Multi-Robot Systems: Holy Grail or False Idol? (IEEE ICRA 2014). 2014. P. 1—3.</mixed-citation><mixed-citation xml:lang="en">Stegagno P., Massidda C., Bülthoff H. H. Object Recognition in Swarm Systems: Preliminary Results, Workshop on the Centrality of Decentralization in Multi-Robot Systems: Holy Grail or False Idol? (IEEE ICRA 2014), 2014, pp. 1—3.</mixed-citation></citation-alternatives></ref><ref id="cit11"><label>11</label><citation-alternatives><mixed-citation xml:lang="ru">Maghami M., Koval M. C., Georgiopoulos M., Rubinoff A. E. A Social Network Analysis for Automatic Target Recognition in Swarm Robotics // International Conference on Robotics and Automation 2010 (ICRA 2010). 2010.</mixed-citation><mixed-citation xml:lang="en">Maghami M., Koval M. C., Georgiopoulos M., Rubinoff A. E. A Social Network Analysis for Automatic Target Recognition in Swarm Robotics, International Conference on Robotics and Automation 2010 (ICRA 2010), 2010.</mixed-citation></citation-alternatives></ref><ref id="cit12"><label>12</label><citation-alternatives><mixed-citation xml:lang="ru">Московский А. Д., Бургов Е. В., Овсянникова Е. Е. Зрительный анализатор анимата как основа семантики сенсорной системы робота // Мехатроника, автоматизация, управление. 2018. Vol. 5, N. 19. P. 336—345.</mixed-citation><mixed-citation xml:lang="en">Moskovsky A. D., Burgov E. V., Ovsyannikova E. E. Visual analyzer of the animat as a semantic basis of robot sensoric system, Mekhatronika, Avtomatizatsiya, Upravlenie, 2018, vol. 19, no. 5, pp. 336—345 (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit13"><label>13</label><citation-alternatives><mixed-citation xml:lang="ru">Meyer J. A., Wilson S. Simulation of Adaptive Behavior: from Animals to Animats. Cambridge, MA: MIT Press, 1991.</mixed-citation><mixed-citation xml:lang="en">Meyer J. A., Wilson S. Simulation of Adaptive Behavior: from Animals to Animats, Cambridge, MA, MIT Press, 1991.</mixed-citation></citation-alternatives></ref><ref id="cit14"><label>14</label><citation-alternatives><mixed-citation xml:lang="ru">Захаров А. А. Муравьи лесных сообществ, их жизнь и роль в лесу. М.: Товарищество научных изданий КМК, 2015. 404 p.</mixed-citation><mixed-citation xml:lang="en">Zaharov A. A. Ants of forest communities, their life and role in the forest, Мoscow, Tovarishhestvo nauchnyh izdanij KMK, 2015, 404 p. (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit15"><label>15</label><citation-alternatives><mixed-citation xml:lang="ru">Forel A. The social world of ants. Bradford, 1928.</mixed-citation><mixed-citation xml:lang="en">Forel A. The social world of ants, Bradford, 1928.</mixed-citation></citation-alternatives></ref><ref id="cit16"><label>16</label><citation-alternatives><mixed-citation xml:lang="ru">Topoff H. An ant nest hat facilitates removing at all stages at development // Ann. Entomol. Soc. Amer. 1975. Vol. 68, N. 1. P. 182—183.</mixed-citation><mixed-citation xml:lang="en">Topoff H. An ant nest hat facilitates removing at all stages at development, Ann. Entomol. Soc. Amer., 1975, vol. 68, no. 1, pp. 182—183.</mixed-citation></citation-alternatives></ref><ref id="cit17"><label>17</label><citation-alternatives><mixed-citation xml:lang="ru">Резникова Ж. И. Межвидовые взаимоотношения у муравьев. Новосибирск: Наука, 1983. 208 p.</mixed-citation><mixed-citation xml:lang="en">Reznikiva J. I. Interspecific relationships in ants, Novosibirsk, Nauka, 1983, 208 p. (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit18"><label>18</label><citation-alternatives><mixed-citation xml:lang="ru">Бургов Е. В. Многовидовая ассоциация муравейников: переход из неполной в полную ассоциацию // Зоологический журнал. 2015. Vol. 94, № 10. P. 1200—1210.</mixed-citation><mixed-citation xml:lang="en">Burgov E. V. Multi-species association of anthills: transition from incomplete to full association, Zoologicheskij zhurnal, 2015, vol. 94, no. 10, pp. 1200—1210 (in Russian)..</mixed-citation></citation-alternatives></ref><ref id="cit19"><label>19</label><citation-alternatives><mixed-citation xml:lang="ru">Cammaerts M.-C. Colour vision in the ant Myrmica sabuleti MEINERT, 1861 (Hymenoptera: Formicidae) // Myrmecological News. Österreichische Gesellschaft f ür Entomofaunistik, 2007. Vol. 10. P. 41—50.</mixed-citation><mixed-citation xml:lang="en">Cammaerts M.-C. Colour vision in the ant Myrmica sabuleti MEINERT, 1861 (Hymenoptera: Formicidae), Myrmecological News. Österreichische Gesellschaft f ür Entomofaunistik, 2007, vol. 10, pp. 41—50.</mixed-citation></citation-alternatives></ref><ref id="cit20"><label>20</label><citation-alternatives><mixed-citation xml:lang="ru">Cammaerts M.-C. et al. Use of olfactory and visual cues for orientation by the ant Myrmica ruginodis (Hymenoptera: Formicidae) // Myrmecological News. Österreichische Gesellschaft f ür Entomofaunistik, 2012. Vol. 16. P. 45—55.</mixed-citation><mixed-citation xml:lang="en">Cammaerts M.-C. et al. Use of olfactory and visual cues for orientation by the ant Myrmica ruginodis (Hymenoptera: Formicidae), Myrmecological News. Österreichische Gesellschaft f ür Entomofaunistik, 2012, vol. 16, pp. 45—55.</mixed-citation></citation-alternatives></ref><ref id="cit21"><label>21</label><citation-alternatives><mixed-citation xml:lang="ru">Hölldobler B. Multimodal signals in ant communication // J. Comp. Physiol. A. 1999. Vol. 184. P. 129—141.</mixed-citation><mixed-citation xml:lang="en">Hölldobler B. Multimodal signals in ant communication, J. Comp. Physiol. A., 1999, vol. 184, pp. 129—141.</mixed-citation></citation-alternatives></ref><ref id="cit22"><label>22</label><citation-alternatives><mixed-citation xml:lang="ru">Федосеева Е. Б. Технологический подход к описанию групповой фуражировки муравьев Myrmica rubra // Зоол. журн. 2015. Vol. 94, N. 10. P. 1163—1178.</mixed-citation><mixed-citation xml:lang="en">Fedoseeva E. B. A technological approach to the description of group foraging of ants Myrmica rubra, Zool. Journal, 2015, vol. 94, no. 10, pp. 1163—1178 (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit23"><label>23</label><citation-alternatives><mixed-citation xml:lang="ru">Длусский Г. М. Муравьи рода Формика. М.: Наука, 1967. 233 p.</mixed-citation><mixed-citation xml:lang="en">Dlusskij G. M. Formica ants, Moscow, Nauka, 1967, 233 p. (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit24"><label>24</label><citation-alternatives><mixed-citation xml:lang="ru">Московский А. Д. Графы как инструмент для решения задачи распознавания сцен // Четвертый Всероссийский научно-практический семинар "Беспилотные транспортные средства с элементами искусственного интеллекта" (БТС-ИИ-2017, 5—6 октября 2017 г., г. Казань, Республика Татарстан, Россия) тр. семинара. 2017. P. 56—64.</mixed-citation><mixed-citation xml:lang="en">Moskovsky A. D. Graphs as a tool for solving the problem of scene recognition, Fourth All-Russian Scientific and Practical Seminar " Unmanned vehicles with elements of artificial intelligence" (UBS-AI-2017), workshop proceedings, 2017, pp. 56—64 (in Russian).</mixed-citation></citation-alternatives></ref><ref id="cit25"><label>25</label><citation-alternatives><mixed-citation xml:lang="ru">Карпов В. Э. Об одном механизме реконструкции сцен // VI-ая Международная научно-практическая конференция "Интегрированные модели и мягкие вычисления в искусственном интеллекте", Сб. науч. трудов. В 2-т., Т.1, М. Физматлит. 2011. P. 407—415.</mixed-citation><mixed-citation xml:lang="en">Karpov V. E. About one scene reconstruction mechanism, VI-th International Scientific and Practical Conference "Integrated Models and Soft Computing in Artificial Intelligence" , collection of scientific papers, vol. 1, Мoscow, Fizmatlit, 2011, pp. 407—415 (in Russian).</mixed-citation></citation-alternatives></ref></ref-list><fn-group><fn fn-type="conflict"><p>The authors declare that there are no conflicts of interest present.</p></fn></fn-group></back></article>
