JP2017111790A - Movement control method, autonomous mobile robot, and program - Google Patents

Movement control method, autonomous mobile robot, and program Download PDF

Info

Publication number
JP2017111790A
JP2017111790A JP2016144363A JP2016144363A JP2017111790A JP 2017111790 A JP2017111790 A JP 2017111790A JP 2016144363 A JP2016144363 A JP 2016144363A JP 2016144363 A JP2016144363 A JP 2016144363A JP 2017111790 A JP2017111790 A JP 2017111790A
Authority
JP
Japan
Prior art keywords
person
mobile robot
autonomous mobile
range
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016144363A
Other languages
Japanese (ja)
Inventor
亮太 藤村
Ryota Fujimura
亮太 藤村
和記 船瀬
Kazuki Funase
和記 船瀬
哲司 渕上
Tetsuji Fuchigami
哲司 渕上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Priority to CN201610918571.2A priority Critical patent/CN107045355B/en
Priority to US15/370,070 priority patent/US10409292B2/en
Publication of JP2017111790A publication Critical patent/JP2017111790A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a movement control method, an autonomous mobile robot, and a movement control program that allow a person around the autonomous mobile robot to constantly monitor the autonomous mobile robot by moving of the autonomous mobile robot in a region that the person can see and that allow the autonomous mobile robot to move without being seen by a person around the autonomous mobile robot by moving in a region that the person cannot see.SOLUTION: The movement control method for controlling the movement of the autonomous mobile robot includes: a step (S5) of acquiring information on a person around the autonomous mobile robot; a step (S6) of calculating a region where the person can see, based on the information on the person; and a step (S7) of determining a range where the autonomous mobile robot can move, based on the calculated vision range.SELECTED DRAWING: Figure 3

Description

本開示は、自律移動ロボットの移動を制御する移動制御方法、自律移動する自律移動ロボット、及び自律移動ロボットの移動を制御するコンピュータ読み取り可能なプログラムに関するものである。   The present disclosure relates to a movement control method that controls movement of an autonomous mobile robot, an autonomous mobile robot that moves autonomously, and a computer-readable program that controls movement of the autonomous mobile robot.

近年、予め決められた飛行ルートを自律飛行する小型の自律飛行ロボットが開発されている。この自律飛行ロボットは、複数のプロペラを備えており、複数のプロペラのそれぞれの回転数を制御することにより、空中を自在に飛行することができ、予め決められた飛行ルートに沿って自律飛行する。   In recent years, a small autonomous flying robot that autonomously flies on a predetermined flight route has been developed. This autonomous flight robot includes a plurality of propellers, and can freely fly in the air by controlling the rotation speed of each of the plurality of propellers, and autonomously fly along a predetermined flight route. .

例えば、特許文献1には、移動物体と所定の離間距離を保って追従飛行して移動物体を撮像部にて撮像する自律飛行ロボットが開示されている。   For example, Patent Document 1 discloses an autonomous flying robot that follows a moving object while keeping a predetermined separation distance and images a moving object with an imaging unit.

特開2014−119828号公報Japanese Patent Laid-Open No. 2014-11982

上記のように特許文献1に記載の従来の自律飛行ロボットは、人間などの移動物体と所定の離間距離を保って追従飛行する。一方、特許文献1に記載の従来の自律飛行ロボットは人間などの移動物体の視界範囲については考慮しておらず、人間に煩わしさを与えずに移動する、もしくは人間の視界範囲内のみで移動するといった実用上必要な移動への制約を与えることができない。   As described above, the conventional autonomous flying robot described in Patent Document 1 follows and flies with a predetermined distance from a moving object such as a human. On the other hand, the conventional autonomous flying robot described in Patent Document 1 does not consider the view range of a moving object such as a human and moves without bothering the human or moves only within the human view range. It is impossible to impose restrictions on practically necessary movements.

本開示は、上記の問題を解決するためになされたもので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる移動制御方法、自律移動ロボット及びプログラムを提供することを目的とするものである。   The present disclosure has been made in order to solve the above-described problem. When the autonomous mobile robot moves within a range in which the peripheral person existing around the autonomous mobile robot can be visually recognized, the peripheral person becomes the autonomous mobile robot. The autonomous mobile robot can move without being seen by the surrounding people by moving outside the range where the surrounding people existing around the autonomous mobile robot can be visually recognized. An object of the present invention is to provide a movable control method, an autonomous mobile robot, and a program.

本開示の一態様に係る移動制御方法は、自律移動ロボットの移動を制御する移動制御方法であって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する。   A movement control method according to an aspect of the present disclosure is a movement control method for controlling movement of an autonomous mobile robot, acquires information related to a surrounding person existing around the autonomous mobile robot, and relates to the acquired surrounding person Based on the information, a visual range that the surrounding person can visually recognize is calculated, and based on the calculated visual range, a moving range in which the autonomous mobile robot can move is determined.

なお、これらの全般的又は具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録媒体の任意な組み合わせで実現されてもよい。   These general or specific modes may be realized by a system, a device, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, device, and integrated circuit. The present invention may be realized by any combination of a computer program or a computer-readable recording medium.

本開示によれば、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。   According to the present disclosure, since the movement range in which the autonomous mobile robot can move is determined based on the visual recognition range in which surrounding people existing around the autonomous mobile robot are visible, the surroundings that exist around the autonomous mobile robot The autonomous mobile robot moves within the range where the person can visually recognize, so that the surrounding person can always monitor the autonomous mobile robot, or the surrounding people existing around the autonomous mobile robot are not visible. By moving the autonomous mobile robot, the autonomous mobile robot can be moved without being seen by the surrounding people.

本開示の実施の形態1における飛行制御システムの構成を示す図である。It is a figure which shows the structure of the flight control system in Embodiment 1 of this indication. 本開示の実施の形態1における自律飛行ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous flight robot in Embodiment 1 of this indication. 本開示の実施の形態1における自律飛行ロボットの飛行制御処理について説明するためのフローチャートである。6 is a flowchart for describing a flight control process of the autonomous flight robot according to the first embodiment of the present disclosure. 本実施の形態1における視認範囲の一例を示す図である。It is a figure which shows an example of the visual recognition range in this Embodiment 1. FIG. 本実施の形態1における移動経路の生成方法について説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the movement path | route in this Embodiment 1. FIG. 本実施の形態1における障害物を考慮した移動経路の生成方法について説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the movement path | route which considered the obstruction in this Embodiment 1. FIG. 本実施の形態1の変形例における第1の視認範囲の一例を示す斜視図である。It is a perspective view which shows an example of the 1st visual recognition range in the modification of this Embodiment 1. FIG. (A)は、本実施の形態1の変形例における第2の視認範囲の一例を示す側面図であり、(B)は、本実施の形態1の変形例における第2の視認範囲の一例を示す上面図である。(A) is a side view which shows an example of the 2nd visual recognition range in the modification of this Embodiment 1, (B) is an example of the 2nd visual recognition range in the modification of this Embodiment 1. FIG. FIG. (A)は、本実施の形態1の変形例における第3の視認範囲の一例を示す側面図であり、(B)は、本実施の形態1の変形例における第3の視認範囲の一例を示す上面図である。(A) is a side view which shows an example of the 3rd visual recognition range in the modification of this Embodiment 1, (B) is an example of the 3rd visual recognition range in the modification of this Embodiment 1. FIG. FIG. (A)は、本実施の形態1の変形例における第4の視認範囲の一例を示す側面図であり、(B)は、本実施の形態1の変形例における第4の視認範囲の一例を示す上面図である。(A) is a side view which shows an example of the 4th visual recognition range in the modification of this Embodiment 1, (B) is an example of the 4th visual recognition range in the modification of this Embodiment 1. FIG. FIG. 本実施の形態1の変形例における移動経路の生成方法について説明するための模式図である。It is a schematic diagram for demonstrating the production | generation method of the movement path | route in the modification of this Embodiment 1. FIG. 本開示の実施の形態2における自律飛行ロボットの構成を示すブロック図である。It is a block diagram which shows the structure of the autonomous flight robot in Embodiment 2 of this indication. 本開示の実施の形態3における飛行制御システムの構成を示すブロック図である。It is a block diagram which shows the structure of the flight control system in Embodiment 3 of this indication.

(本開示の基礎となった知見)
上記のように従来の自律飛行ロボットは、人間などの移動物体と所定の離間距離を保って追従飛行する。そのため、自律飛行ロボットが人間の視界内に入ることになり、当該人間に対して煩わしさを与えるおそれがある。
(Knowledge that became the basis of this disclosure)
As described above, the conventional autonomous flight robot follows and flies with a predetermined separation distance from a moving object such as a human. For this reason, the autonomous flying robot enters the human field of view, which may cause annoyance to the human.

また、従来の自律飛行ロボットは、自律飛行ロボットが人間の視界内を移動することについては考慮されていない。そのため、自律飛行ロボットが人間の視界外を移動する場合、当該人間は自律飛行ロボットを監視することができなくなるおそれがある。   In addition, the conventional autonomous flying robot does not consider that the autonomous flying robot moves within the human field of view. Therefore, when the autonomous flying robot moves outside the human field of view, the human may not be able to monitor the autonomous flying robot.

このような課題を解決するため、本開示の一態様に係る移動制御方法は、自律移動ロボットの移動を制御する移動制御方法であって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する。   In order to solve such a problem, a movement control method according to an aspect of the present disclosure is a movement control method for controlling movement of an autonomous mobile robot, and includes information on surrounding persons existing around the autonomous mobile robot. Based on the acquired information related to the surrounding person, a viewing range that the surrounding person can visually recognize is calculated, and based on the calculated viewing range, a moving range in which the autonomous mobile robot can move is determined.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。   According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.

したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。   Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.

また、上記の移動制御方法において、決定された前記移動範囲内において前記自律移動ロボットが移動する移動経路を生成してもよい。   Further, in the above movement control method, a movement route along which the autonomous mobile robot moves within the determined movement range may be generated.

この構成によれば、移動範囲内において自律移動ロボットが移動する移動経路が生成されるので、移動経路に沿って自律移動ロボットを移動させることができる。   According to this configuration, since the movement path along which the autonomous mobile robot moves within the movement range is generated, the autonomous mobile robot can be moved along the movement path.

また、上記の移動制御方法において、所定の人物を識別するための識別情報を予め登録し、前記登録された識別情報に基づいて、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であるか否かを判別し、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であると判別された場合、前記自律移動ロボットの周囲に存在する前記所定の人物の視認範囲内を前記移動範囲に決定してもよい。   Further, in the above movement control method, identification information for identifying a predetermined person is registered in advance, and based on the registered identification information, the surrounding persons existing around the autonomous mobile robot are And if the surrounding person existing around the autonomous mobile robot is determined to be the predetermined person, the predetermined person existing around the autonomous mobile robot is determined. May be determined as the moving range.

この構成によれば、所定の人物を識別するための識別情報が予め登録される。登録された識別情報に基づいて、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かが判別される。自律移動ロボットの周囲に存在する周囲人物が、所定の人物であると判別された場合、自律移動ロボットの周囲に存在する所定の人物の視認範囲内が移動範囲に決定される。   According to this configuration, identification information for identifying a predetermined person is registered in advance. Based on the registered identification information, it is determined whether or not the surrounding person existing around the autonomous mobile robot is a predetermined person. When it is determined that the surrounding person existing around the autonomous mobile robot is a predetermined person, the viewing range of the predetermined person existing around the autonomous mobile robot is determined as the movement range.

したがって、識別情報が予め登録された所定の人物の視認範囲内が移動範囲に決定されるので、所定の人物が、視認範囲内を移動する自律移動ロボットを常に監視することができる。   Therefore, since the moving range is determined within the viewing range of the predetermined person whose identification information is registered in advance, the predetermined person can always monitor the autonomous mobile robot moving within the viewing range.

また、上記の移動制御方法において、前記識別情報は、前記所定の人物の顔画像であってもよい。この構成によれば、所定の人物の顔画像を認証することにより、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かを容易に判別することができる。   In the movement control method, the identification information may be a face image of the predetermined person. According to this configuration, by authenticating the face image of a predetermined person, it is possible to easily determine whether or not the surrounding person existing around the autonomous mobile robot is the predetermined person.

また、上記の移動制御方法において、前記識別情報は、前記所定の人物が携帯する通信機器から送信されてもよい。   In the above movement control method, the identification information may be transmitted from a communication device carried by the predetermined person.

この構成によれば、識別情報は、所定の人物が携帯する通信機器から送信されるので、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かを簡単な認証処理で判別することができる。   According to this configuration, since the identification information is transmitted from the communication device carried by the predetermined person, it is possible to perform simple authentication processing to determine whether or not the surrounding person existing around the autonomous mobile robot is the predetermined person. Can be determined.

また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する前記周囲人物の視認範囲外を前記移動範囲に決定してもよい。   Further, in the above movement control method, the movement range may be determined outside the visual recognition range of the surrounding person existing around the autonomous mobile robot.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物の視認範囲外が移動範囲に決定される。したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。   According to this configuration, the movement range is determined to be outside the visible range of surrounding persons existing around the autonomous mobile robot. Therefore, the autonomous mobile robot can be moved without being seen by the surrounding people by moving the autonomous mobile robot outside the range where the surrounding people existing around the autonomous mobile robot can be visually recognized.

また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する前記周囲人物に関する情報は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つを含んでもよい。   Further, in the above movement control method, the information related to the surrounding person existing around the autonomous mobile robot includes the position of the surrounding person, the body orientation of the surrounding person, the face orientation of the surrounding person, or the It may include at least one of gaze directions of surrounding persons.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報は、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つを含む。したがって、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つに応じて、周囲人物が視認可能な視認範囲を算出することができる。   According to this configuration, the information about the surrounding person existing around the autonomous mobile robot is at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Including one. Therefore, it is possible to calculate a viewing range in which the surrounding person can visually recognize according to at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. it can.

また、上記の移動制御方法において、前記視認範囲は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域であってもよい。   In the movement control method, the viewing range may be at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. It may be a region on a two-dimensional plane determined accordingly.

この構成によれば、視認範囲は、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域であるので、視認範囲を算出するための処理負荷を軽減することができる。   According to this configuration, the viewing range is determined in accordance with at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Since it is an upper area | region, the processing load for calculating a visual recognition range can be reduced.

また、上記の移動制御方法において、前記視認範囲は、前記周囲人物に関する情報に応じて値の異なるコスト値を持ち、前記自律移動ロボットは、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、最適化アルゴリズムを用いて前記移動経路を生成してもよい。   Further, in the above movement control method, the visual recognition range has a cost value that varies depending on information about the surrounding person, and the autonomous mobile robot is a map including a starting point and a destination point of the autonomous mobile robot. The moving range may be generated using an optimization algorithm by superimposing the viewing range.

この構成によれば、視認範囲は、周囲人物に関する情報に応じて値の異なるコスト値を持つ。そして、自律移動ロボットの出発地点及び目的地点を含む地図に視認範囲が重畳され、最適化アルゴリズムを用いて移動経路が生成される。   According to this configuration, the visual recognition range has a cost value that varies depending on the information about the surrounding person. Then, the viewing range is superimposed on a map including the departure point and the destination point of the autonomous mobile robot, and a movement route is generated using an optimization algorithm.

したがって、自律移動ロボットの周囲に存在する周囲人物に関する情報に応じて値の異なるコスト値を持つ視認範囲が重畳された地図に基づいて、最適化アルゴリズムを用いて移動経路を容易に生成することができる。   Therefore, it is possible to easily generate a travel route using an optimization algorithm based on a map on which a visual range having a cost value having a different value according to information on surrounding persons existing around the autonomous mobile robot is superimposed. it can.

また、上記の移動制御方法において、前記視認範囲は、前記周囲人物の正面側に形成される第1の領域と、前記周囲人物の身体の背面側に形成される第2の領域と、前記第1の領域及び前記第2の領域の外側に形成される第3の領域とを含み、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、前記出発地点及び前記目的地点が辺の交点と一致するように前記地図上を格子状に分割し、分割した格子の各辺のうち、辺の一部が前記第1の領域内にある前記辺に対しては第1の値を有するコスト値を付与し、辺の一部が前記第1の領域内になく前記第2の領域内にある前記辺に対しては前記第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が前記第1の領域内及び前記第2の領域内になく前記第3の領域内にある前記辺に対しては前記第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が前記第1の領域内、前記第2の領域内及び前記第3の領域内のいずれにもない辺に対しては前記第3の値より小さい第4の値を有するコスト値を付与し、前記出発地点から前記目的地点までの前記格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ前記出発地点から前記目的地点までの距離が最も短い経路を前記移動経路として生成してもよい。   Further, in the above movement control method, the visual recognition range includes a first area formed on the front side of the surrounding person, a second area formed on the back side of the body of the surrounding person, and the first area. 1 region and a third region formed outside the second region, the viewing range is superimposed on a map including the starting point and the destination point of the autonomous mobile robot, and the starting point and the destination The map is divided into a grid so that the points coincide with the intersections of the sides, and among the sides of the divided grid, a part of the sides is in the first region. A cost value having a value of is given, and a part of the side has a second value smaller than the first value for the side that is not in the first region but in the second region. A cost value is provided, and part of the side is not in the first region and the second region, and A cost value having a third value smaller than the second value is given to the side in the region of 3, and a part of the side is in the first region, in the second region, and A cost value having a fourth value smaller than the third value is assigned to a side that is not present in any of the third regions, and passes through the side of the grid from the starting point to the destination point. Of all the routes, the route with the smallest total cost value and the shortest distance from the starting point to the destination point may be generated as the moving route.

この構成によれば、視認範囲は、周囲人物の正面側に形成される第1の領域と、周囲人物の身体の背面側に形成される第2の領域と、第1の領域及び第2の領域の外側に形成される第3の領域とを含む。自律移動ロボットの出発地点及び目的地点を含む地図に視認範囲が重畳され、出発地点及び目的地点が辺の交点と一致するように地図上が格子状に分割され、分割された格子の各辺のうち、辺の一部が第1の領域内にある辺に対しては第1の値を有するコスト値が付与され、辺の一部が第1の領域内になく第2の領域内にある辺に対しては第1の値より小さい第2の値を有するコスト値が付与され、辺の一部が第1の領域内及び第2の領域内になく第3の領域内にある辺に対しては第2の値より小さい第3の値を有するコスト値が付与され、辺の一部が第1の領域内、第2の領域内及び第3の領域内のいずれにもない辺に対しては第3の値より小さい第4の値を有するコスト値が付与される。出発地点から目的地点までの格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点から目的地点までの距離が最も短い経路が移動経路として生成される。   According to this configuration, the visual recognition range includes the first area formed on the front side of the surrounding person, the second area formed on the back side of the body of the surrounding person, the first area, and the second area. And a third region formed outside the region. The viewing range is superimposed on the map including the starting point and the destination point of the autonomous mobile robot, and the map is divided into a grid so that the starting point and the destination point coincide with the intersection of the sides, and each side of the divided grid is Of these, a cost value having the first value is given to a side whose part is in the first area, and a part of the side is not in the first area but in the second area. A cost value having a second value smaller than the first value is assigned to the side, and a part of the side is not in the first region and the second region but in the third region. On the other hand, a cost value having a third value smaller than the second value is given, and a side of a side is not in any of the first region, the second region, and the third region. On the other hand, a cost value having a fourth value smaller than the third value is given. Of all the routes that pass through the sides of the grid from the departure point to the destination point, the route having the smallest total cost value and the shortest distance from the departure point to the destination point is generated as the movement route.

したがって、自律移動ロボットの周囲に存在する周囲人物からの距離に応じて付与されるコスト値を用いて移動経路を容易に生成することができる。   Therefore, it is possible to easily generate a movement route using a cost value given according to the distance from a surrounding person existing around the autonomous mobile robot.

また、上記の移動制御方法において、前記自律移動ロボットは、前記自律移動ロボットの周囲の画像を取得する画像取得部を備え、前記周囲人物に関する情報は、前記画像取得部が取得した画像情報から取得されてもよい。   Further, in the above movement control method, the autonomous mobile robot includes an image acquisition unit that acquires an image around the autonomous mobile robot, and information on the surrounding person is acquired from image information acquired by the image acquisition unit. May be.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報は、自律移動ロボットが備える画像取得部が取得した画像情報から取得されるので、実際に、自律移動ロボットから見える周囲人物に関する情報を取得することができる。   According to this configuration, the information related to the surrounding person existing around the autonomous mobile robot is acquired from the image information acquired by the image acquisition unit included in the autonomous mobile robot. Information can be acquired.

また、上記の移動制御方法において、前記周囲人物に関する情報は、前記自律移動ロボットの周囲に設置された画像取得装置が取得した画像情報から取得されてもよい。   In the movement control method described above, the information related to the surrounding person may be acquired from image information acquired by an image acquisition device installed around the autonomous mobile robot.

この構成によれば、自律移動ロボットの周囲に設置された画像取得装置が取得した画像情報から、自律移動ロボットの周囲に存在する周囲人物に関する情報を取得することができる。   According to this configuration, it is possible to acquire information related to surrounding persons existing around the autonomous mobile robot from the image information acquired by the image acquisition device installed around the autonomous mobile robot.

また、上記の移動制御方法において、前記周囲人物に関する情報は、前記周囲人物が携帯する位置センサにより取得される前記周囲人物の現在位置であってもよい。   In the movement control method described above, the information related to the surrounding person may be a current position of the surrounding person acquired by a position sensor carried by the surrounding person.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物が携帯する位置センサから取得される周囲人物の現在位置を、周囲人物に関する情報とすることができる。   According to this configuration, the current position of the surrounding person acquired from the position sensor carried by the surrounding person present around the autonomous mobile robot can be used as information related to the surrounding person.

また、上記の移動制御方法において、前記周囲人物に関する情報は、前記周囲人物が携帯する地磁気センサにより取得される前記周囲人物が向いている方向であってもよい。   In the above movement control method, the information related to the surrounding person may be a direction in which the surrounding person is facing, which is acquired by a geomagnetic sensor carried by the surrounding person.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物が携帯する地磁気センサから取得される周囲人物が向いている方向を、周囲人物に関する情報とすることができる。   According to this configuration, the direction of the surrounding person acquired from the geomagnetic sensor carried by the surrounding person present around the autonomous mobile robot can be used as information related to the surrounding person.

また、上記の移動制御方法において、前記周囲人物に関する情報は、前記自律移動ロボット以外の他の自律移動ロボットが備える画像取得部によって取得される前記他の自律移動ロボットの周囲の画像情報から取得されてもよい。   Further, in the above movement control method, the information related to the surrounding person is acquired from image information around the other autonomous mobile robot acquired by an image acquisition unit provided in another autonomous mobile robot other than the autonomous mobile robot. May be.

この構成によれば、自律移動ロボット以外の他の自律移動ロボットが備える画像取得部によって取得される他の自律移動ロボットの周囲の画像情報から、自律移動ロボットの周囲に存在する周囲人物に関する情報を取得することができる。   According to this configuration, information about surrounding persons existing around the autonomous mobile robot is obtained from the image information around the other autonomous mobile robot acquired by the image acquisition unit provided in the other autonomous mobile robot other than the autonomous mobile robot. Can be acquired.

また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する障害物に関する情報を取得し、前記取得した障害物に関する情報と、前記算出した視認範囲とに基づいて、前記移動範囲を決定してもよい。   Further, in the above movement control method, information on an obstacle existing around the autonomous mobile robot is acquired, and the movement range is determined based on the acquired information on the obstacle and the calculated viewing range. May be.

この構成によれば、自律移動ロボットの周囲に存在する障害物に関する情報が取得され、取得された障害物に関する情報と、算出された視認範囲とに基づいて、移動範囲が決定されるので、障害物によって死角となる場所を考慮して移動範囲を決定することができる。   According to this configuration, information on obstacles existing around the autonomous mobile robot is acquired, and the movement range is determined based on the acquired information on obstacles and the calculated viewing range. The moving range can be determined in consideration of a place where a blind spot is formed by an object.

また、上記の移動制御方法において、前記自律移動ロボットは、自律飛行ロボットであり、前記自律飛行ロボットが飛行する高度を取得し、前記取得した高度が所定の高度よりも低い場合のみ、前記移動範囲を決定してもよい。   Further, in the above movement control method, the autonomous mobile robot is an autonomous flying robot, acquires an altitude at which the autonomous flying robot flies, and the moving range is obtained only when the acquired altitude is lower than a predetermined altitude. May be determined.

この構成によれば、自律移動ロボットは、自律飛行ロボットである。自律飛行ロボットが飛行する高度が取得され、取得された高度が所定の高度よりも低い場合のみ、移動範囲が決定される。   According to this configuration, the autonomous mobile robot is an autonomous flying robot. The moving range is determined only when the altitude at which the autonomous flying robot flies is acquired and the acquired altitude is lower than the predetermined altitude.

したがって、自律飛行ロボットが飛行する高度が所定の高度よりも低い場合のみ、移動範囲が決定されるので、周囲人物に視認されやすい低空を飛行している場合には、移動範囲を決定し、周囲人物に視認されにくい高い高度を飛行している場合には、特に移動範囲を決定することなく、現在位置から目的地点まで最短距離で飛行させることができる。   Therefore, the moving range is determined only when the altitude of the autonomous flying robot is lower than the predetermined altitude. When flying at a high altitude that is difficult for a person to visually recognize, it is possible to fly at the shortest distance from the current position to the destination without particularly determining the movement range.

また、上記の移動制御方法において、前記移動範囲が決定されない場合、前記自律移動ロボットの現在位置を所定の端末装置へ通知してもよい。   In the above movement control method, when the movement range is not determined, the current position of the autonomous mobile robot may be notified to a predetermined terminal device.

この構成によれば、移動範囲が決定されない場合、自律移動ロボットの現在位置が所定の端末装置へ通知される。したがって、移動範囲が決定されない場合、自律移動ロボットをどの様に移動させるかについての入力を受け付けることができる。   According to this configuration, when the movement range is not determined, the current position of the autonomous mobile robot is notified to a predetermined terminal device. Therefore, when the movement range is not determined, it is possible to accept an input on how to move the autonomous mobile robot.

また、上記の移動制御方法において、前記生成した移動経路の距離が所定の距離よりも長い場合、前記生成した移動経路の距離を所定の端末装置へ通知してもよい。   In the above movement control method, when the distance of the generated movement route is longer than a predetermined distance, the distance of the generated movement route may be notified to a predetermined terminal device.

この構成によれば、生成された移動経路の距離が所定の距離よりも長い場合、生成された移動経路の距離が所定の端末装置へ通知される。したがって、移動経路の距離が所定の距離よりも長い場合、自律移動ロボットに内蔵されるバッテリの残容量が足りなくなるおそれがあるが、事前に所定の端末装置へ通知することにより、移動中にバッテリの残容量が足りなくなるのを防止することができる。   According to this configuration, when the distance of the generated travel route is longer than the predetermined distance, the distance of the generated travel route is notified to the predetermined terminal device. Therefore, when the distance of the moving route is longer than the predetermined distance, there is a possibility that the remaining capacity of the battery built in the autonomous mobile robot may be insufficient, but the battery during movement is notified by notifying a predetermined terminal device in advance. Can be prevented from running out of remaining capacity.

また、上記の移動制御方法において、前記周囲人物に関する情報の取得、前記視認範囲の算出及び前記移動範囲の決定のうちの少なくとも1つはプロセッサにより行われてもよい。   In the above movement control method, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range may be performed by a processor.

この構成によれば、周囲人物に関する情報の取得、視認範囲の算出及び移動範囲の決定のうちの少なくとも1つをプロセッサにより行うことができる。   According to this configuration, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range can be performed by the processor.

本開示の他の態様に係る自律移動ロボットは、自律移動する自律移動ロボットであって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部と、を備える。   An autonomous mobile robot according to another aspect of the present disclosure is an autonomous mobile robot that autonomously moves, and relates to a person acquisition unit that acquires information about a surrounding person existing around the autonomous mobile robot, and the acquired surrounding person A calculating unit that calculates a visible range that the surrounding person can visually recognize based on the information; and a determining unit that determines a moving range in which the autonomous mobile robot can move based on the calculated visible range.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。   According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.

したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。   Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.

また、上記の自律移動ロボットにおいて、前記人物取得部、前記算出部及び前記決定部のうちの少なくとも1つはプロセッサを含んでもよい。   In the above autonomous mobile robot, at least one of the person acquisition unit, the calculation unit, and the determination unit may include a processor.

この構成によれば、周囲人物に関する情報の取得、視認範囲の算出及び移動範囲の決定のうちの少なくとも1つをプロセッサにより行うことができる。   According to this configuration, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range can be performed by the processor.

本開示の他の態様に係るプログラムは、自律移動ロボットの移動を制御するコンピュータ読み取り可能なプログラムであって、コンピュータを、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する取得部と、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部として機能させる。   A program according to another aspect of the present disclosure is a computer-readable program for controlling the movement of an autonomous mobile robot, and the computer acquires an information about a surrounding person existing around the autonomous mobile robot; Based on the acquired information about the surrounding person, a calculation unit that calculates a viewing range that the surrounding person can visually recognize, and based on the calculated viewing range, determines a movement range in which the autonomous mobile robot can move. It functions as a decision unit.

この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。   According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.

したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。   Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.

以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。   Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. Note that the following embodiment is an example in which the present disclosure is embodied, and does not limit the technical scope of the present disclosure.

(実施の形態1)
図1は、本開示の実施の形態1における飛行制御システムの構成を示す図である。図1に示す飛行制御システムは、自律飛行ロボット10、監視カメラ20及び端末装置30を備える。なお、自律飛行ロボット10は、自律移動ロボットの一例であり、監視カメラ20は、画像取得装置の一例である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of a flight control system according to the first embodiment of the present disclosure. The flight control system shown in FIG. 1 includes an autonomous flight robot 10, a monitoring camera 20, and a terminal device 30. The autonomous flying robot 10 is an example of an autonomous mobile robot, and the monitoring camera 20 is an example of an image acquisition device.

自律飛行ロボット10は、予め決められた出発地点から目的地点まで自律飛行する。自律飛行ロボット10は、出発地点及び目的地点が入力されると、出発地点から目的地点までの移動ルートを自動的に生成する。自律飛行ロボット10は、複数のプロペラを備えており、複数のプロペラのそれぞれの回転数を制御することにより、前方、後方、左方向、右方向、上方向及び下方向に移動する。自律飛行ロボット10は、GPS(Global Positioning System)により現在位置を取得しながら、出発地点から目的地点まで自律飛行する。自律飛行ロボット10は、ネットワーク40を介して監視カメラ20及び端末装置30と通信可能に接続される。ネットワーク40は、例えば、インターネット又は携帯電話通信網である。   The autonomous flight robot 10 autonomously flies from a predetermined departure point to a destination point. When the departure point and the destination point are input, the autonomous flying robot 10 automatically generates a movement route from the departure point to the destination point. The autonomous flight robot 10 includes a plurality of propellers, and moves in the forward, backward, leftward, rightward, upward, and downward directions by controlling the number of rotations of the plurality of propellers. The autonomous flying robot 10 autonomously flies from the departure point to the destination point while acquiring the current position by GPS (Global Positioning System). The autonomous flying robot 10 is communicably connected to the monitoring camera 20 and the terminal device 30 via the network 40. The network 40 is, for example, the Internet or a mobile phone communication network.

監視カメラ20は、自律飛行ロボット10の周囲に存在する人物(周囲人物)を撮影し、撮影した画像情報を自律飛行ロボット10へ送信する。なお、飛行制御システムは、1台の監視カメラ20を備えるのではなく、複数台の監視カメラ20を備えてもよい。また、飛行制御システムは、監視カメラ20を備えていなくてもよい。   The monitoring camera 20 captures a person (surrounding person) existing around the autonomous flying robot 10 and transmits the captured image information to the autonomous flying robot 10. The flight control system may include a plurality of monitoring cameras 20 instead of including one monitoring camera 20. Further, the flight control system may not include the monitoring camera 20.

端末装置30は、自律飛行ロボット10の出発地及び目的地を設定する。端末装置30は、例えば、スマートフォン、タブレット型コンピュータ又はパーソナルコンピュータである。端末装置30は、ユーザによる自律飛行ロボット10の出発地及び目的地の入力を受け付け、受け付けられた出発地及び目的地を示す情報を自律飛行ロボット10へ送信する。なお、端末装置30は、ユーザによる自律飛行ロボット10の出発時刻の入力を受け付け、受け付けられた出発時刻を示す情報を自律飛行ロボット10へ送信してもよい。また、端末装置30は、自律飛行ロボット10からの要求に応じて自律飛行ロボット10の周囲の地図を示す環境情報を自律飛行ロボット10へ送信してもよい。   The terminal device 30 sets the starting point and destination of the autonomous flying robot 10. The terminal device 30 is, for example, a smartphone, a tablet computer, or a personal computer. The terminal device 30 receives an input of the departure point and destination of the autonomous flying robot 10 by the user, and transmits information indicating the accepted departure point and destination to the autonomous flying robot 10. Note that the terminal device 30 may receive an input of the departure time of the autonomous flight robot 10 by the user and transmit information indicating the accepted departure time to the autonomous flight robot 10. Further, the terminal device 30 may transmit environmental information indicating a map around the autonomous flying robot 10 to the autonomous flying robot 10 in response to a request from the autonomous flying robot 10.

図2は、本開示の実施の形態1における自律飛行ロボットの構成を示すブロック図である。図2に示す自律飛行ロボット10は、アクチュエータ101、位置測定部102、画像取得部103、通信部104及び制御部105を備える。   FIG. 2 is a block diagram illustrating a configuration of the autonomous flight robot according to the first embodiment of the present disclosure. 2 includes an actuator 101, a position measurement unit 102, an image acquisition unit 103, a communication unit 104, and a control unit 105.

アクチュエータ101は、複数のプロペラをそれぞれ駆動する。アクチュエータ101は、自律飛行ロボット10を飛行させる複数のプロペラを回転させる。   The actuator 101 drives a plurality of propellers. The actuator 101 rotates a plurality of propellers that cause the autonomous flight robot 10 to fly.

位置測定部102は、例えばGPSであり、自律飛行ロボット10の現在位置を示す位置情報を取得する。なお、現在位置は、緯度、経度及び高度で表される。   The position measurement unit 102 is, for example, a GPS, and acquires position information indicating the current position of the autonomous flying robot 10. The current position is represented by latitude, longitude, and altitude.

画像取得部103は、例えば、カメラであり、好ましくは、全天球カメラである。画像取得部103は、例えば、自律飛行ロボット10の周囲に存在する人物を撮影し、撮影した画像情報を取得する。   The image acquisition unit 103 is a camera, for example, and is preferably an omnidirectional camera. For example, the image acquisition unit 103 images a person existing around the autonomous flying robot 10 and acquires the captured image information.

通信部104は、ネットワーク40を介して監視カメラ20から画像情報を受信する。通信部は、例えば、通信回路を用いて構成してもよい。また、通信部104は、ネットワーク40を介して端末装置30から出発地及び目的地を示す情報を受信する。また、通信部104は、位置測定部102によって取得された位置情報を端末装置30へ送信するとともに、位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信する。   The communication unit 104 receives image information from the monitoring camera 20 via the network 40. The communication unit may be configured using a communication circuit, for example. Further, the communication unit 104 receives information indicating the departure place and the destination from the terminal device 30 via the network 40. In addition, the communication unit 104 transmits the position information acquired by the position measurement unit 102 to the terminal device 30 and receives environment information indicating a map around the autonomous flying robot 10 specified by the position information from the terminal device 30. To do.

制御部105は、例えばCPU(中央演算処理装置)などのプロセッサを有し、自律飛行ロボット10の動作を制御する。制御部105は、人物情報取得部111、視認範囲算出部112、移動範囲決定部113、移動経路生成部114及び移動制御部115を備える。自律飛行ロボット10は、図示しないメモリを有し、メモリには制御部105として機能させるためのプログラムが記録されていてもよい。CPUが、プログラムを実行することで、制御部105は機能する。または、制御部105の機能を組み込んだ専用の回路を用いて制御部105を構成してもよい。専用の回路は、例えば、集積回路であってもよい。   The control unit 105 includes a processor such as a CPU (Central Processing Unit) and controls the operation of the autonomous flying robot 10. The control unit 105 includes a person information acquisition unit 111, a visual range calculation unit 112, a movement range determination unit 113, a movement route generation unit 114, and a movement control unit 115. The autonomous flying robot 10 has a memory (not shown), and a program for causing the memory to function as the control unit 105 may be recorded in the memory. The control unit 105 functions when the CPU executes the program. Alternatively, the control unit 105 may be configured using a dedicated circuit incorporating the function of the control unit 105. The dedicated circuit may be an integrated circuit, for example.

人物情報取得部111は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得する。自律飛行ロボット10の周囲に存在する人物に関する情報は、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを含む。人物情報取得部111は、画像情報に対して画像認識処理を行い、画像情報に含まれる人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを取得する。なお、自律飛行ロボット10及び監視カメラ20は、人物との距離を測定する距離センサを備えてもよく、人物情報取得部111は、測定された距離に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得してもよい。   The person information acquisition unit 111 acquires information about a person existing around the autonomous flying robot 10 based on the image information acquired by the image acquisition unit 103 and / or the image information received by the communication unit 104. The information regarding the person existing around the autonomous flying robot 10 includes at least one of the position of the person, the direction of the person's body, the direction of the face of the person, or the direction of the line of sight of the person. The person information acquisition unit 111 performs image recognition processing on the image information, and at least one of the position of the person, the body direction of the person, the face direction of the person, or the direction of the line of sight of the person included in the image information. To get. The autonomous flying robot 10 and the monitoring camera 20 may include a distance sensor that measures the distance to the person, and the person information acquisition unit 111 exists around the autonomous flying robot 10 based on the measured distance. You may acquire the information regarding the person who does.

視認範囲算出部112は、人物情報取得部111によって取得された人物に関する情報に基づいて、人物が視認可能な視認範囲を算出する。視認範囲は、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域である。   The viewing range calculation unit 112 calculates a viewing range in which a person can view based on the information about the person acquired by the person information acquisition unit 111. The viewing range is a region on a two-dimensional plane that is determined according to at least one of the position of the person, the direction of the person's body, the direction of the person's face, or the direction of the person's line of sight.

移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲に基づいて、自律飛行ロボット10が移動可能な移動範囲を決定する。   The movement range determination unit 113 determines a movement range in which the autonomous flying robot 10 can move based on the visual recognition range calculated by the visual recognition range calculation unit 112.

移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。移動経路生成部114は、例えば動的計画法などの最適化アルゴリズムを用いて、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。   The movement path generation unit 114 generates a movement path along which the autonomous flying robot 10 moves within the movement range determined by the movement range determination unit 113. The movement path generation unit 114 generates a movement path along which the autonomous flying robot 10 moves within the movement range determined by the movement range determination unit 113 using an optimization algorithm such as dynamic programming.

また、移動経路生成部114は、自律移動ロボット10の出発地点及び目的地点を含む地図に、周囲人物に関する情報に応じて値の異なるコスト値を持つ視認範囲を重畳し、最適化アルゴリズムを用いて移動経路を生成してもよい。   In addition, the movement route generation unit 114 superimposes a viewing range having a cost value that varies depending on information about the surrounding person on a map including the departure point and the destination point of the autonomous mobile robot 10, and uses an optimization algorithm. A movement route may be generated.

移動制御部115は、移動経路生成部114によって生成された移動経路に応じて自律飛行ロボット10の移動を制御する。   The movement control unit 115 controls the movement of the autonomous flying robot 10 in accordance with the movement route generated by the movement route generation unit 114.

続いて、本実施の形態1における自律飛行ロボット10の飛行制御処理について説明する。   Next, the flight control process of the autonomous flight robot 10 according to the first embodiment will be described.

図3は、本開示の実施の形態1における自律飛行ロボットの飛行制御処理について説明するためのフローチャートである。   FIG. 3 is a flowchart for describing the flight control process of the autonomous flight robot according to the first embodiment of the present disclosure.

まず、ステップS1において、通信部104は、ネットワーク40を介して端末装置30から出発地点及び目的地点に関する情報を受信する。端末装置30は、ユーザによる出発地点及び目的地点を示す情報の入力を受け付け、受け付けた出発地点及び目的地点を示す情報を自律飛行ロボット10へ送信する。なお、出発地点の入力は特に受け付けなくてもよく、自律飛行ロボット10の現在位置を出発地点としてもよい。また、端末装置30は、出発地点を出発する出発時刻又は目的地点に到着する到着時刻を受け付け、受け付けた出発時刻又は到着時刻を自律飛行ロボット10へ送信してもよい。   First, in step S <b> 1, the communication unit 104 receives information regarding the departure point and the destination point from the terminal device 30 via the network 40. The terminal device 30 receives input of information indicating the departure point and the destination point by the user, and transmits information indicating the received departure point and destination point to the autonomous flying robot 10. Note that the input of the departure point may not be received, and the current position of the autonomous flying robot 10 may be set as the departure point. In addition, the terminal device 30 may receive a departure time from the departure point or an arrival time at the destination point, and may transmit the accepted departure time or arrival time to the autonomous flying robot 10.

次に、ステップS2において、画像取得部103は、自律飛行ロボット10の周囲に存在する人物を撮影した画像情報を取得する。なお、画像取得部103が取り付けられている位置、又は自律飛行ロボット10の飛行状態によっては、画像情報を取得できない場合がある。すなわち、画像取得部103が自律飛行ロボット10の下部に取り付けられており、自律飛行ロボット10が着陸状態である場合、画像情報を取得できない可能性がある。   Next, in step S <b> 2, the image acquisition unit 103 acquires image information obtained by photographing a person existing around the autonomous flying robot 10. Note that image information may not be acquired depending on the position where the image acquisition unit 103 is attached or the flight state of the autonomous flight robot 10. That is, when the image acquisition unit 103 is attached to the lower part of the autonomous flight robot 10 and the autonomous flight robot 10 is in a landing state, there is a possibility that image information cannot be acquired.

次に、ステップS3において、通信部104は、ネットワーク40を介して監視カメラ20から画像情報を受信する。このとき、通信部104は、出発地点と目的地点との間に存在する少なくとも1つの監視カメラ20に対し、画像情報を要求する画像要求を送信する。監視カメラ20は、画像要求を受信すると、自律飛行ロボット10の周囲に存在する人物を撮影した画像情報を自律飛行ロボット10へ送信する。通信部104は、監視カメラ20によって送信された画像情報を受信する。   Next, in step S <b> 3, the communication unit 104 receives image information from the monitoring camera 20 via the network 40. At this time, the communication unit 104 transmits an image request for requesting image information to at least one monitoring camera 20 existing between the departure point and the destination point. When the monitoring camera 20 receives the image request, the monitoring camera 20 transmits to the autonomous flying robot 10 image information obtained by photographing a person existing around the autonomous flying robot 10. The communication unit 104 receives image information transmitted by the monitoring camera 20.

なお、監視カメラ20は、人物が撮像された場合のみ、画像情報を自律飛行ロボット10へ送信してもよく、人物が撮像されなかった場合、画像情報を自律飛行ロボット10へ送信しなくてもよい。また、監視カメラ20は、監視カメラ20の位置を示す位置情報を画像情報とともに送信してもよい。さらに、監視カメラ20は、画像情報を送信するのではなく、取得した画像情報に対して画像認識処理を行い、画像情報に含まれる人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを示す人物情報を送信してもよい。さらにまた、自律飛行ロボット10の周囲に監視カメラ20が存在しない場合、監視カメラ20から画像情報を取得できない可能性がある。   The monitoring camera 20 may transmit image information to the autonomous flying robot 10 only when a person is imaged. If the person is not imaged, the monitoring camera 20 may not transmit image information to the autonomous flying robot 10. Good. In addition, the monitoring camera 20 may transmit position information indicating the position of the monitoring camera 20 together with the image information. Furthermore, the surveillance camera 20 does not transmit image information, but performs image recognition processing on the acquired image information, and the position of the person included in the image information, the orientation of the person's body, the orientation of the person's face, Or you may transmit the person information which shows at least 1 of the direction of a person's eyes | visual_axis. Furthermore, when the monitoring camera 20 does not exist around the autonomous flying robot 10, there is a possibility that image information cannot be acquired from the monitoring camera 20.

次に、ステップS4において、通信部104は、ネットワーク40を介して端末装置30から、自律飛行ロボット10の周囲の地図を示す環境情報を受信する。このとき、通信部104は、位置測定部102によって取得された位置情報を端末装置30へ送信してもよく、位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信してもよい。また、通信部104は、出発地点及び目的地点を含む地図を示す環境情報を端末装置30から受信してもよい。また、本実施の形態では、通信部104は端末装置30から環境情報を受信しているが、本開示は特にこれに限定されず、地図を提供するサーバから環境情報を受信してもよい。さらに、自律飛行ロボット10の周囲の環境に関する情報は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報であってもよい。   Next, in step S <b> 4, the communication unit 104 receives environment information indicating a map around the autonomous flying robot 10 from the terminal device 30 via the network 40. At this time, the communication unit 104 may transmit the position information acquired by the position measurement unit 102 to the terminal device 30, and the environment information indicating the map around the autonomous flying robot 10 specified by the position information is transmitted to the terminal device. 30 may be received. The communication unit 104 may receive environment information indicating a map including the departure point and the destination point from the terminal device 30. Moreover, in this Embodiment, although the communication part 104 has received environment information from the terminal device 30, this indication is not limited to this in particular, You may receive environment information from the server which provides a map. Further, the information regarding the environment around the autonomous flying robot 10 may be image information acquired by the image acquisition unit 103 and / or image information received by the communication unit 104.

次に、ステップS5において、人物情報取得部111は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得する。このとき、人物情報取得部111は、画像情報に対して画像認識処理を行い、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを含む情報を取得する。   Next, in step S <b> 5, the person information acquisition unit 111 is based on the image information acquired by the image acquisition unit 103 and / or the image information received by the communication unit 104, and the person existing around the autonomous flying robot 10. Get information about. At this time, the person information acquisition unit 111 performs image recognition processing on the image information, and includes at least one of the position of the person, the direction of the person's body, the direction of the face of the person, or the direction of the line of sight of the person. Get information.

なお、人物情報取得部111は、画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得しているが、本開示は特にこれに限定されない。自律飛行ロボット10の周囲に存在する人物に関する情報は、人物が携帯する位置センサにより取得されてもよい。この場合、位置センサは、自律飛行ロボット10の周囲に存在する人物の現在位置を自律飛行ロボット10へ送信する。例えば、人物が携帯する通信機器が位置センサを備えていてもよい。また、位置センサは、例えば、通信機能を有するものであってもよい。   In addition, although the person information acquisition part 111 acquires the information regarding the person who exists around the autonomous flight robot 10 based on image information, this indication is not specifically limited to this. Information regarding a person existing around the autonomous flying robot 10 may be acquired by a position sensor carried by the person. In this case, the position sensor transmits the current position of the person existing around the autonomous flying robot 10 to the autonomous flying robot 10. For example, a communication device carried by a person may include a position sensor. The position sensor may have a communication function, for example.

また、自律飛行ロボット10の周囲に存在する人物に関する情報は、人物が携帯する地磁気センサにより取得されてもよい。この場合、地磁気センサは、自律飛行ロボット10の周囲に存在する人物が向いている方向を自律飛行ロボット10へ送信する。例えば、人物が携帯する通信機器が地磁気センサを備えていてもよい。また、地磁気センサは、例えば、通信機能を有するものであってもよい。さらに、自律飛行ロボット10の周囲に存在する人物に関する情報は、自律飛行ロボット10以外の他の自律飛行ロボットが備える画像取得部によって取得される画像情報から取得されてもよい。すなわち、自律飛行ロボット10の近傍に他の自律飛行ロボットが飛行している場合、自律飛行ロボット10は、他の自律飛行ロボットの周囲を撮影した画像情報を受信し、受信した画像情報から自律飛行ロボット10の周囲に存在する人物に関する情報を取得してもよい。   Moreover, the information regarding the person existing around the autonomous flying robot 10 may be acquired by a geomagnetic sensor carried by the person. In this case, the geomagnetic sensor transmits to the autonomous flying robot 10 a direction in which a person existing around the autonomous flying robot 10 is facing. For example, a communication device carried by a person may include a geomagnetic sensor. Further, the geomagnetic sensor may have a communication function, for example. Furthermore, the information regarding the person existing around the autonomous flight robot 10 may be acquired from image information acquired by an image acquisition unit provided in another autonomous flight robot other than the autonomous flight robot 10. That is, when another autonomous flying robot is flying in the vicinity of the autonomous flying robot 10, the autonomous flying robot 10 receives image information obtained by photographing the surroundings of the other autonomous flying robot, and autonomous flying from the received image information. Information regarding persons existing around the robot 10 may be acquired.

次に、ステップS6において、視認範囲算出部112は、人物情報取得部111によって取得された人物に関する情報に基づいて、人物が視認可能な視認範囲を算出する。ここで、本実施の形態1における視認範囲について説明する。   Next, in step S <b> 6, the visual recognition range calculation unit 112 calculates the visual recognition range in which a person can visually recognize based on the information related to the person acquired by the person information acquisition unit 111. Here, the viewing range in the first embodiment will be described.

図4は、本実施の形態1における視認範囲の一例を示す図である。図4に示すように、視認範囲100は、人物110の身体の正面側に形成される第1の領域151と、第1の領域151に隣接し、人物110の身体の背面側に形成される第2の領域152と、第1の領域151及び第2の領域152に隣接し、第1の領域151及び第2の領域152の外側に形成される第3の領域153とを含む。図4に示す例では、視認範囲算出部112は、人物の身体の向きに基づいて、人物が視認可能な視認範囲100を算出している。   FIG. 4 is a diagram illustrating an example of a visible range in the first embodiment. As shown in FIG. 4, the viewing range 100 is formed on the front side of the body of the person 110 and on the back side of the body of the person 110 adjacent to the first area 151. 2nd area | region 152 and 3rd area | region 153 adjacent to 1st area | region 151 and 2nd area | region 152 and formed in the outer side of 1st area | region 151 and 2nd area | region 152 are included. In the example illustrated in FIG. 4, the visual recognition range calculation unit 112 calculates the visual recognition range 100 in which a person can visually recognize based on the orientation of the person's body.

なお、視認範囲算出部112は、人物の顔の向きに基づいて、人物が視認可能な視認範囲100を算出してもよい。この場合、視認範囲100は、人物110の顔の正面側に形成される第1の領域151と、第1の領域151に隣接し、人物110の顔の背面側に形成される第2の領域152と、第1の領域151及び第2の領域152に隣接し、第1の領域151及び第2の領域152の外側に形成される第3の領域153とを含む。   Note that the visual recognition range calculation unit 112 may calculate the visual recognition range 100 that is visible to a person based on the orientation of the person's face. In this case, the viewing range 100 includes a first area 151 formed on the front side of the face of the person 110 and a second area adjacent to the first area 151 and formed on the back side of the face of the person 110. 152 and a third region 153 which is adjacent to the first region 151 and the second region 152 and is formed outside the first region 151 and the second region 152.

また、視認範囲100の形状は、図4に限定されない。例えば、人物の現在位置のみが取得された場合、当該人物はどの方向を向いているか分からない。そのため、視認範囲算出部112は、人物の現在位置を中心として所定の半径を有する円内の範囲を視認範囲100として算出してもよい。   Moreover, the shape of the visual recognition range 100 is not limited to FIG. For example, when only the current position of a person is acquired, it is not known in which direction the person is facing. Therefore, the viewing range calculation unit 112 may calculate a range within a circle having a predetermined radius around the current position of the person as the viewing range 100.

なお、視認範囲算出部112は、自律飛行ロボット10の周囲に存在する全ての人物に対応する視認範囲を算出する。   The visual range calculation unit 112 calculates the visual range corresponding to all persons existing around the autonomous flying robot 10.

図3に戻って、次に、ステップS7において、移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲に基づいて、自律飛行ロボット10が移動可能な移動範囲を決定する。本実施の形態1では、移動範囲決定部113は、自律飛行ロボット10の周囲に存在する人物の視認範囲外を移動範囲に決定する。すなわち、移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲外を、自律飛行ロボット10が移動可能な移動範囲に決定する。   Returning to FIG. 3, next, in step S <b> 7, the movement range determination unit 113 determines a movement range in which the autonomous flying robot 10 can move based on the visual recognition range calculated by the visual recognition range calculation unit 112. In the first embodiment, the movement range determination unit 113 determines a movement range outside the visual recognition range of a person existing around the autonomous flying robot 10. That is, the movement range determination unit 113 determines a movement range in which the autonomous flying robot 10 can move outside the visual range calculated by the visual range calculation unit 112.

次に、ステップS8において、移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。ここで、本実施の形態1における移動経路の生成方法について説明する。   Next, in step S8, the movement route generation unit 114 generates a movement route along which the autonomous flying robot 10 moves within the movement range determined by the movement range determination unit 113. Here, a method of generating a movement route in the first embodiment will be described.

図5は、本実施の形態1における移動経路の生成方法について説明するための模式図である。図5に示すように、移動経路生成部114は、自律飛行ロボット10の出発地点201と目的地点202とを含む地図210に視認範囲100を重畳し、出発地点及び目的地点が辺の交点と一致するように地図210上を格子状に分割する。移動経路生成部114は、分割した格子の各辺のうち、辺の一部が第1の領域151内にある辺に対しては第1の値を有するコスト値を付与し、辺の一部が第1の領域151内になく第2の領域152内にある辺に対しては第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が第1の領域151内及び第2の領域152内になく第3の領域153内にある辺に対しては第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が第1の領域151内、第2の領域152内及び第3の領域153内のいずれにもない辺に対しては第3の値より小さい第4の値を有するコスト値を付与する。なお、第1の値は、例えば「3」であり、第2の値は、例えば「2」であり、第3の値は、例えば「1」であり、第4の値は、例えば「0」である。   FIG. 5 is a schematic diagram for explaining a moving route generation method according to the first embodiment. As illustrated in FIG. 5, the movement route generation unit 114 superimposes the viewing range 100 on a map 210 including the departure point 201 and the destination point 202 of the autonomous flying robot 10, and the departure point and the destination point coincide with the intersection of the sides. Thus, the map 210 is divided into a grid pattern. The movement path generation unit 114 assigns a cost value having a first value to a side where a part of the side of the divided grid is in the first region 151, and a part of the side. Is assigned to a side in the second region 152 but not in the first region 151, and a cost value having a second value smaller than the first value is given, and a part of the side is in the first region 151. A cost value having a third value smaller than the second value is assigned to a side in the third region 153 but not in the inner region or the second region 152, and a part of the side is the first region. 151, a cost value having a fourth value smaller than the third value is assigned to a side that is not in any of the second region 152 and the third region 153. The first value is, for example, “3”, the second value is, for example, “2”, the third value is, for example, “1”, and the fourth value is, for example, “0”. It is.

移動経路生成部114は、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路204として生成する。図5では、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計コスト値が最も小さい「0」である経路が移動経路204として生成される。   The movement route generation unit 114 has the smallest total cost value and the shortest distance from the departure point 201 to the destination point 202 among all the routes passing through the sides of the grid from the departure point 201 to the destination point 202. Is generated as the movement route 204. In FIG. 5, the route having the smallest total cost value “0” is generated as the travel route 204 among all the routes that pass through the sides of the grid from the departure point 201 to the destination point 202.

図3に戻って、次に、ステップS9において、移動制御部115は、移動経路生成部114によって生成された移動経路に応じて自律飛行ロボット10の移動を制御する。すなわち、移動制御部115は、移動経路生成部114によって生成された移動経路に沿って、目的地に向かって自律飛行ロボット10の飛行を開始する。   Returning to FIG. 3, next, in step S <b> 9, the movement control unit 115 controls the movement of the autonomous flying robot 10 in accordance with the movement path generated by the movement path generation unit 114. That is, the movement control unit 115 starts the flight of the autonomous flying robot 10 toward the destination along the movement route generated by the movement route generation unit 114.

なお、本実施の形態1では、移動制御部115は、移動経路が生成されると、自律飛行ロボット10を出発させているが、本開示は特にこれに限定されず、予め出発時刻が設定されている場合には、出発時刻になるまで待機させ、出発時刻になったら、自律飛行ロボット10を出発させてもよい。また、予め到着時刻が設定されている場合には、移動制御部115は、移動経路と移動速度とに基づいて移動時間を算出し、到着時刻から移動時間を減算することにより出発時刻を算出してもよい。   In the first embodiment, the movement control unit 115 starts the autonomous flying robot 10 when the movement route is generated. However, the present disclosure is not particularly limited thereto, and the departure time is set in advance. If it is, the autonomous flying robot 10 may be departed when the departure time is reached. If the arrival time is set in advance, the movement control unit 115 calculates the movement time based on the movement route and the movement speed, and calculates the departure time by subtracting the movement time from the arrival time. May be.

次に、ステップS10において、移動制御部115は、自律飛行ロボット10が目的地に到着したか否かを判断する。ここで、自律飛行ロボット10が目的地に到着したと判断された場合(ステップS10でYES)、飛行制御処理を終了する。一方、自律飛行ロボット10が目的地に到着していないと判断された場合(ステップS10でNO)、ステップS2の処理に戻る。ステップS2〜ステップS10の処理は、所定のタイミングで行われ、ステップS2の処理が行われてから次のステップS2の処理が行われるまでの時間間隔を短くすることにより、人物の視界に入らない自律飛行ロボット10の移動経路をより高い精度で生成することができる。   Next, in step S10, the movement control unit 115 determines whether or not the autonomous flying robot 10 has arrived at the destination. If it is determined that the autonomous flying robot 10 has arrived at the destination (YES in step S10), the flight control process is terminated. On the other hand, when it is determined that the autonomous flying robot 10 has not arrived at the destination (NO in step S10), the process returns to step S2. The processing of step S2 to step S10 is performed at a predetermined timing, and the time interval from the processing of step S2 to the processing of the next step S2 is shortened so that it does not enter the human field of view. The movement path of the autonomous flying robot 10 can be generated with higher accuracy.

なお、人物の近傍に所定の高さの障害物が存在する場合、移動経路生成部114は、障害物を考慮して移動経路を生成してもよい。   When an obstacle with a predetermined height exists in the vicinity of the person, the movement route generation unit 114 may generate a movement route in consideration of the obstacle.

図6は、本実施の形態1における障害物を考慮した移動経路の生成方法について説明するための模式図である。通信部104は、自律飛行ロボット10の周囲に存在する障害物に関する情報を取得してもよい。また、移動範囲決定部113は、取得した障害物に関する情報と、算出した視認範囲とに基づいて、移動範囲を決定してもよい。図6に示すように、人物の左斜め前方に障害物301が存在する場合、視認範囲100のうち、障害物301によって死角となる領域302は、移動範囲に決定される。   FIG. 6 is a schematic diagram for explaining a method for generating a movement route in consideration of an obstacle according to the first embodiment. The communication unit 104 may acquire information regarding an obstacle existing around the autonomous flying robot 10. Moreover, the movement range determination part 113 may determine a movement range based on the information regarding the acquired obstruction, and the calculated visual recognition range. As shown in FIG. 6, when the obstacle 301 exists diagonally to the left of the person, a region 302 that becomes a blind spot due to the obstacle 301 in the viewing range 100 is determined as a movement range.

また、図6に示すように、人物の左斜め前方に障害物301が存在する場合、視認範囲100のうち、障害物301によって死角となる領域302については、コスト値を低くする。例えば、移動経路生成部114は、分割した格子の各辺のうち、辺の一部が障害物301によって死角となる領域302内にある辺に対しては第4の値を有するコスト値を付与する。なお、障害物301の配置位置については、環境情報から取得することが可能であり、自律飛行ロボット10の画像取得部103によって取得される画像情報から取得することも可能である。また、死角となる領域302は、人物の位置、人物の身体の向き、人物の顔の向き、又は人物の視線の向きの少なくとも1つによって決定されてもよい。   As shown in FIG. 6, when an obstacle 301 exists diagonally to the left of the person, the cost value is reduced for a region 302 that is a blind spot due to the obstacle 301 in the viewing range 100. For example, the movement path generation unit 114 assigns a cost value having a fourth value to each side in the region 302 where a part of the side of the divided lattice becomes a blind spot due to the obstacle 301. To do. The arrangement position of the obstacle 301 can be acquired from the environment information, and can also be acquired from the image information acquired by the image acquisition unit 103 of the autonomous flying robot 10. Also, the blind area 302 may be determined by at least one of the position of the person, the direction of the person's body, the direction of the person's face, or the direction of the line of sight of the person.

また、位置測定部102が取得する現在位置は、自律飛行ロボット10が存在する緯度及び経度だけでなく、自律飛行ロボット10が飛行する高度を含んでもよい。移動範囲決定部113は、位置測定部102によって取得された高度が所定の高度よりも低い場合のみ、移動範囲を決定してもよい。移動範囲決定部113は、位置測定部102によって取得された高度が所定の高度以上である場合は、移動範囲を決定せず、移動経路生成部114は、現在位置と目的地とを最短距離で結ぶ経路を移動経路として生成してもよい。なお、高度は、自律飛行ロボット10が備える高度計によって測定されてもよい。   The current position acquired by the position measurement unit 102 may include not only the latitude and longitude at which the autonomous flying robot 10 exists, but also the altitude at which the autonomous flying robot 10 flies. The movement range determination unit 113 may determine the movement range only when the altitude acquired by the position measurement unit 102 is lower than a predetermined altitude. If the altitude acquired by the position measurement unit 102 is equal to or higher than the predetermined altitude, the movement range determination unit 113 does not determine the movement range, and the movement route generation unit 114 sets the current position and the destination at the shortest distance. A route to be connected may be generated as a movement route. The altitude may be measured by an altimeter provided in the autonomous flying robot 10.

また、移動範囲決定部113によって移動範囲が決定されない場合、通信部104は、自律飛行ロボット10の現在位置を端末装置30へ通知してもよい。なお、端末装置30は、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者によって携帯される。例えば、自律飛行ロボット10の周囲に複数の人物がおり、地図上に視認範囲外の領域が存在しない場合、移動範囲決定部113は、移動範囲を決定することができない可能性がある。この場合、通信部104は、自律飛行ロボット10の現在位置を端末装置30へ通知する。端末装置30は、自律飛行ロボット10をどの様に飛行させるかについての飛行制御指示を受け付け、受け付けた飛行制御指示を自律飛行ロボット10へ送信する。移動制御部115は、受信した飛行制御指示に応じて自律飛行ロボット10を飛行させる。   Further, when the movement range is not determined by the movement range determination unit 113, the communication unit 104 may notify the terminal device 30 of the current position of the autonomous flying robot 10. The terminal device 30 is carried by a supervisor who monitors the autonomous flying robot 10, an administrator who manages the autonomous flying robot 10, or an owner who owns the autonomous flying robot 10. For example, when there are a plurality of persons around the autonomous flying robot 10 and there is no region outside the visible range on the map, the moving range determining unit 113 may not be able to determine the moving range. In this case, the communication unit 104 notifies the terminal device 30 of the current position of the autonomous flying robot 10. The terminal device 30 receives a flight control instruction regarding how to fly the autonomous flight robot 10 and transmits the received flight control instruction to the autonomous flight robot 10. The movement control unit 115 causes the autonomous flight robot 10 to fly according to the received flight control instruction.

また、移動経路生成部114によって生成された移動経路の距離が所定の距離よりも長い場合、通信部104は、生成された移動経路の距離を端末装置30へ通知してもよい。なお、端末装置30は、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者によって携帯される。例えば、視認範囲外を通る経路を生成した場合、出発地点から目的地点までの距離が非常に長くなり、目的地点に到着するまでにバッテリが足りなくなるおそれがある。そこで、移動経路生成部114によって生成された移動経路の距離が所定の距離よりも長い場合、通信部104は、生成された移動経路の距離を端末装置30へ通知する。端末装置30は、自律飛行ロボット10をどの様に飛行させるかについての飛行制御指示を受け付け、受け付けた飛行制御指示を自律飛行ロボット10へ送信する。移動制御部115は、受信した飛行制御指示に応じて自律飛行ロボット10を飛行させる。   Further, when the distance of the travel route generated by the travel route generation unit 114 is longer than a predetermined distance, the communication unit 104 may notify the terminal device 30 of the distance of the generated travel route. The terminal device 30 is carried by a supervisor who monitors the autonomous flying robot 10, an administrator who manages the autonomous flying robot 10, or an owner who owns the autonomous flying robot 10. For example, when a route that passes outside the viewing range is generated, the distance from the departure point to the destination point becomes very long, and there is a possibility that the battery will run out before reaching the destination point. Therefore, when the distance of the travel route generated by the travel route generation unit 114 is longer than a predetermined distance, the communication unit 104 notifies the terminal device 30 of the distance of the generated travel route. The terminal device 30 receives a flight control instruction regarding how to fly the autonomous flight robot 10 and transmits the received flight control instruction to the autonomous flight robot 10. The movement control unit 115 causes the autonomous flight robot 10 to fly according to the received flight control instruction.

続いて、本実施の形態1の変形例における移動経路生成方法について説明する。上記の実施の形態1では、視認範囲は2次元平面で表され、2次元平面上を移動する移動経路が生成されるが、実施の形態1の変形例では、視認範囲は3次元空間で表され、3次元空間上を移動する移動経路が生成される。視認範囲は、自律飛行ロボット10の周囲に存在する人物に関する情報の種類に応じて変化させる。すなわち、視認範囲算出部112は、人物の現在位置に応じて規定される第1の視認範囲と、人物の身体の向きに応じて規定される第2の視認範囲と、人物の顔の向きに応じて規定される第3の視認範囲と、人物の視線の向きに応じて規定される第4の視認範囲とを算出する。   Subsequently, a movement route generation method according to a modification of the first embodiment will be described. In the first embodiment, the viewing range is represented by a two-dimensional plane, and a movement path that moves on the two-dimensional plane is generated. In the modification of the first embodiment, the viewing range is represented by a three-dimensional space. Then, a movement path that moves in the three-dimensional space is generated. The viewing range is changed according to the type of information related to the person existing around the autonomous flying robot 10. That is, the viewing range calculation unit 112 sets the first viewing range defined according to the current position of the person, the second viewing range defined according to the orientation of the person's body, and the orientation of the person's face. A third viewing range defined according to the direction and a fourth viewing range defined according to the direction of the person's line of sight are calculated.

図7は、本実施の形態1の変形例における第1の視認範囲の一例を示す斜視図である。図8(A)は、本実施の形態1の変形例における第2の視認範囲の一例を示す側面図であり、図8(B)は、本実施の形態1の変形例における第2の視認範囲の一例を示す上面図である。図9(A)は、本実施の形態1の変形例における第3の視認範囲の一例を示す側面図であり、図9(B)は、本実施の形態1の変形例における第3の視認範囲の一例を示す上面図である。図10(A)は、本実施の形態1の変形例における第4の視認範囲の一例を示す側面図であり、図10(B)は、本実施の形態1の変形例における第4の視認範囲の一例を示す上面図である。   FIG. 7 is a perspective view showing an example of a first visual range in the modification of the first embodiment. FIG. 8A is a side view showing an example of the second viewing range in the modification of the first embodiment, and FIG. 8B is the second viewing in the modification of the first embodiment. It is a top view which shows an example of a range. FIG. 9A is a side view showing an example of the third viewing range in the modification of the first embodiment, and FIG. 9B is the third viewing in the modification of the first embodiment. It is a top view which shows an example of a range. FIG. 10A is a side view showing an example of the fourth viewing range in the modification of the first embodiment, and FIG. 10B is the fourth viewing in the modification of the first embodiment. It is a top view which shows an example of a range.

図7に示す第1の視認範囲401は、人物110の現在位置が取得された場合に算出される。第1の視認範囲401は、人物110の現在位置を中心として所定の半径を有する半球形状で表される。   A first viewing range 401 illustrated in FIG. 7 is calculated when the current position of the person 110 is acquired. The first viewing range 401 is represented by a hemispherical shape having a predetermined radius with the current position of the person 110 as the center.

図8(A)及び図8(B)に示す第2の視認範囲402は、人物110の身体の向きが取得された場合に算出される。第2の視認範囲402は、人物110の現在位置を中心として所定の半径を有する半球に対して、人物110の身体の背面側に底面の中心角が60度の切り欠きが形成された立体で表される。   The second viewing range 402 shown in FIGS. 8A and 8B is calculated when the body orientation of the person 110 is acquired. The second viewing range 402 is a solid in which a notch with a central angle of the bottom surface of 60 degrees is formed on the back side of the body of the person 110 with respect to the hemisphere having a predetermined radius centered on the current position of the person 110. expressed.

図9(A)及び図9(B)に示す第3の視認範囲403は、人物110の顔の向きが取得された場合に算出される。第3の視認範囲403は、人物110の顔が向いている方向に形成され、水平方向の中心角度が200度となる扇形を、人物110の顔の位置を中心として上方向に50度回転させると共に下方向に75度回転させることで形成される立体で表される。なお、第3の視認範囲403は、水平方向の中心角度が120度となる扇形を上下方向に回転させることで形成される両目視野範囲4031と、両目視野範囲4031の左側及び右側に隣接して形成され、水平方向の中心角度が40度となる扇形を上下方向に回転させることで形成される周辺視野範囲4032とを含む。   The third viewing range 403 shown in FIGS. 9A and 9B is calculated when the face orientation of the person 110 is acquired. The third viewing range 403 is formed in a direction in which the face of the person 110 faces, and a fan shape having a horizontal center angle of 200 degrees is rotated 50 degrees upward with the position of the face of the person 110 as the center. In addition, it is represented by a solid formed by rotating 75 degrees downward. The third viewing range 403 is adjacent to the left and right sides of the binocular field of view range 4031 formed by rotating a sector having a horizontal center angle of 120 degrees in the vertical direction, and the binocular field of view range 4031. And a peripheral visual field range 4032 formed by rotating a sector having a horizontal center angle of 40 degrees in the vertical direction.

図10(A)及び図10(B)に示す第4の視認範囲404は、人物110の視線の向きが取得された場合に算出される。第4の視認範囲404は、人物110の視線が向いている方向に形成され、人物110の目の位置を頂点とする水平方向の2辺の間の角度が30度であり、人物110の目の位置を頂点とする垂直方向の2辺の間の角度が20度である四角錐形状で表される。   A fourth visual range 404 shown in FIGS. 10A and 10B is calculated when the direction of the line of sight of the person 110 is acquired. The fourth viewing range 404 is formed in the direction in which the line of sight of the person 110 is facing, and the angle between two horizontal sides having the apex at the position of the eye of the person 110 is 30 degrees. It is represented by a quadrangular pyramid shape in which the angle between two vertical sides with the position of 20 is the vertex.

図11は、本実施の形態1の変形例における移動経路の生成方法について説明するための模式図である。図11に示すように、移動経路生成部114は、自律飛行ロボット10の出発地点201と目的地点202とを含む3次元空間220を格子状に分割する。これにより、3次元空間220は、複数の立方体で構成される。なお、3次元空間220のX軸方向及びY軸方向の長さは、出発地点及び目的地点に応じて決定され、Z軸方向の長さ(高さ)は、自律飛行ロボット10の飛行可能高度に応じて決定されてもよい。また、移動経路生成部114は、移動経路を生成できなかった場合に、3次元空間220をさらに大きく設定して再度移動経路を生成してもよい。   FIG. 11 is a schematic diagram for explaining a moving route generation method according to the modification of the first embodiment. As illustrated in FIG. 11, the movement route generation unit 114 divides the three-dimensional space 220 including the departure point 201 and the destination point 202 of the autonomous flying robot 10 into a lattice shape. Thereby, the three-dimensional space 220 is composed of a plurality of cubes. The lengths of the three-dimensional space 220 in the X-axis direction and the Y-axis direction are determined according to the starting point and the destination point, and the length (height) in the Z-axis direction is the altitude at which the autonomous flying robot 10 can fly. May be determined according to In addition, when the travel route cannot be generated, the travel route generation unit 114 may generate the travel route again by setting the three-dimensional space 220 larger.

移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403と、人物の視線の向きに応じて規定される第4の視認範囲404との少なくとも1つに基づいて、分割した複数の立方体の各辺に対してコスト値を付与する。   The movement path generation unit 114 sets the first viewing range 401 defined according to the current position of the person, the second viewing range 402 defined according to the orientation of the person's body, and the orientation of the person's face. Based on at least one of the third viewing range 403 defined according to the direction and the fourth viewing range 404 defined according to the direction of the line of sight of the person, for each side of the plurality of divided cubes A cost value is assigned.

すなわち、人物の現在位置のみが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401を3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出したコスト値を付与する。このとき、コスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。したがって、コスト値は、人物から離れるに従って小さくなる。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。   That is, when only the current position of the person is acquired, the movement path generation unit 114 superimposes the first viewing range 401 defined according to the current position of the person on the three-dimensional space 220. The movement path generation unit 114 calculates the cost calculated according to the distance from the current position of the person with respect to each side of the plurality of cubes in which a part of the side is in the first viewing range 401 in the three-dimensional space 220. Assign a value. At this time, the cost value is calculated by dividing the predetermined constant α by the distance from the current position of the person. Therefore, the cost value decreases as the distance from the person increases. Further, the movement path generation unit 114 is “0” for each side of a plurality of cubes in the three-dimensional space 220 in which a part of the side is not in the first viewing range 401 in the three-dimensional space 220. A cost value is assigned. The movement route generation unit 114 has the smallest total cost value and the shortest distance from the departure point 201 to the destination point 202 among all the routes passing through the cube side from the departure point 201 to the destination point 202. As a travel route.

また、人物の現在位置及び人物の身体の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与する。このとき、第1のコスト値及び第2のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。   In addition, when the current position of the person and the orientation of the person's body are acquired, the movement path generation unit 114 responds to the first viewing range 401 defined according to the current position of the person and the orientation of the person's body. And the second viewing range 402 defined in the above are superimposed on the three-dimensional space 220. The movement path generation unit 114 calculates the first calculated for each side of the plurality of cubes in which a part of the side is in the first viewing range 401 in the three-dimensional space 220 according to the distance from the current position of the person. A cost value of 1 is assigned, and a part of the side is calculated according to the distance from the current position of the person for each side of the plurality of cubes in the second viewing range 402 in the three-dimensional space 220. A second cost value is assigned. At this time, the first cost value and the second cost value are calculated by dividing the predetermined constant α by the distance from the current position of the person.

そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、所定の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。   Then, the movement path generation unit 114 applies the first cost to each side of the plurality of cubes in which a part of the side is in the first viewing range 401 and the second viewing range 402 in the three-dimensional space 220. The value and the second cost value multiplied by a predetermined weight value are added. Further, the movement path generation unit 114 is “0” for each side of a plurality of cubes in the three-dimensional space 220 in which a part of the side is not in the first viewing range 401 in the three-dimensional space 220. A cost value is assigned. The movement route generation unit 114 has the smallest total cost value and the shortest distance from the departure point 201 to the destination point 202 among all the routes passing through the cube side from the departure point 201 to the destination point 202. As a travel route.

また、人物の現在位置、人物の身体の向き及び人物の顔の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与し、辺の一部が3次元空間220内の第3の視認範囲403内にある複数の立方体の各辺に対して、人物の顔の位置からの距離に応じて算出した第3のコスト値を付与する。このとき、第1のコスト値、第2のコスト値及び第3のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。   When the current position of the person, the direction of the person's body, and the direction of the person's face are acquired, the movement path generation unit 114 includes the first viewing range 401 defined according to the current position of the person, A second viewing range 402 that is defined according to the orientation of the human body and a third viewing range 403 that is defined according to the orientation of the person's face are superimposed on the three-dimensional space 220. The movement path generation unit 114 calculates the first calculated for each side of the plurality of cubes in which a part of the side is in the first viewing range 401 in the three-dimensional space 220 according to the distance from the current position of the person. A cost value of 1 is assigned, and a part of the side is calculated according to the distance from the current position of the person for each side of the plurality of cubes in the second viewing range 402 in the three-dimensional space 220. According to the distance from the position of the person's face with respect to each side of the plurality of cubes where a second cost value is assigned and a part of the side is within the third viewing range 403 in the three-dimensional space 220 The calculated third cost value is assigned. At this time, the first cost value, the second cost value, and the third cost value are calculated by dividing the predetermined constant α by the distance from the current position of the person.

そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402及び第3の視認範囲403内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値とを加算する。   Then, the movement path generation unit 114 applies the first cost to each side of the plurality of cubes in which a part of the side is in the first viewing range 401 and the second viewing range 402 in the three-dimensional space 220. The value and the second cost value multiplied by the first weight value are added. In addition, the movement path generation unit 114 applies a part of each side to each side of a plurality of cubes in the first viewing range 401, the second viewing range 402, and the third viewing range 403 in the three-dimensional space 220. On the other hand, the first cost value, the second cost value multiplied by the first weight value, and the third cost value multiplied by the second weight value larger than the first weight value are added.

なお、第3の視認範囲403に含まれる両目視野範囲4031と周辺視野範囲4032とでは、第3のコスト値に乗算する重み値の値を変更してもよく、両目視野範囲4031の重み値を周辺視野範囲4032の重み値より大きくしてもよい。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。   Note that the value of the weight value multiplied by the third cost value may be changed between the binocular visual field range 4031 and the peripheral visual field range 4032 included in the third visual recognition range 403, and the weight value of the binocular visual field range 4031 may be changed. You may make it larger than the weight value of the peripheral visual field range 4032. Further, the movement path generation unit 114 is “0” for each side of a plurality of cubes in the three-dimensional space 220 in which a part of the side is not in the first viewing range 401 in the three-dimensional space 220. A cost value is assigned. The movement route generation unit 114 has the smallest total cost value and the shortest distance from the departure point 201 to the destination point 202 among all the routes passing through the cube side from the departure point 201 to the destination point 202. As a travel route.

さらに、人物の現在位置、人物の身体の向き、人物の顔の向き及び人物の視線の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403と、人物の視線の向きに応じて規定される第4の視認範囲404とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与し、辺の一部が3次元空間220内の第3の視認範囲403内にある複数の立方体の各辺に対して、人物の顔の位置からの距離に応じて算出した第3のコスト値を付与し、辺の一部が3次元空間220内の第4の視認範囲404内にある複数の立方体の各辺に対して、人物の目の位置からの距離に応じて算出した第4のコスト値を付与する。このとき、第1のコスト値、第2のコスト値、第3のコスト値及び第4のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。   Further, when the current position of the person, the direction of the person's body, the direction of the person's face, and the direction of the line of sight of the person are acquired, the movement path generation unit 114 is defined in accordance with the current position of the person. A viewing range 401, a second viewing range 402 defined according to the orientation of the person's body, a third viewing range 403 defined according to the orientation of the person's face, and a direction of the person's line of sight The fourth viewing range 404 defined in the above is superimposed on the three-dimensional space 220. The movement path generation unit 114 calculates the first calculated for each side of the plurality of cubes in which a part of the side is in the first viewing range 401 in the three-dimensional space 220 according to the distance from the current position of the person. A cost value of 1 is assigned, and a part of the side is calculated according to the distance from the current position of the person for each side of the plurality of cubes in the second viewing range 402 in the three-dimensional space 220. According to the distance from the position of the person's face with respect to each side of the plurality of cubes where a second cost value is assigned and a part of the side is within the third viewing range 403 in the three-dimensional space 220 The calculated third cost value is assigned, and the distance from the position of the person's eyes to each side of the plurality of cubes in which a part of the side is within the fourth viewing range 404 in the three-dimensional space 220 is set. A fourth cost value calculated accordingly is assigned. At this time, the first cost value, the second cost value, the third cost value, and the fourth cost value are calculated by dividing the predetermined constant α by the distance from the current position of the person.

そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402及び第3の視認範囲403内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値とを加算する。さらに、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402、第3の視認範囲403及び第4の視認範囲404内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値と、第2の重み値より大きい第3の重み値を乗算した第4のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。   Then, the movement path generation unit 114 applies the first cost to each side of the plurality of cubes in which a part of the side is in the first viewing range 401 and the second viewing range 402 in the three-dimensional space 220. The value and the second cost value multiplied by the first weight value are added. In addition, the movement path generation unit 114 applies a part of each side to each side of a plurality of cubes in the first viewing range 401, the second viewing range 402, and the third viewing range 403 in the three-dimensional space 220. On the other hand, the first cost value, the second cost value multiplied by the first weight value, and the third cost value multiplied by the second weight value larger than the first weight value are added. Further, the movement path generation unit 114 has a part of the side in the first viewing range 401, the second viewing range 402, the third viewing range 403, and the fourth viewing range 404 in the three-dimensional space 220. For each side of the plurality of cubes, a first cost value, a second cost value multiplied by the first weight value, and a third weight value multiplied by a second weight value greater than the first weight value The cost value and the fourth cost value multiplied by the third weight value larger than the second weight value are added. Further, the movement path generation unit 114 assigns a cost value of “0” to each side of a plurality of cubes in which a part of the side is not within the first viewing range 401 in the three-dimensional space 220. The movement route generation unit 114 has the smallest total cost value and the shortest distance from the departure point 201 to the destination point 202 among all the routes passing through the cube side from the departure point 201 to the destination point 202. As a travel route.

以上のように、実施の形態1の変形例では、3次元空間内を移動する移動経路が生成されるので、人物の視界に入らない自律飛行ロボット10の移動経路をより高い精度で生成することができる。   As described above, in the modification of the first embodiment, a movement path that moves in the three-dimensional space is generated, and therefore, the movement path of the autonomous flying robot 10 that does not enter the human field of view is generated with higher accuracy. Can do.

(実施の形態2)
実施の形態1では、視認範囲外を自律飛行ロボットが移動可能な移動範囲として決定しているが、実施の形態2では、所定の人物の視認範囲内を自律飛行ロボットが移動可能な移動範囲として決定する。
(Embodiment 2)
In the first embodiment, the movement range outside the viewing range is determined as the movement range where the autonomous flying robot can move, but in the second embodiment, the movement range within which the autonomous flying robot can move within the viewing range of a predetermined person. decide.

図12は、本開示の実施の形態2における自律飛行ロボットの構成を示すブロック図である。なお、実施の形態2における飛行制御システムの構成は、図1と同じであるので説明を省略する。   FIG. 12 is a block diagram illustrating a configuration of the autonomous flight robot according to the second embodiment of the present disclosure. The configuration of the flight control system in the second embodiment is the same as that in FIG.

図12に示す自律飛行ロボット11は、アクチュエータ101、位置測定部102、画像取得部103、通信部104、制御部1051及び記憶部106を備える。なお、実施の形態2において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。   An autonomous flying robot 11 illustrated in FIG. 12 includes an actuator 101, a position measurement unit 102, an image acquisition unit 103, a communication unit 104, a control unit 1051, and a storage unit 106. In the second embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

記憶部106は、所定の人物を識別するための識別情報を予め記憶する。識別情報は、端末装置30によって入力され、自律飛行ロボット11へ送信される。通信部104は、端末装置30によって送信された識別情報を受信し、記憶部106に記憶する。このようにして、端末装置30は、自律飛行ロボット11の記憶部106に識別情報を登録する。なお、識別情報は、所定の人物の顔画像である。所定の人物は、例えば、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者である。また、記憶部106は、1人の人物に対応した1つの識別情報を記憶するのではなく、複数の人物に対応した複数の識別情報を記憶してもよい。   The storage unit 106 stores identification information for identifying a predetermined person in advance. The identification information is input by the terminal device 30 and transmitted to the autonomous flight robot 11. The communication unit 104 receives the identification information transmitted by the terminal device 30 and stores it in the storage unit 106. In this way, the terminal device 30 registers the identification information in the storage unit 106 of the autonomous flying robot 11. The identification information is a face image of a predetermined person. The predetermined person is, for example, a supervisor who monitors the autonomous flight robot 10, a manager who manages the autonomous flight robot 10, or an owner who owns the autonomous flight robot 10. Further, the storage unit 106 may store a plurality of pieces of identification information corresponding to a plurality of persons instead of storing one piece of identification information corresponding to one person.

制御部1051は、例えばCPUであり、自律飛行ロボット11の動作を制御する。制御部1051は、人物情報取得部111、視認範囲算出部112、移動範囲決定部113、移動経路生成部114、移動制御部115及び登録人物判別部116を備える。自律飛行ロボット11は、図示しないメモリを有し、メモリには制御部1051として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部1051は機能する。または、制御部1051の機能を組み込んだ専用の回路を用いて制御部1051を構成してもよい。専用の回路は、例えば、集積回路であってもよい。   The control unit 1051 is, for example, a CPU, and controls the operation of the autonomous flying robot 11. The control unit 1051 includes a person information acquisition unit 111, a visual range calculation unit 112, a movement range determination unit 113, a movement route generation unit 114, a movement control unit 115, and a registered person determination unit 116. The autonomous flight robot 11 has a memory (not shown), and a program for causing the memory to function as the control unit 1051 may be recorded in the memory. The control unit 1051 functions when the CPU executes this program. Alternatively, the control unit 1051 may be configured using a dedicated circuit incorporating the function of the control unit 1051. The dedicated circuit may be an integrated circuit, for example.

登録人物判別部116は、記憶部106に登録された識別情報に基づいて、自律飛行ロボット11の周囲に存在する人物が、所定の人物であるか否かを判別する。すなわち、登録人物判別部116は、画像情報に含まれる人物の顔画像と、記憶部106に予め登録されている顔画像とを比較し、2つの顔画像の人物が同一人物である場合、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別する。   The registered person determination unit 116 determines whether or not a person existing around the autonomous flying robot 11 is a predetermined person based on the identification information registered in the storage unit 106. That is, the registered person determination unit 116 compares the face image of the person included in the image information with the face image registered in advance in the storage unit 106, and when the two face images are the same person, It is determined that a person existing around the flying robot 11 is a predetermined person.

移動範囲決定部113は、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別された場合、自律飛行ロボット11の周囲に存在する所定の人物の視認範囲内を移動範囲に決定する。   When it is determined that the person existing around the autonomous flying robot 11 is a predetermined person, the movement range determining unit 113 sets the moving range within the visual recognition range of the predetermined person existing around the autonomous flying robot 11. decide.

移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。本実施の形態2では、移動経路生成部114は、自律飛行ロボット11の周囲に存在する所定の人物の視認範囲内において自律飛行ロボット10が移動する移動経路を生成する。   The movement path generation unit 114 generates a movement path along which the autonomous flying robot 10 moves within the movement range determined by the movement range determination unit 113. In the second embodiment, the movement path generation unit 114 generates a movement path along which the autonomous flying robot 10 moves within a visual recognition range of a predetermined person existing around the autonomous flying robot 11.

実施の形態2における視認範囲の算出方法及び移動経路の生成方法は、実施の形態1と同じである。ただし、移動経路生成部114は、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計したコスト値が最も大きく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路204として生成する。   The method for calculating the viewing range and the method for generating the movement path in the second embodiment are the same as those in the first embodiment. However, the movement route generation unit 114 has the largest total cost value among all routes passing through the sides of the grid from the departure point 201 to the destination point 202, and the distance from the departure point 201 to the destination point 202 is the longest. A short route is generated as the moving route 204.

なお、本実施の形態2では、識別情報は、所定の人物が携帯する通信機器から送信されてもよい。この場合、通信機器は、例えば、赤外線により識別情報を送信する機器、又は無線により識別情報を送信する機器である。通信部104は、通信機器によって送信された識別情報を受信する。登録人物判別部116は、記憶部106に登録された識別情報に基づいて、自律飛行ロボット11の周囲に存在する人物が、所定の人物であるか否かを判別する。すなわち、登録人物判別部116は、通信部104によって受信された識別情報と、記憶部106に予め登録されている識別情報とを比較し、2つの識別情報が一致する場合、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別する。   In the second embodiment, the identification information may be transmitted from a communication device carried by a predetermined person. In this case, the communication device is, for example, a device that transmits identification information using infrared rays or a device that transmits identification information wirelessly. The communication unit 104 receives the identification information transmitted by the communication device. The registered person determination unit 116 determines whether or not a person existing around the autonomous flying robot 11 is a predetermined person based on the identification information registered in the storage unit 106. That is, the registered person determination unit 116 compares the identification information received by the communication unit 104 with the identification information registered in advance in the storage unit 106. If the two identification information matches, the registered person determination unit 116 It is determined that a person existing around is a predetermined person.

このように、識別情報が予め登録された所定の人物の視認範囲内が移動範囲に決定されるので、所定の人物は、視認範囲内を移動する自律移動ロボット11を常に監視することができる。   As described above, since the moving range is determined within the viewing range of the predetermined person whose identification information is registered in advance, the predetermined person can always monitor the autonomous mobile robot 11 moving within the viewing range.

(実施の形態3)
実施の形態1及び実施の形態2では、自律飛行ロボット10,11において移動経路が生成されるが、実施の形態3では、ネットワークを介して自律飛行ロボットと接続されたサーバにおいて移動経路が生成される。
(Embodiment 3)
In Embodiment 1 and Embodiment 2, a movement path is generated in autonomous flight robots 10 and 11, but in Embodiment 3, a movement path is generated in a server connected to the autonomous flight robot via a network. The

図13は、本開示の実施の形態3における飛行制御システムの構成を示すブロック図である。なお、実施の形態3において、実施の形態1及び実施の形態2と同じ構成については説明を省略する。   FIG. 13 is a block diagram illustrating a configuration of a flight control system according to the third embodiment of the present disclosure. In the third embodiment, description of the same configurations as those in the first and second embodiments is omitted.

図13に示す飛行制御システムは、自律飛行ロボット12、監視カメラ20、端末装置30及びサーバ50を備える。   The flight control system shown in FIG. 13 includes an autonomous flight robot 12, a monitoring camera 20, a terminal device 30, and a server 50.

自律飛行ロボット12は、アクチュエータ101、位置測定部102、画像取得部103、通信部104及び制御部1052を備える。制御部1052は、移動制御部115を備える。自律飛行ロボット12は、図示しないメモリを有し、メモリには制御部1502として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部1502は機能する。または、制御部1502の機能を組み込んだ専用の回路を用いて制御部1502を構成してもよい。専用の回路は、例えば、集積回路であってもよい。   The autonomous flying robot 12 includes an actuator 101, a position measurement unit 102, an image acquisition unit 103, a communication unit 104, and a control unit 1052. The control unit 1052 includes a movement control unit 115. The autonomous flying robot 12 has a memory (not shown), and a program for causing the memory to function as the control unit 1502 may be recorded in the memory. The control unit 1502 functions when the CPU executes this program. Alternatively, the control unit 1502 may be configured using a dedicated circuit in which the function of the control unit 1502 is incorporated. The dedicated circuit may be an integrated circuit, for example.

通信部104は、画像取得部103によって取得された自律飛行ロボット10の周囲に存在する人物を撮影した画像情報をサーバ50へ送信する。また、通信部104は、サーバ50によって送信された移動経路情報を受信する。   The communication unit 104 transmits, to the server 50, image information obtained by photographing a person existing around the autonomous flying robot 10 acquired by the image acquisition unit 103. In addition, the communication unit 104 receives the travel route information transmitted by the server 50.

移動制御部115は、通信部104によって受信された移動経路情報で示される移動経路に応じて自律飛行ロボット12の移動を制御する。   The movement control unit 115 controls the movement of the autonomous flying robot 12 according to the movement path indicated by the movement path information received by the communication unit 104.

サーバ50は、ネットワーク40を介して、自律飛行ロボット12、監視カメラ20及び端末装置30と通信可能に接続されている。サーバ50は、通信部501及び制御部502を備える。   The server 50 is connected to the autonomous flying robot 12, the monitoring camera 20, and the terminal device 30 via the network 40 so as to be communicable. The server 50 includes a communication unit 501 and a control unit 502.

通信部501は、ネットワーク40を介して監視カメラ20から画像情報を受信する。また、通信部104は、ネットワーク40を介して自律飛行ロボット12から画像情報を受信する。また、通信部104は、ネットワーク40を介して端末装置30から出発地及び目的地を示す情報を受信する。また、通信部104は、自律飛行ロボット12の現在位置を示す位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信する。   The communication unit 501 receives image information from the monitoring camera 20 via the network 40. The communication unit 104 receives image information from the autonomous flying robot 12 via the network 40. Further, the communication unit 104 receives information indicating the departure place and the destination from the terminal device 30 via the network 40. In addition, the communication unit 104 receives environment information indicating a map around the autonomous flying robot 10 specified by position information indicating the current position of the autonomous flying robot 12 from the terminal device 30.

制御部502は、例えばCPUであり、自律飛行ロボット12が移動する移動経路を生成する。制御部502は、人物情報取得部511、視認範囲算出部512、移動範囲決定部513及び移動経路生成部514を備える。サーバ50は、図示しないメモリを有し、メモリには制御部502として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部502は機能する。または、制御部502の機能を組み込んだ専用の回路を用いて制御部502を構成してもよい。専用の回路は、例えば、集積回路であってもよい。   The control unit 502 is, for example, a CPU, and generates a movement path along which the autonomous flying robot 12 moves. The control unit 502 includes a person information acquisition unit 511, a visual range calculation unit 512, a movement range determination unit 513, and a movement route generation unit 514. The server 50 has a memory (not shown), and a program for functioning as the control unit 502 may be recorded in the memory. The control unit 502 functions when the CPU executes this program. Alternatively, the control unit 502 may be configured using a dedicated circuit incorporating the function of the control unit 502. The dedicated circuit may be an integrated circuit, for example.

なお、実施の形態3における人物情報取得部511、視認範囲算出部512、移動範囲決定部513及び移動経路生成部514の機能は、実施の形態1における人物情報取得部111、視認範囲算出部112、移動範囲決定部113及び移動経路生成部114の機能と同じである。実施の形態3では、実施の形態1と同様の方法で移動経路が生成される。   Note that the functions of the person information acquisition unit 511, the visual range calculation unit 512, the movement range determination unit 513, and the movement route generation unit 514 in the third embodiment are the same as those of the personal information acquisition unit 111 and the visual range calculation unit 112 in the first embodiment. The functions of the movement range determination unit 113 and the movement route generation unit 114 are the same. In the third embodiment, a movement route is generated by the same method as in the first embodiment.

通信部104は、移動経路生成部114によって生成された移動経路を示す移動経路情報を自律飛行ロボット12へ送信する。   The communication unit 104 transmits movement route information indicating the movement route generated by the movement route generation unit 114 to the autonomous flying robot 12.

このように、サーバ50において移動経路が生成されるので、自律飛行ロボット12における演算負荷を削減することができる。   Thus, since the movement route is generated in the server 50, the calculation load on the autonomous flying robot 12 can be reduced.

また、本実施の形態3では、サーバ50が移動経路を生成しているが、本開示は特にこれに限定されず、端末装置30が移動経路を生成してもよく、自律飛行ロボット12を操縦する操縦器が移動経路を生成してもよい。   In the third embodiment, the server 50 generates a movement route. However, the present disclosure is not particularly limited thereto, and the terminal device 30 may generate a movement route, and the autonomous flying robot 12 is operated. The pilot that performs may generate a movement path.

なお、本実施の形態1〜3では、自律飛行ロボットが自律移動ロボットの一例であるが、本開示は特にこれに限定されず、自律飛行ロボットの構成は、地上を走行する自律走行ロボット(無人自動車)、又は自律して掃除する掃除ロボットにも同様に適用することが可能である。また、自律移動ロボットが移動する空間は、室内及び室外のいずれであってもよい。   In the first to third embodiments, the autonomous flying robot is an example of an autonomous mobile robot. However, the present disclosure is not particularly limited thereto, and the configuration of the autonomous flying robot is an autonomous traveling robot (unmanned) that travels on the ground. The present invention can be similarly applied to an automobile) or a cleaning robot that autonomously cleans. Further, the space in which the autonomous mobile robot moves may be either indoors or outdoors.

また、上記各実施の形態における自律移動ロボットまたはサーバが備える一部の構成要素は、例えば、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、自律移動ロボット10の通信部104および制御部105のうちの少なくとも一方は、システムLSIから構成されてもよい。   In addition, some of the components included in the autonomous mobile robot or server in each of the above embodiments may be configured by, for example, one system LSI (Large Scale Integration). For example, at least one of the communication unit 104 and the control unit 105 of the autonomous mobile robot 10 may be configured from a system LSI.

また、例えば、自律移動ロボット11の通信部104および制御部1051のうちの少なくとも一方は、システムLSIから構成されてもよい。   For example, at least one of the communication unit 104 and the control unit 1051 of the autonomous mobile robot 11 may be configured by a system LSI.

また、例えば、自律移動ロボット12の通信部104および制御部1052のうちの少なくとも一方は、システムLSIから構成されてもよい。   Further, for example, at least one of the communication unit 104 and the control unit 1052 of the autonomous mobile robot 12 may be configured by a system LSI.

また、例えば、サーバ50の通信部501および制御部502のうちの少なくとも一方は、システムLSIから構成されてもよい。   For example, at least one of the communication unit 501 and the control unit 502 of the server 50 may be configured by a system LSI.

システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。   The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on one chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is a computer system comprised including. A computer program is stored in the ROM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。   Although the system LSI is used here, it may be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration. Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.

さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。   Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.

本開示に係る移動制御方法、自律移動ロボット及びプログラムは、自律移動ロボットの周囲に存在する人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該人物が自律移動ロボットを常に監視することができ、自律移動ロボットの周囲に存在する人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該人物に見られることなく移動させることができ、自律移動ロボットの移動を制御する移動制御方法、自律移動する自律移動ロボット、及び自律移動ロボットの移動を制御するための移動制御プログラムとして有用である。   The movement control method, the autonomous mobile robot, and the program according to the present disclosure constantly monitor the autonomous mobile robot when the autonomous mobile robot moves within a range in which a person existing around the autonomous mobile robot is visible. The autonomous mobile robot can move without being seen by the person by moving the autonomous mobile robot outside the range where the person existing around the autonomous mobile robot can be seen. The present invention is useful as a movement control method for controlling movement, an autonomous mobile robot that moves autonomously, and a movement control program for controlling movement of the autonomous mobile robot.

10,11,12 自律飛行ロボット
20 監視カメラ
30 端末装置
40 ネットワーク
50 サーバ
101 アクチュエータ
102 位置測定部
103 画像取得部
104 通信部
105 制御部
106 記憶部
111 人物情報取得部
112 視認範囲算出部
113 移動範囲決定部
114 移動経路生成部
115 移動制御部
116 登録人物判別部
501 通信部
502 制御部
511 人物情報取得部
512 視認範囲算出部
513 移動範囲決定部
514 移動経路生成部
1051 制御部
1052 制御部
DESCRIPTION OF SYMBOLS 10, 11, 12 Autonomous flight robot 20 Surveillance camera 30 Terminal device 40 Network 50 Server 101 Actuator 102 Position measurement part 103 Image acquisition part 104 Communication part 105 Control part 106 Storage part 111 Person information acquisition part 112 View range calculation part 113 Movement range Determination unit 114 Movement route generation unit 115 Movement control unit 116 Registered person determination unit 501 Communication unit 502 Control unit 511 Person information acquisition unit 512 View range calculation unit 513 Movement range determination unit 514 Movement route generation unit 1051 Control unit 1052 Control unit

Claims (23)

自律移動ロボットの移動を制御する移動制御方法であって、
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する、
移動制御方法。
A movement control method for controlling movement of an autonomous mobile robot,
Obtaining information about the surrounding people present around the autonomous mobile robot;
Based on the acquired information about the surrounding person, calculate a viewing range that the surrounding person can visually recognize,
Based on the calculated viewing range, determine a moving range in which the autonomous mobile robot can move,
Movement control method.
決定された前記移動範囲内において前記自律移動ロボットが移動する移動経路を生成する、
請求項1記載の移動制御方法。
Generating a movement path along which the autonomous mobile robot moves within the determined movement range;
The movement control method according to claim 1.
所定の人物を識別するための識別情報を予め登録し、
前記登録された識別情報に基づいて、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であるか否かを判別し、
前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であると判別された場合、前記自律移動ロボットの周囲に存在する前記所定の人物の視認範囲内を前記移動範囲に決定する、
請求項1又は2記載の移動制御方法。
Registering identification information for identifying a specific person in advance,
Based on the registered identification information, it is determined whether the surrounding person existing around the autonomous mobile robot is the predetermined person,
When it is determined that the surrounding person existing around the autonomous mobile robot is the predetermined person, the moving range is determined within the viewing range of the predetermined person existing around the autonomous mobile robot. ,
The movement control method according to claim 1 or 2.
前記識別情報は、前記所定の人物の顔画像である、
請求項3記載の移動制御方法。
The identification information is a face image of the predetermined person.
The movement control method according to claim 3.
前記識別情報は、前記所定の人物が携帯する通信機器から送信される、
請求項3記載の移動制御方法。
The identification information is transmitted from a communication device carried by the predetermined person.
The movement control method according to claim 3.
前記自律移動ロボットの周囲に存在する前記周囲人物の視認範囲外を前記移動範囲に決定する、
請求項1又は2記載の移動制御方法。
Determining the movement range outside the visual recognition range of the surrounding person existing around the autonomous mobile robot;
The movement control method according to claim 1 or 2.
前記自律移動ロボットの周囲に存在する前記周囲人物に関する情報は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つを含む、
請求項1〜6のいずれか1項に記載の移動制御方法。
The information about the surrounding person existing around the autonomous mobile robot is at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Including
The movement control method according to claim 1.
前記視認範囲は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域である、
請求項1〜7のいずれか1項に記載の移動制御方法。
The viewing range is determined on a two-dimensional plane determined according to at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. The area of
The movement control method of any one of Claims 1-7.
前記視認範囲は、前記周囲人物に関する情報に応じて値の異なるコスト値を持ち、
前記自律移動ロボットは、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、最適化アルゴリズムを用いて前記移動経路を生成する、
請求項2記載の移動制御方法。
The visual recognition range has a cost value having a different value according to information about the surrounding person,
The autonomous mobile robot superimposes the viewing range on a map including a starting point and a destination point of the autonomous mobile robot, and generates the moving route using an optimization algorithm.
The movement control method according to claim 2.
前記視認範囲は、前記周囲人物の正面側に形成される第1の領域と、前記周囲人物の身体の背面側に形成される第2の領域と、前記第1の領域及び前記第2の領域の外側に形成される第3の領域とを含み、
前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、前記出発地点及び前記目的地点が辺の交点と一致するように前記地図上を格子状に分割し、分割した格子の各辺のうち、辺の一部が前記第1の領域内にある前記辺に対しては第1の値を有するコスト値を付与し、辺の一部が前記第1の領域内になく前記第2の領域内にある前記辺に対しては前記第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が前記第1の領域内及び前記第2の領域内になく前記第3の領域内にある前記辺に対しては前記第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が前記第1の領域内、前記第2の領域内及び前記第3の領域内のいずれにもない辺に対しては前記第3の値より小さい第4の値を有するコスト値を付与し、
前記出発地点から前記目的地点までの前記格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ前記出発地点から前記目的地点までの距離が最も短い経路を前記移動経路として生成する、
請求項2記載の移動制御方法。
The visible range includes a first area formed on the front side of the surrounding person, a second area formed on the back side of the body of the surrounding person, the first area, and the second area. A third region formed outside of
The viewing range is superimposed on a map including the starting point and the destination point of the autonomous mobile robot, and the map is divided into a grid so that the starting point and the destination point coincide with intersections of sides, and the divided grid A cost value having a first value is assigned to each of the sides of which the part of the side is in the first region, and the part of the side is not in the first region. A cost value having a second value smaller than the first value is assigned to the side in the second region, and a part of the side is in the first region and the second region. A cost value having a third value smaller than the second value is assigned to the side that is not in the third region, and a part of the side is in the first region, A side that is not in either the second region or the third region has a fourth value smaller than the third value. Grant cost value,
Of all the routes that pass through the grid edge from the starting point to the destination point, a route having the smallest total cost value and the shortest distance from the starting point to the destination point is generated as the moving route. To
The movement control method according to claim 2.
前記自律移動ロボットは、前記自律移動ロボットの周囲の画像を取得する画像取得部を備え、
前記周囲人物に関する情報は、前記画像取得部が取得した画像情報から取得される、
請求項1〜10のいずれか1項に記載の移動制御方法。
The autonomous mobile robot includes an image acquisition unit that acquires an image around the autonomous mobile robot,
The information about the surrounding person is acquired from the image information acquired by the image acquisition unit.
The movement control method according to claim 1.
前記周囲人物に関する情報は、前記自律移動ロボットの周囲に設置された画像取得装置が取得した画像情報から取得される、
請求項1〜11のいずれか1項に記載の移動制御方法。
Information about the surrounding person is acquired from image information acquired by an image acquisition device installed around the autonomous mobile robot.
The movement control method according to claim 1.
前記周囲人物に関する情報は、前記周囲人物が携帯する位置センサにより取得される前記周囲人物の現在位置である、
請求項1〜12のいずれか1項に記載の移動制御方法。
The information about the surrounding person is a current position of the surrounding person acquired by a position sensor carried by the surrounding person.
The movement control method according to claim 1.
前記周囲人物に関する情報は、前記周囲人物が携帯する地磁気センサにより取得される前記周囲人物が向いている方向である、
請求項1〜13のいずれか1項に記載の移動制御方法。
The information about the surrounding person is a direction in which the surrounding person is acquired by a geomagnetic sensor carried by the surrounding person.
The movement control method according to claim 1.
前記周囲人物に関する情報は、前記自律移動ロボット以外の他の自律移動ロボットが備える画像取得部によって取得される前記他の自律移動ロボットの周囲の画像情報から取得される、
請求項1〜14のいずれか1項に記載の移動制御方法。
Information on the surrounding person is acquired from image information around the other autonomous mobile robot acquired by an image acquisition unit provided in another autonomous mobile robot other than the autonomous mobile robot.
The movement control method according to claim 1.
前記自律移動ロボットの周囲に存在する障害物に関する情報を取得し、
前記取得した障害物に関する情報と、前記算出した視認範囲とに基づいて、前記移動範囲を決定する、
請求項1〜15のいずれか1項に記載の移動制御方法。
Obtain information about obstacles around the autonomous mobile robot,
The movement range is determined based on the acquired information on the obstacle and the calculated visual range.
The movement control method according to any one of claims 1 to 15.
前記自律移動ロボットは、自律飛行ロボットであり、
前記自律飛行ロボットが飛行する高度を取得し、
前記取得した高度が所定の高度よりも低い場合のみ、前記移動範囲を決定する、
請求項1〜16のいずれか1項に記載の移動制御方法。
The autonomous mobile robot is an autonomous flight robot,
Obtain the altitude at which the autonomous flying robot flies,
The moving range is determined only when the acquired altitude is lower than a predetermined altitude.
The movement control method according to any one of claims 1 to 16.
前記移動範囲が決定されない場合、前記自律移動ロボットの現在位置を所定の端末装置へ通知する、
請求項1〜17のいずれか1項に記載の移動制御方法。
When the movement range is not determined, the current position of the autonomous mobile robot is notified to a predetermined terminal device.
The movement control method according to claim 1.
前記生成した移動経路の距離が所定の距離よりも長い場合、前記生成した移動経路の距離を所定の端末装置へ通知する、
請求項2記載の移動制御方法。
When the distance of the generated movement route is longer than a predetermined distance, the distance of the generated movement route is notified to a predetermined terminal device.
The movement control method according to claim 2.
前記周囲人物に関する情報の取得、前記視認範囲の算出及び前記移動範囲の決定のうちの少なくとも1つはプロセッサにより行われる、
請求項1記載の移動制御方法。
At least one of obtaining information about the surrounding person, calculating the viewing range, and determining the moving range is performed by a processor.
The movement control method according to claim 1.
自律移動する自律移動ロボットであって、
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部と、
を備える自律移動ロボット。
An autonomous mobile robot that moves autonomously,
A person acquisition unit for acquiring information about surrounding persons existing around the autonomous mobile robot;
Based on the acquired information about the surrounding person, a calculation unit that calculates a visible range that the surrounding person can visually recognize;
A determination unit that determines a movement range in which the autonomous mobile robot can move based on the calculated visual recognition range;
An autonomous mobile robot with
前記人物取得部、前記算出部及び前記決定部のうちの少なくとも1つはプロセッサを含む、
請求項21記載の自律移動ロボット。
At least one of the person acquisition unit, the calculation unit, and the determination unit includes a processor.
The autonomous mobile robot according to claim 21.
自律移動ロボットの移動を制御するコンピュータ読み取り可能なプログラムであって、
コンピュータを、
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部として機能させる、
プログラム。
A computer-readable program for controlling the movement of an autonomous mobile robot,
Computer
A person acquisition unit for acquiring information about surrounding persons existing around the autonomous mobile robot;
Based on the acquired information about the surrounding person, a calculation unit that calculates a visible range that the surrounding person can visually recognize;
Based on the calculated visual range, the autonomous mobile robot functions as a determination unit that determines a movable range,
program.
JP2016144363A 2015-12-10 2016-07-22 Movement control method, autonomous mobile robot, and program Pending JP2017111790A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201610918571.2A CN107045355B (en) 2015-12-10 2016-10-21 Movement control method and autonomous mobile robot
US15/370,070 US10409292B2 (en) 2015-12-10 2016-12-06 Movement control method, autonomous mobile robot, and recording medium storing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015241142 2015-12-10
JP2015241142 2015-12-10

Publications (1)

Publication Number Publication Date
JP2017111790A true JP2017111790A (en) 2017-06-22

Family

ID=59080243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016144363A Pending JP2017111790A (en) 2015-12-10 2016-07-22 Movement control method, autonomous mobile robot, and program

Country Status (2)

Country Link
JP (1) JP2017111790A (en)
CN (1) CN107045355B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6586257B1 (en) * 2018-08-16 2019-10-02 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
JP7420048B2 (en) 2020-10-22 2024-01-23 トヨタ自動車株式会社 Control devices, systems, programs, control equipment, aircraft, sensors and system operation methods

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110515385A (en) * 2019-09-09 2019-11-29 金鹏电子信息机器有限公司 A kind of path following method and device of mobile robot
JP7447670B2 (en) * 2020-05-15 2024-03-12 トヨタ自動車株式会社 Autonomous mobile device control system, its control method and its control program
JP7484574B2 (en) * 2020-08-26 2024-05-16 トヨタ自動車株式会社 Autonomous mobile robot control system, control method thereof, control program thereof, and autonomous mobile robot control device
JP7476727B2 (en) * 2020-08-26 2024-05-01 トヨタ自動車株式会社 Autonomous mobile robot control system, control method thereof, control program thereof, and autonomous mobile robot control device
US20240061430A1 (en) * 2020-12-29 2024-02-22 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for event detection
CN112975386B (en) * 2021-03-09 2022-09-06 重庆机器人有限公司 Automatic refrigerator assembling process

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006082774A (en) * 2004-09-17 2006-03-30 Hiroboo Kk Unmanned flying object and its controlling method
JP2008152504A (en) * 2006-12-18 2008-07-03 Hitachi Ltd Guidance robot device and guidance system
JP2008246665A (en) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd Action control unit, method and program
JP2008260107A (en) * 2007-04-13 2008-10-30 Yaskawa Electric Corp Mobile robot system
JP2010015194A (en) * 2008-06-30 2010-01-21 Ihi Corp Autonomous moving robot device and control method for autonomous moving robot device
JP2014059737A (en) * 2012-09-18 2014-04-03 Sharp Corp Self-propelled device
WO2014068975A1 (en) * 2012-11-05 2014-05-08 パナソニック株式会社 Autonomous traveling device traveling-information generation device, method, and program, and autonomous traveling device
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4456561B2 (en) * 2005-12-12 2010-04-28 本田技研工業株式会社 Autonomous mobile robot
JP4940698B2 (en) * 2006-02-27 2012-05-30 トヨタ自動車株式会社 Autonomous mobile robot
JP4699426B2 (en) * 2006-08-08 2011-06-08 パナソニック株式会社 Obstacle avoidance method and obstacle avoidance moving device
JP2009011362A (en) * 2007-06-29 2009-01-22 Sony Computer Entertainment Inc Information processing system, robot apparatus, and its control method
TW201123031A (en) * 2009-12-24 2011-07-01 Univ Nat Taiwan Science Tech Robot and method for recognizing human faces and gestures thereof
JP2011209966A (en) * 2010-03-29 2011-10-20 Sony Corp Image processing apparatus and method, and program
CN102411368B (en) * 2011-07-22 2013-10-09 北京大学 Active vision human face tracking method and tracking system of robot
CN102819263B (en) * 2012-07-30 2014-11-05 中国航天科工集团第三研究院第八三五七研究所 Multi-camera visual perception system for UGV (Unmanned Ground Vehicle)
CN102853830A (en) * 2012-09-03 2013-01-02 东南大学 Robot vision navigation method based on general object recognition
JP2014197294A (en) * 2013-03-29 2014-10-16 株式会社日立産機システム Position identification device and mobile robot having the same
CN105022401B (en) * 2015-07-06 2017-08-04 南京航空航天大学 Many four rotor wing unmanned aerial vehicles collaboration SLAM methods of view-based access control model

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006082774A (en) * 2004-09-17 2006-03-30 Hiroboo Kk Unmanned flying object and its controlling method
JP2008152504A (en) * 2006-12-18 2008-07-03 Hitachi Ltd Guidance robot device and guidance system
JP2008246665A (en) * 2007-03-07 2008-10-16 Matsushita Electric Ind Co Ltd Action control unit, method and program
JP2008260107A (en) * 2007-04-13 2008-10-30 Yaskawa Electric Corp Mobile robot system
JP2010015194A (en) * 2008-06-30 2010-01-21 Ihi Corp Autonomous moving robot device and control method for autonomous moving robot device
JP2014059737A (en) * 2012-09-18 2014-04-03 Sharp Corp Self-propelled device
WO2014068975A1 (en) * 2012-11-05 2014-05-08 パナソニック株式会社 Autonomous traveling device traveling-information generation device, method, and program, and autonomous traveling device
WO2014102995A1 (en) * 2012-12-28 2014-07-03 株式会社日立製作所 Monitoring system, method, and information-recording medium containing program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6586257B1 (en) * 2018-08-16 2019-10-02 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
WO2020035932A1 (en) * 2018-08-16 2020-02-20 楽天株式会社 Unmanned aircraft control system, unmanned aircraft control method, and program
CN111372851A (en) * 2018-08-16 2020-07-03 乐天株式会社 Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
CN111372851B (en) * 2018-08-16 2023-11-21 乐天集团股份有限公司 Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and readable storage medium
JP7420048B2 (en) 2020-10-22 2024-01-23 トヨタ自動車株式会社 Control devices, systems, programs, control equipment, aircraft, sensors and system operation methods

Also Published As

Publication number Publication date
CN107045355A (en) 2017-08-15
CN107045355B (en) 2021-10-29

Similar Documents

Publication Publication Date Title
US10409292B2 (en) Movement control method, autonomous mobile robot, and recording medium storing program
JP2017111790A (en) Movement control method, autonomous mobile robot, and program
JP7465615B2 (en) Smart aircraft landing
US20230257116A1 (en) Image Space Motion Planning Of An Autonomous Vehicle
US20220124303A1 (en) Methods and systems for selective sensor fusion
US10599149B2 (en) Salient feature based vehicle positioning
US20200007746A1 (en) Systems, methods, and devices for setting camera parameters
US20150254861A1 (en) Apparatus and method for determining spatial information about environment
JPWO2017170148A1 (en) Flight equipment, electronic equipment and program
JP6599143B2 (en) Autonomous mobile robot
CN106598063B (en) Unmanned aerial vehicle and flight control method
WO2016031105A1 (en) Information-processing device, information processing method, and program
US20220137647A1 (en) System and method for operating a movable object based on human body indications
JP2021162572A (en) Position calculation method and information processing system
JP6821220B2 (en) Unmanned aerial vehicles, unmanned aerial vehicle flight control devices, unmanned aerial vehicle flight control methods, and programs
JP2017182690A (en) Autonomous Mobile Robot
JP2016181178A (en) Autonomous mobile robot
US20220221857A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN111164958A (en) System and method for processing and displaying image data based on pose information
JP6595284B2 (en) Autonomous mobile robot
WO2020024150A1 (en) Map processing method, apparatus, and computer readable storage medium
JP7004374B1 (en) Movement route generation method and program of moving object, management server, management system
JP7422361B2 (en) Tracking devices and programs
JP2023072353A (en) Mobile body travel route determination device, mobile body travel route determination method, and mobile body travel route determination program
JP2019179529A (en) Controller

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20201020