JP2017111790A - Movement control method, autonomous mobile robot, and program - Google Patents
Movement control method, autonomous mobile robot, and program Download PDFInfo
- Publication number
- JP2017111790A JP2017111790A JP2016144363A JP2016144363A JP2017111790A JP 2017111790 A JP2017111790 A JP 2017111790A JP 2016144363 A JP2016144363 A JP 2016144363A JP 2016144363 A JP2016144363 A JP 2016144363A JP 2017111790 A JP2017111790 A JP 2017111790A
- Authority
- JP
- Japan
- Prior art keywords
- person
- mobile robot
- autonomous mobile
- range
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 230000000007 visual effect Effects 0.000 claims description 55
- 238000004891 communication Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 description 23
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 19
- 238000012986 modification Methods 0.000 description 19
- 230000004048 modification Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 14
- 238000005259 measurement Methods 0.000 description 10
- 238000003860 storage Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000004519 manufacturing process Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
Description
本開示は、自律移動ロボットの移動を制御する移動制御方法、自律移動する自律移動ロボット、及び自律移動ロボットの移動を制御するコンピュータ読み取り可能なプログラムに関するものである。 The present disclosure relates to a movement control method that controls movement of an autonomous mobile robot, an autonomous mobile robot that moves autonomously, and a computer-readable program that controls movement of the autonomous mobile robot.
近年、予め決められた飛行ルートを自律飛行する小型の自律飛行ロボットが開発されている。この自律飛行ロボットは、複数のプロペラを備えており、複数のプロペラのそれぞれの回転数を制御することにより、空中を自在に飛行することができ、予め決められた飛行ルートに沿って自律飛行する。 In recent years, a small autonomous flying robot that autonomously flies on a predetermined flight route has been developed. This autonomous flight robot includes a plurality of propellers, and can freely fly in the air by controlling the rotation speed of each of the plurality of propellers, and autonomously fly along a predetermined flight route. .
例えば、特許文献1には、移動物体と所定の離間距離を保って追従飛行して移動物体を撮像部にて撮像する自律飛行ロボットが開示されている。
For example,
上記のように特許文献1に記載の従来の自律飛行ロボットは、人間などの移動物体と所定の離間距離を保って追従飛行する。一方、特許文献1に記載の従来の自律飛行ロボットは人間などの移動物体の視界範囲については考慮しておらず、人間に煩わしさを与えずに移動する、もしくは人間の視界範囲内のみで移動するといった実用上必要な移動への制約を与えることができない。
As described above, the conventional autonomous flying robot described in
本開示は、上記の問題を解決するためになされたもので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる移動制御方法、自律移動ロボット及びプログラムを提供することを目的とするものである。 The present disclosure has been made in order to solve the above-described problem. When the autonomous mobile robot moves within a range in which the peripheral person existing around the autonomous mobile robot can be visually recognized, the peripheral person becomes the autonomous mobile robot. The autonomous mobile robot can move without being seen by the surrounding people by moving outside the range where the surrounding people existing around the autonomous mobile robot can be visually recognized. An object of the present invention is to provide a movable control method, an autonomous mobile robot, and a program.
本開示の一態様に係る移動制御方法は、自律移動ロボットの移動を制御する移動制御方法であって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する。 A movement control method according to an aspect of the present disclosure is a movement control method for controlling movement of an autonomous mobile robot, acquires information related to a surrounding person existing around the autonomous mobile robot, and relates to the acquired surrounding person Based on the information, a visual range that the surrounding person can visually recognize is calculated, and based on the calculated visual range, a moving range in which the autonomous mobile robot can move is determined.
なお、これらの全般的又は具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータで読み取り可能なCD−ROM等の記録媒体で実現されてもよく、システム、方法、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能な記録媒体の任意な組み合わせで実現されてもよい。 These general or specific modes may be realized by a system, a device, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, device, and integrated circuit. The present invention may be realized by any combination of a computer program or a computer-readable recording medium.
本開示によれば、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。 According to the present disclosure, since the movement range in which the autonomous mobile robot can move is determined based on the visual recognition range in which surrounding people existing around the autonomous mobile robot are visible, the surroundings that exist around the autonomous mobile robot The autonomous mobile robot moves within the range where the person can visually recognize, so that the surrounding person can always monitor the autonomous mobile robot, or the surrounding people existing around the autonomous mobile robot are not visible. By moving the autonomous mobile robot, the autonomous mobile robot can be moved without being seen by the surrounding people.
(本開示の基礎となった知見)
上記のように従来の自律飛行ロボットは、人間などの移動物体と所定の離間距離を保って追従飛行する。そのため、自律飛行ロボットが人間の視界内に入ることになり、当該人間に対して煩わしさを与えるおそれがある。
(Knowledge that became the basis of this disclosure)
As described above, the conventional autonomous flight robot follows and flies with a predetermined separation distance from a moving object such as a human. For this reason, the autonomous flying robot enters the human field of view, which may cause annoyance to the human.
また、従来の自律飛行ロボットは、自律飛行ロボットが人間の視界内を移動することについては考慮されていない。そのため、自律飛行ロボットが人間の視界外を移動する場合、当該人間は自律飛行ロボットを監視することができなくなるおそれがある。 In addition, the conventional autonomous flying robot does not consider that the autonomous flying robot moves within the human field of view. Therefore, when the autonomous flying robot moves outside the human field of view, the human may not be able to monitor the autonomous flying robot.
このような課題を解決するため、本開示の一態様に係る移動制御方法は、自律移動ロボットの移動を制御する移動制御方法であって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する。 In order to solve such a problem, a movement control method according to an aspect of the present disclosure is a movement control method for controlling movement of an autonomous mobile robot, and includes information on surrounding persons existing around the autonomous mobile robot. Based on the acquired information related to the surrounding person, a viewing range that the surrounding person can visually recognize is calculated, and based on the calculated viewing range, a moving range in which the autonomous mobile robot can move is determined.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。 According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.
したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。 Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.
また、上記の移動制御方法において、決定された前記移動範囲内において前記自律移動ロボットが移動する移動経路を生成してもよい。 Further, in the above movement control method, a movement route along which the autonomous mobile robot moves within the determined movement range may be generated.
この構成によれば、移動範囲内において自律移動ロボットが移動する移動経路が生成されるので、移動経路に沿って自律移動ロボットを移動させることができる。 According to this configuration, since the movement path along which the autonomous mobile robot moves within the movement range is generated, the autonomous mobile robot can be moved along the movement path.
また、上記の移動制御方法において、所定の人物を識別するための識別情報を予め登録し、前記登録された識別情報に基づいて、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であるか否かを判別し、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であると判別された場合、前記自律移動ロボットの周囲に存在する前記所定の人物の視認範囲内を前記移動範囲に決定してもよい。 Further, in the above movement control method, identification information for identifying a predetermined person is registered in advance, and based on the registered identification information, the surrounding persons existing around the autonomous mobile robot are And if the surrounding person existing around the autonomous mobile robot is determined to be the predetermined person, the predetermined person existing around the autonomous mobile robot is determined. May be determined as the moving range.
この構成によれば、所定の人物を識別するための識別情報が予め登録される。登録された識別情報に基づいて、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かが判別される。自律移動ロボットの周囲に存在する周囲人物が、所定の人物であると判別された場合、自律移動ロボットの周囲に存在する所定の人物の視認範囲内が移動範囲に決定される。 According to this configuration, identification information for identifying a predetermined person is registered in advance. Based on the registered identification information, it is determined whether or not the surrounding person existing around the autonomous mobile robot is a predetermined person. When it is determined that the surrounding person existing around the autonomous mobile robot is a predetermined person, the viewing range of the predetermined person existing around the autonomous mobile robot is determined as the movement range.
したがって、識別情報が予め登録された所定の人物の視認範囲内が移動範囲に決定されるので、所定の人物が、視認範囲内を移動する自律移動ロボットを常に監視することができる。 Therefore, since the moving range is determined within the viewing range of the predetermined person whose identification information is registered in advance, the predetermined person can always monitor the autonomous mobile robot moving within the viewing range.
また、上記の移動制御方法において、前記識別情報は、前記所定の人物の顔画像であってもよい。この構成によれば、所定の人物の顔画像を認証することにより、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かを容易に判別することができる。 In the movement control method, the identification information may be a face image of the predetermined person. According to this configuration, by authenticating the face image of a predetermined person, it is possible to easily determine whether or not the surrounding person existing around the autonomous mobile robot is the predetermined person.
また、上記の移動制御方法において、前記識別情報は、前記所定の人物が携帯する通信機器から送信されてもよい。 In the above movement control method, the identification information may be transmitted from a communication device carried by the predetermined person.
この構成によれば、識別情報は、所定の人物が携帯する通信機器から送信されるので、自律移動ロボットの周囲に存在する周囲人物が、所定の人物であるか否かを簡単な認証処理で判別することができる。 According to this configuration, since the identification information is transmitted from the communication device carried by the predetermined person, it is possible to perform simple authentication processing to determine whether or not the surrounding person existing around the autonomous mobile robot is the predetermined person. Can be determined.
また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する前記周囲人物の視認範囲外を前記移動範囲に決定してもよい。 Further, in the above movement control method, the movement range may be determined outside the visual recognition range of the surrounding person existing around the autonomous mobile robot.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物の視認範囲外が移動範囲に決定される。したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。 According to this configuration, the movement range is determined to be outside the visible range of surrounding persons existing around the autonomous mobile robot. Therefore, the autonomous mobile robot can be moved without being seen by the surrounding people by moving the autonomous mobile robot outside the range where the surrounding people existing around the autonomous mobile robot can be visually recognized.
また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する前記周囲人物に関する情報は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つを含んでもよい。 Further, in the above movement control method, the information related to the surrounding person existing around the autonomous mobile robot includes the position of the surrounding person, the body orientation of the surrounding person, the face orientation of the surrounding person, or the It may include at least one of gaze directions of surrounding persons.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報は、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つを含む。したがって、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つに応じて、周囲人物が視認可能な視認範囲を算出することができる。 According to this configuration, the information about the surrounding person existing around the autonomous mobile robot is at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Including one. Therefore, it is possible to calculate a viewing range in which the surrounding person can visually recognize according to at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. it can.
また、上記の移動制御方法において、前記視認範囲は、前記周囲人物の位置、前記周囲人物の身体の向き、前記周囲人物の顔の向き、又は、前記周囲人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域であってもよい。 In the movement control method, the viewing range may be at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. It may be a region on a two-dimensional plane determined accordingly.
この構成によれば、視認範囲は、周囲人物の位置、周囲人物の身体の向き、周囲人物の顔の向き、又は、周囲人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域であるので、視認範囲を算出するための処理負荷を軽減することができる。 According to this configuration, the viewing range is determined in accordance with at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Since it is an upper area | region, the processing load for calculating a visual recognition range can be reduced.
また、上記の移動制御方法において、前記視認範囲は、前記周囲人物に関する情報に応じて値の異なるコスト値を持ち、前記自律移動ロボットは、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、最適化アルゴリズムを用いて前記移動経路を生成してもよい。 Further, in the above movement control method, the visual recognition range has a cost value that varies depending on information about the surrounding person, and the autonomous mobile robot is a map including a starting point and a destination point of the autonomous mobile robot. The moving range may be generated using an optimization algorithm by superimposing the viewing range.
この構成によれば、視認範囲は、周囲人物に関する情報に応じて値の異なるコスト値を持つ。そして、自律移動ロボットの出発地点及び目的地点を含む地図に視認範囲が重畳され、最適化アルゴリズムを用いて移動経路が生成される。 According to this configuration, the visual recognition range has a cost value that varies depending on the information about the surrounding person. Then, the viewing range is superimposed on a map including the departure point and the destination point of the autonomous mobile robot, and a movement route is generated using an optimization algorithm.
したがって、自律移動ロボットの周囲に存在する周囲人物に関する情報に応じて値の異なるコスト値を持つ視認範囲が重畳された地図に基づいて、最適化アルゴリズムを用いて移動経路を容易に生成することができる。 Therefore, it is possible to easily generate a travel route using an optimization algorithm based on a map on which a visual range having a cost value having a different value according to information on surrounding persons existing around the autonomous mobile robot is superimposed. it can.
また、上記の移動制御方法において、前記視認範囲は、前記周囲人物の正面側に形成される第1の領域と、前記周囲人物の身体の背面側に形成される第2の領域と、前記第1の領域及び前記第2の領域の外側に形成される第3の領域とを含み、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、前記出発地点及び前記目的地点が辺の交点と一致するように前記地図上を格子状に分割し、分割した格子の各辺のうち、辺の一部が前記第1の領域内にある前記辺に対しては第1の値を有するコスト値を付与し、辺の一部が前記第1の領域内になく前記第2の領域内にある前記辺に対しては前記第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が前記第1の領域内及び前記第2の領域内になく前記第3の領域内にある前記辺に対しては前記第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が前記第1の領域内、前記第2の領域内及び前記第3の領域内のいずれにもない辺に対しては前記第3の値より小さい第4の値を有するコスト値を付与し、前記出発地点から前記目的地点までの前記格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ前記出発地点から前記目的地点までの距離が最も短い経路を前記移動経路として生成してもよい。 Further, in the above movement control method, the visual recognition range includes a first area formed on the front side of the surrounding person, a second area formed on the back side of the body of the surrounding person, and the first area. 1 region and a third region formed outside the second region, the viewing range is superimposed on a map including the starting point and the destination point of the autonomous mobile robot, and the starting point and the destination The map is divided into a grid so that the points coincide with the intersections of the sides, and among the sides of the divided grid, a part of the sides is in the first region. A cost value having a value of is given, and a part of the side has a second value smaller than the first value for the side that is not in the first region but in the second region. A cost value is provided, and part of the side is not in the first region and the second region, and A cost value having a third value smaller than the second value is given to the side in the region of 3, and a part of the side is in the first region, in the second region, and A cost value having a fourth value smaller than the third value is assigned to a side that is not present in any of the third regions, and passes through the side of the grid from the starting point to the destination point. Of all the routes, the route with the smallest total cost value and the shortest distance from the starting point to the destination point may be generated as the moving route.
この構成によれば、視認範囲は、周囲人物の正面側に形成される第1の領域と、周囲人物の身体の背面側に形成される第2の領域と、第1の領域及び第2の領域の外側に形成される第3の領域とを含む。自律移動ロボットの出発地点及び目的地点を含む地図に視認範囲が重畳され、出発地点及び目的地点が辺の交点と一致するように地図上が格子状に分割され、分割された格子の各辺のうち、辺の一部が第1の領域内にある辺に対しては第1の値を有するコスト値が付与され、辺の一部が第1の領域内になく第2の領域内にある辺に対しては第1の値より小さい第2の値を有するコスト値が付与され、辺の一部が第1の領域内及び第2の領域内になく第3の領域内にある辺に対しては第2の値より小さい第3の値を有するコスト値が付与され、辺の一部が第1の領域内、第2の領域内及び第3の領域内のいずれにもない辺に対しては第3の値より小さい第4の値を有するコスト値が付与される。出発地点から目的地点までの格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点から目的地点までの距離が最も短い経路が移動経路として生成される。 According to this configuration, the visual recognition range includes the first area formed on the front side of the surrounding person, the second area formed on the back side of the body of the surrounding person, the first area, and the second area. And a third region formed outside the region. The viewing range is superimposed on the map including the starting point and the destination point of the autonomous mobile robot, and the map is divided into a grid so that the starting point and the destination point coincide with the intersection of the sides, and each side of the divided grid is Of these, a cost value having the first value is given to a side whose part is in the first area, and a part of the side is not in the first area but in the second area. A cost value having a second value smaller than the first value is assigned to the side, and a part of the side is not in the first region and the second region but in the third region. On the other hand, a cost value having a third value smaller than the second value is given, and a side of a side is not in any of the first region, the second region, and the third region. On the other hand, a cost value having a fourth value smaller than the third value is given. Of all the routes that pass through the sides of the grid from the departure point to the destination point, the route having the smallest total cost value and the shortest distance from the departure point to the destination point is generated as the movement route.
したがって、自律移動ロボットの周囲に存在する周囲人物からの距離に応じて付与されるコスト値を用いて移動経路を容易に生成することができる。 Therefore, it is possible to easily generate a movement route using a cost value given according to the distance from a surrounding person existing around the autonomous mobile robot.
また、上記の移動制御方法において、前記自律移動ロボットは、前記自律移動ロボットの周囲の画像を取得する画像取得部を備え、前記周囲人物に関する情報は、前記画像取得部が取得した画像情報から取得されてもよい。 Further, in the above movement control method, the autonomous mobile robot includes an image acquisition unit that acquires an image around the autonomous mobile robot, and information on the surrounding person is acquired from image information acquired by the image acquisition unit. May be.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報は、自律移動ロボットが備える画像取得部が取得した画像情報から取得されるので、実際に、自律移動ロボットから見える周囲人物に関する情報を取得することができる。 According to this configuration, the information related to the surrounding person existing around the autonomous mobile robot is acquired from the image information acquired by the image acquisition unit included in the autonomous mobile robot. Information can be acquired.
また、上記の移動制御方法において、前記周囲人物に関する情報は、前記自律移動ロボットの周囲に設置された画像取得装置が取得した画像情報から取得されてもよい。 In the movement control method described above, the information related to the surrounding person may be acquired from image information acquired by an image acquisition device installed around the autonomous mobile robot.
この構成によれば、自律移動ロボットの周囲に設置された画像取得装置が取得した画像情報から、自律移動ロボットの周囲に存在する周囲人物に関する情報を取得することができる。 According to this configuration, it is possible to acquire information related to surrounding persons existing around the autonomous mobile robot from the image information acquired by the image acquisition device installed around the autonomous mobile robot.
また、上記の移動制御方法において、前記周囲人物に関する情報は、前記周囲人物が携帯する位置センサにより取得される前記周囲人物の現在位置であってもよい。 In the movement control method described above, the information related to the surrounding person may be a current position of the surrounding person acquired by a position sensor carried by the surrounding person.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物が携帯する位置センサから取得される周囲人物の現在位置を、周囲人物に関する情報とすることができる。 According to this configuration, the current position of the surrounding person acquired from the position sensor carried by the surrounding person present around the autonomous mobile robot can be used as information related to the surrounding person.
また、上記の移動制御方法において、前記周囲人物に関する情報は、前記周囲人物が携帯する地磁気センサにより取得される前記周囲人物が向いている方向であってもよい。 In the above movement control method, the information related to the surrounding person may be a direction in which the surrounding person is facing, which is acquired by a geomagnetic sensor carried by the surrounding person.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物が携帯する地磁気センサから取得される周囲人物が向いている方向を、周囲人物に関する情報とすることができる。 According to this configuration, the direction of the surrounding person acquired from the geomagnetic sensor carried by the surrounding person present around the autonomous mobile robot can be used as information related to the surrounding person.
また、上記の移動制御方法において、前記周囲人物に関する情報は、前記自律移動ロボット以外の他の自律移動ロボットが備える画像取得部によって取得される前記他の自律移動ロボットの周囲の画像情報から取得されてもよい。 Further, in the above movement control method, the information related to the surrounding person is acquired from image information around the other autonomous mobile robot acquired by an image acquisition unit provided in another autonomous mobile robot other than the autonomous mobile robot. May be.
この構成によれば、自律移動ロボット以外の他の自律移動ロボットが備える画像取得部によって取得される他の自律移動ロボットの周囲の画像情報から、自律移動ロボットの周囲に存在する周囲人物に関する情報を取得することができる。 According to this configuration, information about surrounding persons existing around the autonomous mobile robot is obtained from the image information around the other autonomous mobile robot acquired by the image acquisition unit provided in the other autonomous mobile robot other than the autonomous mobile robot. Can be acquired.
また、上記の移動制御方法において、前記自律移動ロボットの周囲に存在する障害物に関する情報を取得し、前記取得した障害物に関する情報と、前記算出した視認範囲とに基づいて、前記移動範囲を決定してもよい。 Further, in the above movement control method, information on an obstacle existing around the autonomous mobile robot is acquired, and the movement range is determined based on the acquired information on the obstacle and the calculated viewing range. May be.
この構成によれば、自律移動ロボットの周囲に存在する障害物に関する情報が取得され、取得された障害物に関する情報と、算出された視認範囲とに基づいて、移動範囲が決定されるので、障害物によって死角となる場所を考慮して移動範囲を決定することができる。 According to this configuration, information on obstacles existing around the autonomous mobile robot is acquired, and the movement range is determined based on the acquired information on obstacles and the calculated viewing range. The moving range can be determined in consideration of a place where a blind spot is formed by an object.
また、上記の移動制御方法において、前記自律移動ロボットは、自律飛行ロボットであり、前記自律飛行ロボットが飛行する高度を取得し、前記取得した高度が所定の高度よりも低い場合のみ、前記移動範囲を決定してもよい。 Further, in the above movement control method, the autonomous mobile robot is an autonomous flying robot, acquires an altitude at which the autonomous flying robot flies, and the moving range is obtained only when the acquired altitude is lower than a predetermined altitude. May be determined.
この構成によれば、自律移動ロボットは、自律飛行ロボットである。自律飛行ロボットが飛行する高度が取得され、取得された高度が所定の高度よりも低い場合のみ、移動範囲が決定される。 According to this configuration, the autonomous mobile robot is an autonomous flying robot. The moving range is determined only when the altitude at which the autonomous flying robot flies is acquired and the acquired altitude is lower than the predetermined altitude.
したがって、自律飛行ロボットが飛行する高度が所定の高度よりも低い場合のみ、移動範囲が決定されるので、周囲人物に視認されやすい低空を飛行している場合には、移動範囲を決定し、周囲人物に視認されにくい高い高度を飛行している場合には、特に移動範囲を決定することなく、現在位置から目的地点まで最短距離で飛行させることができる。 Therefore, the moving range is determined only when the altitude of the autonomous flying robot is lower than the predetermined altitude. When flying at a high altitude that is difficult for a person to visually recognize, it is possible to fly at the shortest distance from the current position to the destination without particularly determining the movement range.
また、上記の移動制御方法において、前記移動範囲が決定されない場合、前記自律移動ロボットの現在位置を所定の端末装置へ通知してもよい。 In the above movement control method, when the movement range is not determined, the current position of the autonomous mobile robot may be notified to a predetermined terminal device.
この構成によれば、移動範囲が決定されない場合、自律移動ロボットの現在位置が所定の端末装置へ通知される。したがって、移動範囲が決定されない場合、自律移動ロボットをどの様に移動させるかについての入力を受け付けることができる。 According to this configuration, when the movement range is not determined, the current position of the autonomous mobile robot is notified to a predetermined terminal device. Therefore, when the movement range is not determined, it is possible to accept an input on how to move the autonomous mobile robot.
また、上記の移動制御方法において、前記生成した移動経路の距離が所定の距離よりも長い場合、前記生成した移動経路の距離を所定の端末装置へ通知してもよい。 In the above movement control method, when the distance of the generated movement route is longer than a predetermined distance, the distance of the generated movement route may be notified to a predetermined terminal device.
この構成によれば、生成された移動経路の距離が所定の距離よりも長い場合、生成された移動経路の距離が所定の端末装置へ通知される。したがって、移動経路の距離が所定の距離よりも長い場合、自律移動ロボットに内蔵されるバッテリの残容量が足りなくなるおそれがあるが、事前に所定の端末装置へ通知することにより、移動中にバッテリの残容量が足りなくなるのを防止することができる。 According to this configuration, when the distance of the generated travel route is longer than the predetermined distance, the distance of the generated travel route is notified to the predetermined terminal device. Therefore, when the distance of the moving route is longer than the predetermined distance, there is a possibility that the remaining capacity of the battery built in the autonomous mobile robot may be insufficient, but the battery during movement is notified by notifying a predetermined terminal device in advance. Can be prevented from running out of remaining capacity.
また、上記の移動制御方法において、前記周囲人物に関する情報の取得、前記視認範囲の算出及び前記移動範囲の決定のうちの少なくとも1つはプロセッサにより行われてもよい。 In the above movement control method, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range may be performed by a processor.
この構成によれば、周囲人物に関する情報の取得、視認範囲の算出及び移動範囲の決定のうちの少なくとも1つをプロセッサにより行うことができる。 According to this configuration, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range can be performed by the processor.
本開示の他の態様に係る自律移動ロボットは、自律移動する自律移動ロボットであって、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部と、を備える。 An autonomous mobile robot according to another aspect of the present disclosure is an autonomous mobile robot that autonomously moves, and relates to a person acquisition unit that acquires information about a surrounding person existing around the autonomous mobile robot, and the acquired surrounding person A calculating unit that calculates a visible range that the surrounding person can visually recognize based on the information; and a determining unit that determines a moving range in which the autonomous mobile robot can move based on the calculated visible range.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。 According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.
したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。 Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.
また、上記の自律移動ロボットにおいて、前記人物取得部、前記算出部及び前記決定部のうちの少なくとも1つはプロセッサを含んでもよい。 In the above autonomous mobile robot, at least one of the person acquisition unit, the calculation unit, and the determination unit may include a processor.
この構成によれば、周囲人物に関する情報の取得、視認範囲の算出及び移動範囲の決定のうちの少なくとも1つをプロセッサにより行うことができる。 According to this configuration, at least one of acquisition of information related to the surrounding person, calculation of the viewing range, and determination of the movement range can be performed by the processor.
本開示の他の態様に係るプログラムは、自律移動ロボットの移動を制御するコンピュータ読み取り可能なプログラムであって、コンピュータを、前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する取得部と、前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部として機能させる。 A program according to another aspect of the present disclosure is a computer-readable program for controlling the movement of an autonomous mobile robot, and the computer acquires an information about a surrounding person existing around the autonomous mobile robot; Based on the acquired information about the surrounding person, a calculation unit that calculates a viewing range that the surrounding person can visually recognize, and based on the calculated viewing range, determines a movement range in which the autonomous mobile robot can move. It functions as a decision unit.
この構成によれば、自律移動ロボットの周囲に存在する周囲人物に関する情報が取得され、取得された周囲人物に関する情報に基づいて、周囲人物が視認可能な視認範囲が算出され、算出された視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定される。 According to this configuration, information related to the surrounding person existing around the autonomous mobile robot is acquired, and based on the acquired information related to the surrounding person, a viewing range in which the surrounding person can visually recognize is calculated, and the calculated viewing range is calculated. Based on the above, a moving range in which the autonomous mobile robot can move is determined.
したがって、自律移動ロボットの周囲に存在する周囲人物が視認可能な視認範囲に基づいて、自律移動ロボットが移動可能な移動範囲が決定されるので、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該周囲人物が自律移動ロボットを常に監視することができ、または、自律移動ロボットの周囲に存在する周囲人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該周囲人物に見られることなく移動させることができる。 Therefore, the moving range in which the autonomous mobile robot can move is determined based on the visible range in which the surrounding people around the autonomous mobile robot can see, so the surrounding people around the autonomous mobile robot can be seen The autonomous mobile robot can always monitor the autonomous mobile robot when the autonomous mobile robot moves within a certain range, or the autonomous mobile robot can move outside the range where the peripheral people existing around the autonomous mobile robot can be seen. Can move the autonomous mobile robot without being seen by the surrounding people.
以下添付図面を参照しながら、本開示の実施の形態について説明する。なお、以下の実施の形態は、本開示を具体化した一例であって、本開示の技術的範囲を限定するものではない。 Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. Note that the following embodiment is an example in which the present disclosure is embodied, and does not limit the technical scope of the present disclosure.
(実施の形態1)
図1は、本開示の実施の形態1における飛行制御システムの構成を示す図である。図1に示す飛行制御システムは、自律飛行ロボット10、監視カメラ20及び端末装置30を備える。なお、自律飛行ロボット10は、自律移動ロボットの一例であり、監視カメラ20は、画像取得装置の一例である。
(Embodiment 1)
FIG. 1 is a diagram illustrating a configuration of a flight control system according to the first embodiment of the present disclosure. The flight control system shown in FIG. 1 includes an
自律飛行ロボット10は、予め決められた出発地点から目的地点まで自律飛行する。自律飛行ロボット10は、出発地点及び目的地点が入力されると、出発地点から目的地点までの移動ルートを自動的に生成する。自律飛行ロボット10は、複数のプロペラを備えており、複数のプロペラのそれぞれの回転数を制御することにより、前方、後方、左方向、右方向、上方向及び下方向に移動する。自律飛行ロボット10は、GPS(Global Positioning System)により現在位置を取得しながら、出発地点から目的地点まで自律飛行する。自律飛行ロボット10は、ネットワーク40を介して監視カメラ20及び端末装置30と通信可能に接続される。ネットワーク40は、例えば、インターネット又は携帯電話通信網である。
The
監視カメラ20は、自律飛行ロボット10の周囲に存在する人物(周囲人物)を撮影し、撮影した画像情報を自律飛行ロボット10へ送信する。なお、飛行制御システムは、1台の監視カメラ20を備えるのではなく、複数台の監視カメラ20を備えてもよい。また、飛行制御システムは、監視カメラ20を備えていなくてもよい。
The monitoring
端末装置30は、自律飛行ロボット10の出発地及び目的地を設定する。端末装置30は、例えば、スマートフォン、タブレット型コンピュータ又はパーソナルコンピュータである。端末装置30は、ユーザによる自律飛行ロボット10の出発地及び目的地の入力を受け付け、受け付けられた出発地及び目的地を示す情報を自律飛行ロボット10へ送信する。なお、端末装置30は、ユーザによる自律飛行ロボット10の出発時刻の入力を受け付け、受け付けられた出発時刻を示す情報を自律飛行ロボット10へ送信してもよい。また、端末装置30は、自律飛行ロボット10からの要求に応じて自律飛行ロボット10の周囲の地図を示す環境情報を自律飛行ロボット10へ送信してもよい。
The
図2は、本開示の実施の形態1における自律飛行ロボットの構成を示すブロック図である。図2に示す自律飛行ロボット10は、アクチュエータ101、位置測定部102、画像取得部103、通信部104及び制御部105を備える。
FIG. 2 is a block diagram illustrating a configuration of the autonomous flight robot according to the first embodiment of the present disclosure. 2 includes an
アクチュエータ101は、複数のプロペラをそれぞれ駆動する。アクチュエータ101は、自律飛行ロボット10を飛行させる複数のプロペラを回転させる。
The
位置測定部102は、例えばGPSであり、自律飛行ロボット10の現在位置を示す位置情報を取得する。なお、現在位置は、緯度、経度及び高度で表される。
The
画像取得部103は、例えば、カメラであり、好ましくは、全天球カメラである。画像取得部103は、例えば、自律飛行ロボット10の周囲に存在する人物を撮影し、撮影した画像情報を取得する。
The
通信部104は、ネットワーク40を介して監視カメラ20から画像情報を受信する。通信部は、例えば、通信回路を用いて構成してもよい。また、通信部104は、ネットワーク40を介して端末装置30から出発地及び目的地を示す情報を受信する。また、通信部104は、位置測定部102によって取得された位置情報を端末装置30へ送信するとともに、位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信する。
The
制御部105は、例えばCPU(中央演算処理装置)などのプロセッサを有し、自律飛行ロボット10の動作を制御する。制御部105は、人物情報取得部111、視認範囲算出部112、移動範囲決定部113、移動経路生成部114及び移動制御部115を備える。自律飛行ロボット10は、図示しないメモリを有し、メモリには制御部105として機能させるためのプログラムが記録されていてもよい。CPUが、プログラムを実行することで、制御部105は機能する。または、制御部105の機能を組み込んだ専用の回路を用いて制御部105を構成してもよい。専用の回路は、例えば、集積回路であってもよい。
The
人物情報取得部111は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得する。自律飛行ロボット10の周囲に存在する人物に関する情報は、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを含む。人物情報取得部111は、画像情報に対して画像認識処理を行い、画像情報に含まれる人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを取得する。なお、自律飛行ロボット10及び監視カメラ20は、人物との距離を測定する距離センサを備えてもよく、人物情報取得部111は、測定された距離に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得してもよい。
The person
視認範囲算出部112は、人物情報取得部111によって取得された人物に関する情報に基づいて、人物が視認可能な視認範囲を算出する。視認範囲は、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つに応じて決定される2次元平面上の領域である。
The viewing
移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲に基づいて、自律飛行ロボット10が移動可能な移動範囲を決定する。
The movement
移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。移動経路生成部114は、例えば動的計画法などの最適化アルゴリズムを用いて、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。
The movement
また、移動経路生成部114は、自律移動ロボット10の出発地点及び目的地点を含む地図に、周囲人物に関する情報に応じて値の異なるコスト値を持つ視認範囲を重畳し、最適化アルゴリズムを用いて移動経路を生成してもよい。
In addition, the movement
移動制御部115は、移動経路生成部114によって生成された移動経路に応じて自律飛行ロボット10の移動を制御する。
The
続いて、本実施の形態1における自律飛行ロボット10の飛行制御処理について説明する。
Next, the flight control process of the
図3は、本開示の実施の形態1における自律飛行ロボットの飛行制御処理について説明するためのフローチャートである。 FIG. 3 is a flowchart for describing the flight control process of the autonomous flight robot according to the first embodiment of the present disclosure.
まず、ステップS1において、通信部104は、ネットワーク40を介して端末装置30から出発地点及び目的地点に関する情報を受信する。端末装置30は、ユーザによる出発地点及び目的地点を示す情報の入力を受け付け、受け付けた出発地点及び目的地点を示す情報を自律飛行ロボット10へ送信する。なお、出発地点の入力は特に受け付けなくてもよく、自律飛行ロボット10の現在位置を出発地点としてもよい。また、端末装置30は、出発地点を出発する出発時刻又は目的地点に到着する到着時刻を受け付け、受け付けた出発時刻又は到着時刻を自律飛行ロボット10へ送信してもよい。
First, in step S <b> 1, the
次に、ステップS2において、画像取得部103は、自律飛行ロボット10の周囲に存在する人物を撮影した画像情報を取得する。なお、画像取得部103が取り付けられている位置、又は自律飛行ロボット10の飛行状態によっては、画像情報を取得できない場合がある。すなわち、画像取得部103が自律飛行ロボット10の下部に取り付けられており、自律飛行ロボット10が着陸状態である場合、画像情報を取得できない可能性がある。
Next, in step S <b> 2, the
次に、ステップS3において、通信部104は、ネットワーク40を介して監視カメラ20から画像情報を受信する。このとき、通信部104は、出発地点と目的地点との間に存在する少なくとも1つの監視カメラ20に対し、画像情報を要求する画像要求を送信する。監視カメラ20は、画像要求を受信すると、自律飛行ロボット10の周囲に存在する人物を撮影した画像情報を自律飛行ロボット10へ送信する。通信部104は、監視カメラ20によって送信された画像情報を受信する。
Next, in step S <b> 3, the
なお、監視カメラ20は、人物が撮像された場合のみ、画像情報を自律飛行ロボット10へ送信してもよく、人物が撮像されなかった場合、画像情報を自律飛行ロボット10へ送信しなくてもよい。また、監視カメラ20は、監視カメラ20の位置を示す位置情報を画像情報とともに送信してもよい。さらに、監視カメラ20は、画像情報を送信するのではなく、取得した画像情報に対して画像認識処理を行い、画像情報に含まれる人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを示す人物情報を送信してもよい。さらにまた、自律飛行ロボット10の周囲に監視カメラ20が存在しない場合、監視カメラ20から画像情報を取得できない可能性がある。
The monitoring
次に、ステップS4において、通信部104は、ネットワーク40を介して端末装置30から、自律飛行ロボット10の周囲の地図を示す環境情報を受信する。このとき、通信部104は、位置測定部102によって取得された位置情報を端末装置30へ送信してもよく、位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信してもよい。また、通信部104は、出発地点及び目的地点を含む地図を示す環境情報を端末装置30から受信してもよい。また、本実施の形態では、通信部104は端末装置30から環境情報を受信しているが、本開示は特にこれに限定されず、地図を提供するサーバから環境情報を受信してもよい。さらに、自律飛行ロボット10の周囲の環境に関する情報は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報であってもよい。
Next, in step S <b> 4, the
次に、ステップS5において、人物情報取得部111は、画像取得部103によって取得された画像情報及び/又は通信部104によって受信された画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得する。このとき、人物情報取得部111は、画像情報に対して画像認識処理を行い、人物の位置、人物の身体の向き、人物の顔の向き、又は、人物の視線の向きの少なくとも1つを含む情報を取得する。
Next, in step S <b> 5, the person
なお、人物情報取得部111は、画像情報に基づいて、自律飛行ロボット10の周囲に存在する人物に関する情報を取得しているが、本開示は特にこれに限定されない。自律飛行ロボット10の周囲に存在する人物に関する情報は、人物が携帯する位置センサにより取得されてもよい。この場合、位置センサは、自律飛行ロボット10の周囲に存在する人物の現在位置を自律飛行ロボット10へ送信する。例えば、人物が携帯する通信機器が位置センサを備えていてもよい。また、位置センサは、例えば、通信機能を有するものであってもよい。
In addition, although the person
また、自律飛行ロボット10の周囲に存在する人物に関する情報は、人物が携帯する地磁気センサにより取得されてもよい。この場合、地磁気センサは、自律飛行ロボット10の周囲に存在する人物が向いている方向を自律飛行ロボット10へ送信する。例えば、人物が携帯する通信機器が地磁気センサを備えていてもよい。また、地磁気センサは、例えば、通信機能を有するものであってもよい。さらに、自律飛行ロボット10の周囲に存在する人物に関する情報は、自律飛行ロボット10以外の他の自律飛行ロボットが備える画像取得部によって取得される画像情報から取得されてもよい。すなわち、自律飛行ロボット10の近傍に他の自律飛行ロボットが飛行している場合、自律飛行ロボット10は、他の自律飛行ロボットの周囲を撮影した画像情報を受信し、受信した画像情報から自律飛行ロボット10の周囲に存在する人物に関する情報を取得してもよい。
Moreover, the information regarding the person existing around the autonomous flying
次に、ステップS6において、視認範囲算出部112は、人物情報取得部111によって取得された人物に関する情報に基づいて、人物が視認可能な視認範囲を算出する。ここで、本実施の形態1における視認範囲について説明する。
Next, in step S <b> 6, the visual recognition
図4は、本実施の形態1における視認範囲の一例を示す図である。図4に示すように、視認範囲100は、人物110の身体の正面側に形成される第1の領域151と、第1の領域151に隣接し、人物110の身体の背面側に形成される第2の領域152と、第1の領域151及び第2の領域152に隣接し、第1の領域151及び第2の領域152の外側に形成される第3の領域153とを含む。図4に示す例では、視認範囲算出部112は、人物の身体の向きに基づいて、人物が視認可能な視認範囲100を算出している。
FIG. 4 is a diagram illustrating an example of a visible range in the first embodiment. As shown in FIG. 4, the
なお、視認範囲算出部112は、人物の顔の向きに基づいて、人物が視認可能な視認範囲100を算出してもよい。この場合、視認範囲100は、人物110の顔の正面側に形成される第1の領域151と、第1の領域151に隣接し、人物110の顔の背面側に形成される第2の領域152と、第1の領域151及び第2の領域152に隣接し、第1の領域151及び第2の領域152の外側に形成される第3の領域153とを含む。
Note that the visual recognition
また、視認範囲100の形状は、図4に限定されない。例えば、人物の現在位置のみが取得された場合、当該人物はどの方向を向いているか分からない。そのため、視認範囲算出部112は、人物の現在位置を中心として所定の半径を有する円内の範囲を視認範囲100として算出してもよい。
Moreover, the shape of the
なお、視認範囲算出部112は、自律飛行ロボット10の周囲に存在する全ての人物に対応する視認範囲を算出する。
The visual
図3に戻って、次に、ステップS7において、移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲に基づいて、自律飛行ロボット10が移動可能な移動範囲を決定する。本実施の形態1では、移動範囲決定部113は、自律飛行ロボット10の周囲に存在する人物の視認範囲外を移動範囲に決定する。すなわち、移動範囲決定部113は、視認範囲算出部112によって算出された視認範囲外を、自律飛行ロボット10が移動可能な移動範囲に決定する。
Returning to FIG. 3, next, in step S <b> 7, the movement
次に、ステップS8において、移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。ここで、本実施の形態1における移動経路の生成方法について説明する。
Next, in step S8, the movement
図5は、本実施の形態1における移動経路の生成方法について説明するための模式図である。図5に示すように、移動経路生成部114は、自律飛行ロボット10の出発地点201と目的地点202とを含む地図210に視認範囲100を重畳し、出発地点及び目的地点が辺の交点と一致するように地図210上を格子状に分割する。移動経路生成部114は、分割した格子の各辺のうち、辺の一部が第1の領域151内にある辺に対しては第1の値を有するコスト値を付与し、辺の一部が第1の領域151内になく第2の領域152内にある辺に対しては第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が第1の領域151内及び第2の領域152内になく第3の領域153内にある辺に対しては第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が第1の領域151内、第2の領域152内及び第3の領域153内のいずれにもない辺に対しては第3の値より小さい第4の値を有するコスト値を付与する。なお、第1の値は、例えば「3」であり、第2の値は、例えば「2」であり、第3の値は、例えば「1」であり、第4の値は、例えば「0」である。
FIG. 5 is a schematic diagram for explaining a moving route generation method according to the first embodiment. As illustrated in FIG. 5, the movement
移動経路生成部114は、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路204として生成する。図5では、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計コスト値が最も小さい「0」である経路が移動経路204として生成される。
The movement
図3に戻って、次に、ステップS9において、移動制御部115は、移動経路生成部114によって生成された移動経路に応じて自律飛行ロボット10の移動を制御する。すなわち、移動制御部115は、移動経路生成部114によって生成された移動経路に沿って、目的地に向かって自律飛行ロボット10の飛行を開始する。
Returning to FIG. 3, next, in step S <b> 9, the
なお、本実施の形態1では、移動制御部115は、移動経路が生成されると、自律飛行ロボット10を出発させているが、本開示は特にこれに限定されず、予め出発時刻が設定されている場合には、出発時刻になるまで待機させ、出発時刻になったら、自律飛行ロボット10を出発させてもよい。また、予め到着時刻が設定されている場合には、移動制御部115は、移動経路と移動速度とに基づいて移動時間を算出し、到着時刻から移動時間を減算することにより出発時刻を算出してもよい。
In the first embodiment, the
次に、ステップS10において、移動制御部115は、自律飛行ロボット10が目的地に到着したか否かを判断する。ここで、自律飛行ロボット10が目的地に到着したと判断された場合(ステップS10でYES)、飛行制御処理を終了する。一方、自律飛行ロボット10が目的地に到着していないと判断された場合(ステップS10でNO)、ステップS2の処理に戻る。ステップS2〜ステップS10の処理は、所定のタイミングで行われ、ステップS2の処理が行われてから次のステップS2の処理が行われるまでの時間間隔を短くすることにより、人物の視界に入らない自律飛行ロボット10の移動経路をより高い精度で生成することができる。
Next, in step S10, the
なお、人物の近傍に所定の高さの障害物が存在する場合、移動経路生成部114は、障害物を考慮して移動経路を生成してもよい。
When an obstacle with a predetermined height exists in the vicinity of the person, the movement
図6は、本実施の形態1における障害物を考慮した移動経路の生成方法について説明するための模式図である。通信部104は、自律飛行ロボット10の周囲に存在する障害物に関する情報を取得してもよい。また、移動範囲決定部113は、取得した障害物に関する情報と、算出した視認範囲とに基づいて、移動範囲を決定してもよい。図6に示すように、人物の左斜め前方に障害物301が存在する場合、視認範囲100のうち、障害物301によって死角となる領域302は、移動範囲に決定される。
FIG. 6 is a schematic diagram for explaining a method for generating a movement route in consideration of an obstacle according to the first embodiment. The
また、図6に示すように、人物の左斜め前方に障害物301が存在する場合、視認範囲100のうち、障害物301によって死角となる領域302については、コスト値を低くする。例えば、移動経路生成部114は、分割した格子の各辺のうち、辺の一部が障害物301によって死角となる領域302内にある辺に対しては第4の値を有するコスト値を付与する。なお、障害物301の配置位置については、環境情報から取得することが可能であり、自律飛行ロボット10の画像取得部103によって取得される画像情報から取得することも可能である。また、死角となる領域302は、人物の位置、人物の身体の向き、人物の顔の向き、又は人物の視線の向きの少なくとも1つによって決定されてもよい。
As shown in FIG. 6, when an
また、位置測定部102が取得する現在位置は、自律飛行ロボット10が存在する緯度及び経度だけでなく、自律飛行ロボット10が飛行する高度を含んでもよい。移動範囲決定部113は、位置測定部102によって取得された高度が所定の高度よりも低い場合のみ、移動範囲を決定してもよい。移動範囲決定部113は、位置測定部102によって取得された高度が所定の高度以上である場合は、移動範囲を決定せず、移動経路生成部114は、現在位置と目的地とを最短距離で結ぶ経路を移動経路として生成してもよい。なお、高度は、自律飛行ロボット10が備える高度計によって測定されてもよい。
The current position acquired by the
また、移動範囲決定部113によって移動範囲が決定されない場合、通信部104は、自律飛行ロボット10の現在位置を端末装置30へ通知してもよい。なお、端末装置30は、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者によって携帯される。例えば、自律飛行ロボット10の周囲に複数の人物がおり、地図上に視認範囲外の領域が存在しない場合、移動範囲決定部113は、移動範囲を決定することができない可能性がある。この場合、通信部104は、自律飛行ロボット10の現在位置を端末装置30へ通知する。端末装置30は、自律飛行ロボット10をどの様に飛行させるかについての飛行制御指示を受け付け、受け付けた飛行制御指示を自律飛行ロボット10へ送信する。移動制御部115は、受信した飛行制御指示に応じて自律飛行ロボット10を飛行させる。
Further, when the movement range is not determined by the movement
また、移動経路生成部114によって生成された移動経路の距離が所定の距離よりも長い場合、通信部104は、生成された移動経路の距離を端末装置30へ通知してもよい。なお、端末装置30は、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者によって携帯される。例えば、視認範囲外を通る経路を生成した場合、出発地点から目的地点までの距離が非常に長くなり、目的地点に到着するまでにバッテリが足りなくなるおそれがある。そこで、移動経路生成部114によって生成された移動経路の距離が所定の距離よりも長い場合、通信部104は、生成された移動経路の距離を端末装置30へ通知する。端末装置30は、自律飛行ロボット10をどの様に飛行させるかについての飛行制御指示を受け付け、受け付けた飛行制御指示を自律飛行ロボット10へ送信する。移動制御部115は、受信した飛行制御指示に応じて自律飛行ロボット10を飛行させる。
Further, when the distance of the travel route generated by the travel
続いて、本実施の形態1の変形例における移動経路生成方法について説明する。上記の実施の形態1では、視認範囲は2次元平面で表され、2次元平面上を移動する移動経路が生成されるが、実施の形態1の変形例では、視認範囲は3次元空間で表され、3次元空間上を移動する移動経路が生成される。視認範囲は、自律飛行ロボット10の周囲に存在する人物に関する情報の種類に応じて変化させる。すなわち、視認範囲算出部112は、人物の現在位置に応じて規定される第1の視認範囲と、人物の身体の向きに応じて規定される第2の視認範囲と、人物の顔の向きに応じて規定される第3の視認範囲と、人物の視線の向きに応じて規定される第4の視認範囲とを算出する。
Subsequently, a movement route generation method according to a modification of the first embodiment will be described. In the first embodiment, the viewing range is represented by a two-dimensional plane, and a movement path that moves on the two-dimensional plane is generated. In the modification of the first embodiment, the viewing range is represented by a three-dimensional space. Then, a movement path that moves in the three-dimensional space is generated. The viewing range is changed according to the type of information related to the person existing around the autonomous flying
図7は、本実施の形態1の変形例における第1の視認範囲の一例を示す斜視図である。図8(A)は、本実施の形態1の変形例における第2の視認範囲の一例を示す側面図であり、図8(B)は、本実施の形態1の変形例における第2の視認範囲の一例を示す上面図である。図9(A)は、本実施の形態1の変形例における第3の視認範囲の一例を示す側面図であり、図9(B)は、本実施の形態1の変形例における第3の視認範囲の一例を示す上面図である。図10(A)は、本実施の形態1の変形例における第4の視認範囲の一例を示す側面図であり、図10(B)は、本実施の形態1の変形例における第4の視認範囲の一例を示す上面図である。 FIG. 7 is a perspective view showing an example of a first visual range in the modification of the first embodiment. FIG. 8A is a side view showing an example of the second viewing range in the modification of the first embodiment, and FIG. 8B is the second viewing in the modification of the first embodiment. It is a top view which shows an example of a range. FIG. 9A is a side view showing an example of the third viewing range in the modification of the first embodiment, and FIG. 9B is the third viewing in the modification of the first embodiment. It is a top view which shows an example of a range. FIG. 10A is a side view showing an example of the fourth viewing range in the modification of the first embodiment, and FIG. 10B is the fourth viewing in the modification of the first embodiment. It is a top view which shows an example of a range.
図7に示す第1の視認範囲401は、人物110の現在位置が取得された場合に算出される。第1の視認範囲401は、人物110の現在位置を中心として所定の半径を有する半球形状で表される。
A
図8(A)及び図8(B)に示す第2の視認範囲402は、人物110の身体の向きが取得された場合に算出される。第2の視認範囲402は、人物110の現在位置を中心として所定の半径を有する半球に対して、人物110の身体の背面側に底面の中心角が60度の切り欠きが形成された立体で表される。
The
図9(A)及び図9(B)に示す第3の視認範囲403は、人物110の顔の向きが取得された場合に算出される。第3の視認範囲403は、人物110の顔が向いている方向に形成され、水平方向の中心角度が200度となる扇形を、人物110の顔の位置を中心として上方向に50度回転させると共に下方向に75度回転させることで形成される立体で表される。なお、第3の視認範囲403は、水平方向の中心角度が120度となる扇形を上下方向に回転させることで形成される両目視野範囲4031と、両目視野範囲4031の左側及び右側に隣接して形成され、水平方向の中心角度が40度となる扇形を上下方向に回転させることで形成される周辺視野範囲4032とを含む。
The
図10(A)及び図10(B)に示す第4の視認範囲404は、人物110の視線の向きが取得された場合に算出される。第4の視認範囲404は、人物110の視線が向いている方向に形成され、人物110の目の位置を頂点とする水平方向の2辺の間の角度が30度であり、人物110の目の位置を頂点とする垂直方向の2辺の間の角度が20度である四角錐形状で表される。
A fourth
図11は、本実施の形態1の変形例における移動経路の生成方法について説明するための模式図である。図11に示すように、移動経路生成部114は、自律飛行ロボット10の出発地点201と目的地点202とを含む3次元空間220を格子状に分割する。これにより、3次元空間220は、複数の立方体で構成される。なお、3次元空間220のX軸方向及びY軸方向の長さは、出発地点及び目的地点に応じて決定され、Z軸方向の長さ(高さ)は、自律飛行ロボット10の飛行可能高度に応じて決定されてもよい。また、移動経路生成部114は、移動経路を生成できなかった場合に、3次元空間220をさらに大きく設定して再度移動経路を生成してもよい。
FIG. 11 is a schematic diagram for explaining a moving route generation method according to the modification of the first embodiment. As illustrated in FIG. 11, the movement
移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403と、人物の視線の向きに応じて規定される第4の視認範囲404との少なくとも1つに基づいて、分割した複数の立方体の各辺に対してコスト値を付与する。
The movement
すなわち、人物の現在位置のみが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401を3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出したコスト値を付与する。このとき、コスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。したがって、コスト値は、人物から離れるに従って小さくなる。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。
That is, when only the current position of the person is acquired, the movement
また、人物の現在位置及び人物の身体の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与する。このとき、第1のコスト値及び第2のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。
In addition, when the current position of the person and the orientation of the person's body are acquired, the movement
そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、所定の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。
Then, the movement
また、人物の現在位置、人物の身体の向き及び人物の顔の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与し、辺の一部が3次元空間220内の第3の視認範囲403内にある複数の立方体の各辺に対して、人物の顔の位置からの距離に応じて算出した第3のコスト値を付与する。このとき、第1のコスト値、第2のコスト値及び第3のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。
When the current position of the person, the direction of the person's body, and the direction of the person's face are acquired, the movement
そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402及び第3の視認範囲403内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値とを加算する。
Then, the movement
なお、第3の視認範囲403に含まれる両目視野範囲4031と周辺視野範囲4032とでは、第3のコスト値に乗算する重み値の値を変更してもよく、両目視野範囲4031の重み値を周辺視野範囲4032の重み値より大きくしてもよい。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない3次元空間220内の複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。
Note that the value of the weight value multiplied by the third cost value may be changed between the binocular
さらに、人物の現在位置、人物の身体の向き、人物の顔の向き及び人物の視線の向きが取得された場合、移動経路生成部114は、人物の現在位置に応じて規定される第1の視認範囲401と、人物の身体の向きに応じて規定される第2の視認範囲402と、人物の顔の向きに応じて規定される第3の視認範囲403と、人物の視線の向きに応じて規定される第4の視認範囲404とを3次元空間220に重畳する。移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第1のコスト値を付与し、辺の一部が3次元空間220内の第2の視認範囲402内にある複数の立方体の各辺に対して、人物の現在位置からの距離に応じて算出した第2のコスト値を付与し、辺の一部が3次元空間220内の第3の視認範囲403内にある複数の立方体の各辺に対して、人物の顔の位置からの距離に応じて算出した第3のコスト値を付与し、辺の一部が3次元空間220内の第4の視認範囲404内にある複数の立方体の各辺に対して、人物の目の位置からの距離に応じて算出した第4のコスト値を付与する。このとき、第1のコスト値、第2のコスト値、第3のコスト値及び第4のコスト値は、所定の定数αを人物の現在位置からの距離で除算することにより算出される。
Further, when the current position of the person, the direction of the person's body, the direction of the person's face, and the direction of the line of sight of the person are acquired, the movement
そして、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401及び第2の視認範囲402内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402及び第3の視認範囲403内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値とを加算する。さらに、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401、第2の視認範囲402、第3の視認範囲403及び第4の視認範囲404内にある複数の立方体の各辺に対して、第1のコスト値と、第1の重み値を乗算した第2のコスト値と、第1の重み値より大きい第2の重み値を乗算した第3のコスト値と、第2の重み値より大きい第3の重み値を乗算した第4のコスト値とを加算する。また、移動経路生成部114は、辺の一部が3次元空間220内の第1の視認範囲401内にない複数の立方体の各辺に対しては、「0」というコスト値を付与する。移動経路生成部114は、出発地点201から目的地点202までの立方体の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路として生成する。
Then, the movement
以上のように、実施の形態1の変形例では、3次元空間内を移動する移動経路が生成されるので、人物の視界に入らない自律飛行ロボット10の移動経路をより高い精度で生成することができる。
As described above, in the modification of the first embodiment, a movement path that moves in the three-dimensional space is generated, and therefore, the movement path of the autonomous flying
(実施の形態2)
実施の形態1では、視認範囲外を自律飛行ロボットが移動可能な移動範囲として決定しているが、実施の形態2では、所定の人物の視認範囲内を自律飛行ロボットが移動可能な移動範囲として決定する。
(Embodiment 2)
In the first embodiment, the movement range outside the viewing range is determined as the movement range where the autonomous flying robot can move, but in the second embodiment, the movement range within which the autonomous flying robot can move within the viewing range of a predetermined person. decide.
図12は、本開示の実施の形態2における自律飛行ロボットの構成を示すブロック図である。なお、実施の形態2における飛行制御システムの構成は、図1と同じであるので説明を省略する。 FIG. 12 is a block diagram illustrating a configuration of the autonomous flight robot according to the second embodiment of the present disclosure. The configuration of the flight control system in the second embodiment is the same as that in FIG.
図12に示す自律飛行ロボット11は、アクチュエータ101、位置測定部102、画像取得部103、通信部104、制御部1051及び記憶部106を備える。なお、実施の形態2において、実施の形態1と同じ構成については、同じ符号を付し、説明を省略する。
An autonomous flying robot 11 illustrated in FIG. 12 includes an
記憶部106は、所定の人物を識別するための識別情報を予め記憶する。識別情報は、端末装置30によって入力され、自律飛行ロボット11へ送信される。通信部104は、端末装置30によって送信された識別情報を受信し、記憶部106に記憶する。このようにして、端末装置30は、自律飛行ロボット11の記憶部106に識別情報を登録する。なお、識別情報は、所定の人物の顔画像である。所定の人物は、例えば、自律飛行ロボット10を監視する監視者、自律飛行ロボット10を管理する管理者又は自律飛行ロボット10を所有する所有者である。また、記憶部106は、1人の人物に対応した1つの識別情報を記憶するのではなく、複数の人物に対応した複数の識別情報を記憶してもよい。
The
制御部1051は、例えばCPUであり、自律飛行ロボット11の動作を制御する。制御部1051は、人物情報取得部111、視認範囲算出部112、移動範囲決定部113、移動経路生成部114、移動制御部115及び登録人物判別部116を備える。自律飛行ロボット11は、図示しないメモリを有し、メモリには制御部1051として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部1051は機能する。または、制御部1051の機能を組み込んだ専用の回路を用いて制御部1051を構成してもよい。専用の回路は、例えば、集積回路であってもよい。
The
登録人物判別部116は、記憶部106に登録された識別情報に基づいて、自律飛行ロボット11の周囲に存在する人物が、所定の人物であるか否かを判別する。すなわち、登録人物判別部116は、画像情報に含まれる人物の顔画像と、記憶部106に予め登録されている顔画像とを比較し、2つの顔画像の人物が同一人物である場合、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別する。
The registered
移動範囲決定部113は、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別された場合、自律飛行ロボット11の周囲に存在する所定の人物の視認範囲内を移動範囲に決定する。
When it is determined that the person existing around the autonomous flying robot 11 is a predetermined person, the movement
移動経路生成部114は、移動範囲決定部113によって決定された移動範囲内において自律飛行ロボット10が移動する移動経路を生成する。本実施の形態2では、移動経路生成部114は、自律飛行ロボット11の周囲に存在する所定の人物の視認範囲内において自律飛行ロボット10が移動する移動経路を生成する。
The movement
実施の形態2における視認範囲の算出方法及び移動経路の生成方法は、実施の形態1と同じである。ただし、移動経路生成部114は、出発地点201から目的地点202までの格子の辺を通る全ての経路のうち、合計したコスト値が最も大きく、かつ出発地点201から目的地点202までの距離が最も短い経路を移動経路204として生成する。
The method for calculating the viewing range and the method for generating the movement path in the second embodiment are the same as those in the first embodiment. However, the movement
なお、本実施の形態2では、識別情報は、所定の人物が携帯する通信機器から送信されてもよい。この場合、通信機器は、例えば、赤外線により識別情報を送信する機器、又は無線により識別情報を送信する機器である。通信部104は、通信機器によって送信された識別情報を受信する。登録人物判別部116は、記憶部106に登録された識別情報に基づいて、自律飛行ロボット11の周囲に存在する人物が、所定の人物であるか否かを判別する。すなわち、登録人物判別部116は、通信部104によって受信された識別情報と、記憶部106に予め登録されている識別情報とを比較し、2つの識別情報が一致する場合、自律飛行ロボット11の周囲に存在する人物が、所定の人物であると判別する。
In the second embodiment, the identification information may be transmitted from a communication device carried by a predetermined person. In this case, the communication device is, for example, a device that transmits identification information using infrared rays or a device that transmits identification information wirelessly. The
このように、識別情報が予め登録された所定の人物の視認範囲内が移動範囲に決定されるので、所定の人物は、視認範囲内を移動する自律移動ロボット11を常に監視することができる。 As described above, since the moving range is determined within the viewing range of the predetermined person whose identification information is registered in advance, the predetermined person can always monitor the autonomous mobile robot 11 moving within the viewing range.
(実施の形態3)
実施の形態1及び実施の形態2では、自律飛行ロボット10,11において移動経路が生成されるが、実施の形態3では、ネットワークを介して自律飛行ロボットと接続されたサーバにおいて移動経路が生成される。
(Embodiment 3)
In
図13は、本開示の実施の形態3における飛行制御システムの構成を示すブロック図である。なお、実施の形態3において、実施の形態1及び実施の形態2と同じ構成については説明を省略する。 FIG. 13 is a block diagram illustrating a configuration of a flight control system according to the third embodiment of the present disclosure. In the third embodiment, description of the same configurations as those in the first and second embodiments is omitted.
図13に示す飛行制御システムは、自律飛行ロボット12、監視カメラ20、端末装置30及びサーバ50を備える。
The flight control system shown in FIG. 13 includes an
自律飛行ロボット12は、アクチュエータ101、位置測定部102、画像取得部103、通信部104及び制御部1052を備える。制御部1052は、移動制御部115を備える。自律飛行ロボット12は、図示しないメモリを有し、メモリには制御部1502として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部1502は機能する。または、制御部1502の機能を組み込んだ専用の回路を用いて制御部1502を構成してもよい。専用の回路は、例えば、集積回路であってもよい。
The
通信部104は、画像取得部103によって取得された自律飛行ロボット10の周囲に存在する人物を撮影した画像情報をサーバ50へ送信する。また、通信部104は、サーバ50によって送信された移動経路情報を受信する。
The
移動制御部115は、通信部104によって受信された移動経路情報で示される移動経路に応じて自律飛行ロボット12の移動を制御する。
The
サーバ50は、ネットワーク40を介して、自律飛行ロボット12、監視カメラ20及び端末装置30と通信可能に接続されている。サーバ50は、通信部501及び制御部502を備える。
The
通信部501は、ネットワーク40を介して監視カメラ20から画像情報を受信する。また、通信部104は、ネットワーク40を介して自律飛行ロボット12から画像情報を受信する。また、通信部104は、ネットワーク40を介して端末装置30から出発地及び目的地を示す情報を受信する。また、通信部104は、自律飛行ロボット12の現在位置を示す位置情報によって特定される自律飛行ロボット10の周囲の地図を示す環境情報を端末装置30から受信する。
The
制御部502は、例えばCPUであり、自律飛行ロボット12が移動する移動経路を生成する。制御部502は、人物情報取得部511、視認範囲算出部512、移動範囲決定部513及び移動経路生成部514を備える。サーバ50は、図示しないメモリを有し、メモリには制御部502として機能させるためのプログラムが記録されていてもよい。CPUが、このプログラムを実行することで、制御部502は機能する。または、制御部502の機能を組み込んだ専用の回路を用いて制御部502を構成してもよい。専用の回路は、例えば、集積回路であってもよい。
The
なお、実施の形態3における人物情報取得部511、視認範囲算出部512、移動範囲決定部513及び移動経路生成部514の機能は、実施の形態1における人物情報取得部111、視認範囲算出部112、移動範囲決定部113及び移動経路生成部114の機能と同じである。実施の形態3では、実施の形態1と同様の方法で移動経路が生成される。
Note that the functions of the person
通信部104は、移動経路生成部114によって生成された移動経路を示す移動経路情報を自律飛行ロボット12へ送信する。
The
このように、サーバ50において移動経路が生成されるので、自律飛行ロボット12における演算負荷を削減することができる。
Thus, since the movement route is generated in the
また、本実施の形態3では、サーバ50が移動経路を生成しているが、本開示は特にこれに限定されず、端末装置30が移動経路を生成してもよく、自律飛行ロボット12を操縦する操縦器が移動経路を生成してもよい。
In the third embodiment, the
なお、本実施の形態1〜3では、自律飛行ロボットが自律移動ロボットの一例であるが、本開示は特にこれに限定されず、自律飛行ロボットの構成は、地上を走行する自律走行ロボット(無人自動車)、又は自律して掃除する掃除ロボットにも同様に適用することが可能である。また、自律移動ロボットが移動する空間は、室内及び室外のいずれであってもよい。 In the first to third embodiments, the autonomous flying robot is an example of an autonomous mobile robot. However, the present disclosure is not particularly limited thereto, and the configuration of the autonomous flying robot is an autonomous traveling robot (unmanned) that travels on the ground. The present invention can be similarly applied to an automobile) or a cleaning robot that autonomously cleans. Further, the space in which the autonomous mobile robot moves may be either indoors or outdoors.
また、上記各実施の形態における自律移動ロボットまたはサーバが備える一部の構成要素は、例えば、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。例えば、自律移動ロボット10の通信部104および制御部105のうちの少なくとも一方は、システムLSIから構成されてもよい。
In addition, some of the components included in the autonomous mobile robot or server in each of the above embodiments may be configured by, for example, one system LSI (Large Scale Integration). For example, at least one of the
また、例えば、自律移動ロボット11の通信部104および制御部1051のうちの少なくとも一方は、システムLSIから構成されてもよい。
For example, at least one of the
また、例えば、自律移動ロボット12の通信部104および制御部1052のうちの少なくとも一方は、システムLSIから構成されてもよい。
Further, for example, at least one of the
また、例えば、サーバ50の通信部501および制御部502のうちの少なくとも一方は、システムLSIから構成されてもよい。
For example, at least one of the
システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM(Read Only Memory)、RAM(Random Access Memory)などを含んで構成されるコンピュータシステムである。前記ROMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。 The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on one chip. Specifically, a microprocessor, a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is a computer system comprised including. A computer program is stored in the ROM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
なお、ここでは、システムLSIとしたが、集積度の違いにより、IC、LSI、スーパーLSI、ウルトラLSIと呼称されることもある。また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)、あるいはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。 Although the system LSI is used here, it may be called IC, LSI, super LSI, or ultra LSI depending on the degree of integration. Further, the method of circuit integration is not limited to LSI's, and implementation using dedicated circuitry or general purpose processors is also possible. An FPGA (Field Programmable Gate Array) that can be programmed after manufacturing the LSI, or a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてありえる。 Further, if integrated circuit technology comes out to replace LSI's as a result of the advancement of semiconductor technology or a derivative other technology, it is naturally also possible to carry out function block integration using this technology. Biotechnology can be applied.
本開示に係る移動制御方法、自律移動ロボット及びプログラムは、自律移動ロボットの周囲に存在する人物が視認可能な範囲内を自律移動ロボットが移動することにより、当該人物が自律移動ロボットを常に監視することができ、自律移動ロボットの周囲に存在する人物が視認可能な範囲外を自律移動ロボットが移動することにより、自律移動ロボットを当該人物に見られることなく移動させることができ、自律移動ロボットの移動を制御する移動制御方法、自律移動する自律移動ロボット、及び自律移動ロボットの移動を制御するための移動制御プログラムとして有用である。 The movement control method, the autonomous mobile robot, and the program according to the present disclosure constantly monitor the autonomous mobile robot when the autonomous mobile robot moves within a range in which a person existing around the autonomous mobile robot is visible. The autonomous mobile robot can move without being seen by the person by moving the autonomous mobile robot outside the range where the person existing around the autonomous mobile robot can be seen. The present invention is useful as a movement control method for controlling movement, an autonomous mobile robot that moves autonomously, and a movement control program for controlling movement of the autonomous mobile robot.
10,11,12 自律飛行ロボット
20 監視カメラ
30 端末装置
40 ネットワーク
50 サーバ
101 アクチュエータ
102 位置測定部
103 画像取得部
104 通信部
105 制御部
106 記憶部
111 人物情報取得部
112 視認範囲算出部
113 移動範囲決定部
114 移動経路生成部
115 移動制御部
116 登録人物判別部
501 通信部
502 制御部
511 人物情報取得部
512 視認範囲算出部
513 移動範囲決定部
514 移動経路生成部
1051 制御部
1052 制御部
DESCRIPTION OF
Claims (23)
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得し、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出し、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する、
移動制御方法。 A movement control method for controlling movement of an autonomous mobile robot,
Obtaining information about the surrounding people present around the autonomous mobile robot;
Based on the acquired information about the surrounding person, calculate a viewing range that the surrounding person can visually recognize,
Based on the calculated viewing range, determine a moving range in which the autonomous mobile robot can move,
Movement control method.
請求項1記載の移動制御方法。 Generating a movement path along which the autonomous mobile robot moves within the determined movement range;
The movement control method according to claim 1.
前記登録された識別情報に基づいて、前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であるか否かを判別し、
前記自律移動ロボットの周囲に存在する前記周囲人物が、前記所定の人物であると判別された場合、前記自律移動ロボットの周囲に存在する前記所定の人物の視認範囲内を前記移動範囲に決定する、
請求項1又は2記載の移動制御方法。 Registering identification information for identifying a specific person in advance,
Based on the registered identification information, it is determined whether the surrounding person existing around the autonomous mobile robot is the predetermined person,
When it is determined that the surrounding person existing around the autonomous mobile robot is the predetermined person, the moving range is determined within the viewing range of the predetermined person existing around the autonomous mobile robot. ,
The movement control method according to claim 1 or 2.
請求項3記載の移動制御方法。 The identification information is a face image of the predetermined person.
The movement control method according to claim 3.
請求項3記載の移動制御方法。 The identification information is transmitted from a communication device carried by the predetermined person.
The movement control method according to claim 3.
請求項1又は2記載の移動制御方法。 Determining the movement range outside the visual recognition range of the surrounding person existing around the autonomous mobile robot;
The movement control method according to claim 1 or 2.
請求項1〜6のいずれか1項に記載の移動制御方法。 The information about the surrounding person existing around the autonomous mobile robot is at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. Including
The movement control method according to claim 1.
請求項1〜7のいずれか1項に記載の移動制御方法。 The viewing range is determined on a two-dimensional plane determined according to at least one of the position of the surrounding person, the body direction of the surrounding person, the face direction of the surrounding person, or the direction of the line of sight of the surrounding person. The area of
The movement control method of any one of Claims 1-7.
前記自律移動ロボットは、前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、最適化アルゴリズムを用いて前記移動経路を生成する、
請求項2記載の移動制御方法。 The visual recognition range has a cost value having a different value according to information about the surrounding person,
The autonomous mobile robot superimposes the viewing range on a map including a starting point and a destination point of the autonomous mobile robot, and generates the moving route using an optimization algorithm.
The movement control method according to claim 2.
前記自律移動ロボットの出発地点及び目的地点を含む地図に前記視認範囲を重畳し、前記出発地点及び前記目的地点が辺の交点と一致するように前記地図上を格子状に分割し、分割した格子の各辺のうち、辺の一部が前記第1の領域内にある前記辺に対しては第1の値を有するコスト値を付与し、辺の一部が前記第1の領域内になく前記第2の領域内にある前記辺に対しては前記第1の値より小さい第2の値を有するコスト値を付与し、辺の一部が前記第1の領域内及び前記第2の領域内になく前記第3の領域内にある前記辺に対しては前記第2の値より小さい第3の値を有するコスト値を付与し、辺の一部が前記第1の領域内、前記第2の領域内及び前記第3の領域内のいずれにもない辺に対しては前記第3の値より小さい第4の値を有するコスト値を付与し、
前記出発地点から前記目的地点までの前記格子の辺を通る全ての経路のうち、合計したコスト値が最も小さく、かつ前記出発地点から前記目的地点までの距離が最も短い経路を前記移動経路として生成する、
請求項2記載の移動制御方法。 The visible range includes a first area formed on the front side of the surrounding person, a second area formed on the back side of the body of the surrounding person, the first area, and the second area. A third region formed outside of
The viewing range is superimposed on a map including the starting point and the destination point of the autonomous mobile robot, and the map is divided into a grid so that the starting point and the destination point coincide with intersections of sides, and the divided grid A cost value having a first value is assigned to each of the sides of which the part of the side is in the first region, and the part of the side is not in the first region. A cost value having a second value smaller than the first value is assigned to the side in the second region, and a part of the side is in the first region and the second region. A cost value having a third value smaller than the second value is assigned to the side that is not in the third region, and a part of the side is in the first region, A side that is not in either the second region or the third region has a fourth value smaller than the third value. Grant cost value,
Of all the routes that pass through the grid edge from the starting point to the destination point, a route having the smallest total cost value and the shortest distance from the starting point to the destination point is generated as the moving route. To
The movement control method according to claim 2.
前記周囲人物に関する情報は、前記画像取得部が取得した画像情報から取得される、
請求項1〜10のいずれか1項に記載の移動制御方法。 The autonomous mobile robot includes an image acquisition unit that acquires an image around the autonomous mobile robot,
The information about the surrounding person is acquired from the image information acquired by the image acquisition unit.
The movement control method according to claim 1.
請求項1〜11のいずれか1項に記載の移動制御方法。 Information about the surrounding person is acquired from image information acquired by an image acquisition device installed around the autonomous mobile robot.
The movement control method according to claim 1.
請求項1〜12のいずれか1項に記載の移動制御方法。 The information about the surrounding person is a current position of the surrounding person acquired by a position sensor carried by the surrounding person.
The movement control method according to claim 1.
請求項1〜13のいずれか1項に記載の移動制御方法。 The information about the surrounding person is a direction in which the surrounding person is acquired by a geomagnetic sensor carried by the surrounding person.
The movement control method according to claim 1.
請求項1〜14のいずれか1項に記載の移動制御方法。 Information on the surrounding person is acquired from image information around the other autonomous mobile robot acquired by an image acquisition unit provided in another autonomous mobile robot other than the autonomous mobile robot.
The movement control method according to claim 1.
前記取得した障害物に関する情報と、前記算出した視認範囲とに基づいて、前記移動範囲を決定する、
請求項1〜15のいずれか1項に記載の移動制御方法。 Obtain information about obstacles around the autonomous mobile robot,
The movement range is determined based on the acquired information on the obstacle and the calculated visual range.
The movement control method according to any one of claims 1 to 15.
前記自律飛行ロボットが飛行する高度を取得し、
前記取得した高度が所定の高度よりも低い場合のみ、前記移動範囲を決定する、
請求項1〜16のいずれか1項に記載の移動制御方法。 The autonomous mobile robot is an autonomous flight robot,
Obtain the altitude at which the autonomous flying robot flies,
The moving range is determined only when the acquired altitude is lower than a predetermined altitude.
The movement control method according to any one of claims 1 to 16.
請求項1〜17のいずれか1項に記載の移動制御方法。 When the movement range is not determined, the current position of the autonomous mobile robot is notified to a predetermined terminal device.
The movement control method according to claim 1.
請求項2記載の移動制御方法。 When the distance of the generated movement route is longer than a predetermined distance, the distance of the generated movement route is notified to a predetermined terminal device.
The movement control method according to claim 2.
請求項1記載の移動制御方法。 At least one of obtaining information about the surrounding person, calculating the viewing range, and determining the moving range is performed by a processor.
The movement control method according to claim 1.
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部と、
を備える自律移動ロボット。 An autonomous mobile robot that moves autonomously,
A person acquisition unit for acquiring information about surrounding persons existing around the autonomous mobile robot;
Based on the acquired information about the surrounding person, a calculation unit that calculates a visible range that the surrounding person can visually recognize;
A determination unit that determines a movement range in which the autonomous mobile robot can move based on the calculated visual recognition range;
An autonomous mobile robot with
請求項21記載の自律移動ロボット。 At least one of the person acquisition unit, the calculation unit, and the determination unit includes a processor.
The autonomous mobile robot according to claim 21.
コンピュータを、
前記自律移動ロボットの周囲に存在する周囲人物に関する情報を取得する人物取得部と、
前記取得した周囲人物に関する情報に基づいて、前記周囲人物が視認可能な視認範囲を算出する算出部と、
前記算出した視認範囲に基づいて、前記自律移動ロボットが移動可能な移動範囲を決定する決定部として機能させる、
プログラム。 A computer-readable program for controlling the movement of an autonomous mobile robot,
Computer
A person acquisition unit for acquiring information about surrounding persons existing around the autonomous mobile robot;
Based on the acquired information about the surrounding person, a calculation unit that calculates a visible range that the surrounding person can visually recognize;
Based on the calculated visual range, the autonomous mobile robot functions as a determination unit that determines a movable range,
program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610918571.2A CN107045355B (en) | 2015-12-10 | 2016-10-21 | Movement control method and autonomous mobile robot |
US15/370,070 US10409292B2 (en) | 2015-12-10 | 2016-12-06 | Movement control method, autonomous mobile robot, and recording medium storing program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015241142 | 2015-12-10 | ||
JP2015241142 | 2015-12-10 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017111790A true JP2017111790A (en) | 2017-06-22 |
Family
ID=59080243
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016144363A Pending JP2017111790A (en) | 2015-12-10 | 2016-07-22 | Movement control method, autonomous mobile robot, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2017111790A (en) |
CN (1) | CN107045355B (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6586257B1 (en) * | 2018-08-16 | 2019-10-02 | 楽天株式会社 | Unmanned aircraft control system, unmanned aircraft control method, and program |
JP7420048B2 (en) | 2020-10-22 | 2024-01-23 | トヨタ自動車株式会社 | Control devices, systems, programs, control equipment, aircraft, sensors and system operation methods |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110515385A (en) * | 2019-09-09 | 2019-11-29 | 金鹏电子信息机器有限公司 | A kind of path following method and device of mobile robot |
JP7447670B2 (en) * | 2020-05-15 | 2024-03-12 | トヨタ自動車株式会社 | Autonomous mobile device control system, its control method and its control program |
JP7484574B2 (en) * | 2020-08-26 | 2024-05-16 | トヨタ自動車株式会社 | Autonomous mobile robot control system, control method thereof, control program thereof, and autonomous mobile robot control device |
JP7476727B2 (en) * | 2020-08-26 | 2024-05-01 | トヨタ自動車株式会社 | Autonomous mobile robot control system, control method thereof, control program thereof, and autonomous mobile robot control device |
US20240061430A1 (en) * | 2020-12-29 | 2024-02-22 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and device for event detection |
CN112975386B (en) * | 2021-03-09 | 2022-09-06 | 重庆机器人有限公司 | Automatic refrigerator assembling process |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006082774A (en) * | 2004-09-17 | 2006-03-30 | Hiroboo Kk | Unmanned flying object and its controlling method |
JP2008152504A (en) * | 2006-12-18 | 2008-07-03 | Hitachi Ltd | Guidance robot device and guidance system |
JP2008246665A (en) * | 2007-03-07 | 2008-10-16 | Matsushita Electric Ind Co Ltd | Action control unit, method and program |
JP2008260107A (en) * | 2007-04-13 | 2008-10-30 | Yaskawa Electric Corp | Mobile robot system |
JP2010015194A (en) * | 2008-06-30 | 2010-01-21 | Ihi Corp | Autonomous moving robot device and control method for autonomous moving robot device |
JP2014059737A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled device |
WO2014068975A1 (en) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | Autonomous traveling device traveling-information generation device, method, and program, and autonomous traveling device |
WO2014102995A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | Monitoring system, method, and information-recording medium containing program |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4456561B2 (en) * | 2005-12-12 | 2010-04-28 | 本田技研工業株式会社 | Autonomous mobile robot |
JP4940698B2 (en) * | 2006-02-27 | 2012-05-30 | トヨタ自動車株式会社 | Autonomous mobile robot |
JP4699426B2 (en) * | 2006-08-08 | 2011-06-08 | パナソニック株式会社 | Obstacle avoidance method and obstacle avoidance moving device |
JP2009011362A (en) * | 2007-06-29 | 2009-01-22 | Sony Computer Entertainment Inc | Information processing system, robot apparatus, and its control method |
TW201123031A (en) * | 2009-12-24 | 2011-07-01 | Univ Nat Taiwan Science Tech | Robot and method for recognizing human faces and gestures thereof |
JP2011209966A (en) * | 2010-03-29 | 2011-10-20 | Sony Corp | Image processing apparatus and method, and program |
CN102411368B (en) * | 2011-07-22 | 2013-10-09 | 北京大学 | Active vision human face tracking method and tracking system of robot |
CN102819263B (en) * | 2012-07-30 | 2014-11-05 | 中国航天科工集团第三研究院第八三五七研究所 | Multi-camera visual perception system for UGV (Unmanned Ground Vehicle) |
CN102853830A (en) * | 2012-09-03 | 2013-01-02 | 东南大学 | Robot vision navigation method based on general object recognition |
JP2014197294A (en) * | 2013-03-29 | 2014-10-16 | 株式会社日立産機システム | Position identification device and mobile robot having the same |
CN105022401B (en) * | 2015-07-06 | 2017-08-04 | 南京航空航天大学 | Many four rotor wing unmanned aerial vehicles collaboration SLAM methods of view-based access control model |
-
2016
- 2016-07-22 JP JP2016144363A patent/JP2017111790A/en active Pending
- 2016-10-21 CN CN201610918571.2A patent/CN107045355B/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006082774A (en) * | 2004-09-17 | 2006-03-30 | Hiroboo Kk | Unmanned flying object and its controlling method |
JP2008152504A (en) * | 2006-12-18 | 2008-07-03 | Hitachi Ltd | Guidance robot device and guidance system |
JP2008246665A (en) * | 2007-03-07 | 2008-10-16 | Matsushita Electric Ind Co Ltd | Action control unit, method and program |
JP2008260107A (en) * | 2007-04-13 | 2008-10-30 | Yaskawa Electric Corp | Mobile robot system |
JP2010015194A (en) * | 2008-06-30 | 2010-01-21 | Ihi Corp | Autonomous moving robot device and control method for autonomous moving robot device |
JP2014059737A (en) * | 2012-09-18 | 2014-04-03 | Sharp Corp | Self-propelled device |
WO2014068975A1 (en) * | 2012-11-05 | 2014-05-08 | パナソニック株式会社 | Autonomous traveling device traveling-information generation device, method, and program, and autonomous traveling device |
WO2014102995A1 (en) * | 2012-12-28 | 2014-07-03 | 株式会社日立製作所 | Monitoring system, method, and information-recording medium containing program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6586257B1 (en) * | 2018-08-16 | 2019-10-02 | 楽天株式会社 | Unmanned aircraft control system, unmanned aircraft control method, and program |
WO2020035932A1 (en) * | 2018-08-16 | 2020-02-20 | 楽天株式会社 | Unmanned aircraft control system, unmanned aircraft control method, and program |
CN111372851A (en) * | 2018-08-16 | 2020-07-03 | 乐天株式会社 | Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program |
CN111372851B (en) * | 2018-08-16 | 2023-11-21 | 乐天集团股份有限公司 | Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and readable storage medium |
JP7420048B2 (en) | 2020-10-22 | 2024-01-23 | トヨタ自動車株式会社 | Control devices, systems, programs, control equipment, aircraft, sensors and system operation methods |
Also Published As
Publication number | Publication date |
---|---|
CN107045355A (en) | 2017-08-15 |
CN107045355B (en) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10409292B2 (en) | Movement control method, autonomous mobile robot, and recording medium storing program | |
JP2017111790A (en) | Movement control method, autonomous mobile robot, and program | |
JP7465615B2 (en) | Smart aircraft landing | |
US20230257116A1 (en) | Image Space Motion Planning Of An Autonomous Vehicle | |
US20220124303A1 (en) | Methods and systems for selective sensor fusion | |
US10599149B2 (en) | Salient feature based vehicle positioning | |
US20200007746A1 (en) | Systems, methods, and devices for setting camera parameters | |
US20150254861A1 (en) | Apparatus and method for determining spatial information about environment | |
JPWO2017170148A1 (en) | Flight equipment, electronic equipment and program | |
JP6599143B2 (en) | Autonomous mobile robot | |
CN106598063B (en) | Unmanned aerial vehicle and flight control method | |
WO2016031105A1 (en) | Information-processing device, information processing method, and program | |
US20220137647A1 (en) | System and method for operating a movable object based on human body indications | |
JP2021162572A (en) | Position calculation method and information processing system | |
JP6821220B2 (en) | Unmanned aerial vehicles, unmanned aerial vehicle flight control devices, unmanned aerial vehicle flight control methods, and programs | |
JP2017182690A (en) | Autonomous Mobile Robot | |
JP2016181178A (en) | Autonomous mobile robot | |
US20220221857A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
CN111164958A (en) | System and method for processing and displaying image data based on pose information | |
JP6595284B2 (en) | Autonomous mobile robot | |
WO2020024150A1 (en) | Map processing method, apparatus, and computer readable storage medium | |
JP7004374B1 (en) | Movement route generation method and program of moving object, management server, management system | |
JP7422361B2 (en) | Tracking devices and programs | |
JP2023072353A (en) | Mobile body travel route determination device, mobile body travel route determination method, and mobile body travel route determination program | |
JP2019179529A (en) | Controller |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200225 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200515 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20201020 |