JP7153505B2 - moving body - Google Patents

moving body Download PDF

Info

Publication number
JP7153505B2
JP7153505B2 JP2018157002A JP2018157002A JP7153505B2 JP 7153505 B2 JP7153505 B2 JP 7153505B2 JP 2018157002 A JP2018157002 A JP 2018157002A JP 2018157002 A JP2018157002 A JP 2018157002A JP 7153505 B2 JP7153505 B2 JP 7153505B2
Authority
JP
Japan
Prior art keywords
unit
manipulator
information
photographing
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018157002A
Other languages
Japanese (ja)
Other versions
JP2020030721A (en
Inventor
梓紗 檀上
敏生 巳波
唯正 深江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2018157002A priority Critical patent/JP7153505B2/en
Publication of JP2020030721A publication Critical patent/JP2020030721A/en
Application granted granted Critical
Publication of JP7153505B2 publication Critical patent/JP7153505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本発明は、マニピュレータに装着された撮影部によって撮影された撮影画像を用いて現在位置を取得する移動体に関する。 TECHNICAL FIELD The present invention relates to a moving object that acquires its current position using a captured image captured by a capturing unit attached to a manipulator.

従来、撮像装置の設けられたマニピュレータを有する移動ロボットが知られている(特許文献1参照)。その移動ロボットは、マニピュレータが有する撮像装置によって撮影された走行情報マークを用いて自走することができる。 2. Description of the Related Art Conventionally, a mobile robot having a manipulator provided with an imaging device is known (see Patent Document 1). The mobile robot can run by itself using the travel information marks captured by the imaging device of the manipulator.

実開昭60-066486号公報Japanese Utility Model Laid-Open No. 60-066486

しかしながら、撮影画像を用いて自律的に移動する移動体においては、移動の制御に用いる情報が適切に撮影されない場合には、精度の高い移動を実現できないという問題があった。例えば、撮影が逆光で行われるような場合には、適切な移動を行うことができなくなる恐れがあるという問題があった。 However, in a moving object that moves autonomously using captured images, there is a problem that highly accurate movement cannot be realized if information used for movement control is not appropriately captured. For example, there is a problem that it may not be possible to perform appropriate movement when photographing is performed against the light.

本発明は、上記課題を解決するためになされたものであり、マニピュレータに装着された撮影部によって取得された撮影画像を用いて現在位置を取得する移動体において、現在位置の精度を向上させることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve the above-described problems, and is to improve the accuracy of the current position of a moving body that obtains the current position using a photographed image obtained by a photographing unit attached to a manipulator. With the goal.

上記目的を達成するため、本発明による移動体は、自律的に移動する移動体であって、マニピュレータと、マニピュレータに装着され、移動体の周囲の撮影画像を取得する撮影部と、撮影画像と、移動体の移動領域における地図とを用いて撮影部の位置を推定する位置推定部と、位置推定部によって推定された撮影部の位置を用いて、移動体の現在位置を取得する現在位置取得部と、移動体を移動させる移動機構と、現在位置を用いて、移動機構を制御する移動制御部と、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する取得部と、マニピュレータを制御するマニピュレータ制御部と、適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部の撮影方向をマニピュレータ制御部によって変更させる撮影方向制御部と、を備えたものである。
このような構成により、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができるようになり、その結果として、現在位置の精度を向上させることができるようになる。
In order to achieve the above object, a mobile body according to the present invention is a mobile body that moves autonomously, comprising: a manipulator; a position estimating unit for estimating the position of the imaging unit using a map in the moving area of the moving object; and a current position acquisition for obtaining the current position of the moving object using the position of the imaging unit estimated by the position estimating unit. a movement mechanism for moving a moving object; a movement control unit for controlling the movement mechanism using the current position; a manipulator control unit for controlling a manipulator; and a photographing direction control unit for changing the photographing direction of the photographing unit by the manipulator control unit so that a photographed image suitable for position estimation is photographed using matching information. It is a thing.
With such a configuration, by controlling the shooting direction using matching information, it becomes possible to acquire a shot image that is more suitable for position estimation, and as a result, the accuracy of the current position can be improved. will be able to

また、本発明による移動体では、適合情報は、撮影画像の輝度の代表値を含んでおり、撮影方向制御部は、撮影画像の輝度の代表値が所定の閾値より大きい場合に、代表値がより小さくなるように撮影方向を変更させてもよい。
このような構成により、例えば、撮影画像の露出がオーバーになっており、位置推定のための特徴点の取得が適切に行えないような場合に、より適正な露出となるように撮影方向を変更することによって、より精度の高い位置推定を行うことができるようになる。
In addition, in the moving object according to the present invention, the matching information includes the representative value of the luminance of the captured image, and the photographing direction control unit determines that the representative value is The shooting direction may be changed so that the image becomes smaller.
With such a configuration, for example, when the captured image is overexposed and the feature points for position estimation cannot be acquired properly, the shooting direction is changed so as to obtain a more appropriate exposure. By doing so, it becomes possible to perform position estimation with higher accuracy.

また、本発明による移動体では、適合情報は、移動機構による直後の移動が旋回であるかどうかを示す旋回情報を含んでおり、撮影方向制御部は、旋回情報によって、移動機構による直後の移動が旋回であることが示される場合に、撮影部の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。
このような構成により、移動体の旋回時には、例えば、撮影部が上方や下方を撮影するようにすることができる。撮影画像を用いた位置推定では、旋回時にトラッキングを行うことができなくなることがあるが、このように、上方や下方の撮影を行うように撮影方向を変更することによって、旋回時の位置推定のトラッキングを適切に行うことができるようになる。
Further, in the moving body according to the present invention, the conformity information includes turning information indicating whether or not the immediately following movement by the moving mechanism is turning. is a turn, the photographing direction may be changed so that the optical axis of the photographing unit approaches the turning axis direction.
With such a configuration, for example, the photographing unit can photograph the upper side and the lower side when the moving body is turning. In position estimation using captured images, tracking may not be possible during turning. tracking can be done properly.

また、本発明による移動体では、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでおり、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、割合がより大きくなるように撮影方向を変更させてもよい。
このような構成により、例えば、移動体の周囲に一時的に存在する障害物等によって、適切な位置推定を行うことができないような場合に、そのような障害物等を回避して撮影するように、撮影方向を変更させることができ、より精度の高い位置推定を実現できるようになる。
In addition, in the moving body according to the present invention, the matching information includes ratio information indicating the ratio of matching between the feature points extracted from the captured image and the feature points included in the map. If the ratio indicated by the information is smaller than a predetermined threshold, the shooting direction may be changed so that the ratio becomes larger.
With such a configuration, for example, when an obstacle or the like that temporarily exists around the moving object makes it impossible to perform appropriate position estimation, such an obstacle or the like is avoided for shooting. In addition, the shooting direction can be changed, and position estimation with higher accuracy can be realized.

また、本発明による移動体では、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、撮影部の位置が高くなるように撮影方向を変更させてもよい。
このような構成により、より高いところから撮影するように撮影方向を変更させることによって、障害物等を回避した撮影を実現できる可能性が高くなる。
Further, in the moving object according to the present invention, the shooting direction control unit may change the shooting direction so that the position of the shooting unit is higher when the ratio indicated by the ratio information is smaller than a predetermined threshold.
With such a configuration, by changing the shooting direction so as to shoot from a higher place, the possibility of realizing shooting while avoiding obstacles or the like increases.

本発明による移動体によれば、位置の推定により適している撮影画像を取得できるようになり、現在位置の精度を向上させることができる。 According to the mobile object of the present invention, it becomes possible to acquire a photographed image more suitable for position estimation, thereby improving the accuracy of the current position.

本発明の実施の形態による移動体の外観を示す模式図Schematic diagram showing the appearance of a moving body according to an embodiment of the present invention 同実施の形態による移動体の構成を示すブロック図FIG. 2 is a block diagram showing the configuration of a moving object according to the same embodiment; 同実施の形態による移動体の動作を示すフローチャート4 is a flow chart showing the operation of a moving object according to the same embodiment; 同実施の形態による移動体の旋回について説明するための図FIG. 4 is a diagram for explaining turning of a moving body according to the same embodiment; 同実施の形態における地図の特徴点と撮影画像の特徴点とのマッチングについて説明するための図FIG. 4 is a diagram for explaining matching between feature points of a map and feature points of a photographed image in the same embodiment; 同実施の形態による移動体の動作の具体例について説明するための図FIG. 4 is a diagram for explaining a specific example of the operation of a moving object according to the same embodiment;

以下、本発明による移動体について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による移動体は、マニピュレータに装着された撮影部によって取得された撮影画像を用いた位置推定を行うものであり、撮影画像が位置の推定に適しているかどうかを示す適合情報を用いることによって、撮影方向を制御するものである。 Hereinafter, a moving body according to the present invention will be described using embodiments. In the following embodiments, constituent elements and steps with the same reference numerals are the same or correspond to each other, and repetitive description may be omitted. The moving body according to the present embodiment performs position estimation using a photographed image acquired by an imaging unit attached to a manipulator, and uses matching information indicating whether the photographed image is suitable for position estimation. By doing so, the photographing direction is controlled.

図1は、本実施の形態による移動体1の外観を示す模式図であり、図2は、移動体1の機能的な構成を示すブロック図である。本実施の形態による移動体1は、自律的に移動するものであって、マニピュレータ11と、マニピュレータ制御部12と、撮影部13と、位置推定部14と、現在位置取得部15と、移動機構16と、移動制御部17と、取得部18と、撮影方向制御部19とを備える。なお、移動体1が自律的に移動するとは、移動体1がユーザ等から受け付ける操作指示に応じて移動するのではなく、自らの判断によって目的地に移動することであってもよい。その目的地は、例えば、手動で決められたものであってもよく、または、自動的に決定されたものであってもよい。また、その目的地までの移動は、例えば、移動経路に沿って行われてもよく、または、そうでなくてもよい。また、自らの判断によって目的地に移動するとは、例えば、進行方向、移動や停止などを移動体1が自ら判断することによって、目的地まで移動することであってもよい。また、例えば、移動体1が、障害物に衝突しないように移動することであってもよい。移動体1は、例えば、台車であってもよく、移動するロボットであってもよい。ロボットは、例えば、エンターテインメントロボットであってもよく、監視ロボットであってもよく、搬送ロボットであってもよく、清掃ロボットであってもよく、動画や静止画を撮影するロボットであってもよく、溶接ロボットであってもよく、塗装ロボットであってもよく、農薬散布ロボットであってもよく、組立ロボットであってもよく、その他のロボットであってもよい。 FIG. 1 is a schematic diagram showing the appearance of a mobile body 1 according to this embodiment, and FIG. 2 is a block diagram showing the functional configuration of the mobile body 1. As shown in FIG. The moving object 1 according to the present embodiment moves autonomously, and includes a manipulator 11, a manipulator control unit 12, an imaging unit 13, a position estimation unit 14, a current position acquisition unit 15, and a moving mechanism. 16 , a movement control unit 17 , an acquisition unit 18 , and a shooting direction control unit 19 . It should be noted that the autonomous movement of the mobile body 1 may mean that the mobile body 1 moves to the destination based on its own judgment, instead of moving according to an operation instruction received from a user or the like. The destination may, for example, be manually determined or automatically determined. Also, the movement to the destination may or may not, for example, be along a movement route. Further, moving to the destination by one's own judgment may be, for example, moving to the destination by the moving body 1 judging the traveling direction, movement, stop, or the like. Alternatively, for example, the moving body 1 may move so as not to collide with an obstacle. The mobile body 1 may be, for example, a trolley or a moving robot. The robot may be, for example, an entertainment robot, a surveillance robot, a transport robot, a cleaning robot, or a robot that shoots moving images or still images. , a welding robot, a painting robot, an agricultural chemical spraying robot, an assembly robot, or any other robot.

マニピュレータ11は、モータによって駆動される関節によって連結された複数のアームを有するものであってもよい。マニピュレータ11の先端には、マニピュレータ11によって行われる作業、例えば、溶接や搬送対象の把持、塗装、組み立てなどに応じた手先効果器(エンドエフェクタ)が設けられていてもよい。マニピュレータ11は、例えば、垂直多関節ロボットのマニピュレータであってもよく、水平多関節ロボットのマニピュレータであってもよい。また、そのマニピュレータ11の軸数は問わない。図1で示されるように、マニピュレータ11の基端側は、移動体1の車体1aに固定されていてもよい。また、マニピュレータ11は、マニピュレータ11の全体を旋回させることができる軸を基端側に有していてもよい。 The manipulator 11 may have a plurality of arms connected by joints driven by motors. The tip of the manipulator 11 may be provided with an end effector corresponding to the work performed by the manipulator 11, such as welding, gripping an object to be conveyed, painting, and assembly. The manipulator 11 may be, for example, a manipulator of a vertical articulated robot or a manipulator of a horizontal articulated robot. Moreover, the number of axes of the manipulator 11 is not limited. As shown in FIG. 1 , the base end side of the manipulator 11 may be fixed to the vehicle body 1 a of the mobile body 1 . Also, the manipulator 11 may have a shaft on the base end side that can rotate the entire manipulator 11 .

マニピュレータ制御部12は、マニピュレータ11を制御する。マニピュレータ制御部12は、例えば、マニピュレータ11の手先の位置や姿勢に関する制御を行ってもよく、また、マニピュレータ11の手先効果器に関する制御を行ってもよい。マニピュレータ制御部12は、例えば、マニピュレータ11が有する各モータを制御するサーボコントローラを介してマニピュレータ11の制御を行ってもよい。 The manipulator controller 12 controls the manipulator 11 . The manipulator control unit 12 may, for example, control the position and orientation of the hand of the manipulator 11, or may control the end effector of the manipulator 11. FIG. The manipulator control unit 12 may control the manipulator 11 via, for example, a servo controller that controls each motor of the manipulator 11 .

撮影部13は、移動体1の周囲の撮影画像を取得する。その撮影部13は、マニピュレータ11に装着されている。撮影部13が装着されるマニピュレータ11の位置は問わないが、撮影部13は、例えば、マニピュレータ11の先端に装着されてもよい。なお、マニピュレータ11において、撮影部13が装着されている位置は既知であるとする。また、撮影部13は、例えば、手先効果器の前方側を撮影するようにマニピュレータ11に装着されていてもよい。そのようにすることで、手先効果器による作業時にも、撮影部13によって取得された撮影画像を用いることができるようになる。このように、撮影部13は、マニピュレータ11に装着されているため、マニピュレータ11の位置や姿勢の変更に応じて、撮影方向が変更されることになる。撮影部13は、例えば、CCDイメージセンサやCMOSイメージセンサなどのイメージセンサを用いて撮影画像を取得してもよい。また、撮影部13は、イメージセンサ上に結像させるためのレンズ等の光学系を含んでいてもよい。また、撮影部13は、単眼であってもよく、双眼(ステレオカメラ)であってもよい。本実施の形態では、撮影部13が単眼である場合について主に説明する。撮影部13は、通常、動画を撮影するもの、すなわち、連続した画像フレームを取得するものである。移動している移動体1の現在位置を取得するために撮影画像を取得することから、そのフレームレートは、移動速度に対して十分大きいものであることが好適である。例えば、フレームレートは、約30fpsなどであってもよい。また、後述する適合情報に応じた撮影方向制御部19による撮影方向の制御が行われている場合以外は、撮影部13は、例えば、進行方向の向きの撮影画像を取得するようにしてもよく、進行方向に対して横方向の向きの撮影画像を取得するようにしてもよい。 The photographing unit 13 acquires a photographed image of the surroundings of the moving body 1 . The imaging unit 13 is attached to the manipulator 11 . Although the position of the manipulator 11 to which the photographing unit 13 is attached does not matter, the photographing unit 13 may be attached to the tip of the manipulator 11, for example. It is assumed that the position at which the photographing unit 13 is mounted on the manipulator 11 is already known. Further, the photographing unit 13 may be attached to the manipulator 11 so as to photograph the front side of the end effector, for example. By doing so, it becomes possible to use the photographed image acquired by the photographing unit 13 even when working with the end effector. Since the imaging unit 13 is attached to the manipulator 11 in this manner, the imaging direction is changed according to the change in the position and posture of the manipulator 11 . The photographing unit 13 may acquire a photographed image using, for example, an image sensor such as a CCD image sensor or a CMOS image sensor. Also, the imaging unit 13 may include an optical system such as a lens for forming an image on the image sensor. Further, the imaging unit 13 may be monocular or binocular (stereo camera). In this embodiment, a case where the imaging unit 13 is monocular will be mainly described. The imaging unit 13 normally captures moving images, that is, acquires continuous image frames. Since a photographed image is acquired in order to acquire the current position of the mobile body 1 that is moving, it is preferable that the frame rate is sufficiently high relative to the moving speed. For example, the frame rate may be approximately 30 fps, or the like. In addition, except when the shooting direction control unit 19 controls the shooting direction according to compatibility information, which will be described later, the shooting unit 13 may, for example, acquire a shot image in the traveling direction. Alternatively, a photographed image may be acquired in a horizontal direction with respect to the traveling direction.

位置推定部14は、撮影部13によって取得された撮影画像と、移動体1の移動領域における地図とを用いて撮影部13の位置を推定する。この位置推定によって、グローバル座標系における撮影部13の位置が推定されることになる。この位置は、向きを含んでいてもよい。位置推定部14は、撮影画像から特徴点を抽出し、その抽出した特徴点と、地図に含まれる特徴点とのマッチングによって、位置推定を行ってもよい。その地図は、環境地図とも呼ばれるものであり、例えば、図示しない記録媒体で記憶されていてもよい。その特徴点は、例えば、FASTキーポイントや、SIFTキーポイント、SURFキーポイント等であってもよく、撮影画像を用いた位置推定で用いられるその他の特徴点であってもよい。そのマッチングは、撮影画像において特定された特徴点の特徴記述子(feature descriptor)と、地図に含まれる特徴点の特徴記述子との類似度を計算することによって行われてもよい。そのような撮影画像を用いた位置推定は、visual-SLAM(Simultaneous Localization and Mapping)としてすでに知られているため、その詳細な説明を省略する。なお、位置推定部14は、撮影画像において特定した特徴点を用いて地図を更新してもよく、または、そうでなくてもよい。本実施の形態では、位置推定部14がvisual-SLAMによって位置推定を行う場合、すなわち地図の更新も行う場合について主に説明する。また、visual-SLAMがORB-SLAMである場合には、地図に含まれる特徴点は、例えば、map pointであってもよく、キーフレーム(keyframe)に含まれる特徴点であってもよい。なお、FASTキーポイント、SIFTキーポイント、SURFキーポイント、ORB-SLAMにおける特徴点、ORB-SLAMにおける位置推定(tracking)及び地図の更新(local mapping)については、以下の文献1~5をそれぞれ参照されたい。 The position estimating unit 14 estimates the position of the photographing unit 13 using the photographed image acquired by the photographing unit 13 and the map in the movement area of the moving body 1 . With this position estimation, the position of the imaging unit 13 in the global coordinate system is estimated. This position may include orientation. The position estimation unit 14 may extract feature points from the captured image and perform position estimation by matching the extracted feature points with feature points included in the map. The map is also called an environment map, and may be stored in a recording medium (not shown), for example. The feature points may be, for example, FAST keypoints, SIFT keypoints, SURF keypoints, or other feature points used in position estimation using captured images. The matching may be performed by calculating the degree of similarity between feature descriptors of feature points identified in the captured image and feature descriptors of feature points included in the map. Since position estimation using such captured images is already known as visual-SLAM (Simultaneous Localization and Mapping), detailed description thereof will be omitted. Note that the position estimation unit 14 may or may not update the map using the feature points specified in the captured image. In this embodiment, a case where the position estimating unit 14 performs position estimation by visual-SLAM, that is, a case where the map is also updated will be mainly described. Also, when the visual-SLAM is ORB-SLAM, the feature points included in the map may be, for example, map points or feature points included in keyframes. For FAST keypoints, SIFT keypoints, SURF keypoints, feature points in ORB-SLAM, position estimation (tracking) in ORB-SLAM, and map updating (local mapping), see the following documents 1 to 5, respectively. want to be

文献1:Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
文献2:D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60(2), pp. 91-110.
文献3:H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110(3), pp. 346-359.
文献4:Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
文献5:R. Mur-Artal, J.M. Montiel, J.D. Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.
Reference 1: Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
Reference 2: D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60(2), pp. 91-110.
Reference 3: H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110(3), pp. 346- 359.
Reference 4: Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
Reference 5: R. Mur-Artal, JM Montiel, JD Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.

現在位置取得部15は、位置推定部14によって推定された撮影部13の位置を用いて、移動体1の現在位置を取得する。マニピュレータ制御部12によって、マニピュレータ11の各関節における角度が管理されており、マニピュレータ11における撮影部13の装着位置は既知であるため、現在位置取得部15は、順運動学によって移動体1における撮影部13の位置を知ることができる。その撮影部13の位置は、例えば、移動体1のローカル座標系における位置であってもよい。したがって、位置推定部14によって取得されたグローバル座標系における撮影部13の位置と、移動体1における撮影部13の位置とを用いて、現在位置取得部15は、グローバル座標系における移動体1の現在位置を取得することができる。その現在位置は、例えば、移動体1の所定の箇所(例えば、重心位置や、設計者があらかじめ決めた位置など)のグローバル座標系における位置であってもよい。この現在位置も、向きを含んでいてもよい。 The current position acquisition unit 15 acquires the current position of the moving body 1 using the position of the imaging unit 13 estimated by the position estimation unit 14 . The angle of each joint of the manipulator 11 is managed by the manipulator control unit 12, and the mounting position of the imaging unit 13 on the manipulator 11 is known. The position of the part 13 can be known. The position of the imaging unit 13 may be, for example, the position in the local coordinate system of the moving body 1 . Therefore, using the position of the imaging unit 13 in the global coordinate system acquired by the position estimating unit 14 and the position of the imaging unit 13 in the mobile object 1, the current position acquisition unit 15 obtains the position of the mobile object 1 in the global coordinate system. You can get the current position. The current position may be, for example, a position in the global coordinate system of a predetermined location of the moving body 1 (for example, a position of the center of gravity, a position predetermined by the designer, etc.). This current position may also include orientation.

移動機構16は、移動体1を移動させる。移動機構16は、例えば、移動体1を全方向に移動できるものであってもよく、または、そうでなくてもよい。全方向に移動できるとは、任意の方向に移動できることである。移動機構16は、例えば、走行部(例えば、車輪など)と、その走行部を駆動する駆動手段(例えば、モータやエンジンなど)とを有していてもよい。また、移動機構16は、車輪等の速度を取得できる機構、例えば、エンコーダ等を有していてもよい。なお、移動機構16が、移動体1を全方向に移動できるものである場合には、その走行部は、全方向移動車輪(例えば、オムニホイール、メカナムホイールなど)であってもよい。この移動機構16としては、公知のものを用いることができるため、その詳細な説明を省略する。 The moving mechanism 16 moves the moving body 1 . The moving mechanism 16 may, for example, move the moving body 1 in all directions, or may not. Being able to move in all directions means being able to move in any direction. The moving mechanism 16 may have, for example, a traveling portion (eg, wheels) and a driving means (eg, a motor, an engine, etc.) that drives the traveling portion. Further, the moving mechanism 16 may have a mechanism capable of acquiring the speed of wheels, for example, an encoder. In addition, when the moving mechanism 16 can move the moving body 1 in all directions, the traveling part may be an omnidirectional moving wheel (for example, an omni wheel, a mecanum wheel, etc.). Since a known mechanism can be used as the moving mechanism 16, detailed description thereof will be omitted.

移動制御部17は、現在位置取得部15によって取得された現在位置を用いて移動機構16を制御することによって、移動体1の移動を制御する。移動の制御は、移動体1の移動の向きや、移動の開始・停止などの制御であってもよい。例えば、移動経路が設定されている場合には、移動制御部17は、移動体1がその移動経路に沿って移動するように、移動機構16を制御してもよい。より具体的には、移動制御部17は、現在位置取得部15によって取得される現在位置が、その移動経路に沿ったものになるように、移動機構16を制御してもよい。また、移動制御部17は、地図を用いて、移動の制御を行ってもよい。移動制御部17による移動機構16の制御は公知であるため、その詳細な説明を省略する。 The movement control unit 17 controls movement of the moving body 1 by controlling the movement mechanism 16 using the current position acquired by the current position acquisition unit 15 . The control of the movement may be control of the direction of movement of the mobile body 1, start/stop of movement, and the like. For example, when a movement route is set, the movement control unit 17 may control the movement mechanism 16 so that the moving body 1 moves along the movement route. More specifically, the movement control section 17 may control the movement mechanism 16 so that the current position acquired by the current position acquisition section 15 is along the movement route. Further, the movement control unit 17 may control movement using a map. Since control of the movement mechanism 16 by the movement control unit 17 is well known, detailed description thereof will be omitted.

取得部18は、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する。撮影画像が位置の推定に適しているかどうかは、その撮影画像を用いてより精度の高い位置を推定できるかどうかを意味していると考えてもよい。適合情報は、例えば、後述するように、撮影画像や、移動体1における直後の移動制御の内容、撮影画像の特徴点と地図の特徴点とのマッチングの状況等に応じて取得されてもよい。 The acquisition unit 18 acquires matching information indicating whether the captured image is suitable for position estimation. Whether or not a captured image is suitable for position estimation may be considered to mean whether or not the captured image can be used to estimate a position with higher accuracy. For example, as will be described later, the matching information may be acquired according to the photographed image, the content of the movement control immediately after the moving body 1, the matching situation between the feature points of the photographed image and the feature points of the map, and the like. .

例えば、撮影画像において露出がオーバーとなる場合、すなわち撮影画像において白とびが発生している場合には、その撮影画像において特徴点を特定することが困難になるため、その撮影画像は位置の推定に適していないことになる。したがって、適合情報は、撮影画像の輝度の代表値を含んでいてもよい。その代表値は、例えば、平均値や中央値、最小値などであってもよい。取得部18は、例えば、撮影画像に含まれる各画素の輝度値を取得し、その取得した複数の輝度値の代表値を取得してもよい。撮影画像の輝度値の代表値があらかじめ決められた閾値よりも大きい場合には、その撮影画像は、位置の推定に適していないと判断されてもよい。その撮影画像は、露出オーバーになっていると考えられるからである。 For example, if the captured image is overexposed, that is, if the captured image has blown out highlights, it becomes difficult to identify the feature points in the captured image. is not suitable for Therefore, the matching information may include the representative value of the brightness of the captured image. The representative value may be, for example, an average value, a median value, or a minimum value. For example, the obtaining unit 18 may obtain the luminance value of each pixel included in the captured image and obtain a representative value of the plurality of obtained luminance values. If the representative value of the luminance values of the captured image is greater than a predetermined threshold value, the captured image may be determined not to be suitable for position estimation. This is because the captured image is considered to be overexposed.

また、例えば、移動体1が旋回する場合に水平方向の撮影を行っていると、撮影画像を用いた位置推定において適切なトラッキングを行うことができなくなることがある。そのため、移動体1が旋回を行う際に撮影された水平方向の撮影画像は、位置推定に適していないことになる。したがって、適合情報は、移動機構16による直後の移動が旋回であるかどうかを示す旋回情報を含んでいてもよい。その旋回情報は、直後の移動が旋回であるかどうかを示すフラグ的な情報であってもよく、直後の移動が旋回であるかどうかを判断するための移動に関する詳細な情報、例えば、進行方向の変化のスピード(角速度)や進行方向の変化の程度(角度など)を示す情報であってもよい。 Further, for example, when the moving body 1 turns, if the image is taken in the horizontal direction, it may not be possible to perform appropriate tracking in estimating the position using the imaged image. Therefore, the horizontal image captured when the moving body 1 turns is not suitable for position estimation. Accordingly, the fit information may include turning information indicating whether the subsequent movement by the moving mechanism 16 is turning. The turning information may be flag-like information indicating whether or not the immediately following movement is turning. It may be information indicating the speed of change (angular velocity) or the degree of change in the traveling direction (angle, etc.).

具体的には、取得部18は、移動体1の今後の移動において、あらかじめ決められた時間間隔(例えば、1秒や3秒など)以内に、進行方向があらかじめ決められた閾値の角度(例えば、80度や90度、120度、150度など)以上変化する場合に、今後の移動が旋回であると判断して、直後の移動が旋回であることを示す旋回情報を取得してもよい。 Specifically, in the future movement of the moving body 1, the acquisition unit 18 determines that the traveling direction is at a predetermined threshold angle (e.g., , 80 degrees, 90 degrees, 120 degrees, 150 degrees, etc.), it may be determined that the subsequent movement is a turn, and turn information indicating that the immediately following movement will be a turn may be acquired. .

図4(a)、図4(b)は、上面視において移動体1の進行方向の変化を示す図である。例えば、移動体1の今後の進行方向が図4(a)で示される矢印A1~A5のように順番に変化する場合に、取得部18は、移動機構16による直後の移動が旋回であることを示す旋回情報を取得してもよい。なお、そのような旋回が、所定の時間間隔以内に行われる場合に、今後の移動が旋回であると判断されてもよい。また、図4(a)では、旋回半径が0である旋回について示しているが、図4(b)で示されるように、旋回半径が0でない旋回であっても、上記の条件が満たされる場合に、今後の移動が旋回であると判断されてもよい。所定の時間間隔以内に所定の角度以上、進行方向が変化した場合には、旋回半径に関わらず、水平方向の画像を用いた位置推定におけるトラッキングが困難になるからである。なお、図4(b)では、経路R1に沿って移動体1が移動し、矢印A6~A8のように進行方向が順番に変化することを示している。また、取得部18は、今後の移動における進行方向等を、例えば、移動制御部17から取得してもよく、または、移動経路や現在位置等を用いて算出してもよい。また、移動制御部17は、現在位置に応じて移動制御を行うため、直近の所定期間の移動に関する情報のみを有していることもある。そのような場合には、取得部18は、移動制御部17が有している情報において、今後の進行方向の角度変化が閾値の角度以上である場合に、今後の移動が旋回であると判断してもよい。また、旋回情報によって、直後に旋回の行われることが示される場合には、撮影画像が位置の推定に適していないと判断されてもよい。旋回時に撮影される水平方向の撮影画像は、トラッキングを行うのに好適ではないからである。 FIGS. 4A and 4B are diagrams showing changes in the traveling direction of the moving body 1 when viewed from above. For example, when the future traveling direction of the moving body 1 changes in order as indicated by arrows A1 to A5 shown in FIG. You may acquire turning information which shows. It should be noted that if such a turn is made within a predetermined time interval, it may be determined that the future movement is a turn. Also, FIG. 4(a) shows a turn with a turning radius of 0, but as shown in FIG. 4(b), the above conditions are satisfied even if the turning radius is not 0. If so, it may be determined that the upcoming movement is a turn. This is because, if the traveling direction changes by a predetermined angle or more within a predetermined time interval, tracking in position estimation using horizontal images becomes difficult regardless of the turning radius. Note that FIG. 4B shows that the moving body 1 moves along the route R1 and the direction of travel changes in order as indicated by arrows A6 to A8. Further, the acquisition unit 18 may acquire, for example, the traveling direction of future movement from the movement control unit 17, or may calculate the movement route, the current position, or the like. In addition, since the movement control unit 17 performs movement control according to the current position, it may have only information on movement during the most recent predetermined period. In such a case, the acquisition unit 18 determines that the future movement is a turn when the change in the angle of the direction of travel in the future is equal to or greater than the threshold angle in the information held by the movement control unit 17. You may Further, if the turn information indicates that the vehicle will turn immediately, it may be determined that the captured image is not suitable for position estimation. This is because a horizontal captured image captured during turning is not suitable for tracking.

また、例えば、位置推定で用いられる地図上の特徴点に対応する物体と、撮影部13との間に人間などの障害物が存在する場合には、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの程度が低下することになり、その結果、位置推定の精度が低下することになる。したがって、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでいてもよい。図5は、撮影画像において抽出された特徴点と、地図に含まれる特徴点とのマッチング関係を示す図である。 Further, for example, when an obstacle such as a human exists between an object corresponding to a feature point on the map used for position estimation and the photographing unit 13, the feature point extracted from the photographed image and the map , the degree of matching with the feature points included in is degraded, and as a result, the accuracy of position estimation is degraded. Therefore, the match information may include ratio information indicating the ratio of matching between the feature points extracted from the captured image and the feature points included in the map. FIG. 5 is a diagram showing a matching relationship between feature points extracted from a captured image and feature points included in a map.

例えば、図5(a)で示されるように、地図に特徴点A~Dが含まれており、撮影画像において特徴点a~dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量(特徴記述子)を用いたマッチングによって、撮影画像の特徴点a~dは、それぞれ地図の特徴点A~Dに対応することになったとする。そのマッチングは、例えば、visual-SLAMによる位置推定のために位置推定部14によって行われてもよい。図5(a)の場合には、撮影画像から4個の特徴点が抽出され、そのすべての特徴点が地図に含まれる特徴点とマッチングしているため、割合情報は1または100%となる。 For example, as shown in FIG. 5A, it is assumed that the map includes feature points A to D and the feature points a to d are specified in the captured image. Further, by matching using feature amounts (feature descriptors) between the feature points specified in the captured image and the feature points included in the map, the feature points a to d of the captured image are matched to the feature points A to d of the map, respectively. Suppose we are to deal with D. The matching may be performed by the position estimator 14 for position estimation by visual-SLAM, for example. In the case of FIG. 5(a), four feature points are extracted from the captured image, and all of the feature points are matched with feature points included in the map, so the ratio information is 1 or 100%. .

一方、図5(b)で示されるように、地図に特徴点A~Dが含まれており、撮影画像において、特徴点a,dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量を用いたマッチングによって、撮影画像の特徴点a,dは、それぞれ地図の特徴点A,Dに対応することになったとする。なお、図5(b)では、地図には特徴点B,Cも含まれている。したがって、本来であれば、地図の特徴点B,Cに対応する特徴点b,cが撮影画像から抽出されるべきであるが、その抽出が行われなかったとする。すると、その撮影画像において、特徴点b,cは、抽出漏れの特徴点となる。なお、例えば、地図に含まれる特徴点Bを撮影画像に投影した位置の近傍に、特徴点Bの特徴量と類似した特徴量を有する特徴点が抽出されていない場合に、特徴点Bは抽出漏れであると判断されてもよい。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(b)の場合には、撮影画像から、地図の特徴点とマッチングする特徴点が2個抽出され、2個の抽出漏れの特徴点が存在するため、割合情報は0.5または50%となる。
割合情報=N1/(N1+N2)
但し、N1は、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数であり、N2は、その撮影画像に関する抽出漏れの特徴点の個数である。
On the other hand, as shown in FIG. 5B, assume that the map includes feature points A to D, and feature points a and d are specified in the captured image. Further, the feature points a and d of the photographed image correspond to the feature points A and D of the map, respectively, by matching using the feature amounts of the feature points specified in the photographed image and the feature points included in the map. Suppose it became In addition, in FIG. 5B, the map also includes feature points B and C. As shown in FIG. Therefore, originally, the feature points b and c corresponding to the feature points B and C of the map should be extracted from the photographed image, but the extraction is not performed. Then, in the photographed image, the feature points b and c are the feature points of missing extraction. Note that, for example, when a feature point having a feature amount similar to that of the feature point B is not extracted in the vicinity of the position where the feature point B included in the map is projected onto the captured image, the feature point B is extracted. It may be determined to be a leak. In this case, the ratio information may be calculated by the following equation. In addition, in the case of percentage, the value of the following formula may be multiplied by 100. In the case of FIG. 5B, two feature points that match the feature points of the map are extracted from the photographed image, and there are two feature points that are not extracted, so the ratio information is 0.5 or 50. %.
Ratio information = N1/(N1+N2)
However, N1 is the number of feature points that match feature points included in the map among the feature points extracted from the captured image, and N2 is the number of missing feature points for the captured image.

また、図5(c)で示されるように、抽出漏れの特徴点が存在する場合には、撮影画像から他の特徴点e,fが抽出されることもある。例えば、ORB-SLAMでは、撮影画像から抽出される特徴点(FASTキーポイント)の個数があらかじめ決められているため、その決められた個数となるまで、特徴点が抽出されることになる。そのような場合に、例えば、特徴点e,fが、地図の特徴点B,Cに対応する物体と、撮影部13との間に存在する人間などの障害物から取得されたとすると、その撮影画像の特徴点e,fに対応する地図上の特徴点は存在しないことになる。また、そのような場合には、特徴点a,dは、地図上の特徴点A,Dとマッチングするが、特徴点e,fは、地図上の特徴点とマッチングしないことになる。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(c)の場合には、撮影画像から4個の特徴点が抽出され、2個の特徴点が地図上の特徴点とマッチングするため、割合情報は0.5または50%となる。
割合情報=N1/N3
但し、N1は、上記のとおりであり、N3は、撮影画像から抽出された特徴点の個数である。
Also, as shown in FIG. 5C, when there is a feature point that has not been extracted, other feature points e and f may be extracted from the captured image. For example, in ORB-SLAM, the number of feature points (FAST keypoints) to be extracted from a captured image is predetermined, so feature points are extracted until the predetermined number is reached. In such a case, for example, if the feature points e and f are acquired from an obstacle such as a person existing between the object corresponding to the feature points B and C on the map and the photographing unit 13, the photographing There is no feature point on the map corresponding to the feature points e and f of the image. In such a case, feature points a and d match feature points A and D on the map, but feature points e and f do not match feature points on the map. In this case, the ratio information may be calculated by the following equation. In addition, in the case of percentage, the value of the following formula may be multiplied by 100. In the case of FIG. 5C, four feature points are extracted from the captured image, and two feature points are matched with feature points on the map, so the ratio information is 0.5 or 50%.
Ratio information = N1/N3
However, N1 is as described above, and N3 is the number of feature points extracted from the captured image.

このように、取得部18は、撮影画像から抽出された特徴点の個数(N3)や、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数(N1)、撮影画像に関する抽出漏れの特徴点の個数(N2)などを用いて割合情報を取得してもよい。割合情報は、上記の2個の式のうち、どちらによって算出されてもよく、また、他の式によって算出されてもよい。また、割合情報によって示される割合が所定の閾値より小さい場合には、撮影画像が位置の推定に適していないと判断されてもよい。撮影部13の撮影方向前方に、地図に含まれていない障害物が存在している可能性があるからである。 In this way, the acquisition unit 18 obtains the number (N3) of feature points extracted from the captured image, and the number (N1 ), the number (N2) of feature points that are not extracted regarding the captured image, or the like may be used to obtain the ratio information. The ratio information may be calculated by either of the above two formulas, or may be calculated by another formula. Also, if the ratio indicated by the ratio information is smaller than a predetermined threshold, it may be determined that the captured image is not suitable for position estimation. This is because there is a possibility that an obstacle that is not included in the map exists in front of the photographing unit 13 in the photographing direction.

なお、ここでは、人間などの移動し得る障害物が移動体1の移動領域に存在することによって、割合情報が低下する場合について説明したが、割合情報の低下は、それ以外の要因、例えば、逆光での撮影などによっても生じ得る。したがって、割合情報を用いた撮影方向の制御を行うことによって、逆光などの影響も低減することができることになる。 Here, the description has been given of the case where the ratio information is lowered due to the existence of a movable obstacle such as a human being in the movement area of the moving body 1. However, the ratio information is lowered due to other factors, such as It can also occur due to shooting with backlight. Therefore, by controlling the photographing direction using the ratio information, it is possible to reduce the influence of backlight and the like.

撮影方向制御部19は、取得部18によって取得された適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部13の撮影方向を変更させる。その撮影方向の変更は、撮影方向制御部19がマニピュレータ制御部12を制御することによって行われる。撮影方向を変更させる制御を行う場合には、例えば、撮影方向制御部19は、撮影部13の変更後の撮影方向を決定し、撮影部13の装着されているマニピュレータ11の箇所が、その撮影方向となるようにマニピュレータ制御部12に指示してもよい。マニピュレータ制御部12は、例えば、撮影部13の装着されているマニピュレータ11の箇所が、所定の撮影方向となるようにするための各関節の角度を逆運動学によって算出し、各関節がその算出した角度となるように、マニピュレータ11を制御してもよい。撮影方向の変更は、例えば、撮影部13の光軸の向きの変更であってもよく、撮影部13の光軸を平行移動させる場合などのように、撮影部13の位置の変更であってもよい。 The photographing direction control unit 19 uses the matching information acquired by the acquiring unit 18 to change the photographing direction of the photographing unit 13 so that a photographed image suitable for position estimation is photographed. The photographing direction is changed by the photographing direction control section 19 controlling the manipulator control section 12 . When performing control to change the imaging direction, for example, the imaging direction control unit 19 determines the imaging direction of the imaging unit 13 after the change, and the position of the manipulator 11 to which the imaging unit 13 is attached changes the imaging direction. The manipulator control unit 12 may be instructed to set the direction. The manipulator control unit 12 calculates, by inverse kinematics, the angle of each joint so that the part of the manipulator 11 to which the imaging unit 13 is attached is in a predetermined imaging direction. You may control the manipulator 11 so that it may become an angle. The change in the imaging direction may be, for example, a change in the direction of the optical axis of the imaging unit 13, or a change in the position of the imaging unit 13, such as when the optical axis of the imaging unit 13 is translated. good too.

適合情報に撮影画像の輝度の代表値が含まれる場合には、撮影方向制御部19は、撮影画像の輝度の代表値が所定の閾値より大きいときに、その代表値がより小さくなるように撮影方向を変更させてもよい。なお、撮影画像の輝度の代表値が所定の閾値より小さいときには、撮影方向制御部19は、撮影画像の輝度の代表値に応じた撮影方向の制御を行わなくてもよい。また、撮影画像の輝度の代表値が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる輝度の代表値が小さくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、輝度の代表値が閾値より小さくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。 When the matching information includes the representative value of the luminance of the captured image, the photographing direction control unit 19 controls the photographing so that the representative value of the luminance of the captured image becomes smaller when the representative value of the luminance of the captured image is larger than a predetermined threshold. You can change the direction. Note that when the representative value of the brightness of the captured image is smaller than the predetermined threshold value, the shooting direction control unit 19 does not have to control the shooting direction according to the representative value of the brightness of the captured image. Further, when the representative value of the brightness of the captured image is the same as the predetermined threshold value, the shooting direction control section 19 may or may not control the shooting direction. The change in the imaging direction may be, for example, a predetermined change, or a change through trial and error to reduce the representative value of luminance included in the matching information. In the latter case, the shooting direction control unit 19 changes the shooting direction, for example, randomly or according to a predetermined rule. may be terminated. Also, the predetermined change may be to change the photographing direction in the horizontal plane by turning the manipulator 11 . The turning angle may be determined to be, for example, 60 degrees or 90 degrees.

適合情報に旋回情報が含まれる場合には、撮影方向制御部19は、旋回情報によって、移動機構16による直後の移動が旋回であることが示されるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。なお、旋回情報によって、直後の移動が旋回であることが示されないときには、撮影方向制御部19は、旋回情報に応じた撮影方向の制御を行わなくてもよい。ここで、旋回情報が、直後の移動が旋回であるかどうかを示すフラグ的な情報である場合には、撮影方向制御部19は、旋回情報によって、直後の移動が旋回であるかどうかを知ることができる。一方、旋回情報が、進行方向の変化のスピードや進行方向の変化の程度を示す情報である場合には、撮影方向制御部19は、その旋回情報を用いて、直後の移動が旋回であるかどうかを判断し、旋回であるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。具体的には、撮影方向制御部19は、進行方向の変化のスピードが閾値よりも大きく、進行方向の変化の角度が閾値よりも大きい場合に、直後の移動が旋回であると判断してもよい。旋回軸方向は通常、鉛直方向であるため、撮影方向制御部19は、直後の移動が旋回である場合に、例えば、撮影部13が上方や下方等を撮影するように撮影方向を変更させてもよく、斜め上方や斜め下方を撮影するように撮影方向を変更させてもよい。上方や下方とは、鉛直方向における上方や下方である。したがって、撮影部13が上方を撮影するように撮影方向が変更された場合には、撮影部13の光軸が略鉛直方向となり、移動空間の天井等を撮影するようになってもよい。なお、通常、旋回は水平面内で行われるため、旋回時に撮影部13の光軸が略鉛直方向となっている場合には、撮影部13の光軸が旋回軸方向と略一致することになる。そのため、旋回時には撮影画像の角度が変化するだけになり、結果として、特徴点のトラッキングがより容易になる。また、旋回情報に応じた撮影方向の変更は、その時点における撮影方向が水平方向である場合に行われてもよい。その時点における撮影方向が鉛直方向に近い場合には、直後の移動が旋回であるとしても、撮影方向を変更する必要性がないからである。 If the compatibility information includes turning information, the photographing direction control unit 19 determines that the optical axis of the photographing unit 13 is the turning axis when the turning information indicates that the movement immediately after the moving mechanism 16 is turning. The shooting direction may be changed so as to approach the direction. Note that when the turning information does not indicate that the immediately following movement is turning, the imaging direction control unit 19 does not need to control the imaging direction according to the turning information. Here, if the turning information is flag-like information indicating whether or not the immediately following movement is turning, the photographing direction control unit 19 knows from the turning information whether or not the immediately following movement is turning. be able to. On the other hand, if the turning information is information indicating the speed of change in the direction of travel or the degree of change in the direction of travel, the photographing direction control unit 19 uses the turning information to determine whether the movement immediately after is a turn. It may be determined whether or not, and when turning, the photographing direction may be changed so that the optical axis of the photographing unit 13 approaches the direction of the turning axis. Specifically, when the speed of change in the direction of travel is greater than the threshold and the angle of change in the direction of travel is greater than the threshold, the imaging direction control unit 19 determines that the immediately following movement is a turn. good. Since the turning axis direction is usually the vertical direction, the imaging direction control unit 19 changes the imaging direction so that the imaging unit 13 can, for example, shoot upward or downward when the movement immediately after is turning. Alternatively, the photographing direction may be changed so as to photograph obliquely upward or obliquely downward. Above and below are above and below in the vertical direction. Therefore, when the photographing direction is changed so that the photographing unit 13 photographs upward, the optical axis of the photographing unit 13 becomes substantially vertical, and the ceiling or the like of the moving space may be photographed. In addition, since turning is normally performed in a horizontal plane, if the optical axis of the photographing unit 13 is substantially vertical during turning, the optical axis of the photographing unit 13 substantially coincides with the direction of the turning axis. . Therefore, when turning, only the angle of the captured image changes, and as a result, the tracking of the feature point becomes easier. Also, the change of the shooting direction according to the turning information may be performed when the shooting direction at that time is the horizontal direction. This is because when the imaging direction at that time is close to the vertical direction, there is no need to change the imaging direction even if the subsequent movement is a turn.

適合情報に割合情報が含まれる場合には、撮影方向制御部19は、割合情報によって示される割合が所定の閾値より小さいときに、割合がより大きくなるように撮影方向を変更させてもよい。なお、割合情報によって示される割合が所定の閾値より大きいときには、撮影方向制御部19は、割合情報に応じた撮影方向の制御を行わなくてもよい。また、割合情報によって示される割合が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる割合情報によって示される割合が大きくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、割合情報が閾値より大きくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。また、あらかじめ決められた変更は、撮影部13の位置が高くなるように撮影方向を変更させることであってもよい。障害物によって、地図に含まれる特徴点に対応する物体を撮影できていない場合には、その障害物よりも高い位置から撮影することによって障害物の向こう側に存在する物体を撮影できるようになるため、撮影位置を高くすることは好適であると考えられる。なお、撮影部13の位置が高くなるように撮影方向を変更する際には、撮影の方位角方向が維持されるように、すなわち、撮影部13の光軸が平行移動となるように制御されてもよい。光軸が平行移動となるように撮影部13の位置を高くすることによって、例えば、撮影部13が進行方向を撮影している場合には、その進行方向の撮影を継続した状態において、障害物の影響を低減することができるようになる。 When ratio information is included in matching information, the shooting direction control unit 19 may change the shooting direction so that the ratio becomes larger when the ratio indicated by the ratio information is smaller than a predetermined threshold. Note that when the ratio indicated by the ratio information is larger than a predetermined threshold, the shooting direction control unit 19 does not have to control the shooting direction according to the ratio information. Further, when the ratio indicated by the ratio information is the same as the predetermined threshold value, the shooting direction control unit 19 may or may not control the shooting direction. The change in the imaging direction may be, for example, a predetermined change, or a trial-and-error change to increase the ratio indicated by the ratio information included in the matching information. In the latter case, the shooting direction control unit 19 changes the shooting direction, for example, randomly or according to a predetermined rule, and ends the shooting direction change when the ratio information becomes larger than the threshold as a result. may Also, the predetermined change may be to change the photographing direction in the horizontal plane by turning the manipulator 11 . The turning angle may be determined to be, for example, 60 degrees or 90 degrees. Also, the predetermined change may be to change the shooting direction so that the position of the shooting unit 13 is higher. If the object corresponding to the feature point included in the map cannot be photographed due to an obstacle, the object existing on the other side of the obstacle can be photographed by photographing from a position higher than the obstacle. Therefore, it is considered preferable to raise the photographing position. When changing the imaging direction so as to raise the position of the imaging unit 13, control is performed so that the azimuth direction of imaging is maintained, that is, the optical axis of the imaging unit 13 is moved in parallel. may By elevating the position of the photographing unit 13 so that the optical axis moves in parallel, for example, when the photographing unit 13 is photographing in the direction of travel, obstacles can be detected while photographing in the direction of travel is continued. It becomes possible to reduce the influence of

撮影方向制御部19によって撮影方向が変更される際には、適切なトラッキングを実現できる速度で、撮影角度や撮影位置が変更されてもよい。そのようにすることで、撮影方向を変更する際に自己位置を見失わないようにすることができる。 When the shooting direction is changed by the shooting direction control unit 19, the shooting angle and shooting position may be changed at a speed that can realize appropriate tracking. By doing so, it is possible to keep track of the self position when changing the shooting direction.

また、適合情報に応じて撮影方向が変更された後に、所定の期間の経過等に応じて、撮影方向を元に戻すようにしてもよい。例えば、撮影画像の輝度の代表値が大きいことや、割合情報によって示される割合が小さいことに応じて撮影方向が変更された場合には、撮影方向制御部19は、所定の期間の経過後に撮影方向を元に戻してもよい。また、例えば、直後の移動が旋回であることに応じて撮影方向が変更された場合には、撮影方向制御部19は、適合情報に含まれる旋回情報によって、直後の移動が旋回でないことが示されるようになった後に、撮影方向を元に戻してもよい。 Further, after the shooting direction is changed according to the conformity information, the shooting direction may be returned to the original direction after a predetermined period of time has passed. For example, when the photographing direction is changed in accordance with the fact that the representative value of the brightness of the photographed image is large or the ratio indicated by the ratio information is small, the photographing direction control unit 19 controls the photographing after a predetermined period of time has elapsed. You can reverse the direction. Further, for example, when the imaging direction is changed in accordance with the fact that the immediately following movement is turning, the imaging direction control unit 19 indicates that the immediately following movement is not turning by means of the turning information included in the matching information. You may return to the original shooting direction after you become able to do so.

次に、移動体1の動作について図3のフローチャートを用いて説明する。
(ステップS101)現在位置取得部15は、現在位置を取得するかどうか判断する。そして、現在位置を取得する場合には、ステップS102に進み、そうでない場合には、ステップS105に進む。現在位置取得部15は、例えば、現在位置を取得すると定期的に判断してもよい。
Next, the operation of the moving body 1 will be explained using the flowchart of FIG.
(Step S101) The current position acquisition unit 15 determines whether to acquire the current position. If the current position is to be acquired, the process proceeds to step S102; otherwise, the process proceeds to step S105. The current position acquisition unit 15 may periodically determine, for example, to acquire the current position.

(ステップS102)撮影部13は、その時点の撮影方向において、移動体1の周囲の撮影画像を取得する。なお、取得された撮影画像は、図示しない記録媒体で記憶されてもよい。 (Step S102) The photographing unit 13 acquires a photographed image of the surroundings of the moving body 1 in the photographing direction at that time. Note that the acquired captured image may be stored in a recording medium (not shown).

(ステップS103)位置推定部14は、取得された撮影画像から特徴点を抽出し、その抽出した特徴点と地図の特徴点とを用いて撮影部13の位置を推定する。また、位置推定部14は、撮影画像から抽出した特徴点を用いて地図を更新してもよい。なお、例えば、位置の推定は、撮影画像の取得ごとに行われ、地図の更新は、撮影画像の取得が何回か繰り返されるごとに行われてもよい。したがって、位置推定部14は、例えば、地図を更新すると判断した場合に、抽出した特徴点を用いた地図の更新を行ってもよい。なお、その推定された位置は、図示しない記録媒体で記憶されてもよい。 (Step S103) The position estimating unit 14 extracts feature points from the acquired photographed image, and estimates the position of the photographing unit 13 using the extracted feature points and the feature points of the map. Also, the position estimation unit 14 may update the map using feature points extracted from the captured image. Note that, for example, position estimation may be performed each time a photographed image is acquired, and map updating may be performed each time the photographed image is acquired several times. Therefore, the position estimation unit 14 may update the map using the extracted feature points, for example, when it determines to update the map. The estimated position may be stored in a recording medium (not shown).

(ステップS104)現在位置取得部15は、マニピュレータ11の各軸の角度と、位置推定部14によって取得された撮影部13の位置とを用いて、移動体1の現在位置を取得する。なお、その取得された現在位置は、図示しない記録媒体で記憶されてもよい。そして、ステップS101に戻る。 (Step S<b>104 ) The current position acquisition unit 15 acquires the current position of the moving body 1 using the angle of each axis of the manipulator 11 and the position of the imaging unit 13 acquired by the position estimation unit 14 . The acquired current position may be stored in a recording medium (not shown). Then, the process returns to step S101.

(ステップS105)取得部18は、適合情報を取得するかどうか判断する。そして、適合情報を取得する場合には、ステップS106に進み、そうでない場合には、ステップS101に戻る。取得部18は、例えば、適合情報を取得すると定期的に判断してもよい。なお、通常、現在位置の取得処理の時間間隔よりも、適合情報の取得処理の時間間隔の方が長いことになる。 (Step S105) The acquisition unit 18 determines whether or not to acquire matching information. If the matching information is to be acquired, the process proceeds to step S106; otherwise, the process returns to step S101. The acquiring unit 18 may periodically determine, for example, to acquire matching information. It should be noted that the time interval for acquiring matching information is usually longer than the time interval for acquiring the current position.

(ステップS106)取得部18は、適合情報を取得する。例えば、取得部18は、撮影画像を用いて輝度値の代表値を取得してもよく、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得してもよく、位置推定部14による撮影画像と地図とのマッチング結果を参照することによって割合情報を取得してもよい。なお、その取得された適合情報は、図示しない記録媒体で記憶されてもよい。 (Step S106) The acquisition unit 18 acquires matching information. For example, the acquisition unit 18 may acquire the representative value of the luminance value using the captured image, and acquires the turning information by referring to the contents of future movement control managed by the movement control unit 17. Alternatively, the ratio information may be obtained by referring to the result of matching between the captured image and the map by the position estimation unit 14 . The acquired compatibility information may be stored in a recording medium (not shown).

(ステップS107)撮影方向制御部19は、ステップS106で取得された適合情報を用いて、撮影方向の制御が必要であるかどうか判断する。そして、撮影方向の制御が必要である場合には、ステップS108に進み、そうでない場合には、ステップS101に戻る。なお、撮影方向制御部19は、例えば、適合情報によって、撮影画像の輝度の代表値が大きいことが示される場合や、旋回情報によって、直後の移動が旋回であることが示される場合、割合情報によって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低いことが示される場合に、撮影方向の制御が必要であると判断してもよい。 (Step S107) The shooting direction control unit 19 uses the compatibility information acquired in step S106 to determine whether or not the shooting direction needs to be controlled. If it is necessary to control the photographing direction, the process proceeds to step S108. If not, the process returns to step S101. Note that, for example, when the matching information indicates that the representative value of the brightness of the captured image is large, or when the turning information indicates that the immediately following movement is turning, the ratio information indicates that the ratio of matching between the feature points of the captured image and the feature points of the map is low, it may be determined that the control of the capturing direction is necessary.

(ステップS108)撮影方向制御部19は、マニピュレータ制御部12を制御することによって、撮影部13の撮影方向を変更させる。具体的には、撮影画像の輝度の代表値が大きいことが示される場合には、撮影方向制御部19は、マニピュレータ11を旋回させることなどによって、その代表値が小さくなるように撮影方向を変更してもよい。また、直後の移動が旋回である場合には、撮影方向制御部19は、撮影部13が天井などの上方を撮影するように撮影方向を変更してもよい。また、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低い場合には、撮影方向制御部19は、撮影位置が高くなるように撮影方向の変更等を行ってもよい。そして、ステップS101に戻る。 (Step S<b>108 ) The imaging direction control unit 19 changes the imaging direction of the imaging unit 13 by controlling the manipulator control unit 12 . Specifically, when it is indicated that the representative value of the brightness of the photographed image is large, the photographing direction control unit 19 rotates the manipulator 11 to change the photographing direction so that the representative value becomes small. You may Further, when the movement immediately after is turning, the photographing direction control unit 19 may change the photographing direction so that the photographing unit 13 photographs the upper part such as the ceiling. Further, when the ratio of matching between the feature points of the photographed image and the feature points of the map is low, the photographing direction control section 19 may change the photographing direction so as to raise the photographing position. Then, the process returns to step S101.

なお、図3のフローチャートには含まれていないが、現在位置取得部15によって取得された現在位置を用いた移動制御が、移動制御部17によって行われるものとする。また、マニピュレータ11による作業を行う位置への移動が完了した場合には、マニピュレータ制御部12によってマニピュレータ11が制御されることにより、所定の作業、例えば、溶接や塗装、組み立て等が行われてもよい。 Although not included in the flowchart of FIG. 3, movement control using the current position acquired by the current position acquisition section 15 is performed by the movement control section 17 . Further, when the movement of the manipulator 11 to the work position is completed, the manipulator 11 is controlled by the manipulator control unit 12 so that predetermined work such as welding, painting, and assembly can be performed. good.

また、図3のフローチャートでは、適合情報に種々の情報が含まれており、その適合情報を一括して取得した後に、その適合情報に応じた撮影方向の制御の要否判断を一括して行う場合について説明したが、そうでなくてもよい。適合情報に含まれる情報の取得と、その取得された情報に応じた撮影方向の制御の要否判断とを繰り返して行うようにしてもよい。その場合には、例えば、まず、旋回情報の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、撮影画像の輝度の代表値の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、割合情報の取得と、それに応じた撮影方向の制御の要否判断を行うようにしてもよい。なお、撮影方向の制御の要否判断のいずれかにおいて制御が必要であると判断された場合には、必要であると判断された制御を行うと共に、ステップS101に戻るようにしてもよい。 In addition, in the flowchart of FIG. 3, various information is included in the compatibility information, and after acquiring the compatibility information collectively, it is collectively determined whether or not to control the shooting direction according to the compatibility information. Although the case has been described, it does not have to be. Acquisition of information included in the matching information and determination of necessity of control of the imaging direction according to the acquired information may be repeatedly performed. In such a case, for example, first, turning information is acquired, and a determination is made as to whether or not control of the shooting direction is necessary. It is also possible to determine whether control of the shooting direction is necessary or not, and when control is not required, acquire ratio information and determine whether control of the shooting direction is necessary or not. It should be noted that if it is determined that the control is necessary in any of the determinations of whether or not control of the imaging direction is necessary, the control that is determined to be necessary may be performed and the process may return to step S101.

また、適合情報に応じて撮影方向が変更された後の所定の期間の経過等に応じて、撮影方向を元に戻す場合には、ステップS107において、Noと判断され、かつ、撮影方向を戻すための条件が満たされるときに、撮影方向制御部19は、撮影方向を元に戻す制御を行ってもよい。また、図3のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In addition, if the shooting direction is to be returned to the original direction after a predetermined period of time has elapsed after the shooting direction has been changed in accordance with the compatibility information, it is determined No in step S107, and the shooting direction is returned. The shooting direction control unit 19 may perform control to restore the shooting direction when the condition for is satisfied. Further, the order of processing in the flowchart of FIG. 3 is an example, and the order of each step may be changed as long as the same result can be obtained. In addition, in the flowchart of FIG. 3, the processing ends when the power is turned off or an interrupt for processing end occurs.

次に、本実施の形態による移動体1の動作について、具体例を用いて説明する。この具体例では、図6で示される経路R2に沿って移動体1が位置P1~P6の順に移動するものとする。また、各位置P1~P6を移動体1が移動している際の撮影方向を矢印によって示している。また、この具体例では、適合情報に応じた撮影方向の制御が行われる場合以外は、進行方向の撮影が行われるものとする。 Next, the operation of the moving body 1 according to this embodiment will be described using a specific example. In this specific example, it is assumed that the moving object 1 moves in order of positions P1 to P6 along the route R2 shown in FIG. Also, arrows indicate shooting directions when the moving body 1 is moving among the positions P1 to P6. Also, in this specific example, it is assumed that the photographing is performed in the traveling direction except when the photographing direction is controlled according to the matching information.

まず、移動体1が位置P1を移動している際に、現在位置を取得するタイミングになったとすると、矢印で示される進行方向と一致する撮影方向、すなわち図6における上向きの撮影が行われ、その撮影画像と地図とを用いて撮影部13に関する位置推定が行われ、その位置推定結果を用いて、移動体1の現在位置が取得される(ステップS101~S104)。その現在位置は、移動制御部17による移動制御に用いられることになる。なお、その後も、撮影や位置推定、現在位置の取得が繰り返されることになる。 First, when it is time to acquire the current position while the moving body 1 is moving at the position P1, shooting is performed in a shooting direction that matches the traveling direction indicated by the arrow, that is, upward in FIG. Using the captured image and the map, the position of the photographing unit 13 is estimated, and the current position of the moving body 1 is acquired using the position estimation result (steps S101 to S104). The current position is used for movement control by the movement control section 17 . It should be noted that after that, the photographing, the position estimation, and the acquisition of the current position will be repeated.

また、適合情報を取得するタイミングとなると、取得部18は、そのときの最新の撮影画像を用いて輝度の代表値を取得し、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得し、最新の撮影画像と地図とのマッチング結果を用いて割合情報を取得する(ステップS105,S106)。なお、位置P1で取得された撮影画像の輝度の代表値は所定の閾値より小さく、また、旋回情報によって直後の移動が旋回ではないことが示され、さらに、割合情報によって示される割合は所定の閾値より大きかったとする。すると、撮影方向制御部19は、撮影方向の制御は必要ないと判断し、撮影方向の制御は行われないことになる(ステップS107)。その結果、進行方向の撮影が継続されることになる。 Further, when it comes time to acquire matching information, the acquiring unit 18 acquires a representative luminance value using the latest captured image at that time, and determines the content of future movement control managed by the movement control unit 17. The turning information is obtained by referring to it, and the ratio information is obtained using the result of matching between the latest photographed image and the map (steps S105 and S106). Note that the representative value of the luminance of the captured image acquired at the position P1 is smaller than a predetermined threshold value, the turning information indicates that the movement immediately after is not turning, and the ratio indicated by the ratio information is a predetermined value. Suppose it is larger than the threshold. Then, the photographing direction control unit 19 determines that the photographing direction control is unnecessary, and does not perform the photographing direction control (step S107). As a result, the photographing in the traveling direction is continued.

その後、移動体1が位置P2に到達した際に、進行方向左側に存在する窓から入射した外光によって撮影画像の露出がオーバーになっており、その際に取得された撮影画像の輝度の代表値は、所定の閾値よりも大きかったとする(ステップS105,S106)。すると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、マニピュレータ制御部12を介して撮影方向を90度だけ旋回させる(ステップS107,S108)。その旋回によって、図6で示されるように、撮影方向は右向きとなる。その結果、撮影部13に入射する外光が逆光から順光になり、適正露出での撮影を行うことができるようになる。なお、所定の時間が経過すると、図6の位置P3で示されるように、撮影方向制御部19は、撮影方向を標準設定である進行方向に戻す。仮に図6よりも窓の範囲が広く、位置P3においても外光の影響があるとすると、撮影方向が標準設定に戻された後に、再度、撮影画像の輝度の代表値が大きいと判断され、それに応じて撮影方向が図中右向きに変更されることになる。 After that, when the moving body 1 reaches the position P2, the photographed image is overexposed due to the external light entering from the window on the left side of the traveling direction, and the luminance of the photographed image acquired at that time is representative of the brightness of the photographed image. Assume that the value is greater than a predetermined threshold (steps S105 and S106). Then, the imaging direction control unit 19 determines that control of the imaging direction is necessary, and rotates the imaging direction by 90 degrees via the manipulator control unit 12 (steps S107 and S108). Due to the turning, the photographing direction becomes rightward as shown in FIG. As a result, the external light incident on the photographing unit 13 changes from backlight to front light, and photographing can be performed with appropriate exposure. After a predetermined period of time has elapsed, the photographing direction control unit 19 returns the photographing direction to the standard setting of the traveling direction, as indicated by position P3 in FIG. Assuming that the range of the window is wider than that in FIG. 6 and the influence of external light is also present at position P3, it is determined that the representative value of the brightness of the captured image is large again after the shooting direction is returned to the standard setting. Accordingly, the photographing direction is changed to the right in the drawing.

移動体1が位置P4に到達した際に、移動制御部17は、移動体1を90度旋回するように移動機構16を制御することになる。なお、この具体例では、80度以上の移動方向の変更が、旋回と判断される設定であるとする。すると、その移動制御の内容を参照することによって、取得部18は、直後の移動が旋回であることを示す旋回情報を取得する(ステップS106)。その旋回情報に応じて、撮影方向制御部19は、撮影方向の制御が必要であると判断して、撮影部13が垂直上方を撮影するようにマニピュレータ制御部12を制御する(ステップS107,S108)。そのため、位置推定部14は、その旋回が行われる際にも適切なトラッキングを行うことができ、旋回角度の適切に取得できると共に、自己位置を見失わないようにすることができる。なお、旋回が終了すると、直後の移動が旋回でないことを示す旋回情報が取得されるため、その旋回情報に応じて、撮影方向制御部19は、旋回後の進行方向、すなわち図中右側方向の撮影が行われるようにマニピュレータ制御部12を制御する。 When the moving body 1 reaches the position P4, the movement control unit 17 controls the moving mechanism 16 so that the moving body 1 turns 90 degrees. In this specific example, it is assumed that a change in the movement direction of 80 degrees or more is determined as turning. Then, by referring to the content of the movement control, the acquiring unit 18 acquires turning information indicating that the immediately following movement is turning (step S106). According to the turning information, the photographing direction control unit 19 determines that control of the photographing direction is necessary, and controls the manipulator control unit 12 so that the photographing unit 13 photographs vertically upward (steps S107 and S108). ). Therefore, the position estimator 14 can perform appropriate tracking even when the vehicle is turning, can appropriately acquire the turning angle, and can keep track of its own position. Note that when the turning is completed, turning information indicating that the movement immediately after is not turning is acquired. The manipulator control unit 12 is controlled so that photographing is performed.

その後、移動体1が位置P5を移動している際に、前方から人間Mが歩いてきたとする。その状況において、人間Mが、撮影部13と地図に含まれる特徴点に対応する物体との間に存在することになり、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下したとする。すると、取得部18は、マッチングの割合の低下した割合情報を取得する(ステップS105,S106)。その割合情報の示す割合は、所定の閾値より小さかったとすると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、撮影部13の位置が高くなるようにマニピュレータ制御部12を制御する。その結果、高いところからの撮影が行われるようになるため、人間Mの影響が少なくなり、撮影画像の特徴点と地図の特徴点とのマッチングの割合を増加させることができる。この場合にも、所定の時間が経過し、移動体1が位置P6に到達すると、撮影部13の高さは元に戻されることになる。 After that, while the moving object 1 is moving at the position P5, it is assumed that a person M walks from the front. In this situation, the human M is present between the photographing unit 13 and the object corresponding to the feature points included in the map, and the ratio of matching between the feature points of the captured image and the feature points of the map is reduced. and Then, the acquiring unit 18 acquires ratio information indicating a decrease in the matching ratio (steps S105 and S106). If the ratio indicated by the ratio information is smaller than the predetermined threshold, the shooting direction control unit 19 determines that control of the shooting direction is necessary, and controls the manipulator control unit 12 so that the position of the shooting unit 13 is raised. Control. As a result, since the photographing is performed from a high place, the influence of the human being M is reduced, and the ratio of matching between the feature points of the photographed image and the feature points of the map can be increased. In this case as well, when the moving body 1 reaches the position P6 after the predetermined time has passed, the height of the photographing unit 13 is restored.

以上のように、本実施の形態による移動体1によれば、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができる。その結果、現在位置の精度が向上することになり、より精度の高い移動を実現することができるようになる。また、撮影画像の輝度の代表値が適合情報に含まれていることによって、より適正な露出で撮影が行われるように制御することができる。また、旋回情報が適合情報に含まれていることによって、旋回時にも適切なトラッキングを行うことができる撮影を行うことができ、自己位置を見失わないようにすることができる。また、割合情報が適合情報に含まれていることによって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下しないようにすることができる。 As described above, according to the mobile object 1 according to the present embodiment, it is possible to obtain a captured image that is more suitable for position estimation by controlling the shooting direction using matching information. As a result, the accuracy of the current position is improved, and more accurate movement can be realized. Moreover, since the representative value of the brightness of the photographed image is included in the matching information, it is possible to perform control so that the photographing is performed with a more appropriate exposure. In addition, since the turning information is included in the matching information, it is possible to perform photographing with appropriate tracking even when turning, and to keep track of the own position. In addition, by including the ratio information in the match information, it is possible to prevent the ratio of matching between the feature points of the photographed image and the feature points of the map from decreasing.

なお、上記実施の形態においては、適合情報に、撮影画像の輝度の代表値と、旋回情報と、割合情報とが含まれる場合について主に説明したが、そうでなくてもよい。適合情報には、それら3個の情報のうち、少なくとも1個以上の情報が含まれていてもよい。また、適合情報には、それら以外の情報が含まれていてもよく、その情報を用いた撮影方向の制御が行われてもよい。 In the above-described embodiment, the case where the matching information includes the representative value of the luminance of the captured image, the turning information, and the ratio information has been mainly described, but this need not be the case. The matching information may include at least one piece of information out of the three pieces of information. Also, the matching information may include other information, and the imaging direction may be controlled using the information.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Further, in the above embodiments, each process or function may be implemented by centralized processing by a single device or single system, or may be implemented by distributed processing by multiple devices or multiple systems. It may be realized by

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, when the information is passed between the components, for example, when the two components that exchange the information are physically different, one of the components output of information and reception of information by the other component, or one component if the two components that pass the information are physically the same from the phase of processing corresponding to the other component to the phase of processing corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 In the above embodiments, information related to processing executed by each component, for example, information received, acquired, selected, generated, transmitted, or received by each component Also, information such as thresholds, formulas, addresses, etc. used by each component in processing may be stored temporarily or for a long period of time in a recording medium (not shown), even if not specified in the above description. Further, each component or an accumulation section (not shown) may accumulate information in the recording medium (not shown). Further, each component or a reading unit (not shown) may read information from the recording medium (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, if the information used in each component etc., for example, information such as thresholds, addresses and various set values used in processing by each component may be changed by the user, the above The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. If the information can be changed by the user, the change is realized by, for example, a reception unit (not shown) that receives a change instruction from the user and a change unit (not shown) that changes the information according to the change instruction. may The reception of the change instruction by the reception unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .

また、上記実施の形態において、移動体1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the mobile object 1 have communication devices, input devices, etc., the two or more components may physically have a single device. , or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, in the above embodiments, each component may be configured by dedicated hardware, or components that can be realized by software may be realized by executing a program. For example, each component can be realized by reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory by a program execution unit such as a CPU. During the execution, the program execution unit may execute the program while accessing the storage unit or recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, etc.). good. Also, this program may be used as a program constituting a program product. Also, the number of computers that execute the program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 Moreover, it goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

以上より、本発明による移動体によれば、より精度の高い現在位置の取得を実現できるという効果が得られ、撮影画像を用いて位置推定を行う移動体として有用である。 As described above, according to the mobile object of the present invention, it is possible to acquire the current position with higher accuracy, and it is useful as a mobile object that performs position estimation using captured images.

1 移動体
11 マニピュレータ
12 マニピュレータ制御部
13 撮影部
14 位置推定部
15 現在位置取得部
16 移動機構
17 移動制御部
18 取得部
19 撮影方向制御部
1 moving body 11 manipulator 12 manipulator control unit 13 imaging unit 14 position estimation unit 15 current position acquisition unit 16 movement mechanism 17 movement control unit 18 acquisition unit 19 imaging direction control unit

Claims (4)

自律的に移動する移動体であって、
マニピュレータと、
前記マニピュレータに装着され、前記移動体の周囲の撮影画像を取得する撮影部と、
前記撮影画像と、前記移動体の移動領域における地図とを用いて前記撮影部の位置を推定する位置推定部と、
前記位置推定部によって推定された前記撮影部の位置を用いて、前記移動体の現在位置を取得する現在位置取得部と、
前記移動体を移動させる移動機構と、
前記現在位置を用いて、前記移動機構を制御する移動制御部と、
前記撮影画像が位置の推定に適しているかどうかを示す情報であり、前記撮影画像の輝度の代表値を含んでいる情報である適合情報を取得する取得部と、
前記マニピュレータを制御するマニピュレータ制御部と、
前記適合情報を用いて、位置の推定に適した撮影画像が撮影されるようにするため、前記撮影画像の輝度の代表値が所定の閾値より大きい場合に、当該代表値がより小さくなるように前記撮影部の撮影方向を前記マニピュレータ制御部によって変更させる撮影方向制御部と、を備えた移動体。
A mobile body that moves autonomously,
a manipulator;
a photographing unit mounted on the manipulator for acquiring a photographed image of the surroundings of the moving object;
a position estimating unit that estimates the position of the photographing unit using the photographed image and a map in the movement area of the moving object;
a current position acquiring unit that acquires the current position of the moving body using the position of the imaging unit estimated by the position estimating unit;
a moving mechanism for moving the moving body;
a movement control unit that controls the movement mechanism using the current position;
an acquisition unit that acquires matching information that is information indicating whether the captured image is suitable for position estimation and that includes a representative value of luminance of the captured image ;
a manipulator control unit that controls the manipulator;
When the representative value of the brightness of the photographed image is larger than a predetermined threshold, the representative value is reduced so that the photographed image suitable for position estimation is photographed using the matching information. and an imaging direction control unit that changes the imaging direction of the imaging unit by the manipulator control unit.
自律的に移動する移動体であって、
マニピュレータと、
前記マニピュレータに装着され、前記移動体の周囲の撮影画像を取得する撮影部と、
前記撮影画像と、前記移動体の移動領域における地図とを用いて前記撮影部の位置を推定する位置推定部と、
前記位置推定部によって推定された前記撮影部の位置を用いて、前記移動体の現在位置を取得する現在位置取得部と、
前記移動体を移動させる移動機構と、
前記現在位置を用いて、前記移動機構を制御する移動制御部と、
前記撮影画像が位置の推定に適しているかどうかを示す情報であり、前記移動機構による直後の移動が旋回であるかどうかを示す旋回情報を含んでいる情報である適合情報を取得する取得部と、
前記マニピュレータを制御するマニピュレータ制御部と、
前記適合情報を用いて、位置の推定に適した撮影画像が撮影されるようにするため、前記旋回情報によって、前記移動機構による直後の移動が旋回であることが示される場合に、前記撮影部の光軸が旋回軸方向に近づくように前記撮影部の撮影方向を前記マニピュレータ制御部によって変更させる撮影方向制御部と、を備えた移動体。
A mobile body that moves autonomously,
a manipulator;
a photographing unit mounted on the manipulator for acquiring a photographed image of the surroundings of the moving object;
a position estimating unit that estimates the position of the photographing unit using the photographed image and a map in the movement area of the moving body;
a current position acquiring unit that acquires the current position of the moving body using the position of the imaging unit estimated by the position estimating unit;
a moving mechanism for moving the moving body;
a movement control unit that controls the movement mechanism using the current position;
an acquisition unit that acquires conformity information, which is information indicating whether the captured image is suitable for position estimation and includes turning information indicating whether the movement immediately after being performed by the moving mechanism is turning. ,
a manipulator control unit that controls the manipulator;
In order to capture a captured image suitable for estimating a position using the matching information, if the turning information indicates that the immediately following movement by the moving mechanism is turning, the imaging unit a photographing direction control unit for changing the photographing direction of the photographing unit by the manipulator control unit so that the optical axis of the photographing unit approaches the turning axis direction.
自律的に移動する移動体であって、
マニピュレータと、
前記マニピュレータに装着され、前記移動体の周囲の撮影画像を取得する撮影部と、
前記撮影画像と、前記移動体の移動領域における地図とを用いて前記撮影部の位置を推定する位置推定部と、
前記位置推定部によって推定された前記撮影部の位置を用いて、前記移動体の現在位置を取得する現在位置取得部と、
前記移動体を移動させる移動機構と、
前記現在位置を用いて、前記移動機構を制御する移動制御部と、
前記撮影画像が位置の推定に適しているかどうかを示す情報であり、前記撮影画像から抽出された特徴点と、前記地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでいる情報である適合情報を取得する取得部と、
前記マニピュレータを制御するマニピュレータ制御部と、
前記適合情報を用いて、位置の推定に適した撮影画像が撮影されるようにするため、前記割合情報によって示される割合が所定の閾値より小さい場合に、当該割合がより大きくなるように前記撮影部の撮影方向を前記マニピュレータ制御部によって変更させる撮影方向制御部と、を備えた移動体。
A mobile body that moves autonomously,
a manipulator;
a photographing unit mounted on the manipulator for acquiring a photographed image of the surroundings of the moving object;
a position estimating unit that estimates the position of the photographing unit using the photographed image and a map in the movement area of the moving object;
a current position acquiring unit that acquires the current position of the moving body using the position of the imaging unit estimated by the position estimating unit;
a moving mechanism for moving the moving body;
a movement control unit that controls the movement mechanism using the current position;
Information indicating whether the captured image is suitable for position estimation, and includes ratio information indicating a matching ratio between the feature points extracted from the captured image and the feature points included in the map. an acquisition unit that acquires conformance information that is
a manipulator control unit that controls the manipulator;
If the ratio indicated by the ratio information is smaller than a predetermined threshold, the photographing is performed so that the ratio is larger than the predetermined threshold so that the photographed image suitable for position estimation is photographed using the matching information. and an imaging direction control unit that changes the imaging direction of the unit by the manipulator control unit .
前記撮影方向制御部は、前記割合情報によって示される割合が所定の閾値より小さい場合に、前記撮影部の位置が高くなるように撮影方向を変更させる、請求項記載の移動体。 4. The moving body according to claim 3 , wherein said shooting direction control unit changes the shooting direction so that the position of said shooting unit is higher when the ratio indicated by said ratio information is smaller than a predetermined threshold.
JP2018157002A 2018-08-24 2018-08-24 moving body Active JP7153505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157002A JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157002A JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Publications (2)

Publication Number Publication Date
JP2020030721A JP2020030721A (en) 2020-02-27
JP7153505B2 true JP7153505B2 (en) 2022-10-14

Family

ID=69622617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157002A Active JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Country Status (1)

Country Link
JP (1) JP7153505B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989982B (en) * 2021-03-05 2024-04-30 佛山科学技术学院 Unmanned vehicle image acquisition control method and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104090574A (en) 2014-07-03 2014-10-08 邢淦琛 Intelligent environment cleaning machine
JP2016131367A (en) 2015-01-09 2016-07-21 株式会社リコー Moving body system
US20160325432A1 (en) 2014-08-29 2016-11-10 General Electric Company System and method for manipulation platform
JP2017146893A (en) 2016-02-19 2017-08-24 トヨタ自動車株式会社 Self-position estimation method
JP2018092527A (en) 2016-12-07 2018-06-14 シャープ株式会社 Autonomous travel device, determination device, and control method and determination method for autonomous travel device
JP2018128847A (en) 2017-02-08 2018-08-16 株式会社Ihiエアロスペース Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104090574A (en) 2014-07-03 2014-10-08 邢淦琛 Intelligent environment cleaning machine
US20160325432A1 (en) 2014-08-29 2016-11-10 General Electric Company System and method for manipulation platform
JP2016131367A (en) 2015-01-09 2016-07-21 株式会社リコー Moving body system
JP2017146893A (en) 2016-02-19 2017-08-24 トヨタ自動車株式会社 Self-position estimation method
JP2018092527A (en) 2016-12-07 2018-06-14 シャープ株式会社 Autonomous travel device, determination device, and control method and determination method for autonomous travel device
JP2018128847A (en) 2017-02-08 2018-08-16 株式会社Ihiエアロスペース Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle

Also Published As

Publication number Publication date
JP2020030721A (en) 2020-02-27

Similar Documents

Publication Publication Date Title
CN107907131B (en) positioning system, method and applicable robot
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
US10242576B2 (en) Obstacle detection device
JP6872128B2 (en) Information processing equipment, information processing methods, and programs
CN101399969B (en) System,device and method for moving target detection and tracking based on moving camera
US20170153647A1 (en) Apparatus of updating key frame of mobile robot and method thereof
WO2019084804A1 (en) Visual odometry and implementation method therefor
US20100094460A1 (en) Method and apparatus for simultaneous localization and mapping of robot
JP7063760B2 (en) Mobile
JP4665857B2 (en) Mobile body capable of guiding arm and method for guiding arm
JP2007319938A (en) Robot device and method of obtaining three-dimensional shape of object
CN106595601B (en) Accurate repositioning method for camera pose with six degrees of freedom without hand-eye calibration
Diosi et al. Outdoor visual path following experiments
JP2014188617A (en) Robot control system, robot, robot control method, and program
JP7153505B2 (en) moving body
WO2022143626A1 (en) Method for controlling mobile robot, computer-implemented storage medium, and mobile robot
JP2017027417A (en) Image processing device and vacuum cleaner
CN110175523B (en) Self-moving robot animal identification and avoidance method and storage medium thereof
JP2012086285A (en) Tracking robot device, tracking robot control method, tracking robot control program, homography matrix acquisition device, homography matrix acquisition method, and homography matrix acquisition program
Goedemé et al. Omnidirectional sparse visual path following with occlusion-robust feature tracking
Wadenbäck et al. Visual odometry from two point correspondences and initial automatic tilt calibration
JP2005205519A (en) Robot hand device
JP7311407B2 (en) Posture estimation device and posture estimation method
JP7064948B2 (en) Autonomous mobile devices and autonomous mobile systems
WO2019208234A1 (en) Position estimation device, position estimation method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7153505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150