JP2020030721A - Moving vehicle - Google Patents

Moving vehicle Download PDF

Info

Publication number
JP2020030721A
JP2020030721A JP2018157002A JP2018157002A JP2020030721A JP 2020030721 A JP2020030721 A JP 2020030721A JP 2018157002 A JP2018157002 A JP 2018157002A JP 2018157002 A JP2018157002 A JP 2018157002A JP 2020030721 A JP2020030721 A JP 2020030721A
Authority
JP
Japan
Prior art keywords
unit
information
control unit
captured image
manipulator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018157002A
Other languages
Japanese (ja)
Other versions
JP7153505B2 (en
Inventor
梓紗 檀上
Azusa Danjo
梓紗 檀上
敏生 巳波
Toshio Minami
敏生 巳波
深江 唯正
Tadamasa Fukae
唯正 深江
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daihen Corp
Original Assignee
Daihen Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daihen Corp filed Critical Daihen Corp
Priority to JP2018157002A priority Critical patent/JP7153505B2/en
Publication of JP2020030721A publication Critical patent/JP2020030721A/en
Application granted granted Critical
Publication of JP7153505B2 publication Critical patent/JP7153505B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a moving vehicle with which it is possible to improve the accuracy of present position using an imaged image acquired by an imaging unit mounted in a manipulator.SOLUTION: A moving vehicle 1 comprises: a manipulator 11; a manipulator control unit 12; an imaging unit 13 mounted in the manipulator 11; a position estimation unit 14 for estimating the position of the imaging unit 13 using an imaged image and a map; a present position acquisition unit 15 for acquiring the present position of the moving vehicle 1 from the estimated position; a movement mechanism 16; a movement control unit 17 for controlling the movement mechanism 16 using the present position; an acquisition unit 18 for acquiring suitability information that indicates whether the imaged image is suitable for position estimation; and an imaging direction control unit 19 for changing the imaging direction using suitability information so that an imaged image suitable for position estimation can be imaged. Thus, control can be exercised using the suitability information so that imaging suitable for position estimation is performance, and the accuracy of present position can be improved.SELECTED DRAWING: Figure 2

Description

本発明は、マニピュレータに装着された撮影部によって撮影された撮影画像を用いて現在位置を取得する移動体に関する。   The present invention relates to a moving body that obtains a current position using a captured image captured by a capturing unit mounted on a manipulator.

従来、撮像装置の設けられたマニピュレータを有する移動ロボットが知られている(特許文献1参照)。その移動ロボットは、マニピュレータが有する撮像装置によって撮影された走行情報マークを用いて自走することができる。   2. Description of the Related Art Conventionally, a mobile robot having a manipulator provided with an imaging device is known (see Patent Document 1). The mobile robot can travel by itself using a travel information mark captured by an imaging device of the manipulator.

実開昭60−066486号公報Japanese Utility Model Publication No. 60-066486

しかしながら、撮影画像を用いて自律的に移動する移動体においては、移動の制御に用いる情報が適切に撮影されない場合には、精度の高い移動を実現できないという問題があった。例えば、撮影が逆光で行われるような場合には、適切な移動を行うことができなくなる恐れがあるという問題があった。   However, in a moving body that autonomously moves using a captured image, there is a problem that accurate movement cannot be realized unless information used for controlling the movement is appropriately captured. For example, when the photographing is performed in backlight, there is a problem that it may not be possible to perform appropriate movement.

本発明は、上記課題を解決するためになされたものであり、マニピュレータに装着された撮影部によって取得された撮影画像を用いて現在位置を取得する移動体において、現在位置の精度を向上させることを目的とする。   The present invention has been made to solve the above problems, and it is an object of the present invention to improve the accuracy of a current position in a moving body that obtains a current position using a captured image obtained by a capturing unit mounted on a manipulator. With the goal.

上記目的を達成するため、本発明による移動体は、自律的に移動する移動体であって、マニピュレータと、マニピュレータに装着され、移動体の周囲の撮影画像を取得する撮影部と、撮影画像と、移動体の移動領域における地図とを用いて撮影部の位置を推定する位置推定部と、位置推定部によって推定された撮影部の位置を用いて、移動体の現在位置を取得する現在位置取得部と、移動体を移動させる移動機構と、現在位置を用いて、移動機構を制御する移動制御部と、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する取得部と、マニピュレータを制御するマニピュレータ制御部と、適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部の撮影方向をマニピュレータ制御部によって変更させる撮影方向制御部と、を備えたものである。
このような構成により、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができるようになり、その結果として、現在位置の精度を向上させることができるようになる。
In order to achieve the above object, a moving body according to the present invention is a moving body that moves autonomously, a manipulator, a photographing unit that is mounted on the manipulator, and acquires a photographed image around the moving body, and a photographed image. A position estimating unit for estimating the position of the photographing unit using the map in the moving area of the moving object, and a current position acquisition for acquiring the current position of the moving object using the position of the photographing unit estimated by the position estimating unit Unit, a moving mechanism that moves the moving body, using the current position, a movement control unit that controls the moving mechanism, and an acquisition unit that acquires matching information indicating whether the captured image is suitable for estimating the position, A manipulator control unit that controls the manipulator, and an image capturing direction that is changed by the manipulator control unit using the matching information so that a captured image suitable for position estimation is captured. Those with a direction control unit.
With such a configuration, it is possible to obtain a captured image that is more suitable for estimating the position by controlling the imaging direction using the matching information, and as a result, to improve the accuracy of the current position. Will be able to

また、本発明による移動体では、適合情報は、撮影画像の輝度の代表値を含んでおり、撮影方向制御部は、撮影画像の輝度の代表値が所定の閾値より大きい場合に、代表値がより小さくなるように撮影方向を変更させてもよい。
このような構成により、例えば、撮影画像の露出がオーバーになっており、位置推定のための特徴点の取得が適切に行えないような場合に、より適正な露出となるように撮影方向を変更することによって、より精度の高い位置推定を行うことができるようになる。
Further, in the moving object according to the present invention, the adaptation information includes a representative value of the luminance of the captured image, and the capturing direction control unit determines that the representative value is larger when the representative value of the luminance of the captured image is larger than a predetermined threshold. The shooting direction may be changed so as to be smaller.
With such a configuration, for example, when the exposure of the captured image is over, and it is not possible to appropriately acquire a feature point for position estimation, the imaging direction is changed so as to obtain a more appropriate exposure. By doing so, more accurate position estimation can be performed.

また、本発明による移動体では、適合情報は、移動機構による直後の移動が旋回であるかどうかを示す旋回情報を含んでおり、撮影方向制御部は、旋回情報によって、移動機構による直後の移動が旋回であることが示される場合に、撮影部の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。
このような構成により、移動体の旋回時には、例えば、撮影部が上方や下方を撮影するようにすることができる。撮影画像を用いた位置推定では、旋回時にトラッキングを行うことができなくなることがあるが、このように、上方や下方の撮影を行うように撮影方向を変更することによって、旋回時の位置推定のトラッキングを適切に行うことができるようになる。
Further, in the moving body according to the present invention, the adaptation information includes turning information indicating whether or not the movement immediately after the movement by the movement mechanism is a turn. When it is indicated that is turning, the shooting direction may be changed so that the optical axis of the shooting unit approaches the turning axis direction.
With such a configuration, when the moving body turns, for example, the photographing unit can photograph the upper side and the lower side. In the position estimation using the captured image, tracking may not be performed at the time of turning. In this way, by changing the shooting direction so as to perform upward or downward shooting, the position estimation at the time of turning can be performed. Tracking can be performed appropriately.

また、本発明による移動体では、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでおり、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、割合がより大きくなるように撮影方向を変更させてもよい。
このような構成により、例えば、移動体の周囲に一時的に存在する障害物等によって、適切な位置推定を行うことができないような場合に、そのような障害物等を回避して撮影するように、撮影方向を変更させることができ、より精度の高い位置推定を実現できるようになる。
Further, in the moving object according to the present invention, the matching information includes ratio information indicating a ratio of matching between the feature points extracted from the captured image and the feature points included in the map. When the ratio indicated by the information is smaller than a predetermined threshold, the shooting direction may be changed so that the ratio becomes larger.
With such a configuration, for example, in a case where it is not possible to perform appropriate position estimation due to an obstacle or the like temporarily existing around the moving body, an image is captured while avoiding such an obstacle or the like. In this case, the photographing direction can be changed, and more accurate position estimation can be realized.

また、本発明による移動体では、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、撮影部の位置が高くなるように撮影方向を変更させてもよい。
このような構成により、より高いところから撮影するように撮影方向を変更させることによって、障害物等を回避した撮影を実現できる可能性が高くなる。
Further, in the moving body according to the present invention, the imaging direction control unit may change the imaging direction so that the position of the imaging unit is higher when the ratio indicated by the ratio information is smaller than a predetermined threshold.
With such a configuration, by changing the shooting direction so as to shoot from a higher place, the possibility of realizing shooting avoiding an obstacle or the like increases.

本発明による移動体によれば、位置の推定により適している撮影画像を取得できるようになり、現在位置の精度を向上させることができる。   ADVANTAGE OF THE INVENTION According to the moving body by this invention, it becomes possible to acquire the captured image which is more suitable for position estimation, and it is possible to improve the accuracy of the current position.

本発明の実施の形態による移動体の外観を示す模式図FIG. 2 is a schematic diagram illustrating an appearance of a moving object according to an embodiment of the present invention. 同実施の形態による移動体の構成を示すブロック図FIG. 2 is a block diagram showing a configuration of a moving object according to the embodiment. 同実施の形態による移動体の動作を示すフローチャート5 is a flowchart showing the operation of the moving object according to the embodiment. 同実施の形態による移動体の旋回について説明するための図FIG. 4 is a diagram for explaining turning of the moving body according to the embodiment. 同実施の形態における地図の特徴点と撮影画像の特徴点とのマッチングについて説明するための図FIG. 7 is a diagram for explaining matching between a feature point of a map and a feature point of a captured image according to the embodiment. 同実施の形態による移動体の動作の具体例について説明するための図FIG. 9 is a diagram for explaining a specific example of the operation of the moving object according to the embodiment.

以下、本発明による移動体について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による移動体は、マニピュレータに装着された撮影部によって取得された撮影画像を用いた位置推定を行うものであり、撮影画像が位置の推定に適しているかどうかを示す適合情報を用いることによって、撮影方向を制御するものである。   Hereinafter, a moving object according to the present invention will be described using embodiments. Note that, in the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repeated description may be omitted. The moving object according to the present embodiment performs position estimation using a photographed image acquired by a photographing unit mounted on a manipulator, and uses matching information indicating whether the photographed image is suitable for position estimation. Thus, the photographing direction is controlled.

図1は、本実施の形態による移動体1の外観を示す模式図であり、図2は、移動体1の機能的な構成を示すブロック図である。本実施の形態による移動体1は、自律的に移動するものであって、マニピュレータ11と、マニピュレータ制御部12と、撮影部13と、位置推定部14と、現在位置取得部15と、移動機構16と、移動制御部17と、取得部18と、撮影方向制御部19とを備える。なお、移動体1が自律的に移動するとは、移動体1がユーザ等から受け付ける操作指示に応じて移動するのではなく、自らの判断によって目的地に移動することであってもよい。その目的地は、例えば、手動で決められたものであってもよく、または、自動的に決定されたものであってもよい。また、その目的地までの移動は、例えば、移動経路に沿って行われてもよく、または、そうでなくてもよい。また、自らの判断によって目的地に移動するとは、例えば、進行方向、移動や停止などを移動体1が自ら判断することによって、目的地まで移動することであってもよい。また、例えば、移動体1が、障害物に衝突しないように移動することであってもよい。移動体1は、例えば、台車であってもよく、移動するロボットであってもよい。ロボットは、例えば、エンターテインメントロボットであってもよく、監視ロボットであってもよく、搬送ロボットであってもよく、清掃ロボットであってもよく、動画や静止画を撮影するロボットであってもよく、溶接ロボットであってもよく、塗装ロボットであってもよく、農薬散布ロボットであってもよく、組立ロボットであってもよく、その他のロボットであってもよい。   FIG. 1 is a schematic diagram illustrating an appearance of a moving body 1 according to the present embodiment, and FIG. 2 is a block diagram illustrating a functional configuration of the moving body 1. The mobile object 1 according to the present embodiment is a mobile object that autonomously moves, and includes a manipulator 11, a manipulator control unit 12, a photographing unit 13, a position estimating unit 14, a current position acquiring unit 15, a moving mechanism, 16, a movement control unit 17, an acquisition unit 18, and a shooting direction control unit 19. It should be noted that the mobile body 1 autonomously moves may not mean that the mobile body 1 moves in response to an operation instruction received from a user or the like, but may move to a destination according to its own judgment. The destination may be, for example, manually determined or automatically determined. Further, the movement to the destination may be performed, for example, along a movement route, or may not be performed. To move to the destination by own judgment may mean, for example, moving to the destination by the mobile unit 1 making its own judgment on the traveling direction, movement, stop, and the like. Further, for example, the moving body 1 may move so as not to collide with an obstacle. The moving body 1 may be, for example, a cart or a moving robot. The robot may be, for example, an entertainment robot, may be a monitoring robot, may be a transport robot, may be a cleaning robot, or may be a robot that shoots moving images and still images. , A welding robot, a painting robot, a pesticide spraying robot, an assembling robot, or another robot.

マニピュレータ11は、モータによって駆動される関節によって連結された複数のアームを有するものであってもよい。マニピュレータ11の先端には、マニピュレータ11によって行われる作業、例えば、溶接や搬送対象の把持、塗装、組み立てなどに応じた手先効果器(エンドエフェクタ)が設けられていてもよい。マニピュレータ11は、例えば、垂直多関節ロボットのマニピュレータであってもよく、水平多関節ロボットのマニピュレータであってもよい。また、そのマニピュレータ11の軸数は問わない。図1で示されるように、マニピュレータ11の基端側は、移動体1の車体1aに固定されていてもよい。また、マニピュレータ11は、マニピュレータ11の全体を旋回させることができる軸を基端側に有していてもよい。   The manipulator 11 may have a plurality of arms connected by a joint driven by a motor. At the tip of the manipulator 11, a hand effector (end effector) may be provided according to operations performed by the manipulator 11, for example, welding, gripping, painting, and assembling of an object to be conveyed. The manipulator 11 may be, for example, a manipulator of a vertical articulated robot or a manipulator of a horizontal articulated robot. Further, the number of axes of the manipulator 11 does not matter. As shown in FIG. 1, the base end side of the manipulator 11 may be fixed to the vehicle body 1 a of the moving body 1. In addition, the manipulator 11 may have an axis on the base end side that can turn the entire manipulator 11.

マニピュレータ制御部12は、マニピュレータ11を制御する。マニピュレータ制御部12は、例えば、マニピュレータ11の手先の位置や姿勢に関する制御を行ってもよく、また、マニピュレータ11の手先効果器に関する制御を行ってもよい。マニピュレータ制御部12は、例えば、マニピュレータ11が有する各モータを制御するサーボコントローラを介してマニピュレータ11の制御を行ってもよい。   The manipulator control unit 12 controls the manipulator 11. The manipulator control unit 12 may, for example, control the position and orientation of the hand of the manipulator 11, or may control the hand effector of the manipulator 11. The manipulator control unit 12 may control the manipulator 11 via, for example, a servo controller that controls each motor of the manipulator 11.

撮影部13は、移動体1の周囲の撮影画像を取得する。その撮影部13は、マニピュレータ11に装着されている。撮影部13が装着されるマニピュレータ11の位置は問わないが、撮影部13は、例えば、マニピュレータ11の先端に装着されてもよい。なお、マニピュレータ11において、撮影部13が装着されている位置は既知であるとする。また、撮影部13は、例えば、手先効果器の前方側を撮影するようにマニピュレータ11に装着されていてもよい。そのようにすることで、手先効果器による作業時にも、撮影部13によって取得された撮影画像を用いることができるようになる。このように、撮影部13は、マニピュレータ11に装着されているため、マニピュレータ11の位置や姿勢の変更に応じて、撮影方向が変更されることになる。撮影部13は、例えば、CCDイメージセンサやCMOSイメージセンサなどのイメージセンサを用いて撮影画像を取得してもよい。また、撮影部13は、イメージセンサ上に結像させるためのレンズ等の光学系を含んでいてもよい。また、撮影部13は、単眼であってもよく、双眼(ステレオカメラ)であってもよい。本実施の形態では、撮影部13が単眼である場合について主に説明する。撮影部13は、通常、動画を撮影するもの、すなわち、連続した画像フレームを取得するものである。移動している移動体1の現在位置を取得するために撮影画像を取得することから、そのフレームレートは、移動速度に対して十分大きいものであることが好適である。例えば、フレームレートは、約30fpsなどであってもよい。また、後述する適合情報に応じた撮影方向制御部19による撮影方向の制御が行われている場合以外は、撮影部13は、例えば、進行方向の向きの撮影画像を取得するようにしてもよく、進行方向に対して横方向の向きの撮影画像を取得するようにしてもよい。   The photographing unit 13 acquires a photographed image around the moving body 1. The imaging unit 13 is mounted on the manipulator 11. The position of the manipulator 11 on which the imaging unit 13 is mounted does not matter, but the imaging unit 13 may be mounted on the tip of the manipulator 11, for example. In the manipulator 11, it is assumed that the position where the photographing unit 13 is mounted is known. The imaging unit 13 may be mounted on the manipulator 11 so as to image the front side of the hand effector, for example. By doing so, the photographed image acquired by the photographing unit 13 can be used even when working with the hand effector. As described above, since the imaging unit 13 is mounted on the manipulator 11, the imaging direction is changed in accordance with the change in the position or the posture of the manipulator 11. The imaging unit 13 may acquire a captured image using an image sensor such as a CCD image sensor or a CMOS image sensor. Further, the photographing unit 13 may include an optical system such as a lens for forming an image on the image sensor. Further, the imaging unit 13 may be a single eye or a binocular (stereo camera). In the present embodiment, a case where the imaging unit 13 is a single eye will be mainly described. The photographing unit 13 normally photographs a moving image, that is, acquires continuous image frames. Since a captured image is obtained in order to obtain the current position of the moving moving body 1, it is preferable that the frame rate be sufficiently large with respect to the moving speed. For example, the frame rate may be about 30 fps or the like. In addition, the imaging unit 13 may acquire, for example, a captured image in the traveling direction, unless the imaging direction control unit 19 controls the imaging direction according to the adaptation information described later. Alternatively, a captured image in a direction transverse to the traveling direction may be acquired.

位置推定部14は、撮影部13によって取得された撮影画像と、移動体1の移動領域における地図とを用いて撮影部13の位置を推定する。この位置推定によって、グローバル座標系における撮影部13の位置が推定されることになる。この位置は、向きを含んでいてもよい。位置推定部14は、撮影画像から特徴点を抽出し、その抽出した特徴点と、地図に含まれる特徴点とのマッチングによって、位置推定を行ってもよい。その地図は、環境地図とも呼ばれるものであり、例えば、図示しない記録媒体で記憶されていてもよい。その特徴点は、例えば、FASTキーポイントや、SIFTキーポイント、SURFキーポイント等であってもよく、撮影画像を用いた位置推定で用いられるその他の特徴点であってもよい。そのマッチングは、撮影画像において特定された特徴点の特徴記述子(feature descriptor)と、地図に含まれる特徴点の特徴記述子との類似度を計算することによって行われてもよい。そのような撮影画像を用いた位置推定は、visual−SLAM(Simultaneous Localization and Mapping)としてすでに知られているため、その詳細な説明を省略する。なお、位置推定部14は、撮影画像において特定した特徴点を用いて地図を更新してもよく、または、そうでなくてもよい。本実施の形態では、位置推定部14がvisual−SLAMによって位置推定を行う場合、すなわち地図の更新も行う場合について主に説明する。また、visual−SLAMがORB−SLAMである場合には、地図に含まれる特徴点は、例えば、map pointであってもよく、キーフレーム(keyframe)に含まれる特徴点であってもよい。なお、FASTキーポイント、SIFTキーポイント、SURFキーポイント、ORB−SLAMにおける特徴点、ORB−SLAMにおける位置推定(tracking)及び地図の更新(local mapping)については、以下の文献1〜5をそれぞれ参照されたい。   The position estimating unit 14 estimates the position of the photographing unit 13 using the photographed image acquired by the photographing unit 13 and the map in the moving area of the moving body 1. By this position estimation, the position of the imaging unit 13 in the global coordinate system is estimated. This position may include an orientation. The position estimating unit 14 may extract a feature point from a captured image and perform position estimation by matching the extracted feature point with a feature point included in the map. The map is also called an environment map, and may be stored in, for example, a recording medium (not shown). The characteristic point may be, for example, a FAST key point, a SIFT key point, a SURF key point, or another characteristic point used in position estimation using a captured image. The matching may be performed by calculating a similarity between a feature descriptor of a feature point specified in the captured image and a feature descriptor of a feature point included in the map. Since the position estimation using such a captured image is already known as visual-SLAM (Simultaneous Localization and Mapping), a detailed description thereof will be omitted. Note that the position estimating unit 14 may or may not update the map using the feature points specified in the captured image. In the present embodiment, a case where the position estimating unit 14 performs position estimation using visual-SLAM, that is, a case where the map is updated will be mainly described. When the visual-SLAM is the ORB-SLAM, the feature points included in the map may be, for example, a map point or a feature point included in a keyframe. For the FAST key point, SIFT key point, SURF key point, feature point in ORB-SLAM, position estimation (tracking) and map update (local mapping) in ORB-SLAM, refer to the following documents 1 to 5, respectively. I want to be.

文献1:Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
文献2:D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60(2), pp. 91-110.
文献3:H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110(3), pp. 346-359.
文献4:Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
文献5:R. Mur-Artal, J.M. Montiel, J.D. Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.
Reference 1: Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
Reference 2: D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60 (2), pp. 91-110.
Reference 3: H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110 (3), pp. 346- 359.
Reference 4: Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
Reference 5: R. Mur-Artal, JM Montiel, JD Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.

現在位置取得部15は、位置推定部14によって推定された撮影部13の位置を用いて、移動体1の現在位置を取得する。マニピュレータ制御部12によって、マニピュレータ11の各関節における角度が管理されており、マニピュレータ11における撮影部13の装着位置は既知であるため、現在位置取得部15は、順運動学によって移動体1における撮影部13の位置を知ることができる。その撮影部13の位置は、例えば、移動体1のローカル座標系における位置であってもよい。したがって、位置推定部14によって取得されたグローバル座標系における撮影部13の位置と、移動体1における撮影部13の位置とを用いて、現在位置取得部15は、グローバル座標系における移動体1の現在位置を取得することができる。その現在位置は、例えば、移動体1の所定の箇所(例えば、重心位置や、設計者があらかじめ決めた位置など)のグローバル座標系における位置であってもよい。この現在位置も、向きを含んでいてもよい。   The current position acquisition unit 15 acquires the current position of the mobile unit 1 using the position of the imaging unit 13 estimated by the position estimation unit 14. The angle at each joint of the manipulator 11 is managed by the manipulator control unit 12, and the mounting position of the imaging unit 13 in the manipulator 11 is known. The position of the part 13 can be known. The position of the imaging unit 13 may be, for example, the position of the moving body 1 in the local coordinate system. Therefore, using the position of the imaging unit 13 in the global coordinate system acquired by the position estimating unit 14 and the position of the imaging unit 13 in the moving object 1, the current position acquisition unit 15 uses the position of the moving object 1 in the global coordinate system. You can get the current location. The current position may be, for example, a position in a global coordinate system of a predetermined position (for example, a position of a center of gravity, a position predetermined by a designer, or the like) of the moving body 1. This current position may also include the orientation.

移動機構16は、移動体1を移動させる。移動機構16は、例えば、移動体1を全方向に移動できるものであってもよく、または、そうでなくてもよい。全方向に移動できるとは、任意の方向に移動できることである。移動機構16は、例えば、走行部(例えば、車輪など)と、その走行部を駆動する駆動手段(例えば、モータやエンジンなど)とを有していてもよい。また、移動機構16は、車輪等の速度を取得できる機構、例えば、エンコーダ等を有していてもよい。なお、移動機構16が、移動体1を全方向に移動できるものである場合には、その走行部は、全方向移動車輪(例えば、オムニホイール、メカナムホイールなど)であってもよい。この移動機構16としては、公知のものを用いることができるため、その詳細な説明を省略する。   The moving mechanism 16 moves the moving body 1. The moving mechanism 16 may or may not be able to move the moving body 1 in all directions, for example. To be able to move in all directions means to be able to move in any direction. The moving mechanism 16 may include, for example, a traveling unit (for example, wheels) and a driving unit (for example, a motor or an engine) for driving the traveling unit. The moving mechanism 16 may include a mechanism that can acquire the speed of a wheel or the like, for example, an encoder or the like. When the moving mechanism 16 can move the moving body 1 in all directions, the traveling unit may be an omni-directional moving wheel (for example, an omni wheel, a mecanum wheel, or the like). Since a known mechanism can be used as the moving mechanism 16, its detailed description is omitted.

移動制御部17は、現在位置取得部15によって取得された現在位置を用いて移動機構16を制御することによって、移動体1の移動を制御する。移動の制御は、移動体1の移動の向きや、移動の開始・停止などの制御であってもよい。例えば、移動経路が設定されている場合には、移動制御部17は、移動体1がその移動経路に沿って移動するように、移動機構16を制御してもよい。より具体的には、移動制御部17は、現在位置取得部15によって取得される現在位置が、その移動経路に沿ったものになるように、移動機構16を制御してもよい。また、移動制御部17は、地図を用いて、移動の制御を行ってもよい。移動制御部17による移動機構16の制御は公知であるため、その詳細な説明を省略する。   The movement control unit 17 controls the movement of the moving body 1 by controlling the movement mechanism 16 using the current position acquired by the current position acquisition unit 15. The control of the movement may be control such as the direction of movement of the moving body 1 or the start / stop of the movement. For example, when a movement path is set, the movement control unit 17 may control the movement mechanism 16 so that the moving body 1 moves along the movement path. More specifically, the movement control unit 17 may control the movement mechanism 16 so that the current position acquired by the current position acquisition unit 15 is along the movement route. Further, the movement control unit 17 may control the movement using a map. Since the control of the movement mechanism 16 by the movement control unit 17 is known, detailed description thereof is omitted.

取得部18は、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する。撮影画像が位置の推定に適しているかどうかは、その撮影画像を用いてより精度の高い位置を推定できるかどうかを意味していると考えてもよい。適合情報は、例えば、後述するように、撮影画像や、移動体1における直後の移動制御の内容、撮影画像の特徴点と地図の特徴点とのマッチングの状況等に応じて取得されてもよい。   The acquiring unit 18 acquires matching information indicating whether the captured image is suitable for estimating a position. Whether or not a captured image is suitable for position estimation may be considered to mean whether or not a more accurate position can be estimated using the captured image. The adaptation information may be acquired according to, for example, a captured image, the content of the movement control immediately after the moving object 1, a matching state between a feature point of the captured image and a feature point of the map, as described later. .

例えば、撮影画像において露出がオーバーとなる場合、すなわち撮影画像において白とびが発生している場合には、その撮影画像において特徴点を特定することが困難になるため、その撮影画像は位置の推定に適していないことになる。したがって、適合情報は、撮影画像の輝度の代表値を含んでいてもよい。その代表値は、例えば、平均値や中央値、最小値などであってもよい。取得部18は、例えば、撮影画像に含まれる各画素の輝度値を取得し、その取得した複数の輝度値の代表値を取得してもよい。撮影画像の輝度値の代表値があらかじめ決められた閾値よりも大きい場合には、その撮影画像は、位置の推定に適していないと判断されてもよい。その撮影画像は、露出オーバーになっていると考えられるからである。   For example, when overexposure occurs in a captured image, that is, when overexposure occurs in the captured image, it becomes difficult to identify feature points in the captured image. Would not be suitable for Therefore, the matching information may include a representative value of the luminance of the captured image. The representative value may be, for example, an average value, a median value, a minimum value, or the like. The acquiring unit 18 may acquire, for example, a luminance value of each pixel included in the captured image, and acquire a representative value of the acquired plural luminance values. If the representative value of the brightness value of the captured image is larger than a predetermined threshold, it may be determined that the captured image is not suitable for estimating the position. This is because the captured image is considered to be overexposed.

また、例えば、移動体1が旋回する場合に水平方向の撮影を行っていると、撮影画像を用いた位置推定において適切なトラッキングを行うことができなくなることがある。そのため、移動体1が旋回を行う際に撮影された水平方向の撮影画像は、位置推定に適していないことになる。したがって、適合情報は、移動機構16による直後の移動が旋回であるかどうかを示す旋回情報を含んでいてもよい。その旋回情報は、直後の移動が旋回であるかどうかを示すフラグ的な情報であってもよく、直後の移動が旋回であるかどうかを判断するための移動に関する詳細な情報、例えば、進行方向の変化のスピード(角速度)や進行方向の変化の程度(角度など)を示す情報であってもよい。   Further, for example, if the mobile unit 1 is turning and shooting in the horizontal direction is performed, it may not be possible to perform appropriate tracking in position estimation using a shot image. For this reason, a captured image in the horizontal direction captured when the moving body 1 makes a turn is not suitable for position estimation. Therefore, the adaptation information may include turning information indicating whether or not the immediately subsequent movement by the moving mechanism 16 is turning. The turning information may be flag-like information indicating whether or not the immediately following movement is a turning, and detailed information on the movement for determining whether or not the immediately following movement is a turning, for example, the traveling direction. It may be information indicating the speed of change (angular velocity) of the change in the moving direction or the degree of change (angle, etc.) in the traveling direction.

具体的には、取得部18は、移動体1の今後の移動において、あらかじめ決められた時間間隔(例えば、1秒や3秒など)以内に、進行方向があらかじめ決められた閾値の角度(例えば、80度や90度、120度、150度など)以上変化する場合に、今後の移動が旋回であると判断して、直後の移動が旋回であることを示す旋回情報を取得してもよい。   Specifically, the acquisition unit 18 determines that the moving direction of the moving object 1 is determined within a predetermined time interval (for example, 1 second or 3 seconds) by a predetermined threshold angle (for example, 1 second or 3 seconds). , 80 degrees, 90 degrees, 120 degrees, 150 degrees, etc.) or more, it may be determined that the future movement is a turn, and turn information indicating that the immediately subsequent movement is a turn may be obtained. .

図4(a)、図4(b)は、上面視において移動体1の進行方向の変化を示す図である。例えば、移動体1の今後の進行方向が図4(a)で示される矢印A1〜A5のように順番に変化する場合に、取得部18は、移動機構16による直後の移動が旋回であることを示す旋回情報を取得してもよい。なお、そのような旋回が、所定の時間間隔以内に行われる場合に、今後の移動が旋回であると判断されてもよい。また、図4(a)では、旋回半径が0である旋回について示しているが、図4(b)で示されるように、旋回半径が0でない旋回であっても、上記の条件が満たされる場合に、今後の移動が旋回であると判断されてもよい。所定の時間間隔以内に所定の角度以上、進行方向が変化した場合には、旋回半径に関わらず、水平方向の画像を用いた位置推定におけるトラッキングが困難になるからである。なお、図4(b)では、経路R1に沿って移動体1が移動し、矢印A6〜A8のように進行方向が順番に変化することを示している。また、取得部18は、今後の移動における進行方向等を、例えば、移動制御部17から取得してもよく、または、移動経路や現在位置等を用いて算出してもよい。また、移動制御部17は、現在位置に応じて移動制御を行うため、直近の所定期間の移動に関する情報のみを有していることもある。そのような場合には、取得部18は、移動制御部17が有している情報において、今後の進行方向の角度変化が閾値の角度以上である場合に、今後の移動が旋回であると判断してもよい。また、旋回情報によって、直後に旋回の行われることが示される場合には、撮影画像が位置の推定に適していないと判断されてもよい。旋回時に撮影される水平方向の撮影画像は、トラッキングを行うのに好適ではないからである。   FIGS. 4A and 4B are diagrams showing changes in the traveling direction of the moving body 1 when viewed from above. For example, when the future traveling direction of the moving body 1 sequentially changes as indicated by arrows A1 to A5 shown in FIG. 4A, the acquisition unit 18 determines that the movement immediately after the moving mechanism 16 is turning. May be obtained. In addition, when such a turn is performed within a predetermined time interval, it may be determined that the future movement is a turn. Also, FIG. 4A shows a turn having a turning radius of 0, but as shown in FIG. 4B, even if the turning has a turning radius other than 0, the above condition is satisfied. In this case, it may be determined that the future movement is a turn. If the traveling direction changes by a predetermined angle or more within the predetermined time interval, tracking in position estimation using a horizontal image becomes difficult regardless of the turning radius. Note that FIG. 4B shows that the moving body 1 moves along the route R1 and the traveling direction changes sequentially as indicated by arrows A6 to A8. Further, the acquisition unit 18 may acquire the traveling direction and the like in the future movement from the movement control unit 17, for example, or may calculate using the movement route, the current position, and the like. In addition, since the movement control unit 17 performs the movement control according to the current position, the movement control unit 17 may have only information on the movement in the latest predetermined period. In such a case, the acquisition unit 18 determines that the future movement is a turn if the change in the angle of the future traveling direction is greater than or equal to the threshold angle in the information held by the movement control unit 17. May be. When the turning information indicates that the turning is performed immediately afterward, it may be determined that the captured image is not suitable for estimating the position. This is because a horizontally photographed image photographed at the time of turning is not suitable for tracking.

また、例えば、位置推定で用いられる地図上の特徴点に対応する物体と、撮影部13との間に人間などの障害物が存在する場合には、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの程度が低下することになり、その結果、位置推定の精度が低下することになる。したがって、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでいてもよい。図5は、撮影画像において抽出された特徴点と、地図に含まれる特徴点とのマッチング関係を示す図である。   Further, for example, when there is an obstacle such as a human between the object corresponding to the feature point on the map used in the position estimation and the imaging unit 13, the feature point extracted from the captured image and the map , The degree of matching with the feature points included in the image is reduced, and as a result, the accuracy of position estimation is reduced. Therefore, the matching information may include ratio information indicating the ratio of matching between the feature points extracted from the captured image and the feature points included in the map. FIG. 5 is a diagram illustrating a matching relationship between a feature point extracted from a captured image and a feature point included in a map.

例えば、図5(a)で示されるように、地図に特徴点A〜Dが含まれており、撮影画像において特徴点a〜dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量(特徴記述子)を用いたマッチングによって、撮影画像の特徴点a〜dは、それぞれ地図の特徴点A〜Dに対応することになったとする。そのマッチングは、例えば、visual−SLAMによる位置推定のために位置推定部14によって行われてもよい。図5(a)の場合には、撮影画像から4個の特徴点が抽出され、そのすべての特徴点が地図に含まれる特徴点とマッチングしているため、割合情報は1または100%となる。   For example, as shown in FIG. 5A, it is assumed that feature points A to D are included in the map, and feature points a to d are specified in the captured image. In addition, the feature points a to d of the captured image are changed to the feature points A to D of the map by matching using the feature amount (feature descriptor) between the feature point specified in the captured image and the feature point included in the map. Suppose that it corresponds to D. The matching may be performed by the position estimating unit 14 for position estimation by visual-SLAM, for example. In the case of FIG. 5A, four feature points are extracted from the captured image, and all the feature points match feature points included in the map, so that the ratio information is 1 or 100%. .

一方、図5(b)で示されるように、地図に特徴点A〜Dが含まれており、撮影画像において、特徴点a,dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量を用いたマッチングによって、撮影画像の特徴点a,dは、それぞれ地図の特徴点A,Dに対応することになったとする。なお、図5(b)では、地図には特徴点B,Cも含まれている。したがって、本来であれば、地図の特徴点B,Cに対応する特徴点b,cが撮影画像から抽出されるべきであるが、その抽出が行われなかったとする。すると、その撮影画像において、特徴点b,cは、抽出漏れの特徴点となる。なお、例えば、地図に含まれる特徴点Bを撮影画像に投影した位置の近傍に、特徴点Bの特徴量と類似した特徴量を有する特徴点が抽出されていない場合に、特徴点Bは抽出漏れであると判断されてもよい。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(b)の場合には、撮影画像から、地図の特徴点とマッチングする特徴点が2個抽出され、2個の抽出漏れの特徴点が存在するため、割合情報は0.5または50%となる。
割合情報=N1/(N1+N2)
但し、N1は、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数であり、N2は、その撮影画像に関する抽出漏れの特徴点の個数である。
On the other hand, as shown in FIG. 5B, it is assumed that feature points A to D are included in the map, and feature points a and d are specified in the captured image. In addition, the feature points a and d of the captured image correspond to the feature points A and D of the map, respectively, by matching using the feature amount of the feature point specified in the captured image and the feature point included in the map. Let's say In FIG. 5B, the map also includes feature points B and C. Therefore, it is assumed that the feature points b and c corresponding to the feature points B and C of the map should be originally extracted from the captured image, but the extraction is not performed. Then, in the captured image, the feature points b and c are feature points of extraction omission. For example, when a feature point having a feature amount similar to the feature amount of the feature point B is not extracted near the position where the feature point B included in the map is projected on the captured image, the feature point B is extracted. It may be determined that there is a leak. In this case, the ratio information may be calculated by the following equation. In the case of percentage, the value of the following equation may be multiplied by 100. In the case of FIG. 5B, two feature points matching the map feature points are extracted from the captured image, and two feature points that are not extracted exist, so that the ratio information is 0.5 or 50. %.
Ratio information = N1 / (N1 + N2)
Here, N1 is the number of feature points that match the feature points included in the map among the feature points extracted from the captured image, and N2 is the number of feature points that have not been extracted for the captured image.

また、図5(c)で示されるように、抽出漏れの特徴点が存在する場合には、撮影画像から他の特徴点e,fが抽出されることもある。例えば、ORB−SLAMでは、撮影画像から抽出される特徴点(FASTキーポイント)の個数があらかじめ決められているため、その決められた個数となるまで、特徴点が抽出されることになる。そのような場合に、例えば、特徴点e,fが、地図の特徴点B,Cに対応する物体と、撮影部13との間に存在する人間などの障害物から取得されたとすると、その撮影画像の特徴点e,fに対応する地図上の特徴点は存在しないことになる。また、そのような場合には、特徴点a,dは、地図上の特徴点A,Dとマッチングするが、特徴点e,fは、地図上の特徴点とマッチングしないことになる。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(c)の場合には、撮影画像から4個の特徴点が抽出され、2個の特徴点が地図上の特徴点とマッチングするため、割合情報は0.5または50%となる。
割合情報=N1/N3
但し、N1は、上記のとおりであり、N3は、撮影画像から抽出された特徴点の個数である。
In addition, as shown in FIG. 5C, when there is a feature point of extraction omission, other feature points e and f may be extracted from the captured image. For example, in the ORB-SLAM, since the number of feature points (FAST key points) extracted from a captured image is determined in advance, feature points are extracted until the number of feature points reaches the determined number. In such a case, for example, if the feature points e and f are obtained from an obstacle such as a person existing between the object corresponding to the feature points B and C on the map and the image capturing unit 13, The feature points on the map corresponding to the feature points e and f of the image do not exist. In such a case, the feature points a and d match the feature points A and D on the map, but the feature points e and f do not match the feature points on the map. In this case, the ratio information may be calculated by the following equation. In the case of percentage, the value of the following equation may be multiplied by 100. In the case of FIG. 5C, four feature points are extracted from the captured image, and two feature points match feature points on the map, so that the ratio information is 0.5 or 50%.
Ratio information = N1 / N3
Here, N1 is as described above, and N3 is the number of feature points extracted from the captured image.

このように、取得部18は、撮影画像から抽出された特徴点の個数(N3)や、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数(N1)、撮影画像に関する抽出漏れの特徴点の個数(N2)などを用いて割合情報を取得してもよい。割合情報は、上記の2個の式のうち、どちらによって算出されてもよく、また、他の式によって算出されてもよい。また、割合情報によって示される割合が所定の閾値より小さい場合には、撮影画像が位置の推定に適していないと判断されてもよい。撮影部13の撮影方向前方に、地図に含まれていない障害物が存在している可能性があるからである。   As described above, the acquisition unit 18 determines whether the number of feature points extracted from the captured image (N3) or the number of feature points extracted from the captured image that match the feature points included in the map (N1). ), The ratio information may be obtained by using the number (N2) of the feature points of the extraction omission regarding the captured image. The ratio information may be calculated by any of the above two equations, or may be calculated by another equation. When the ratio indicated by the ratio information is smaller than a predetermined threshold, it may be determined that the captured image is not suitable for estimating the position. This is because there is a possibility that an obstacle that is not included in the map exists in front of the photographing unit 13 in the photographing direction.

なお、ここでは、人間などの移動し得る障害物が移動体1の移動領域に存在することによって、割合情報が低下する場合について説明したが、割合情報の低下は、それ以外の要因、例えば、逆光での撮影などによっても生じ得る。したがって、割合情報を用いた撮影方向の制御を行うことによって、逆光などの影響も低減することができることになる。   Here, the case where the ratio information decreases due to the presence of a movable obstacle such as a person in the moving area of the moving body 1 has been described. However, the decrease in the ratio information is caused by other factors, for example, It can also be caused by backlit photography. Therefore, by controlling the photographing direction using the ratio information, the influence of backlight or the like can be reduced.

撮影方向制御部19は、取得部18によって取得された適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部13の撮影方向を変更させる。その撮影方向の変更は、撮影方向制御部19がマニピュレータ制御部12を制御することによって行われる。撮影方向を変更させる制御を行う場合には、例えば、撮影方向制御部19は、撮影部13の変更後の撮影方向を決定し、撮影部13の装着されているマニピュレータ11の箇所が、その撮影方向となるようにマニピュレータ制御部12に指示してもよい。マニピュレータ制御部12は、例えば、撮影部13の装着されているマニピュレータ11の箇所が、所定の撮影方向となるようにするための各関節の角度を逆運動学によって算出し、各関節がその算出した角度となるように、マニピュレータ11を制御してもよい。撮影方向の変更は、例えば、撮影部13の光軸の向きの変更であってもよく、撮影部13の光軸を平行移動させる場合などのように、撮影部13の位置の変更であってもよい。   The photographing direction control unit 19 changes the photographing direction of the photographing unit 13 using the matching information acquired by the acquiring unit 18 so that a photographed image suitable for position estimation is photographed. The change of the imaging direction is performed by the imaging direction control unit 19 controlling the manipulator control unit 12. When performing control to change the imaging direction, for example, the imaging direction control unit 19 determines the imaging direction after the imaging unit 13 is changed, and the position of the manipulator 11 to which the imaging unit 13 is mounted is determined by the imaging direction. The manipulator control unit 12 may be instructed to be in the direction. For example, the manipulator control unit 12 calculates the angle of each joint so that the location of the manipulator 11 on which the imaging unit 13 is mounted is in a predetermined imaging direction by inverse kinematics, and each joint calculates the angle. The manipulator 11 may be controlled so that the angle is set as described above. The change in the imaging direction may be, for example, a change in the direction of the optical axis of the imaging unit 13, or a change in the position of the imaging unit 13, such as when the optical axis of the imaging unit 13 is translated. Is also good.

適合情報に撮影画像の輝度の代表値が含まれる場合には、撮影方向制御部19は、撮影画像の輝度の代表値が所定の閾値より大きいときに、その代表値がより小さくなるように撮影方向を変更させてもよい。なお、撮影画像の輝度の代表値が所定の閾値より小さいときには、撮影方向制御部19は、撮影画像の輝度の代表値に応じた撮影方向の制御を行わなくてもよい。また、撮影画像の輝度の代表値が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる輝度の代表値が小さくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、輝度の代表値が閾値より小さくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。   When the matching information includes the representative value of the brightness of the captured image, the shooting direction control unit 19 performs shooting such that the representative value of the brightness of the captured image becomes smaller when the representative value of the brightness of the captured image is larger than a predetermined threshold value. The direction may be changed. When the representative value of the brightness of the captured image is smaller than the predetermined threshold, the capturing direction control unit 19 does not need to control the capturing direction according to the representative value of the luminance of the captured image. When the representative value of the brightness of the captured image is the same as the predetermined threshold, the capturing direction control unit 19 may or may not control the capturing direction. The change of the photographing direction may be, for example, a predetermined change or a change by trial and error for reducing the representative value of the luminance included in the adaptation information. In the latter case, for example, the imaging direction control unit 19 changes the imaging direction randomly or according to a predetermined rule, and as a result, when the representative value of the luminance becomes smaller than the threshold value, changes the imaging direction. It may end. Further, the predetermined change may be to change the shooting direction in the horizontal plane by turning the manipulator 11. The angle of the turn may be set to, for example, 60 degrees or 90 degrees.

適合情報に旋回情報が含まれる場合には、撮影方向制御部19は、旋回情報によって、移動機構16による直後の移動が旋回であることが示されるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。なお、旋回情報によって、直後の移動が旋回であることが示されないときには、撮影方向制御部19は、旋回情報に応じた撮影方向の制御を行わなくてもよい。ここで、旋回情報が、直後の移動が旋回であるかどうかを示すフラグ的な情報である場合には、撮影方向制御部19は、旋回情報によって、直後の移動が旋回であるかどうかを知ることができる。一方、旋回情報が、進行方向の変化のスピードや進行方向の変化の程度を示す情報である場合には、撮影方向制御部19は、その旋回情報を用いて、直後の移動が旋回であるかどうかを判断し、旋回であるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。具体的には、撮影方向制御部19は、進行方向の変化のスピードが閾値よりも大きく、進行方向の変化の角度が閾値よりも大きい場合に、直後の移動が旋回であると判断してもよい。旋回軸方向は通常、鉛直方向であるため、撮影方向制御部19は、直後の移動が旋回である場合に、例えば、撮影部13が上方や下方等を撮影するように撮影方向を変更させてもよく、斜め上方や斜め下方を撮影するように撮影方向を変更させてもよい。上方や下方とは、鉛直方向における上方や下方である。したがって、撮影部13が上方を撮影するように撮影方向が変更された場合には、撮影部13の光軸が略鉛直方向となり、移動空間の天井等を撮影するようになってもよい。なお、通常、旋回は水平面内で行われるため、旋回時に撮影部13の光軸が略鉛直方向となっている場合には、撮影部13の光軸が旋回軸方向と略一致することになる。そのため、旋回時には撮影画像の角度が変化するだけになり、結果として、特徴点のトラッキングがより容易になる。また、旋回情報に応じた撮影方向の変更は、その時点における撮影方向が水平方向である場合に行われてもよい。その時点における撮影方向が鉛直方向に近い場合には、直後の移動が旋回であるとしても、撮影方向を変更する必要性がないからである。   When the turning information is included in the matching information, the imaging direction control unit 19 sets the optical axis of the imaging unit 13 to the turning axis when the turning information indicates that the immediately subsequent movement by the moving mechanism 16 is turning. The shooting direction may be changed so as to approach the direction. Note that when the turning information does not indicate that the immediately subsequent movement is a turning, the shooting direction control unit 19 does not need to control the shooting direction according to the turning information. Here, when the turning information is flag-like information indicating whether or not the immediately following movement is a turning, the imaging direction control unit 19 determines whether or not the immediately following movement is a turning based on the turning information. be able to. On the other hand, when the turning information is information indicating the speed of the change in the traveling direction or the degree of the change in the traveling direction, the photographing direction control unit 19 uses the turning information to determine whether the immediately subsequent movement is a turning. It may be determined whether or not, and in the case of a turn, the shooting direction may be changed so that the optical axis of the shooting unit 13 approaches the turning axis direction. Specifically, the imaging direction control unit 19 may determine that the immediately subsequent movement is a turn when the speed of the change in the traveling direction is greater than the threshold and the angle of the change in the traveling direction is greater than the threshold. Good. Since the turning axis direction is usually a vertical direction, the photographing direction control unit 19 changes the photographing direction such that the photographing unit 13 photographs the upper side, the lower side, etc. Alternatively, the photographing direction may be changed so as to photograph obliquely upward or obliquely downward. Above and below are above and below in the vertical direction. Therefore, when the photographing direction is changed so that the photographing unit 13 photographs the upper side, the optical axis of the photographing unit 13 may be substantially vertical, and the ceiling or the like of the moving space may be photographed. Since the turning is usually performed in a horizontal plane, when the optical axis of the imaging unit 13 is substantially vertical at the time of the turning, the optical axis of the imaging unit 13 substantially coincides with the turning axis direction. . Therefore, only the angle of the captured image changes during turning, and as a result, tracking of feature points becomes easier. Further, the change of the shooting direction according to the turning information may be performed when the shooting direction at that time is the horizontal direction. This is because if the shooting direction at that time is close to the vertical direction, there is no need to change the shooting direction, even if the movement immediately after is turning.

適合情報に割合情報が含まれる場合には、撮影方向制御部19は、割合情報によって示される割合が所定の閾値より小さいときに、割合がより大きくなるように撮影方向を変更させてもよい。なお、割合情報によって示される割合が所定の閾値より大きいときには、撮影方向制御部19は、割合情報に応じた撮影方向の制御を行わなくてもよい。また、割合情報によって示される割合が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる割合情報によって示される割合が大きくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、割合情報が閾値より大きくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。また、あらかじめ決められた変更は、撮影部13の位置が高くなるように撮影方向を変更させることであってもよい。障害物によって、地図に含まれる特徴点に対応する物体を撮影できていない場合には、その障害物よりも高い位置から撮影することによって障害物の向こう側に存在する物体を撮影できるようになるため、撮影位置を高くすることは好適であると考えられる。なお、撮影部13の位置が高くなるように撮影方向を変更する際には、撮影の方位角方向が維持されるように、すなわち、撮影部13の光軸が平行移動となるように制御されてもよい。光軸が平行移動となるように撮影部13の位置を高くすることによって、例えば、撮影部13が進行方向を撮影している場合には、その進行方向の撮影を継続した状態において、障害物の影響を低減することができるようになる。   When the matching information includes the ratio information, the shooting direction control unit 19 may change the shooting direction so that the ratio becomes larger when the ratio indicated by the ratio information is smaller than a predetermined threshold. When the ratio indicated by the ratio information is larger than the predetermined threshold, the imaging direction control unit 19 does not need to control the imaging direction according to the ratio information. When the ratio indicated by the ratio information is the same as the predetermined threshold, the imaging direction control unit 19 may or may not control the imaging direction. The change of the shooting direction may be, for example, a predetermined change or a trial and error change to increase the ratio indicated by the ratio information included in the adaptation information. In the latter case, for example, the shooting direction control unit 19 changes the shooting direction at random or according to a predetermined rule, and ends the change of the shooting direction when the ratio information becomes larger than the threshold value. You may. Further, the predetermined change may be to change the shooting direction in the horizontal plane by turning the manipulator 11. The angle of the turn may be set to, for example, 60 degrees or 90 degrees. Further, the predetermined change may be to change the shooting direction so that the position of the shooting unit 13 is higher. When an object corresponding to a feature point included in the map cannot be photographed due to an obstacle, an object existing on the other side of the obstacle can be photographed by photographing from a position higher than the obstacle. Therefore, it is considered that raising the shooting position is preferable. When the photographing direction is changed so that the position of the photographing unit 13 is increased, control is performed so that the azimuth direction of photographing is maintained, that is, the optical axis of the photographing unit 13 is translated. You may. By raising the position of the photographing unit 13 so that the optical axis moves in parallel, for example, when the photographing unit 13 is photographing the traveling direction, the obstacle is kept in the state where the photographing in the traveling direction is continued. Can be reduced.

撮影方向制御部19によって撮影方向が変更される際には、適切なトラッキングを実現できる速度で、撮影角度や撮影位置が変更されてもよい。そのようにすることで、撮影方向を変更する際に自己位置を見失わないようにすることができる。   When the shooting direction is changed by the shooting direction control unit 19, the shooting angle or the shooting position may be changed at a speed that can achieve appropriate tracking. By doing so, it is possible to keep track of the self-position when changing the shooting direction.

また、適合情報に応じて撮影方向が変更された後に、所定の期間の経過等に応じて、撮影方向を元に戻すようにしてもよい。例えば、撮影画像の輝度の代表値が大きいことや、割合情報によって示される割合が小さいことに応じて撮影方向が変更された場合には、撮影方向制御部19は、所定の期間の経過後に撮影方向を元に戻してもよい。また、例えば、直後の移動が旋回であることに応じて撮影方向が変更された場合には、撮影方向制御部19は、適合情報に含まれる旋回情報によって、直後の移動が旋回でないことが示されるようになった後に、撮影方向を元に戻してもよい。   Further, after the photographing direction is changed according to the adaptation information, the photographing direction may be returned to the original one after a predetermined period elapses. For example, when the photographing direction is changed in accordance with a large representative value of the brightness of the photographed image or a small ratio indicated by the ratio information, the photographing direction control unit 19 performs the photographing after a predetermined period has elapsed. The direction may be restored. Further, for example, when the shooting direction is changed in accordance with the fact that the immediately following movement is turning, the shooting direction control unit 19 indicates that the immediately following movement is not turning by the turning information included in the matching information. After that, the shooting direction may be returned to the original.

次に、移動体1の動作について図3のフローチャートを用いて説明する。
(ステップS101)現在位置取得部15は、現在位置を取得するかどうか判断する。そして、現在位置を取得する場合には、ステップS102に進み、そうでない場合には、ステップS105に進む。現在位置取得部15は、例えば、現在位置を取得すると定期的に判断してもよい。
Next, the operation of the mobile unit 1 will be described with reference to the flowchart of FIG.
(Step S101) The current position acquisition unit 15 determines whether to acquire the current position. If the current position is to be obtained, the process proceeds to step S102; otherwise, the process proceeds to step S105. For example, the current position acquisition unit 15 may periodically determine that the current position is to be acquired.

(ステップS102)撮影部13は、その時点の撮影方向において、移動体1の周囲の撮影画像を取得する。なお、取得された撮影画像は、図示しない記録媒体で記憶されてもよい。   (Step S102) The photographing unit 13 acquires a photographed image around the moving body 1 in the photographing direction at that time. Note that the acquired captured image may be stored in a recording medium (not shown).

(ステップS103)位置推定部14は、取得された撮影画像から特徴点を抽出し、その抽出した特徴点と地図の特徴点とを用いて撮影部13の位置を推定する。また、位置推定部14は、撮影画像から抽出した特徴点を用いて地図を更新してもよい。なお、例えば、位置の推定は、撮影画像の取得ごとに行われ、地図の更新は、撮影画像の取得が何回か繰り返されるごとに行われてもよい。したがって、位置推定部14は、例えば、地図を更新すると判断した場合に、抽出した特徴点を用いた地図の更新を行ってもよい。なお、その推定された位置は、図示しない記録媒体で記憶されてもよい。   (Step S103) The position estimating unit 14 extracts a feature point from the acquired captured image, and estimates the position of the imaging unit 13 using the extracted feature point and the feature point of the map. The position estimating unit 14 may update the map using the feature points extracted from the captured image. Note that, for example, the position may be estimated each time a captured image is acquired, and the map may be updated each time the captured image is acquired several times. Therefore, for example, when it is determined that the map is to be updated, the position estimating unit 14 may update the map using the extracted feature points. Note that the estimated position may be stored on a recording medium (not shown).

(ステップS104)現在位置取得部15は、マニピュレータ11の各軸の角度と、位置推定部14によって取得された撮影部13の位置とを用いて、移動体1の現在位置を取得する。なお、その取得された現在位置は、図示しない記録媒体で記憶されてもよい。そして、ステップS101に戻る。   (Step S104) The current position acquisition unit 15 acquires the current position of the mobile unit 1 using the angles of the axes of the manipulator 11 and the position of the imaging unit 13 acquired by the position estimation unit 14. The acquired current position may be stored on a recording medium (not shown). Then, the process returns to step S101.

(ステップS105)取得部18は、適合情報を取得するかどうか判断する。そして、適合情報を取得する場合には、ステップS106に進み、そうでない場合には、ステップS101に戻る。取得部18は、例えば、適合情報を取得すると定期的に判断してもよい。なお、通常、現在位置の取得処理の時間間隔よりも、適合情報の取得処理の時間間隔の方が長いことになる。   (Step S105) The acquiring unit 18 determines whether to acquire the conformance information. Then, when the matching information is obtained, the process proceeds to step S106, and otherwise, the process returns to step S101. The acquisition unit 18 may periodically determine, for example, to acquire the matching information. Usually, the time interval of the process of acquiring the matching information is longer than the time interval of the process of acquiring the current position.

(ステップS106)取得部18は、適合情報を取得する。例えば、取得部18は、撮影画像を用いて輝度値の代表値を取得してもよく、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得してもよく、位置推定部14による撮影画像と地図とのマッチング結果を参照することによって割合情報を取得してもよい。なお、その取得された適合情報は、図示しない記録媒体で記憶されてもよい。   (Step S106) The acquisition unit 18 acquires the conformance information. For example, the obtaining unit 18 may obtain the representative value of the luminance value using the captured image, and obtains the turning information by referring to the contents of the future movement control managed by the movement control unit 17. Alternatively, the ratio information may be obtained by referring to a result of matching between the captured image and the map by the position estimating unit 14. The acquired matching information may be stored on a recording medium (not shown).

(ステップS107)撮影方向制御部19は、ステップS106で取得された適合情報を用いて、撮影方向の制御が必要であるかどうか判断する。そして、撮影方向の制御が必要である場合には、ステップS108に進み、そうでない場合には、ステップS101に戻る。なお、撮影方向制御部19は、例えば、適合情報によって、撮影画像の輝度の代表値が大きいことが示される場合や、旋回情報によって、直後の移動が旋回であることが示される場合、割合情報によって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低いことが示される場合に、撮影方向の制御が必要であると判断してもよい。   (Step S107) Using the matching information acquired in step S106, the imaging direction control unit 19 determines whether control of the imaging direction is necessary. If it is necessary to control the photographing direction, the process proceeds to step S108; otherwise, the process returns to step S101. Note that, for example, when the matching information indicates that the representative value of the brightness of the captured image is large, or when the turning information indicates that the immediately subsequent movement is turning, If this indicates that the ratio of matching between the feature points of the captured image and the feature points of the map is low, it may be determined that the control of the shooting direction is necessary.

(ステップS108)撮影方向制御部19は、マニピュレータ制御部12を制御することによって、撮影部13の撮影方向を変更させる。具体的には、撮影画像の輝度の代表値が大きいことが示される場合には、撮影方向制御部19は、マニピュレータ11を旋回させることなどによって、その代表値が小さくなるように撮影方向を変更してもよい。また、直後の移動が旋回である場合には、撮影方向制御部19は、撮影部13が天井などの上方を撮影するように撮影方向を変更してもよい。また、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低い場合には、撮影方向制御部19は、撮影位置が高くなるように撮影方向の変更等を行ってもよい。そして、ステップS101に戻る。   (Step S108) The photographing direction control unit 19 changes the photographing direction of the photographing unit 13 by controlling the manipulator control unit 12. Specifically, when it is indicated that the representative value of the brightness of the captured image is large, the capturing direction control unit 19 changes the capturing direction so as to reduce the representative value by turning the manipulator 11 or the like. May be. When the movement immediately after is turning, the photographing direction control unit 19 may change the photographing direction so that the photographing unit 13 photographs above the ceiling or the like. When the ratio of matching between the feature points of the captured image and the feature points of the map is low, the capturing direction control unit 19 may change the capturing direction and the like so that the capturing position is increased. Then, the process returns to step S101.

なお、図3のフローチャートには含まれていないが、現在位置取得部15によって取得された現在位置を用いた移動制御が、移動制御部17によって行われるものとする。また、マニピュレータ11による作業を行う位置への移動が完了した場合には、マニピュレータ制御部12によってマニピュレータ11が制御されることにより、所定の作業、例えば、溶接や塗装、組み立て等が行われてもよい。   Although not included in the flowchart in FIG. 3, it is assumed that the movement control using the current position acquired by the current position acquisition unit 15 is performed by the movement control unit 17. In addition, when the manipulator 11 completes the movement to the position where the work is performed, the manipulator 11 is controlled by the manipulator control unit 12, so that a predetermined work, for example, welding, painting, assembling, or the like is performed. Good.

また、図3のフローチャートでは、適合情報に種々の情報が含まれており、その適合情報を一括して取得した後に、その適合情報に応じた撮影方向の制御の要否判断を一括して行う場合について説明したが、そうでなくてもよい。適合情報に含まれる情報の取得と、その取得された情報に応じた撮影方向の制御の要否判断とを繰り返して行うようにしてもよい。その場合には、例えば、まず、旋回情報の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、撮影画像の輝度の代表値の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、割合情報の取得と、それに応じた撮影方向の制御の要否判断を行うようにしてもよい。なお、撮影方向の制御の要否判断のいずれかにおいて制御が必要であると判断された場合には、必要であると判断された制御を行うと共に、ステップS101に戻るようにしてもよい。   In the flowchart of FIG. 3, various pieces of information are included in the matching information, and after the matching information is collectively acquired, the necessity determination of the control of the imaging direction according to the matching information is collectively performed. Although the case has been described, this need not be the case. The acquisition of the information included in the adaptation information and the determination of the necessity of controlling the imaging direction according to the acquired information may be repeatedly performed. In this case, for example, first, it is necessary to obtain the turning information and determine whether or not the control of the shooting direction is necessary, and when the control is not necessary, obtain the representative value of the brightness of the shot image, and It is also possible to determine the necessity of the control of the shooting direction, and when the control is unnecessary, obtain the ratio information and determine whether the control of the shooting direction is necessary according to the information. When it is determined that the control is necessary in any of the necessity determinations of the control of the photographing direction, the control determined to be necessary may be performed, and the process may return to step S101.

また、適合情報に応じて撮影方向が変更された後の所定の期間の経過等に応じて、撮影方向を元に戻す場合には、ステップS107において、Noと判断され、かつ、撮影方向を戻すための条件が満たされるときに、撮影方向制御部19は、撮影方向を元に戻す制御を行ってもよい。また、図3のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。   If the shooting direction is to be returned to the original one after a predetermined period after the shooting direction is changed according to the adaptation information, it is determined as No in step S107, and the shooting direction is returned. Direction control unit 19 may perform control to return the shooting direction to the original direction when the condition for the image is satisfied. The order of the processes in the flowchart of FIG. 3 is an example, and the order of each step may be changed as long as a similar result is obtained. In addition, in the flowchart of FIG. 3, the processing is terminated by powering off or interruption for terminating the processing.

次に、本実施の形態による移動体1の動作について、具体例を用いて説明する。この具体例では、図6で示される経路R2に沿って移動体1が位置P1〜P6の順に移動するものとする。また、各位置P1〜P6を移動体1が移動している際の撮影方向を矢印によって示している。また、この具体例では、適合情報に応じた撮影方向の制御が行われる場合以外は、進行方向の撮影が行われるものとする。   Next, the operation of the moving body 1 according to the present embodiment will be described using a specific example. In this specific example, it is assumed that the moving body 1 moves in the order of the positions P1 to P6 along the route R2 shown in FIG. Further, the shooting direction when the moving body 1 is moving at each of the positions P1 to P6 is indicated by an arrow. In this specific example, it is assumed that the shooting in the traveling direction is performed except when the control of the shooting direction according to the matching information is performed.

まず、移動体1が位置P1を移動している際に、現在位置を取得するタイミングになったとすると、矢印で示される進行方向と一致する撮影方向、すなわち図6における上向きの撮影が行われ、その撮影画像と地図とを用いて撮影部13に関する位置推定が行われ、その位置推定結果を用いて、移動体1の現在位置が取得される(ステップS101〜S104)。その現在位置は、移動制御部17による移動制御に用いられることになる。なお、その後も、撮影や位置推定、現在位置の取得が繰り返されることになる。   First, if it is time to acquire the current position while the moving body 1 is moving at the position P1, a shooting direction that matches the traveling direction indicated by the arrow, that is, an upward shooting in FIG. The position of the photographing unit 13 is estimated using the photographed image and the map, and the current position of the moving body 1 is obtained using the position estimation result (steps S101 to S104). The current position is used for movement control by the movement control unit 17. After that, the photographing, the position estimation, and the acquisition of the current position are repeated.

また、適合情報を取得するタイミングとなると、取得部18は、そのときの最新の撮影画像を用いて輝度の代表値を取得し、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得し、最新の撮影画像と地図とのマッチング結果を用いて割合情報を取得する(ステップS105,S106)。なお、位置P1で取得された撮影画像の輝度の代表値は所定の閾値より小さく、また、旋回情報によって直後の移動が旋回ではないことが示され、さらに、割合情報によって示される割合は所定の閾値より大きかったとする。すると、撮影方向制御部19は、撮影方向の制御は必要ないと判断し、撮影方向の制御は行われないことになる(ステップS107)。その結果、進行方向の撮影が継続されることになる。   When it is time to acquire the adaptation information, the acquiring unit 18 acquires the representative value of the luminance using the latest captured image at that time, and updates the contents of the future movement control managed by the movement control unit 17. The turning information is acquired by referring to the information, and the ratio information is acquired using the matching result between the latest captured image and the map (steps S105 and S106). Note that the representative value of the luminance of the captured image acquired at the position P1 is smaller than a predetermined threshold, the turning information indicates that the immediately subsequent movement is not a turning, and the ratio indicated by the ratio information is a predetermined ratio. It is assumed that the value is larger than the threshold. Then, the shooting direction control unit 19 determines that the control of the shooting direction is not necessary, and the control of the shooting direction is not performed (step S107). As a result, shooting in the traveling direction is continued.

その後、移動体1が位置P2に到達した際に、進行方向左側に存在する窓から入射した外光によって撮影画像の露出がオーバーになっており、その際に取得された撮影画像の輝度の代表値は、所定の閾値よりも大きかったとする(ステップS105,S106)。すると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、マニピュレータ制御部12を介して撮影方向を90度だけ旋回させる(ステップS107,S108)。その旋回によって、図6で示されるように、撮影方向は右向きとなる。その結果、撮影部13に入射する外光が逆光から順光になり、適正露出での撮影を行うことができるようになる。なお、所定の時間が経過すると、図6の位置P3で示されるように、撮影方向制御部19は、撮影方向を標準設定である進行方向に戻す。仮に図6よりも窓の範囲が広く、位置P3においても外光の影響があるとすると、撮影方向が標準設定に戻された後に、再度、撮影画像の輝度の代表値が大きいと判断され、それに応じて撮影方向が図中右向きに変更されることになる。   Thereafter, when the moving body 1 reaches the position P2, the exposure of the captured image is overexposed due to external light incident from the window existing on the left side in the traveling direction, and the representative of the luminance of the captured image acquired at that time. It is assumed that the value is larger than a predetermined threshold (steps S105 and S106). Then, the imaging direction control unit 19 determines that the imaging direction needs to be controlled, and turns the imaging direction by 90 degrees via the manipulator control unit 12 (steps S107 and S108). Due to the turning, the photographing direction becomes rightward as shown in FIG. As a result, the external light incident on the photographing unit 13 changes from the backlight to the normal light, and the photographing with the proper exposure can be performed. After a lapse of a predetermined time, as shown by a position P3 in FIG. 6, the photographing direction control unit 19 returns the photographing direction to the traveling direction which is the standard setting. Assuming that the range of the window is wider than that in FIG. 6 and the external light is also affected at the position P3, it is determined that the representative value of the brightness of the captured image is large again after the shooting direction is returned to the standard setting, Accordingly, the shooting direction is changed to the right in the figure.

移動体1が位置P4に到達した際に、移動制御部17は、移動体1を90度旋回するように移動機構16を制御することになる。なお、この具体例では、80度以上の移動方向の変更が、旋回と判断される設定であるとする。すると、その移動制御の内容を参照することによって、取得部18は、直後の移動が旋回であることを示す旋回情報を取得する(ステップS106)。その旋回情報に応じて、撮影方向制御部19は、撮影方向の制御が必要であると判断して、撮影部13が垂直上方を撮影するようにマニピュレータ制御部12を制御する(ステップS107,S108)。そのため、位置推定部14は、その旋回が行われる際にも適切なトラッキングを行うことができ、旋回角度の適切に取得できると共に、自己位置を見失わないようにすることができる。なお、旋回が終了すると、直後の移動が旋回でないことを示す旋回情報が取得されるため、その旋回情報に応じて、撮影方向制御部19は、旋回後の進行方向、すなわち図中右側方向の撮影が行われるようにマニピュレータ制御部12を制御する。   When the moving body 1 reaches the position P4, the movement control unit 17 controls the moving mechanism 16 so that the moving body 1 turns by 90 degrees. In this specific example, it is assumed that a change in the moving direction of 80 degrees or more is a setting that is determined as turning. Then, by referring to the content of the movement control, the acquiring unit 18 acquires turning information indicating that the immediately following movement is turning (step S106). In accordance with the turning information, the photographing direction control unit 19 determines that control of the photographing direction is necessary, and controls the manipulator control unit 12 so that the photographing unit 13 photographs vertically upward (steps S107 and S108). ). Therefore, the position estimating unit 14 can perform appropriate tracking even when the turning is performed, can appropriately obtain the turning angle, and can keep track of its own position. When the turning is completed, turning information indicating that the immediately following movement is not a turning is obtained. Therefore, according to the turning information, the photographing direction control unit 19 determines the traveling direction after the turning, that is, the rightward direction in the drawing. The manipulator control unit 12 is controlled so that photographing is performed.

その後、移動体1が位置P5を移動している際に、前方から人間Mが歩いてきたとする。その状況において、人間Mが、撮影部13と地図に含まれる特徴点に対応する物体との間に存在することになり、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下したとする。すると、取得部18は、マッチングの割合の低下した割合情報を取得する(ステップS105,S106)。その割合情報の示す割合は、所定の閾値より小さかったとすると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、撮影部13の位置が高くなるようにマニピュレータ制御部12を制御する。その結果、高いところからの撮影が行われるようになるため、人間Mの影響が少なくなり、撮影画像の特徴点と地図の特徴点とのマッチングの割合を増加させることができる。この場合にも、所定の時間が経過し、移動体1が位置P6に到達すると、撮影部13の高さは元に戻されることになる。   Thereafter, it is assumed that the human M has walked from the front while the moving body 1 is moving at the position P5. In this situation, the human M is present between the imaging unit 13 and the object corresponding to the feature point included in the map, and the matching ratio between the feature point of the captured image and the feature point of the map is reduced. And Then, the acquiring unit 18 acquires the ratio information in which the ratio of matching has decreased (steps S105 and S106). If the ratio indicated by the ratio information is smaller than a predetermined threshold, the imaging direction control unit 19 determines that control of the imaging direction is necessary, and causes the manipulator control unit 12 to increase the position of the imaging unit 13. Control. As a result, since the image is taken from a high place, the influence of the person M is reduced, and the ratio of matching between the characteristic points of the photographed image and the characteristic points of the map can be increased. Also in this case, when the predetermined time has elapsed and the moving body 1 reaches the position P6, the height of the imaging unit 13 is returned to the original height.

以上のように、本実施の形態による移動体1によれば、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができる。その結果、現在位置の精度が向上することになり、より精度の高い移動を実現することができるようになる。また、撮影画像の輝度の代表値が適合情報に含まれていることによって、より適正な露出で撮影が行われるように制御することができる。また、旋回情報が適合情報に含まれていることによって、旋回時にも適切なトラッキングを行うことができる撮影を行うことができ、自己位置を見失わないようにすることができる。また、割合情報が適合情報に含まれていることによって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下しないようにすることができる。   As described above, according to mobile unit 1 of the present embodiment, by controlling the shooting direction using the matching information, it is possible to obtain a shot image that is more suitable for estimating the position. As a result, the accuracy of the current position is improved, and more accurate movement can be realized. In addition, since the representative value of the brightness of the captured image is included in the matching information, it is possible to control so that the image is captured with more appropriate exposure. In addition, since the turning information is included in the matching information, it is possible to perform shooting that can perform appropriate tracking even during turning, and to keep track of its own position. In addition, since the ratio information is included in the matching information, it is possible to prevent the matching ratio between the feature point of the captured image and the feature point of the map from decreasing.

なお、上記実施の形態においては、適合情報に、撮影画像の輝度の代表値と、旋回情報と、割合情報とが含まれる場合について主に説明したが、そうでなくてもよい。適合情報には、それら3個の情報のうち、少なくとも1個以上の情報が含まれていてもよい。また、適合情報には、それら以外の情報が含まれていてもよく、その情報を用いた撮影方向の制御が行われてもよい。   In the above-described embodiment, a case has been mainly described in which the adaptation information includes the representative value of the brightness of the captured image, the turning information, and the ratio information, but this is not essential. The matching information may include at least one or more of the three pieces of information. Further, the matching information may include other information, and the control of the shooting direction may be performed using the information.

また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。   Further, in the above embodiment, each process or each function may be realized by being centrally processed by a single device or a single system, or may be realized by distributed processing by a plurality of devices or a plurality of systems. It may be realized by doing.

また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。   Further, in the above-described embodiment, the information exchange performed between the components is performed by, for example, one of the components when the two components performing the information exchange are physically different from each other. It may be performed by outputting information and receiving information by the other component, or, when two components performing the transfer of the information are physically the same, one component may be used. May be performed by shifting from the processing phase corresponding to the above to the processing phase corresponding to the other component.

また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。   Further, in the above embodiment, information related to the processing executed by each component, for example, information received, obtained, selected, generated, transmitted, or received by each component Also, information such as thresholds, mathematical expressions, addresses, and the like used by each component in the processing may be temporarily or long-term stored in a recording medium (not shown), even if not explicitly described in the above description. The storage of information on the recording medium (not shown) may be performed by each component or a storage unit (not shown). The reading of information from the recording medium (not shown) may be performed by each component or a reading unit (not shown).

また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。   Further, in the above embodiment, when information used by each component and the like, for example, information such as a threshold and an address used by each component in processing and various setting values may be changed by a user, The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. When the information can be changed by the user, the change is realized by, for example, a receiving unit (not shown) that receives a change instruction from the user and a changing unit (not shown) that changes the information according to the change instruction. You may. The reception of the change instruction by the receiving unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .

また、上記実施の形態において、移動体1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。   Further, in the above embodiment, when two or more components included in the moving object 1 include a communication device, an input device, and the like, the two or more components may have a physically single device. Or may have separate devices.

また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。   Further, in the above embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution unit may execute the program while accessing the storage unit and the recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, or the like). Good. Further, this program may be used as a program constituting a program product. The computer that executes the program may be a single computer or multiple computers. That is, centralized processing or distributed processing may be performed.

また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。   In addition, the present invention is not limited to the above-described embodiments, and various changes can be made, and it goes without saying that these are also included in the scope of the present invention.

以上より、本発明による移動体によれば、より精度の高い現在位置の取得を実現できるという効果が得られ、撮影画像を用いて位置推定を行う移動体として有用である。   As described above, according to the moving object of the present invention, the effect of realizing a more accurate acquisition of the current position is obtained, and the moving object is useful as a moving object for performing position estimation using a captured image.

1 移動体
11 マニピュレータ
12 マニピュレータ制御部
13 撮影部
14 位置推定部
15 現在位置取得部
16 移動機構
17 移動制御部
18 取得部
19 撮影方向制御部
DESCRIPTION OF SYMBOLS 1 Moving body 11 Manipulator 12 Manipulator control part 13 Imaging part 14 Position estimation part 15 Current position acquisition part 16 Moving mechanism 17 Movement control part 18 Acquisition part 19 Imaging direction control part

Claims (5)

自律的に移動する移動体であって、
マニピュレータと、
前記マニピュレータに装着され、前記移動体の周囲の撮影画像を取得する撮影部と、
前記撮影画像と、前記移動体の移動領域における地図とを用いて前記撮影部の位置を推定する位置推定部と、
前記位置推定部によって推定された前記撮影部の位置を用いて、前記移動体の現在位置を取得する現在位置取得部と、
前記移動体を移動させる移動機構と、
前記現在位置を用いて、前記移動機構を制御する移動制御部と、
前記撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する取得部と、
前記マニピュレータを制御するマニピュレータ制御部と、
前記適合情報を用いて、位置の推定に適した撮影画像が撮影されるように前記撮影部の撮影方向を前記マニピュレータ制御部によって変更させる撮影方向制御部と、を備えた移動体。
A mobile object that moves autonomously,
A manipulator,
A photographing unit attached to the manipulator and acquiring a photographed image around the moving body,
A position estimating unit that estimates the position of the imaging unit using the captured image and a map in a moving area of the moving body;
Using a position of the imaging unit estimated by the position estimating unit, a current position acquisition unit that acquires a current position of the moving body,
A moving mechanism for moving the moving body,
A movement control unit that controls the movement mechanism using the current position;
An acquisition unit that acquires matching information indicating whether the captured image is suitable for estimating a position,
A manipulator control unit for controlling the manipulator,
A moving direction control unit configured to change a photographing direction of the photographing unit by the manipulator control unit so that a photographed image suitable for estimating a position is photographed using the matching information.
前記適合情報は、前記撮影画像の輝度の代表値を含んでおり、
前記撮影方向制御部は、前記撮影画像の輝度の代表値が所定の閾値より大きい場合に、当該代表値がより小さくなるように撮影方向を変更させる、請求項1記載の移動体。
The matching information includes a representative value of the brightness of the captured image,
The moving body according to claim 1, wherein when the representative value of the brightness of the captured image is larger than a predetermined threshold, the capturing direction control unit changes the capturing direction so that the representative value becomes smaller.
前記適合情報は、前記移動機構による直後の移動が旋回であるかどうかを示す旋回情報を含んでおり、
前記撮影方向制御部は、前記旋回情報によって、前記移動機構による直後の移動が旋回であることが示される場合に、前記撮影部の光軸が旋回軸方向に近づくように撮影方向を変更させる、請求項1記載の移動体。
The adaptation information includes turning information indicating whether or not the movement immediately after the moving mechanism is turning,
The imaging direction control unit changes the imaging direction so that the optical axis of the imaging unit approaches the turning axis direction, when the turning information indicates that the movement immediately after the moving mechanism is turning, The moving object according to claim 1.
前記適合情報は、前記撮影画像から抽出された特徴点と、前記地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでおり、
前記撮影方向制御部は、前記割合情報によって示される割合が所定の閾値より小さい場合に、当該割合がより大きくなるように撮影方向を変更させる、請求項1記載の移動体。
The matching information includes characteristic information extracted from the captured image and ratio information indicating a ratio of matching between the characteristic points included in the map,
The moving body according to claim 1, wherein when the ratio indicated by the ratio information is smaller than a predetermined threshold, the shooting direction control unit changes the shooting direction such that the ratio becomes larger.
前記撮影方向制御部は、前記割合情報によって示される割合が所定の閾値より小さい場合に、前記撮影部の位置が高くなるように撮影方向を変更させる、請求項4記載の移動体。 The moving body according to claim 4, wherein when the ratio indicated by the ratio information is smaller than a predetermined threshold, the imaging direction control unit changes the imaging direction so that the position of the imaging unit is higher.
JP2018157002A 2018-08-24 2018-08-24 moving body Active JP7153505B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018157002A JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018157002A JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Publications (2)

Publication Number Publication Date
JP2020030721A true JP2020030721A (en) 2020-02-27
JP7153505B2 JP7153505B2 (en) 2022-10-14

Family

ID=69622617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018157002A Active JP7153505B2 (en) 2018-08-24 2018-08-24 moving body

Country Status (1)

Country Link
JP (1) JP7153505B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989982A (en) * 2021-03-05 2021-06-18 佛山科学技术学院 Unmanned vehicle image acquisition control method and system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body
CN104090574A (en) * 2014-07-03 2014-10-08 邢淦琛 Intelligent environment cleaning machine
JP2016131367A (en) * 2015-01-09 2016-07-21 株式会社リコー Moving body system
US20160325432A1 (en) * 2014-08-29 2016-11-10 General Electric Company System and method for manipulation platform
JP2017146893A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Self-position estimation method
JP2018092527A (en) * 2016-12-07 2018-06-14 シャープ株式会社 Autonomous travel device, determination device, and control method and determination method for autonomous travel device
JP2018128847A (en) * 2017-02-08 2018-08-16 株式会社Ihiエアロスペース Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10128689A (en) * 1996-09-04 1998-05-19 Shinko Electric Co Ltd Visual correcting device of unmanned movable body
CN104090574A (en) * 2014-07-03 2014-10-08 邢淦琛 Intelligent environment cleaning machine
US20160325432A1 (en) * 2014-08-29 2016-11-10 General Electric Company System and method for manipulation platform
JP2016131367A (en) * 2015-01-09 2016-07-21 株式会社リコー Moving body system
JP2017146893A (en) * 2016-02-19 2017-08-24 トヨタ自動車株式会社 Self-position estimation method
JP2018092527A (en) * 2016-12-07 2018-06-14 シャープ株式会社 Autonomous travel device, determination device, and control method and determination method for autonomous travel device
JP2018128847A (en) * 2017-02-08 2018-08-16 株式会社Ihiエアロスペース Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112989982A (en) * 2021-03-05 2021-06-18 佛山科学技术学院 Unmanned vehicle image acquisition control method and system
CN112989982B (en) * 2021-03-05 2024-04-30 佛山科学技术学院 Unmanned vehicle image acquisition control method and system

Also Published As

Publication number Publication date
JP7153505B2 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
CN107907131B (en) positioning system, method and applicable robot
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
JP6872128B2 (en) Information processing equipment, information processing methods, and programs
WO2020168668A1 (en) Slam mapping method and system for vehicle
CN111566612A (en) Visual data acquisition system based on posture and sight line
WO2017078001A1 (en) Obstacle detection device
JP2018522348A (en) Method and system for estimating the three-dimensional posture of a sensor
JP6767998B2 (en) Estimating external parameters of the camera from the lines of the image
JP7355505B2 (en) Method and system for calibrating vehicle cameras
JP7063760B2 (en) Mobile
US20090154769A1 (en) Moving robot and moving object detecting method and medium thereof
EP2998934B1 (en) Image processing device, image processing method, and program
TW201904643A (en) Control device, flight vehicle and recording medium
WO2022143626A1 (en) Method for controlling mobile robot, computer-implemented storage medium, and mobile robot
JP2017027417A (en) Image processing device and vacuum cleaner
JP7153505B2 (en) moving body
CN111784842B (en) Three-dimensional reconstruction method, device, equipment and readable storage medium
Karrer et al. Real-time dense surface reconstruction for aerial manipulation
WO2017010268A1 (en) Estimation device and estimation program
CN110036411B (en) Apparatus and method for generating electronic three-dimensional roaming environment
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
CN111417016A (en) Attitude estimation method, server and network equipment
JP7491398B2 (en) Map generation device, map generation method, and program
CN112291701B (en) Positioning verification method, positioning verification device, robot, external equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220517

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221003

R150 Certificate of patent or registration of utility model

Ref document number: 7153505

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150