JP2020030721A - Moving vehicle - Google Patents
Moving vehicle Download PDFInfo
- Publication number
- JP2020030721A JP2020030721A JP2018157002A JP2018157002A JP2020030721A JP 2020030721 A JP2020030721 A JP 2020030721A JP 2018157002 A JP2018157002 A JP 2018157002A JP 2018157002 A JP2018157002 A JP 2018157002A JP 2020030721 A JP2020030721 A JP 2020030721A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- control unit
- captured image
- manipulator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 83
- 230000007246 mechanism Effects 0.000 claims abstract description 27
- 230000008859 change Effects 0.000 claims description 40
- 230000006978 adaptation Effects 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 13
- 238000013459 approach Methods 0.000 claims description 4
- 238000000034 method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000012636 effector Substances 0.000 description 5
- 238000000605 extraction Methods 0.000 description 4
- 238000010422 painting Methods 0.000 description 3
- 238000003466 welding Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、マニピュレータに装着された撮影部によって撮影された撮影画像を用いて現在位置を取得する移動体に関する。 The present invention relates to a moving body that obtains a current position using a captured image captured by a capturing unit mounted on a manipulator.
従来、撮像装置の設けられたマニピュレータを有する移動ロボットが知られている(特許文献1参照)。その移動ロボットは、マニピュレータが有する撮像装置によって撮影された走行情報マークを用いて自走することができる。 2. Description of the Related Art Conventionally, a mobile robot having a manipulator provided with an imaging device is known (see Patent Document 1). The mobile robot can travel by itself using a travel information mark captured by an imaging device of the manipulator.
しかしながら、撮影画像を用いて自律的に移動する移動体においては、移動の制御に用いる情報が適切に撮影されない場合には、精度の高い移動を実現できないという問題があった。例えば、撮影が逆光で行われるような場合には、適切な移動を行うことができなくなる恐れがあるという問題があった。 However, in a moving body that autonomously moves using a captured image, there is a problem that accurate movement cannot be realized unless information used for controlling the movement is appropriately captured. For example, when the photographing is performed in backlight, there is a problem that it may not be possible to perform appropriate movement.
本発明は、上記課題を解決するためになされたものであり、マニピュレータに装着された撮影部によって取得された撮影画像を用いて現在位置を取得する移動体において、現在位置の精度を向上させることを目的とする。 The present invention has been made to solve the above problems, and it is an object of the present invention to improve the accuracy of a current position in a moving body that obtains a current position using a captured image obtained by a capturing unit mounted on a manipulator. With the goal.
上記目的を達成するため、本発明による移動体は、自律的に移動する移動体であって、マニピュレータと、マニピュレータに装着され、移動体の周囲の撮影画像を取得する撮影部と、撮影画像と、移動体の移動領域における地図とを用いて撮影部の位置を推定する位置推定部と、位置推定部によって推定された撮影部の位置を用いて、移動体の現在位置を取得する現在位置取得部と、移動体を移動させる移動機構と、現在位置を用いて、移動機構を制御する移動制御部と、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する取得部と、マニピュレータを制御するマニピュレータ制御部と、適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部の撮影方向をマニピュレータ制御部によって変更させる撮影方向制御部と、を備えたものである。
このような構成により、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができるようになり、その結果として、現在位置の精度を向上させることができるようになる。
In order to achieve the above object, a moving body according to the present invention is a moving body that moves autonomously, a manipulator, a photographing unit that is mounted on the manipulator, and acquires a photographed image around the moving body, and a photographed image. A position estimating unit for estimating the position of the photographing unit using the map in the moving area of the moving object, and a current position acquisition for acquiring the current position of the moving object using the position of the photographing unit estimated by the position estimating unit Unit, a moving mechanism that moves the moving body, using the current position, a movement control unit that controls the moving mechanism, and an acquisition unit that acquires matching information indicating whether the captured image is suitable for estimating the position, A manipulator control unit that controls the manipulator, and an image capturing direction that is changed by the manipulator control unit using the matching information so that a captured image suitable for position estimation is captured. Those with a direction control unit.
With such a configuration, it is possible to obtain a captured image that is more suitable for estimating the position by controlling the imaging direction using the matching information, and as a result, to improve the accuracy of the current position. Will be able to
また、本発明による移動体では、適合情報は、撮影画像の輝度の代表値を含んでおり、撮影方向制御部は、撮影画像の輝度の代表値が所定の閾値より大きい場合に、代表値がより小さくなるように撮影方向を変更させてもよい。
このような構成により、例えば、撮影画像の露出がオーバーになっており、位置推定のための特徴点の取得が適切に行えないような場合に、より適正な露出となるように撮影方向を変更することによって、より精度の高い位置推定を行うことができるようになる。
Further, in the moving object according to the present invention, the adaptation information includes a representative value of the luminance of the captured image, and the capturing direction control unit determines that the representative value is larger when the representative value of the luminance of the captured image is larger than a predetermined threshold. The shooting direction may be changed so as to be smaller.
With such a configuration, for example, when the exposure of the captured image is over, and it is not possible to appropriately acquire a feature point for position estimation, the imaging direction is changed so as to obtain a more appropriate exposure. By doing so, more accurate position estimation can be performed.
また、本発明による移動体では、適合情報は、移動機構による直後の移動が旋回であるかどうかを示す旋回情報を含んでおり、撮影方向制御部は、旋回情報によって、移動機構による直後の移動が旋回であることが示される場合に、撮影部の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。
このような構成により、移動体の旋回時には、例えば、撮影部が上方や下方を撮影するようにすることができる。撮影画像を用いた位置推定では、旋回時にトラッキングを行うことができなくなることがあるが、このように、上方や下方の撮影を行うように撮影方向を変更することによって、旋回時の位置推定のトラッキングを適切に行うことができるようになる。
Further, in the moving body according to the present invention, the adaptation information includes turning information indicating whether or not the movement immediately after the movement by the movement mechanism is a turn. When it is indicated that is turning, the shooting direction may be changed so that the optical axis of the shooting unit approaches the turning axis direction.
With such a configuration, when the moving body turns, for example, the photographing unit can photograph the upper side and the lower side. In the position estimation using the captured image, tracking may not be performed at the time of turning. In this way, by changing the shooting direction so as to perform upward or downward shooting, the position estimation at the time of turning can be performed. Tracking can be performed appropriately.
また、本発明による移動体では、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでおり、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、割合がより大きくなるように撮影方向を変更させてもよい。
このような構成により、例えば、移動体の周囲に一時的に存在する障害物等によって、適切な位置推定を行うことができないような場合に、そのような障害物等を回避して撮影するように、撮影方向を変更させることができ、より精度の高い位置推定を実現できるようになる。
Further, in the moving object according to the present invention, the matching information includes ratio information indicating a ratio of matching between the feature points extracted from the captured image and the feature points included in the map. When the ratio indicated by the information is smaller than a predetermined threshold, the shooting direction may be changed so that the ratio becomes larger.
With such a configuration, for example, in a case where it is not possible to perform appropriate position estimation due to an obstacle or the like temporarily existing around the moving body, an image is captured while avoiding such an obstacle or the like. In this case, the photographing direction can be changed, and more accurate position estimation can be realized.
また、本発明による移動体では、撮影方向制御部は、割合情報によって示される割合が所定の閾値より小さい場合に、撮影部の位置が高くなるように撮影方向を変更させてもよい。
このような構成により、より高いところから撮影するように撮影方向を変更させることによって、障害物等を回避した撮影を実現できる可能性が高くなる。
Further, in the moving body according to the present invention, the imaging direction control unit may change the imaging direction so that the position of the imaging unit is higher when the ratio indicated by the ratio information is smaller than a predetermined threshold.
With such a configuration, by changing the shooting direction so as to shoot from a higher place, the possibility of realizing shooting avoiding an obstacle or the like increases.
本発明による移動体によれば、位置の推定により適している撮影画像を取得できるようになり、現在位置の精度を向上させることができる。 ADVANTAGE OF THE INVENTION According to the moving body by this invention, it becomes possible to acquire the captured image which is more suitable for position estimation, and it is possible to improve the accuracy of the current position.
以下、本発明による移動体について、実施の形態を用いて説明する。なお、以下の実施の形態において、同じ符号を付した構成要素及びステップは同一または相当するものであり、再度の説明を省略することがある。本実施の形態による移動体は、マニピュレータに装着された撮影部によって取得された撮影画像を用いた位置推定を行うものであり、撮影画像が位置の推定に適しているかどうかを示す適合情報を用いることによって、撮影方向を制御するものである。 Hereinafter, a moving object according to the present invention will be described using embodiments. Note that, in the following embodiments, components and steps denoted by the same reference numerals are the same or equivalent, and repeated description may be omitted. The moving object according to the present embodiment performs position estimation using a photographed image acquired by a photographing unit mounted on a manipulator, and uses matching information indicating whether the photographed image is suitable for position estimation. Thus, the photographing direction is controlled.
図1は、本実施の形態による移動体1の外観を示す模式図であり、図2は、移動体1の機能的な構成を示すブロック図である。本実施の形態による移動体1は、自律的に移動するものであって、マニピュレータ11と、マニピュレータ制御部12と、撮影部13と、位置推定部14と、現在位置取得部15と、移動機構16と、移動制御部17と、取得部18と、撮影方向制御部19とを備える。なお、移動体1が自律的に移動するとは、移動体1がユーザ等から受け付ける操作指示に応じて移動するのではなく、自らの判断によって目的地に移動することであってもよい。その目的地は、例えば、手動で決められたものであってもよく、または、自動的に決定されたものであってもよい。また、その目的地までの移動は、例えば、移動経路に沿って行われてもよく、または、そうでなくてもよい。また、自らの判断によって目的地に移動するとは、例えば、進行方向、移動や停止などを移動体1が自ら判断することによって、目的地まで移動することであってもよい。また、例えば、移動体1が、障害物に衝突しないように移動することであってもよい。移動体1は、例えば、台車であってもよく、移動するロボットであってもよい。ロボットは、例えば、エンターテインメントロボットであってもよく、監視ロボットであってもよく、搬送ロボットであってもよく、清掃ロボットであってもよく、動画や静止画を撮影するロボットであってもよく、溶接ロボットであってもよく、塗装ロボットであってもよく、農薬散布ロボットであってもよく、組立ロボットであってもよく、その他のロボットであってもよい。
FIG. 1 is a schematic diagram illustrating an appearance of a moving body 1 according to the present embodiment, and FIG. 2 is a block diagram illustrating a functional configuration of the moving body 1. The mobile object 1 according to the present embodiment is a mobile object that autonomously moves, and includes a manipulator 11, a
マニピュレータ11は、モータによって駆動される関節によって連結された複数のアームを有するものであってもよい。マニピュレータ11の先端には、マニピュレータ11によって行われる作業、例えば、溶接や搬送対象の把持、塗装、組み立てなどに応じた手先効果器(エンドエフェクタ)が設けられていてもよい。マニピュレータ11は、例えば、垂直多関節ロボットのマニピュレータであってもよく、水平多関節ロボットのマニピュレータであってもよい。また、そのマニピュレータ11の軸数は問わない。図1で示されるように、マニピュレータ11の基端側は、移動体1の車体1aに固定されていてもよい。また、マニピュレータ11は、マニピュレータ11の全体を旋回させることができる軸を基端側に有していてもよい。
The manipulator 11 may have a plurality of arms connected by a joint driven by a motor. At the tip of the manipulator 11, a hand effector (end effector) may be provided according to operations performed by the manipulator 11, for example, welding, gripping, painting, and assembling of an object to be conveyed. The manipulator 11 may be, for example, a manipulator of a vertical articulated robot or a manipulator of a horizontal articulated robot. Further, the number of axes of the manipulator 11 does not matter. As shown in FIG. 1, the base end side of the manipulator 11 may be fixed to the
マニピュレータ制御部12は、マニピュレータ11を制御する。マニピュレータ制御部12は、例えば、マニピュレータ11の手先の位置や姿勢に関する制御を行ってもよく、また、マニピュレータ11の手先効果器に関する制御を行ってもよい。マニピュレータ制御部12は、例えば、マニピュレータ11が有する各モータを制御するサーボコントローラを介してマニピュレータ11の制御を行ってもよい。
The
撮影部13は、移動体1の周囲の撮影画像を取得する。その撮影部13は、マニピュレータ11に装着されている。撮影部13が装着されるマニピュレータ11の位置は問わないが、撮影部13は、例えば、マニピュレータ11の先端に装着されてもよい。なお、マニピュレータ11において、撮影部13が装着されている位置は既知であるとする。また、撮影部13は、例えば、手先効果器の前方側を撮影するようにマニピュレータ11に装着されていてもよい。そのようにすることで、手先効果器による作業時にも、撮影部13によって取得された撮影画像を用いることができるようになる。このように、撮影部13は、マニピュレータ11に装着されているため、マニピュレータ11の位置や姿勢の変更に応じて、撮影方向が変更されることになる。撮影部13は、例えば、CCDイメージセンサやCMOSイメージセンサなどのイメージセンサを用いて撮影画像を取得してもよい。また、撮影部13は、イメージセンサ上に結像させるためのレンズ等の光学系を含んでいてもよい。また、撮影部13は、単眼であってもよく、双眼(ステレオカメラ)であってもよい。本実施の形態では、撮影部13が単眼である場合について主に説明する。撮影部13は、通常、動画を撮影するもの、すなわち、連続した画像フレームを取得するものである。移動している移動体1の現在位置を取得するために撮影画像を取得することから、そのフレームレートは、移動速度に対して十分大きいものであることが好適である。例えば、フレームレートは、約30fpsなどであってもよい。また、後述する適合情報に応じた撮影方向制御部19による撮影方向の制御が行われている場合以外は、撮影部13は、例えば、進行方向の向きの撮影画像を取得するようにしてもよく、進行方向に対して横方向の向きの撮影画像を取得するようにしてもよい。
The photographing
位置推定部14は、撮影部13によって取得された撮影画像と、移動体1の移動領域における地図とを用いて撮影部13の位置を推定する。この位置推定によって、グローバル座標系における撮影部13の位置が推定されることになる。この位置は、向きを含んでいてもよい。位置推定部14は、撮影画像から特徴点を抽出し、その抽出した特徴点と、地図に含まれる特徴点とのマッチングによって、位置推定を行ってもよい。その地図は、環境地図とも呼ばれるものであり、例えば、図示しない記録媒体で記憶されていてもよい。その特徴点は、例えば、FASTキーポイントや、SIFTキーポイント、SURFキーポイント等であってもよく、撮影画像を用いた位置推定で用いられるその他の特徴点であってもよい。そのマッチングは、撮影画像において特定された特徴点の特徴記述子(feature descriptor)と、地図に含まれる特徴点の特徴記述子との類似度を計算することによって行われてもよい。そのような撮影画像を用いた位置推定は、visual−SLAM(Simultaneous Localization and Mapping)としてすでに知られているため、その詳細な説明を省略する。なお、位置推定部14は、撮影画像において特定した特徴点を用いて地図を更新してもよく、または、そうでなくてもよい。本実施の形態では、位置推定部14がvisual−SLAMによって位置推定を行う場合、すなわち地図の更新も行う場合について主に説明する。また、visual−SLAMがORB−SLAMである場合には、地図に含まれる特徴点は、例えば、map pointであってもよく、キーフレーム(keyframe)に含まれる特徴点であってもよい。なお、FASTキーポイント、SIFTキーポイント、SURFキーポイント、ORB−SLAMにおける特徴点、ORB−SLAMにおける位置推定(tracking)及び地図の更新(local mapping)については、以下の文献1〜5をそれぞれ参照されたい。
The position estimating unit 14 estimates the position of the photographing
文献1:Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
文献2:D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60(2), pp. 91-110.
文献3:H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110(3), pp. 346-359.
文献4:Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
文献5:R. Mur-Artal, J.M. Montiel, J.D. Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.
Reference 1: Edward Rosten, Tom Drummond, "Machine learning for high-speed corner detection", in 9th European Conference on Computer Vision, vol. 1, 2006, pp. 430-443.
Reference 2: D. Lowe, "Distinctive image features from scale-invariant keypoints", Int. Journal of Computer Vision (2004), 60 (2), pp. 91-110.
Reference 3: H. Bay, A. Ess, T. Tuytelaars, L. Van Gool, "SURF: Speeded Up Robust Features", Computer Vision and Image Understanding (CVIU) (2008), 110 (3), pp. 346- 359.
Reference 4: Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary R. Bradski, "ORB: An efficient alternative to SIFT or SURF", ICCV 2011, pp. 2564-2571.
Reference 5: R. Mur-Artal, JM Montiel, JD Tardos, "ORB-SLAM: A Versatile and Accurate Monocular SLAM System", IEEE Transactions on Robotics 31 (2015), pp. 1147-1163.
現在位置取得部15は、位置推定部14によって推定された撮影部13の位置を用いて、移動体1の現在位置を取得する。マニピュレータ制御部12によって、マニピュレータ11の各関節における角度が管理されており、マニピュレータ11における撮影部13の装着位置は既知であるため、現在位置取得部15は、順運動学によって移動体1における撮影部13の位置を知ることができる。その撮影部13の位置は、例えば、移動体1のローカル座標系における位置であってもよい。したがって、位置推定部14によって取得されたグローバル座標系における撮影部13の位置と、移動体1における撮影部13の位置とを用いて、現在位置取得部15は、グローバル座標系における移動体1の現在位置を取得することができる。その現在位置は、例えば、移動体1の所定の箇所(例えば、重心位置や、設計者があらかじめ決めた位置など)のグローバル座標系における位置であってもよい。この現在位置も、向きを含んでいてもよい。
The current
移動機構16は、移動体1を移動させる。移動機構16は、例えば、移動体1を全方向に移動できるものであってもよく、または、そうでなくてもよい。全方向に移動できるとは、任意の方向に移動できることである。移動機構16は、例えば、走行部(例えば、車輪など)と、その走行部を駆動する駆動手段(例えば、モータやエンジンなど)とを有していてもよい。また、移動機構16は、車輪等の速度を取得できる機構、例えば、エンコーダ等を有していてもよい。なお、移動機構16が、移動体1を全方向に移動できるものである場合には、その走行部は、全方向移動車輪(例えば、オムニホイール、メカナムホイールなど)であってもよい。この移動機構16としては、公知のものを用いることができるため、その詳細な説明を省略する。
The moving
移動制御部17は、現在位置取得部15によって取得された現在位置を用いて移動機構16を制御することによって、移動体1の移動を制御する。移動の制御は、移動体1の移動の向きや、移動の開始・停止などの制御であってもよい。例えば、移動経路が設定されている場合には、移動制御部17は、移動体1がその移動経路に沿って移動するように、移動機構16を制御してもよい。より具体的には、移動制御部17は、現在位置取得部15によって取得される現在位置が、その移動経路に沿ったものになるように、移動機構16を制御してもよい。また、移動制御部17は、地図を用いて、移動の制御を行ってもよい。移動制御部17による移動機構16の制御は公知であるため、その詳細な説明を省略する。
The movement control unit 17 controls the movement of the moving body 1 by controlling the
取得部18は、撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する。撮影画像が位置の推定に適しているかどうかは、その撮影画像を用いてより精度の高い位置を推定できるかどうかを意味していると考えてもよい。適合情報は、例えば、後述するように、撮影画像や、移動体1における直後の移動制御の内容、撮影画像の特徴点と地図の特徴点とのマッチングの状況等に応じて取得されてもよい。 The acquiring unit 18 acquires matching information indicating whether the captured image is suitable for estimating a position. Whether or not a captured image is suitable for position estimation may be considered to mean whether or not a more accurate position can be estimated using the captured image. The adaptation information may be acquired according to, for example, a captured image, the content of the movement control immediately after the moving object 1, a matching state between a feature point of the captured image and a feature point of the map, as described later. .
例えば、撮影画像において露出がオーバーとなる場合、すなわち撮影画像において白とびが発生している場合には、その撮影画像において特徴点を特定することが困難になるため、その撮影画像は位置の推定に適していないことになる。したがって、適合情報は、撮影画像の輝度の代表値を含んでいてもよい。その代表値は、例えば、平均値や中央値、最小値などであってもよい。取得部18は、例えば、撮影画像に含まれる各画素の輝度値を取得し、その取得した複数の輝度値の代表値を取得してもよい。撮影画像の輝度値の代表値があらかじめ決められた閾値よりも大きい場合には、その撮影画像は、位置の推定に適していないと判断されてもよい。その撮影画像は、露出オーバーになっていると考えられるからである。 For example, when overexposure occurs in a captured image, that is, when overexposure occurs in the captured image, it becomes difficult to identify feature points in the captured image. Would not be suitable for Therefore, the matching information may include a representative value of the luminance of the captured image. The representative value may be, for example, an average value, a median value, a minimum value, or the like. The acquiring unit 18 may acquire, for example, a luminance value of each pixel included in the captured image, and acquire a representative value of the acquired plural luminance values. If the representative value of the brightness value of the captured image is larger than a predetermined threshold, it may be determined that the captured image is not suitable for estimating the position. This is because the captured image is considered to be overexposed.
また、例えば、移動体1が旋回する場合に水平方向の撮影を行っていると、撮影画像を用いた位置推定において適切なトラッキングを行うことができなくなることがある。そのため、移動体1が旋回を行う際に撮影された水平方向の撮影画像は、位置推定に適していないことになる。したがって、適合情報は、移動機構16による直後の移動が旋回であるかどうかを示す旋回情報を含んでいてもよい。その旋回情報は、直後の移動が旋回であるかどうかを示すフラグ的な情報であってもよく、直後の移動が旋回であるかどうかを判断するための移動に関する詳細な情報、例えば、進行方向の変化のスピード(角速度)や進行方向の変化の程度(角度など)を示す情報であってもよい。
Further, for example, if the mobile unit 1 is turning and shooting in the horizontal direction is performed, it may not be possible to perform appropriate tracking in position estimation using a shot image. For this reason, a captured image in the horizontal direction captured when the moving body 1 makes a turn is not suitable for position estimation. Therefore, the adaptation information may include turning information indicating whether or not the immediately subsequent movement by the moving
具体的には、取得部18は、移動体1の今後の移動において、あらかじめ決められた時間間隔(例えば、1秒や3秒など)以内に、進行方向があらかじめ決められた閾値の角度(例えば、80度や90度、120度、150度など)以上変化する場合に、今後の移動が旋回であると判断して、直後の移動が旋回であることを示す旋回情報を取得してもよい。 Specifically, the acquisition unit 18 determines that the moving direction of the moving object 1 is determined within a predetermined time interval (for example, 1 second or 3 seconds) by a predetermined threshold angle (for example, 1 second or 3 seconds). , 80 degrees, 90 degrees, 120 degrees, 150 degrees, etc.) or more, it may be determined that the future movement is a turn, and turn information indicating that the immediately subsequent movement is a turn may be obtained. .
図4(a)、図4(b)は、上面視において移動体1の進行方向の変化を示す図である。例えば、移動体1の今後の進行方向が図4(a)で示される矢印A1〜A5のように順番に変化する場合に、取得部18は、移動機構16による直後の移動が旋回であることを示す旋回情報を取得してもよい。なお、そのような旋回が、所定の時間間隔以内に行われる場合に、今後の移動が旋回であると判断されてもよい。また、図4(a)では、旋回半径が0である旋回について示しているが、図4(b)で示されるように、旋回半径が0でない旋回であっても、上記の条件が満たされる場合に、今後の移動が旋回であると判断されてもよい。所定の時間間隔以内に所定の角度以上、進行方向が変化した場合には、旋回半径に関わらず、水平方向の画像を用いた位置推定におけるトラッキングが困難になるからである。なお、図4(b)では、経路R1に沿って移動体1が移動し、矢印A6〜A8のように進行方向が順番に変化することを示している。また、取得部18は、今後の移動における進行方向等を、例えば、移動制御部17から取得してもよく、または、移動経路や現在位置等を用いて算出してもよい。また、移動制御部17は、現在位置に応じて移動制御を行うため、直近の所定期間の移動に関する情報のみを有していることもある。そのような場合には、取得部18は、移動制御部17が有している情報において、今後の進行方向の角度変化が閾値の角度以上である場合に、今後の移動が旋回であると判断してもよい。また、旋回情報によって、直後に旋回の行われることが示される場合には、撮影画像が位置の推定に適していないと判断されてもよい。旋回時に撮影される水平方向の撮影画像は、トラッキングを行うのに好適ではないからである。
FIGS. 4A and 4B are diagrams showing changes in the traveling direction of the moving body 1 when viewed from above. For example, when the future traveling direction of the moving body 1 sequentially changes as indicated by arrows A1 to A5 shown in FIG. 4A, the acquisition unit 18 determines that the movement immediately after the moving
また、例えば、位置推定で用いられる地図上の特徴点に対応する物体と、撮影部13との間に人間などの障害物が存在する場合には、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの程度が低下することになり、その結果、位置推定の精度が低下することになる。したがって、適合情報は、撮影画像から抽出された特徴点と、地図に含まれる特徴点とのマッチングの割合を示す割合情報を含んでいてもよい。図5は、撮影画像において抽出された特徴点と、地図に含まれる特徴点とのマッチング関係を示す図である。
Further, for example, when there is an obstacle such as a human between the object corresponding to the feature point on the map used in the position estimation and the
例えば、図5(a)で示されるように、地図に特徴点A〜Dが含まれており、撮影画像において特徴点a〜dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量(特徴記述子)を用いたマッチングによって、撮影画像の特徴点a〜dは、それぞれ地図の特徴点A〜Dに対応することになったとする。そのマッチングは、例えば、visual−SLAMによる位置推定のために位置推定部14によって行われてもよい。図5(a)の場合には、撮影画像から4個の特徴点が抽出され、そのすべての特徴点が地図に含まれる特徴点とマッチングしているため、割合情報は1または100%となる。 For example, as shown in FIG. 5A, it is assumed that feature points A to D are included in the map, and feature points a to d are specified in the captured image. In addition, the feature points a to d of the captured image are changed to the feature points A to D of the map by matching using the feature amount (feature descriptor) between the feature point specified in the captured image and the feature point included in the map. Suppose that it corresponds to D. The matching may be performed by the position estimating unit 14 for position estimation by visual-SLAM, for example. In the case of FIG. 5A, four feature points are extracted from the captured image, and all the feature points match feature points included in the map, so that the ratio information is 1 or 100%. .
一方、図5(b)で示されるように、地図に特徴点A〜Dが含まれており、撮影画像において、特徴点a,dが特定されているとする。また、撮影画像において特定された特徴点と、地図に含まれる特徴点との特徴量を用いたマッチングによって、撮影画像の特徴点a,dは、それぞれ地図の特徴点A,Dに対応することになったとする。なお、図5(b)では、地図には特徴点B,Cも含まれている。したがって、本来であれば、地図の特徴点B,Cに対応する特徴点b,cが撮影画像から抽出されるべきであるが、その抽出が行われなかったとする。すると、その撮影画像において、特徴点b,cは、抽出漏れの特徴点となる。なお、例えば、地図に含まれる特徴点Bを撮影画像に投影した位置の近傍に、特徴点Bの特徴量と類似した特徴量を有する特徴点が抽出されていない場合に、特徴点Bは抽出漏れであると判断されてもよい。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(b)の場合には、撮影画像から、地図の特徴点とマッチングする特徴点が2個抽出され、2個の抽出漏れの特徴点が存在するため、割合情報は0.5または50%となる。
割合情報=N1/(N1+N2)
但し、N1は、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数であり、N2は、その撮影画像に関する抽出漏れの特徴点の個数である。
On the other hand, as shown in FIG. 5B, it is assumed that feature points A to D are included in the map, and feature points a and d are specified in the captured image. In addition, the feature points a and d of the captured image correspond to the feature points A and D of the map, respectively, by matching using the feature amount of the feature point specified in the captured image and the feature point included in the map. Let's say In FIG. 5B, the map also includes feature points B and C. Therefore, it is assumed that the feature points b and c corresponding to the feature points B and C of the map should be originally extracted from the captured image, but the extraction is not performed. Then, in the captured image, the feature points b and c are feature points of extraction omission. For example, when a feature point having a feature amount similar to the feature amount of the feature point B is not extracted near the position where the feature point B included in the map is projected on the captured image, the feature point B is extracted. It may be determined that there is a leak. In this case, the ratio information may be calculated by the following equation. In the case of percentage, the value of the following equation may be multiplied by 100. In the case of FIG. 5B, two feature points matching the map feature points are extracted from the captured image, and two feature points that are not extracted exist, so that the ratio information is 0.5 or 50. %.
Ratio information = N1 / (N1 + N2)
Here, N1 is the number of feature points that match the feature points included in the map among the feature points extracted from the captured image, and N2 is the number of feature points that have not been extracted for the captured image.
また、図5(c)で示されるように、抽出漏れの特徴点が存在する場合には、撮影画像から他の特徴点e,fが抽出されることもある。例えば、ORB−SLAMでは、撮影画像から抽出される特徴点(FASTキーポイント)の個数があらかじめ決められているため、その決められた個数となるまで、特徴点が抽出されることになる。そのような場合に、例えば、特徴点e,fが、地図の特徴点B,Cに対応する物体と、撮影部13との間に存在する人間などの障害物から取得されたとすると、その撮影画像の特徴点e,fに対応する地図上の特徴点は存在しないことになる。また、そのような場合には、特徴点a,dは、地図上の特徴点A,Dとマッチングするが、特徴点e,fは、地図上の特徴点とマッチングしないことになる。この場合には、次式によって割合情報が算出されてもよい。なお、百分率の場合には、次式の値に100を掛けてもよい。図5(c)の場合には、撮影画像から4個の特徴点が抽出され、2個の特徴点が地図上の特徴点とマッチングするため、割合情報は0.5または50%となる。
割合情報=N1/N3
但し、N1は、上記のとおりであり、N3は、撮影画像から抽出された特徴点の個数である。
In addition, as shown in FIG. 5C, when there is a feature point of extraction omission, other feature points e and f may be extracted from the captured image. For example, in the ORB-SLAM, since the number of feature points (FAST key points) extracted from a captured image is determined in advance, feature points are extracted until the number of feature points reaches the determined number. In such a case, for example, if the feature points e and f are obtained from an obstacle such as a person existing between the object corresponding to the feature points B and C on the map and the
Ratio information = N1 / N3
Here, N1 is as described above, and N3 is the number of feature points extracted from the captured image.
このように、取得部18は、撮影画像から抽出された特徴点の個数(N3)や、撮影画像から抽出された特徴点のうち、地図に含まれる特徴点とマッチングする特徴点の個数(N1)、撮影画像に関する抽出漏れの特徴点の個数(N2)などを用いて割合情報を取得してもよい。割合情報は、上記の2個の式のうち、どちらによって算出されてもよく、また、他の式によって算出されてもよい。また、割合情報によって示される割合が所定の閾値より小さい場合には、撮影画像が位置の推定に適していないと判断されてもよい。撮影部13の撮影方向前方に、地図に含まれていない障害物が存在している可能性があるからである。
As described above, the acquisition unit 18 determines whether the number of feature points extracted from the captured image (N3) or the number of feature points extracted from the captured image that match the feature points included in the map (N1). ), The ratio information may be obtained by using the number (N2) of the feature points of the extraction omission regarding the captured image. The ratio information may be calculated by any of the above two equations, or may be calculated by another equation. When the ratio indicated by the ratio information is smaller than a predetermined threshold, it may be determined that the captured image is not suitable for estimating the position. This is because there is a possibility that an obstacle that is not included in the map exists in front of the photographing
なお、ここでは、人間などの移動し得る障害物が移動体1の移動領域に存在することによって、割合情報が低下する場合について説明したが、割合情報の低下は、それ以外の要因、例えば、逆光での撮影などによっても生じ得る。したがって、割合情報を用いた撮影方向の制御を行うことによって、逆光などの影響も低減することができることになる。 Here, the case where the ratio information decreases due to the presence of a movable obstacle such as a person in the moving area of the moving body 1 has been described. However, the decrease in the ratio information is caused by other factors, for example, It can also be caused by backlit photography. Therefore, by controlling the photographing direction using the ratio information, the influence of backlight or the like can be reduced.
撮影方向制御部19は、取得部18によって取得された適合情報を用いて、位置の推定に適した撮影画像が撮影されるように撮影部13の撮影方向を変更させる。その撮影方向の変更は、撮影方向制御部19がマニピュレータ制御部12を制御することによって行われる。撮影方向を変更させる制御を行う場合には、例えば、撮影方向制御部19は、撮影部13の変更後の撮影方向を決定し、撮影部13の装着されているマニピュレータ11の箇所が、その撮影方向となるようにマニピュレータ制御部12に指示してもよい。マニピュレータ制御部12は、例えば、撮影部13の装着されているマニピュレータ11の箇所が、所定の撮影方向となるようにするための各関節の角度を逆運動学によって算出し、各関節がその算出した角度となるように、マニピュレータ11を制御してもよい。撮影方向の変更は、例えば、撮影部13の光軸の向きの変更であってもよく、撮影部13の光軸を平行移動させる場合などのように、撮影部13の位置の変更であってもよい。
The photographing
適合情報に撮影画像の輝度の代表値が含まれる場合には、撮影方向制御部19は、撮影画像の輝度の代表値が所定の閾値より大きいときに、その代表値がより小さくなるように撮影方向を変更させてもよい。なお、撮影画像の輝度の代表値が所定の閾値より小さいときには、撮影方向制御部19は、撮影画像の輝度の代表値に応じた撮影方向の制御を行わなくてもよい。また、撮影画像の輝度の代表値が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる輝度の代表値が小さくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、輝度の代表値が閾値より小さくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。
When the matching information includes the representative value of the brightness of the captured image, the shooting
適合情報に旋回情報が含まれる場合には、撮影方向制御部19は、旋回情報によって、移動機構16による直後の移動が旋回であることが示されるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。なお、旋回情報によって、直後の移動が旋回であることが示されないときには、撮影方向制御部19は、旋回情報に応じた撮影方向の制御を行わなくてもよい。ここで、旋回情報が、直後の移動が旋回であるかどうかを示すフラグ的な情報である場合には、撮影方向制御部19は、旋回情報によって、直後の移動が旋回であるかどうかを知ることができる。一方、旋回情報が、進行方向の変化のスピードや進行方向の変化の程度を示す情報である場合には、撮影方向制御部19は、その旋回情報を用いて、直後の移動が旋回であるかどうかを判断し、旋回であるときに、撮影部13の光軸が旋回軸方向に近づくように撮影方向を変更させてもよい。具体的には、撮影方向制御部19は、進行方向の変化のスピードが閾値よりも大きく、進行方向の変化の角度が閾値よりも大きい場合に、直後の移動が旋回であると判断してもよい。旋回軸方向は通常、鉛直方向であるため、撮影方向制御部19は、直後の移動が旋回である場合に、例えば、撮影部13が上方や下方等を撮影するように撮影方向を変更させてもよく、斜め上方や斜め下方を撮影するように撮影方向を変更させてもよい。上方や下方とは、鉛直方向における上方や下方である。したがって、撮影部13が上方を撮影するように撮影方向が変更された場合には、撮影部13の光軸が略鉛直方向となり、移動空間の天井等を撮影するようになってもよい。なお、通常、旋回は水平面内で行われるため、旋回時に撮影部13の光軸が略鉛直方向となっている場合には、撮影部13の光軸が旋回軸方向と略一致することになる。そのため、旋回時には撮影画像の角度が変化するだけになり、結果として、特徴点のトラッキングがより容易になる。また、旋回情報に応じた撮影方向の変更は、その時点における撮影方向が水平方向である場合に行われてもよい。その時点における撮影方向が鉛直方向に近い場合には、直後の移動が旋回であるとしても、撮影方向を変更する必要性がないからである。
When the turning information is included in the matching information, the imaging
適合情報に割合情報が含まれる場合には、撮影方向制御部19は、割合情報によって示される割合が所定の閾値より小さいときに、割合がより大きくなるように撮影方向を変更させてもよい。なお、割合情報によって示される割合が所定の閾値より大きいときには、撮影方向制御部19は、割合情報に応じた撮影方向の制御を行わなくてもよい。また、割合情報によって示される割合が所定の閾値と同じであるときには、撮影方向制御部19は、撮影方向の制御を行ってもよく、または、行わなくてもよい。その撮影方向の変更は、例えば、あらかじめ決められた変更であってもよく、適合情報に含まれる割合情報によって示される割合が大きくなるようにするための試行錯誤での変更であってもよい。後者の場合には、撮影方向制御部19は、例えば、撮影方向をランダムに、または所定のルールに従って変更させ、結果として、割合情報が閾値より大きくなったときに、撮影方向の変更を終了してもよい。また、あらかじめ決められた変更は、マニピュレータ11を旋回させることによって、水平面内における撮影方向を変更させることであってもよい。その旋回の角度は、例えば、60度や90度などに決められていてもよい。また、あらかじめ決められた変更は、撮影部13の位置が高くなるように撮影方向を変更させることであってもよい。障害物によって、地図に含まれる特徴点に対応する物体を撮影できていない場合には、その障害物よりも高い位置から撮影することによって障害物の向こう側に存在する物体を撮影できるようになるため、撮影位置を高くすることは好適であると考えられる。なお、撮影部13の位置が高くなるように撮影方向を変更する際には、撮影の方位角方向が維持されるように、すなわち、撮影部13の光軸が平行移動となるように制御されてもよい。光軸が平行移動となるように撮影部13の位置を高くすることによって、例えば、撮影部13が進行方向を撮影している場合には、その進行方向の撮影を継続した状態において、障害物の影響を低減することができるようになる。
When the matching information includes the ratio information, the shooting
撮影方向制御部19によって撮影方向が変更される際には、適切なトラッキングを実現できる速度で、撮影角度や撮影位置が変更されてもよい。そのようにすることで、撮影方向を変更する際に自己位置を見失わないようにすることができる。
When the shooting direction is changed by the shooting
また、適合情報に応じて撮影方向が変更された後に、所定の期間の経過等に応じて、撮影方向を元に戻すようにしてもよい。例えば、撮影画像の輝度の代表値が大きいことや、割合情報によって示される割合が小さいことに応じて撮影方向が変更された場合には、撮影方向制御部19は、所定の期間の経過後に撮影方向を元に戻してもよい。また、例えば、直後の移動が旋回であることに応じて撮影方向が変更された場合には、撮影方向制御部19は、適合情報に含まれる旋回情報によって、直後の移動が旋回でないことが示されるようになった後に、撮影方向を元に戻してもよい。
Further, after the photographing direction is changed according to the adaptation information, the photographing direction may be returned to the original one after a predetermined period elapses. For example, when the photographing direction is changed in accordance with a large representative value of the brightness of the photographed image or a small ratio indicated by the ratio information, the photographing
次に、移動体1の動作について図3のフローチャートを用いて説明する。
(ステップS101)現在位置取得部15は、現在位置を取得するかどうか判断する。そして、現在位置を取得する場合には、ステップS102に進み、そうでない場合には、ステップS105に進む。現在位置取得部15は、例えば、現在位置を取得すると定期的に判断してもよい。
Next, the operation of the mobile unit 1 will be described with reference to the flowchart of FIG.
(Step S101) The current
(ステップS102)撮影部13は、その時点の撮影方向において、移動体1の周囲の撮影画像を取得する。なお、取得された撮影画像は、図示しない記録媒体で記憶されてもよい。
(Step S102) The photographing
(ステップS103)位置推定部14は、取得された撮影画像から特徴点を抽出し、その抽出した特徴点と地図の特徴点とを用いて撮影部13の位置を推定する。また、位置推定部14は、撮影画像から抽出した特徴点を用いて地図を更新してもよい。なお、例えば、位置の推定は、撮影画像の取得ごとに行われ、地図の更新は、撮影画像の取得が何回か繰り返されるごとに行われてもよい。したがって、位置推定部14は、例えば、地図を更新すると判断した場合に、抽出した特徴点を用いた地図の更新を行ってもよい。なお、その推定された位置は、図示しない記録媒体で記憶されてもよい。
(Step S103) The position estimating unit 14 extracts a feature point from the acquired captured image, and estimates the position of the
(ステップS104)現在位置取得部15は、マニピュレータ11の各軸の角度と、位置推定部14によって取得された撮影部13の位置とを用いて、移動体1の現在位置を取得する。なお、その取得された現在位置は、図示しない記録媒体で記憶されてもよい。そして、ステップS101に戻る。
(Step S104) The current
(ステップS105)取得部18は、適合情報を取得するかどうか判断する。そして、適合情報を取得する場合には、ステップS106に進み、そうでない場合には、ステップS101に戻る。取得部18は、例えば、適合情報を取得すると定期的に判断してもよい。なお、通常、現在位置の取得処理の時間間隔よりも、適合情報の取得処理の時間間隔の方が長いことになる。 (Step S105) The acquiring unit 18 determines whether to acquire the conformance information. Then, when the matching information is obtained, the process proceeds to step S106, and otherwise, the process returns to step S101. The acquisition unit 18 may periodically determine, for example, to acquire the matching information. Usually, the time interval of the process of acquiring the matching information is longer than the time interval of the process of acquiring the current position.
(ステップS106)取得部18は、適合情報を取得する。例えば、取得部18は、撮影画像を用いて輝度値の代表値を取得してもよく、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得してもよく、位置推定部14による撮影画像と地図とのマッチング結果を参照することによって割合情報を取得してもよい。なお、その取得された適合情報は、図示しない記録媒体で記憶されてもよい。 (Step S106) The acquisition unit 18 acquires the conformance information. For example, the obtaining unit 18 may obtain the representative value of the luminance value using the captured image, and obtains the turning information by referring to the contents of the future movement control managed by the movement control unit 17. Alternatively, the ratio information may be obtained by referring to a result of matching between the captured image and the map by the position estimating unit 14. The acquired matching information may be stored on a recording medium (not shown).
(ステップS107)撮影方向制御部19は、ステップS106で取得された適合情報を用いて、撮影方向の制御が必要であるかどうか判断する。そして、撮影方向の制御が必要である場合には、ステップS108に進み、そうでない場合には、ステップS101に戻る。なお、撮影方向制御部19は、例えば、適合情報によって、撮影画像の輝度の代表値が大きいことが示される場合や、旋回情報によって、直後の移動が旋回であることが示される場合、割合情報によって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低いことが示される場合に、撮影方向の制御が必要であると判断してもよい。
(Step S107) Using the matching information acquired in step S106, the imaging
(ステップS108)撮影方向制御部19は、マニピュレータ制御部12を制御することによって、撮影部13の撮影方向を変更させる。具体的には、撮影画像の輝度の代表値が大きいことが示される場合には、撮影方向制御部19は、マニピュレータ11を旋回させることなどによって、その代表値が小さくなるように撮影方向を変更してもよい。また、直後の移動が旋回である場合には、撮影方向制御部19は、撮影部13が天井などの上方を撮影するように撮影方向を変更してもよい。また、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低い場合には、撮影方向制御部19は、撮影位置が高くなるように撮影方向の変更等を行ってもよい。そして、ステップS101に戻る。
(Step S108) The photographing
なお、図3のフローチャートには含まれていないが、現在位置取得部15によって取得された現在位置を用いた移動制御が、移動制御部17によって行われるものとする。また、マニピュレータ11による作業を行う位置への移動が完了した場合には、マニピュレータ制御部12によってマニピュレータ11が制御されることにより、所定の作業、例えば、溶接や塗装、組み立て等が行われてもよい。
Although not included in the flowchart in FIG. 3, it is assumed that the movement control using the current position acquired by the current
また、図3のフローチャートでは、適合情報に種々の情報が含まれており、その適合情報を一括して取得した後に、その適合情報に応じた撮影方向の制御の要否判断を一括して行う場合について説明したが、そうでなくてもよい。適合情報に含まれる情報の取得と、その取得された情報に応じた撮影方向の制御の要否判断とを繰り返して行うようにしてもよい。その場合には、例えば、まず、旋回情報の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、撮影画像の輝度の代表値の取得と、それに応じた撮影方向の制御の要否判断を行い、制御が不要であるときに、割合情報の取得と、それに応じた撮影方向の制御の要否判断を行うようにしてもよい。なお、撮影方向の制御の要否判断のいずれかにおいて制御が必要であると判断された場合には、必要であると判断された制御を行うと共に、ステップS101に戻るようにしてもよい。 In the flowchart of FIG. 3, various pieces of information are included in the matching information, and after the matching information is collectively acquired, the necessity determination of the control of the imaging direction according to the matching information is collectively performed. Although the case has been described, this need not be the case. The acquisition of the information included in the adaptation information and the determination of the necessity of controlling the imaging direction according to the acquired information may be repeatedly performed. In this case, for example, first, it is necessary to obtain the turning information and determine whether or not the control of the shooting direction is necessary, and when the control is not necessary, obtain the representative value of the brightness of the shot image, and It is also possible to determine the necessity of the control of the shooting direction, and when the control is unnecessary, obtain the ratio information and determine whether the control of the shooting direction is necessary according to the information. When it is determined that the control is necessary in any of the necessity determinations of the control of the photographing direction, the control determined to be necessary may be performed, and the process may return to step S101.
また、適合情報に応じて撮影方向が変更された後の所定の期間の経過等に応じて、撮影方向を元に戻す場合には、ステップS107において、Noと判断され、かつ、撮影方向を戻すための条件が満たされるときに、撮影方向制御部19は、撮影方向を元に戻す制御を行ってもよい。また、図3のフローチャートにおける処理の順序は一例であり、同様の結果を得られるのであれば、各ステップの順序を変更してもよい。また、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。
If the shooting direction is to be returned to the original one after a predetermined period after the shooting direction is changed according to the adaptation information, it is determined as No in step S107, and the shooting direction is returned.
次に、本実施の形態による移動体1の動作について、具体例を用いて説明する。この具体例では、図6で示される経路R2に沿って移動体1が位置P1〜P6の順に移動するものとする。また、各位置P1〜P6を移動体1が移動している際の撮影方向を矢印によって示している。また、この具体例では、適合情報に応じた撮影方向の制御が行われる場合以外は、進行方向の撮影が行われるものとする。 Next, the operation of the moving body 1 according to the present embodiment will be described using a specific example. In this specific example, it is assumed that the moving body 1 moves in the order of the positions P1 to P6 along the route R2 shown in FIG. Further, the shooting direction when the moving body 1 is moving at each of the positions P1 to P6 is indicated by an arrow. In this specific example, it is assumed that the shooting in the traveling direction is performed except when the control of the shooting direction according to the matching information is performed.
まず、移動体1が位置P1を移動している際に、現在位置を取得するタイミングになったとすると、矢印で示される進行方向と一致する撮影方向、すなわち図6における上向きの撮影が行われ、その撮影画像と地図とを用いて撮影部13に関する位置推定が行われ、その位置推定結果を用いて、移動体1の現在位置が取得される(ステップS101〜S104)。その現在位置は、移動制御部17による移動制御に用いられることになる。なお、その後も、撮影や位置推定、現在位置の取得が繰り返されることになる。
First, if it is time to acquire the current position while the moving body 1 is moving at the position P1, a shooting direction that matches the traveling direction indicated by the arrow, that is, an upward shooting in FIG. The position of the photographing
また、適合情報を取得するタイミングとなると、取得部18は、そのときの最新の撮影画像を用いて輝度の代表値を取得し、移動制御部17によって管理されている今後の移動制御の内容を参照することによって旋回情報を取得し、最新の撮影画像と地図とのマッチング結果を用いて割合情報を取得する(ステップS105,S106)。なお、位置P1で取得された撮影画像の輝度の代表値は所定の閾値より小さく、また、旋回情報によって直後の移動が旋回ではないことが示され、さらに、割合情報によって示される割合は所定の閾値より大きかったとする。すると、撮影方向制御部19は、撮影方向の制御は必要ないと判断し、撮影方向の制御は行われないことになる(ステップS107)。その結果、進行方向の撮影が継続されることになる。
When it is time to acquire the adaptation information, the acquiring unit 18 acquires the representative value of the luminance using the latest captured image at that time, and updates the contents of the future movement control managed by the movement control unit 17. The turning information is acquired by referring to the information, and the ratio information is acquired using the matching result between the latest captured image and the map (steps S105 and S106). Note that the representative value of the luminance of the captured image acquired at the position P1 is smaller than a predetermined threshold, the turning information indicates that the immediately subsequent movement is not a turning, and the ratio indicated by the ratio information is a predetermined ratio. It is assumed that the value is larger than the threshold. Then, the shooting
その後、移動体1が位置P2に到達した際に、進行方向左側に存在する窓から入射した外光によって撮影画像の露出がオーバーになっており、その際に取得された撮影画像の輝度の代表値は、所定の閾値よりも大きかったとする(ステップS105,S106)。すると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、マニピュレータ制御部12を介して撮影方向を90度だけ旋回させる(ステップS107,S108)。その旋回によって、図6で示されるように、撮影方向は右向きとなる。その結果、撮影部13に入射する外光が逆光から順光になり、適正露出での撮影を行うことができるようになる。なお、所定の時間が経過すると、図6の位置P3で示されるように、撮影方向制御部19は、撮影方向を標準設定である進行方向に戻す。仮に図6よりも窓の範囲が広く、位置P3においても外光の影響があるとすると、撮影方向が標準設定に戻された後に、再度、撮影画像の輝度の代表値が大きいと判断され、それに応じて撮影方向が図中右向きに変更されることになる。
Thereafter, when the moving body 1 reaches the position P2, the exposure of the captured image is overexposed due to external light incident from the window existing on the left side in the traveling direction, and the representative of the luminance of the captured image acquired at that time. It is assumed that the value is larger than a predetermined threshold (steps S105 and S106). Then, the imaging
移動体1が位置P4に到達した際に、移動制御部17は、移動体1を90度旋回するように移動機構16を制御することになる。なお、この具体例では、80度以上の移動方向の変更が、旋回と判断される設定であるとする。すると、その移動制御の内容を参照することによって、取得部18は、直後の移動が旋回であることを示す旋回情報を取得する(ステップS106)。その旋回情報に応じて、撮影方向制御部19は、撮影方向の制御が必要であると判断して、撮影部13が垂直上方を撮影するようにマニピュレータ制御部12を制御する(ステップS107,S108)。そのため、位置推定部14は、その旋回が行われる際にも適切なトラッキングを行うことができ、旋回角度の適切に取得できると共に、自己位置を見失わないようにすることができる。なお、旋回が終了すると、直後の移動が旋回でないことを示す旋回情報が取得されるため、その旋回情報に応じて、撮影方向制御部19は、旋回後の進行方向、すなわち図中右側方向の撮影が行われるようにマニピュレータ制御部12を制御する。
When the moving body 1 reaches the position P4, the movement control unit 17 controls the moving
その後、移動体1が位置P5を移動している際に、前方から人間Mが歩いてきたとする。その状況において、人間Mが、撮影部13と地図に含まれる特徴点に対応する物体との間に存在することになり、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下したとする。すると、取得部18は、マッチングの割合の低下した割合情報を取得する(ステップS105,S106)。その割合情報の示す割合は、所定の閾値より小さかったとすると、撮影方向制御部19は、撮影方向の制御が必要であると判断し、撮影部13の位置が高くなるようにマニピュレータ制御部12を制御する。その結果、高いところからの撮影が行われるようになるため、人間Mの影響が少なくなり、撮影画像の特徴点と地図の特徴点とのマッチングの割合を増加させることができる。この場合にも、所定の時間が経過し、移動体1が位置P6に到達すると、撮影部13の高さは元に戻されることになる。
Thereafter, it is assumed that the human M has walked from the front while the moving body 1 is moving at the position P5. In this situation, the human M is present between the
以上のように、本実施の形態による移動体1によれば、適合情報を用いて撮影方向を制御することによって、位置の推定により適している撮影画像を取得することができる。その結果、現在位置の精度が向上することになり、より精度の高い移動を実現することができるようになる。また、撮影画像の輝度の代表値が適合情報に含まれていることによって、より適正な露出で撮影が行われるように制御することができる。また、旋回情報が適合情報に含まれていることによって、旋回時にも適切なトラッキングを行うことができる撮影を行うことができ、自己位置を見失わないようにすることができる。また、割合情報が適合情報に含まれていることによって、撮影画像の特徴点と地図の特徴点とのマッチングの割合が低下しないようにすることができる。 As described above, according to mobile unit 1 of the present embodiment, by controlling the shooting direction using the matching information, it is possible to obtain a shot image that is more suitable for estimating the position. As a result, the accuracy of the current position is improved, and more accurate movement can be realized. In addition, since the representative value of the brightness of the captured image is included in the matching information, it is possible to control so that the image is captured with more appropriate exposure. In addition, since the turning information is included in the matching information, it is possible to perform shooting that can perform appropriate tracking even during turning, and to keep track of its own position. In addition, since the ratio information is included in the matching information, it is possible to prevent the matching ratio between the feature point of the captured image and the feature point of the map from decreasing.
なお、上記実施の形態においては、適合情報に、撮影画像の輝度の代表値と、旋回情報と、割合情報とが含まれる場合について主に説明したが、そうでなくてもよい。適合情報には、それら3個の情報のうち、少なくとも1個以上の情報が含まれていてもよい。また、適合情報には、それら以外の情報が含まれていてもよく、その情報を用いた撮影方向の制御が行われてもよい。 In the above-described embodiment, a case has been mainly described in which the adaptation information includes the representative value of the brightness of the captured image, the turning information, and the ratio information, but this is not essential. The matching information may include at least one or more of the three pieces of information. Further, the matching information may include other information, and the control of the shooting direction may be performed using the information.
また、上記実施の形態において、各処理または各機能は、単一の装置または単一のシステムによって集中処理されることによって実現されてもよく、または、複数の装置または複数のシステムによって分散処理されることによって実現されてもよい。 Further, in the above embodiment, each process or each function may be realized by being centrally processed by a single device or a single system, or may be realized by distributed processing by a plurality of devices or a plurality of systems. It may be realized by doing.
また、上記実施の形態において、各構成要素間で行われる情報の受け渡しは、例えば、その情報の受け渡しを行う2個の構成要素が物理的に異なるものである場合には、一方の構成要素による情報の出力と、他方の構成要素による情報の受け付けとによって行われてもよく、または、その情報の受け渡しを行う2個の構成要素が物理的に同じものである場合には、一方の構成要素に対応する処理のフェーズから、他方の構成要素に対応する処理のフェーズに移ることによって行われてもよい。 Further, in the above-described embodiment, the information exchange performed between the components is performed by, for example, one of the components when the two components performing the information exchange are physically different from each other. It may be performed by outputting information and receiving information by the other component, or, when two components performing the transfer of the information are physically the same, one component may be used. May be performed by shifting from the processing phase corresponding to the above to the processing phase corresponding to the other component.
また、上記実施の形態において、各構成要素が実行する処理に関係する情報、例えば、各構成要素が受け付けたり、取得したり、選択したり、生成したり、送信したり、受信したりした情報や、各構成要素が処理で用いる閾値や数式、アドレス等の情報等は、上記説明で明記していなくても、図示しない記録媒体において、一時的に、または長期にわたって保持されていてもよい。また、その図示しない記録媒体への情報の蓄積を、各構成要素、または、図示しない蓄積部が行ってもよい。また、その図示しない記録媒体からの情報の読み出しを、各構成要素、または、図示しない読み出し部が行ってもよい。 Further, in the above embodiment, information related to the processing executed by each component, for example, information received, obtained, selected, generated, transmitted, or received by each component Also, information such as thresholds, mathematical expressions, addresses, and the like used by each component in the processing may be temporarily or long-term stored in a recording medium (not shown), even if not explicitly described in the above description. The storage of information on the recording medium (not shown) may be performed by each component or a storage unit (not shown). The reading of information from the recording medium (not shown) may be performed by each component or a reading unit (not shown).
また、上記実施の形態において、各構成要素等で用いられる情報、例えば、各構成要素が処理で用いる閾値やアドレス、各種の設定値等の情報がユーザによって変更されてもよい場合には、上記説明で明記していなくても、ユーザが適宜、それらの情報を変更できるようにしてもよく、または、そうでなくてもよい。それらの情報をユーザが変更可能な場合には、その変更は、例えば、ユーザからの変更指示を受け付ける図示しない受付部と、その変更指示に応じて情報を変更する図示しない変更部とによって実現されてもよい。その図示しない受付部による変更指示の受け付けは、例えば、入力デバイスからの受け付けでもよく、通信回線を介して送信された情報の受信でもよく、所定の記録媒体から読み出された情報の受け付けでもよい。 Further, in the above embodiment, when information used by each component and the like, for example, information such as a threshold and an address used by each component in processing and various setting values may be changed by a user, The user may or may not be able to change such information as appropriate, even if not explicitly stated in the description. When the information can be changed by the user, the change is realized by, for example, a receiving unit (not shown) that receives a change instruction from the user and a changing unit (not shown) that changes the information according to the change instruction. You may. The reception of the change instruction by the receiving unit (not shown) may be, for example, reception from an input device, reception of information transmitted via a communication line, or reception of information read from a predetermined recording medium. .
また、上記実施の形態において、移動体1に含まれる2以上の構成要素が通信デバイスや入力デバイス等を有する場合に、2以上の構成要素が物理的に単一のデバイスを有してもよく、または、別々のデバイスを有してもよい。 Further, in the above embodiment, when two or more components included in the moving object 1 include a communication device, an input device, and the like, the two or more components may have a physically single device. Or may have separate devices.
また、上記実施の形態において、各構成要素は専用のハードウェアにより構成されてもよく、または、ソフトウェアにより実現可能な構成要素については、プログラムを実行することによって実現されてもよい。例えば、ハードディスクや半導体メモリ等の記録媒体に記録されたソフトウェア・プログラムをCPU等のプログラム実行部が読み出して実行することによって、各構成要素が実現され得る。その実行時に、プログラム実行部は、記憶部や記録媒体にアクセスしながらプログラムを実行してもよい。また、そのプログラムは、サーバなどからダウンロードされることによって実行されてもよく、所定の記録媒体(例えば、光ディスクや磁気ディスク、半導体メモリなど)に記録されたプログラムが読み出されることによって実行されてもよい。また、このプログラムは、プログラムプロダクトを構成するプログラムとして用いられてもよい。また、そのプログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、または分散処理を行ってもよい。 Further, in the above embodiment, each component may be configured by dedicated hardware, or a component that can be realized by software may be realized by executing a program. For example, each component can be realized by a program execution unit such as a CPU reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. At the time of execution, the program execution unit may execute the program while accessing the storage unit and the recording medium. Further, the program may be executed by being downloaded from a server or the like, or may be executed by reading a program recorded on a predetermined recording medium (for example, an optical disk, a magnetic disk, a semiconductor memory, or the like). Good. Further, this program may be used as a program constituting a program product. The computer that executes the program may be a single computer or multiple computers. That is, centralized processing or distributed processing may be performed.
また、本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 In addition, the present invention is not limited to the above-described embodiments, and various changes can be made, and it goes without saying that these are also included in the scope of the present invention.
以上より、本発明による移動体によれば、より精度の高い現在位置の取得を実現できるという効果が得られ、撮影画像を用いて位置推定を行う移動体として有用である。 As described above, according to the moving object of the present invention, the effect of realizing a more accurate acquisition of the current position is obtained, and the moving object is useful as a moving object for performing position estimation using a captured image.
1 移動体
11 マニピュレータ
12 マニピュレータ制御部
13 撮影部
14 位置推定部
15 現在位置取得部
16 移動機構
17 移動制御部
18 取得部
19 撮影方向制御部
DESCRIPTION OF SYMBOLS 1 Moving body 11
Claims (5)
マニピュレータと、
前記マニピュレータに装着され、前記移動体の周囲の撮影画像を取得する撮影部と、
前記撮影画像と、前記移動体の移動領域における地図とを用いて前記撮影部の位置を推定する位置推定部と、
前記位置推定部によって推定された前記撮影部の位置を用いて、前記移動体の現在位置を取得する現在位置取得部と、
前記移動体を移動させる移動機構と、
前記現在位置を用いて、前記移動機構を制御する移動制御部と、
前記撮影画像が位置の推定に適しているかどうかを示す適合情報を取得する取得部と、
前記マニピュレータを制御するマニピュレータ制御部と、
前記適合情報を用いて、位置の推定に適した撮影画像が撮影されるように前記撮影部の撮影方向を前記マニピュレータ制御部によって変更させる撮影方向制御部と、を備えた移動体。 A mobile object that moves autonomously,
A manipulator,
A photographing unit attached to the manipulator and acquiring a photographed image around the moving body,
A position estimating unit that estimates the position of the imaging unit using the captured image and a map in a moving area of the moving body;
Using a position of the imaging unit estimated by the position estimating unit, a current position acquisition unit that acquires a current position of the moving body,
A moving mechanism for moving the moving body,
A movement control unit that controls the movement mechanism using the current position;
An acquisition unit that acquires matching information indicating whether the captured image is suitable for estimating a position,
A manipulator control unit for controlling the manipulator,
A moving direction control unit configured to change a photographing direction of the photographing unit by the manipulator control unit so that a photographed image suitable for estimating a position is photographed using the matching information.
前記撮影方向制御部は、前記撮影画像の輝度の代表値が所定の閾値より大きい場合に、当該代表値がより小さくなるように撮影方向を変更させる、請求項1記載の移動体。 The matching information includes a representative value of the brightness of the captured image,
The moving body according to claim 1, wherein when the representative value of the brightness of the captured image is larger than a predetermined threshold, the capturing direction control unit changes the capturing direction so that the representative value becomes smaller.
前記撮影方向制御部は、前記旋回情報によって、前記移動機構による直後の移動が旋回であることが示される場合に、前記撮影部の光軸が旋回軸方向に近づくように撮影方向を変更させる、請求項1記載の移動体。 The adaptation information includes turning information indicating whether or not the movement immediately after the moving mechanism is turning,
The imaging direction control unit changes the imaging direction so that the optical axis of the imaging unit approaches the turning axis direction, when the turning information indicates that the movement immediately after the moving mechanism is turning, The moving object according to claim 1.
前記撮影方向制御部は、前記割合情報によって示される割合が所定の閾値より小さい場合に、当該割合がより大きくなるように撮影方向を変更させる、請求項1記載の移動体。 The matching information includes characteristic information extracted from the captured image and ratio information indicating a ratio of matching between the characteristic points included in the map,
The moving body according to claim 1, wherein when the ratio indicated by the ratio information is smaller than a predetermined threshold, the shooting direction control unit changes the shooting direction such that the ratio becomes larger.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157002A JP7153505B2 (en) | 2018-08-24 | 2018-08-24 | moving body |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018157002A JP7153505B2 (en) | 2018-08-24 | 2018-08-24 | moving body |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020030721A true JP2020030721A (en) | 2020-02-27 |
JP7153505B2 JP7153505B2 (en) | 2022-10-14 |
Family
ID=69622617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018157002A Active JP7153505B2 (en) | 2018-08-24 | 2018-08-24 | moving body |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7153505B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989982A (en) * | 2021-03-05 | 2021-06-18 | 佛山科学技术学院 | Unmanned vehicle image acquisition control method and system |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10128689A (en) * | 1996-09-04 | 1998-05-19 | Shinko Electric Co Ltd | Visual correcting device of unmanned movable body |
CN104090574A (en) * | 2014-07-03 | 2014-10-08 | 邢淦琛 | Intelligent environment cleaning machine |
JP2016131367A (en) * | 2015-01-09 | 2016-07-21 | 株式会社リコー | Moving body system |
US20160325432A1 (en) * | 2014-08-29 | 2016-11-10 | General Electric Company | System and method for manipulation platform |
JP2017146893A (en) * | 2016-02-19 | 2017-08-24 | トヨタ自動車株式会社 | Self-position estimation method |
JP2018092527A (en) * | 2016-12-07 | 2018-06-14 | シャープ株式会社 | Autonomous travel device, determination device, and control method and determination method for autonomous travel device |
JP2018128847A (en) * | 2017-02-08 | 2018-08-16 | 株式会社Ihiエアロスペース | Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle |
-
2018
- 2018-08-24 JP JP2018157002A patent/JP7153505B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10128689A (en) * | 1996-09-04 | 1998-05-19 | Shinko Electric Co Ltd | Visual correcting device of unmanned movable body |
CN104090574A (en) * | 2014-07-03 | 2014-10-08 | 邢淦琛 | Intelligent environment cleaning machine |
US20160325432A1 (en) * | 2014-08-29 | 2016-11-10 | General Electric Company | System and method for manipulation platform |
JP2016131367A (en) * | 2015-01-09 | 2016-07-21 | 株式会社リコー | Moving body system |
JP2017146893A (en) * | 2016-02-19 | 2017-08-24 | トヨタ自動車株式会社 | Self-position estimation method |
JP2018092527A (en) * | 2016-12-07 | 2018-06-14 | シャープ株式会社 | Autonomous travel device, determination device, and control method and determination method for autonomous travel device |
JP2018128847A (en) * | 2017-02-08 | 2018-08-16 | 株式会社Ihiエアロスペース | Stop position determination method of remote maneuvering vehicle and maneuvering system of remote maneuvering vehicle |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989982A (en) * | 2021-03-05 | 2021-06-18 | 佛山科学技术学院 | Unmanned vehicle image acquisition control method and system |
CN112989982B (en) * | 2021-03-05 | 2024-04-30 | 佛山科学技术学院 | Unmanned vehicle image acquisition control method and system |
Also Published As
Publication number | Publication date |
---|---|
JP7153505B2 (en) | 2022-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107907131B (en) | positioning system, method and applicable robot | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
JP6872128B2 (en) | Information processing equipment, information processing methods, and programs | |
WO2020168668A1 (en) | Slam mapping method and system for vehicle | |
CN111566612A (en) | Visual data acquisition system based on posture and sight line | |
WO2017078001A1 (en) | Obstacle detection device | |
JP2018522348A (en) | Method and system for estimating the three-dimensional posture of a sensor | |
JP6767998B2 (en) | Estimating external parameters of the camera from the lines of the image | |
JP7355505B2 (en) | Method and system for calibrating vehicle cameras | |
JP7063760B2 (en) | Mobile | |
US20090154769A1 (en) | Moving robot and moving object detecting method and medium thereof | |
EP2998934B1 (en) | Image processing device, image processing method, and program | |
TW201904643A (en) | Control device, flight vehicle and recording medium | |
WO2022143626A1 (en) | Method for controlling mobile robot, computer-implemented storage medium, and mobile robot | |
JP2017027417A (en) | Image processing device and vacuum cleaner | |
JP7153505B2 (en) | moving body | |
CN111784842B (en) | Three-dimensional reconstruction method, device, equipment and readable storage medium | |
Karrer et al. | Real-time dense surface reconstruction for aerial manipulation | |
WO2017010268A1 (en) | Estimation device and estimation program | |
CN110036411B (en) | Apparatus and method for generating electronic three-dimensional roaming environment | |
CN111260538B (en) | Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera | |
CN111417016A (en) | Attitude estimation method, server and network equipment | |
JP7491398B2 (en) | Map generation device, map generation method, and program | |
CN112291701B (en) | Positioning verification method, positioning verification device, robot, external equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210402 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220322 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220517 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220906 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7153505 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |