JP5862344B2 - Image processing apparatus, prior information update method, and program - Google Patents
Image processing apparatus, prior information update method, and program Download PDFInfo
- Publication number
- JP5862344B2 JP5862344B2 JP2012027836A JP2012027836A JP5862344B2 JP 5862344 B2 JP5862344 B2 JP 5862344B2 JP 2012027836 A JP2012027836 A JP 2012027836A JP 2012027836 A JP2012027836 A JP 2012027836A JP 5862344 B2 JP5862344 B2 JP 5862344B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- autonomous
- landmark
- feature
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 65
- 238000012545 processing Methods 0.000 title claims description 61
- 239000013598 vector Substances 0.000 claims description 114
- 238000000605 extraction Methods 0.000 claims description 81
- 230000008034 disappearance Effects 0.000 claims description 78
- 239000000284 extract Substances 0.000 claims description 24
- 230000008033 biological extinction Effects 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 9
- 238000005259 measurement Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 238000012423 maintenance Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 7
- 230000010365 information processing Effects 0.000 description 7
- 238000012217 deletion Methods 0.000 description 5
- 230000037430 deletion Effects 0.000 description 5
- 230000000873 masking effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000449 premovement Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Image Analysis (AREA)
Description
本発明は、画像処理装置、事前情報更新方法及びプログラムに関する。 The present invention relates to an image processing apparatus, a prior information update method, and a program.
移動型ロボットは、様々な複雑環境下で自由自在な自律移動を行うために、本体に搭載されたカメラを用いて、周囲環境から特徴のある画像領域をランドマークとして検出して、事前に作成した画像データベースや地図と照合することによって、自律走行を行う。 Mobile robots are created in advance by detecting distinctive image areas as landmarks from the surrounding environment using a camera mounted on the main body in order to perform autonomous movement freely in various complex environments. Autonomous driving is performed by collating with the image database and map.
例えば、自律移動ロボットの移動経路を、移動経路上の固定位置であるランドマークのうち、自律移動ロボットが直接移動可能ないくつかのランドマークを接続するリンクにより構成する技術が知られている。 For example, a technique is known in which a movement path of an autonomous mobile robot is configured by a link that connects several landmarks that can be directly moved by the autonomous mobile robot among landmarks that are fixed positions on the movement path.
ランドマークをカメラで認識する際には、認識の成績が撮影条件や装置の状態によって変わるため、認識結果の確からしさや認識の困難さなどを判断することにより、ランドマーク地図の更新情報の確度を向上させる例も知られている。 When recognizing landmarks with a camera, the recognition results vary depending on the shooting conditions and the state of the device, so the accuracy of the landmark map update information can be determined by judging the accuracy of the recognition results and the difficulty of recognition. An example of improving is also known.
しかし、ロボットの長期運用を考える際、事前にランドマークを用いた地図を作成するために計測した環境は変化することがあり、一定期間経過すると、例えば、新しいランドマークが現れたり、元のランドマークが消えたりすることがある。また、ランドマークを用いた地図作成当時にランドマークが間違って登録されたことなどが原因で、ロボット自律移動の際に、それらのランドマークが長期間に渡って再度観測されない場合も考えられる。このように、事前に作成された地図は、最新の環境との不整合を起こす場合があるため、ロボットの自己位置推定の精度を安定に維持するために、事前に作成された地図を一定期間ごとに更新する必要がある。 However, when considering long-term operation of robots, the environment measured to create a map using landmarks in advance may change.For example, after a certain period of time, a new landmark appears or the original landmark appears. The mark may disappear. In addition, there may be a case where the landmarks are not observed again for a long period of time when the robot autonomously moves due to the fact that the landmarks are registered incorrectly at the time of map creation using the landmarks. In this way, since a map created in advance may cause inconsistencies with the latest environment, the map created in advance is used for a certain period of time in order to maintain the accuracy of robot self-position estimation stably. It is necessary to update every time.
このため、自己位置同定に用いる地図において、局所地図と大域地図とを備え、ランドマーク候補及びランドマーク照合結果を局所地図に保存し、次回のランドマーク照合に利用する技術が知られている。このとき、対応するランドマークがないランドマーク候補を新たにランドマークとして登録する一方、既に登録されているランドマークであっても長期間にわたって観測されないものは削除する。 For this reason, there is known a technique that includes a local map and a global map in a map used for self-location identification, stores landmark candidates and landmark matching results in the local map, and uses them for the next landmark matching. At this time, a landmark candidate having no corresponding landmark is newly registered as a landmark, while those already registered that are not observed over a long period of time are deleted.
しかしながら、地図を更新する場合、削除するランドマークをどのような基準で決定するかは、ロボットの自律移動の精度を保つために重要である。よって、既に地図に登録されているランドマークが消えたという判断方法が必要になる。しかし、上記の例では、センサを用いてランドマークが消えたことを判断しており、より確度の高い判断を行うには、カメラにより取得した画像を用いることが好ましい。 However, when updating the map, it is important to determine the criteria for determining the landmark to be deleted in order to maintain the accuracy of autonomous movement of the robot. Therefore, a method for determining that a landmark already registered in the map has disappeared is necessary. However, in the above example, it is determined that the landmark has disappeared using the sensor, and it is preferable to use an image acquired by the camera in order to make a more accurate determination.
上記課題に鑑み、地図等予め取得された周囲環境の情報を利用して自律移動を行う際に、カメラにより取得した画像を用いて、より確度の高い地図などの情報の更新を行うことによりロボットの自己位置推定および自律移動の精度を維持することが可能な画像処理装置、事前情報更新方法、及びプログラムを提供する。 In view of the above problem, when autonomous movement is performed using information on the surrounding environment acquired in advance such as a map, the robot can update the information such as a map with higher accuracy using an image acquired by the camera. An image processing apparatus, a prior information update method, and a program capable of maintaining the self-position estimation and the accuracy of autonomous movement are provided.
ひとつの態様である画像処理装置は、事前情報取得部と、自律情報取得部と、消滅信念度算出部と、更新部とを有する。事前情報取得部は、自律移動を行う経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する。自律情報取得部は、自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する。消滅信念度算出部は、事前情報と自律情報とに基づき、事前画像と自律画像とに基づきランドマークが周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する。更新部は、消滅信念度に基づき、ランドマークを事前情報から消滅させるか否かを判定し、事前情報を更新する。 An image processing apparatus according to one aspect includes a prior information acquisition unit, an autonomous information acquisition unit, a disappearance belief degree calculation unit, and an update unit. The prior information acquisition unit acquires the prior information including the position information of the landmark and the image feature acquired from the prior image obtained by photographing the surrounding environment of the route for autonomous movement. The autonomous information acquisition unit acquires autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device. The extinction belief calculation unit calculates an extinction belief indicating the certainty of whether or not the landmark has disappeared from the surrounding environment based on the prior image and the autonomous image based on the prior information and the autonomous information. The updating unit determines whether or not to delete the landmark from the prior information based on the disappearance belief degree, and updates the prior information.
別の態様である事前情報更新方法は、画像処理装置が、事前情報及び自律情報を取得し、消滅信念度を算出し、事前情報を更新する方法である。この方法において、画像処理装置は、自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する。画像処理装置は、前記自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得する。画像処理装置は、前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する。さらに画像処理装置は、前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する。 The prior information update method which is another aspect is a method in which the image processing apparatus acquires the prior information and the autonomous information, calculates the disappearance belief degree, and updates the prior information. In this method, the image processing apparatus obtains prior information including landmark position information and image features obtained from a prior image obtained by photographing the surrounding environment of a route on which autonomous movement is performed. The image processing apparatus acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during the autonomous movement of the autonomous mobile apparatus. The image processing device has an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment based on the prior information and the autonomous information. calculate. Further, the image processing apparatus determines whether or not to delete the landmark from the prior information based on the disappearance belief degree, and updates the prior information.
なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。 Note that even a program for causing a computer to perform the method according to the present invention described above has the same operational effects as the method according to the present invention described above by causing the computer to execute the program. The problem that was solved is solved.
上述した態様によれば、地図を利用して自律移動を行う際に、カメラにより取得した画像を用いて、より確度の高い地図の更新を行うことにより自律移動の精度を維持することが可能な画像処理装置、事前情報更新方法、及びプログラムを提供できる。 According to the above-described aspect, when performing autonomous movement using a map, it is possible to maintain the accuracy of autonomous movement by updating the map with higher accuracy using an image acquired by a camera. An image processing apparatus, a prior information update method, and a program can be provided.
以下、図面を参照しながら、一実施の形態によるロボット1について説明する。まず、図1、図2を参照しながらロボット1の構成について説明する。図1は、ロボット1のハードウエア構成を示す図、図2は、ロボット1の画像処理装置9の機能を示すブロック図である。
Hereinafter, a
図1に示すように、ロボット1は、ステレオカメラ3、車輪部5、センサ情報取得装置7、画像処理装置9、記憶装置17を備えている。ステレオカメラ3は、所定距離離れて配置されるカメラ3−1、カメラ3−2を有し、対象物を2つの異なる方向から同時に撮影することにより、それぞれの画像情報とともに対象物の距離の情報も記録できるようにしたカメラである。車輪部5は、ロボット1を移動させる車輪、及び車輪の回転を計測するエンコーダを備えた車輪・エンコーダ5−1、5−2を含んで構成される。車輪部5は、後述する画像処理装置9の移動コントローラ15からの制御に応じて回転することによりロボット1を移動させるとともに、車輪の回転に応じたエンコーダによる情報を出力する。センサ情報取得装置7は、車輪部5のエンコーダからの出力を取得する。
As shown in FIG. 1, the
画像処理装置9は、画像取得装置11、情報処理装置13、移動コントローラ15を有している。画像取得装置11は、ステレオカメラ3の動作を制御するとともに、撮影した画像を取得する。情報処理装置13は、センサ情報取得装置7から車輪部5のエンコーダの情報を取得するとともに、画像取得装置11から取得した画像に基づき後述する処理を行う演算処理装置である。また、情報処理装置13は、センサ情報取得装置7を介して取得した車輪部5からの情報、および画像取得装置11から取得した画像に基づく処理結果に基づき、移動コントローラ15に車輪部5を制御する情報を出力する。情報処理装置13は、さらに、記憶装置17に情報を格納し、または記憶装置17から情報を読み出す。
The
移動コントローラ15は、情報処理装置13からの指示に基づき、車輪部5の車輪の動作を制御する。記憶装置17は、ロボット1の動作を行なう制御プログラム、制御に必要な各種情報を格納する随時書き込みおよび読み出し可能な記憶装置である。記憶装置17は、読み出し可能な記憶装置、または、取り外し可能な記憶装置を含むようにしてもよい。なお、情報処理装置13は、記憶装置17に記憶された制御プログラムを読出し実行することにより、ロボット1の動作を制御するようにしてもよい。
The
図2に示すように、画像処理装置9は、タスクマネージャ30、Simultaneous Localization and Mapping(SLAM)タスク制御部32、自律移動タスク制御部34、メインテナンスタスク制御部36の機能を有している。タスクマネージャ30は、SLAMタスク制御部32、自律移動タスク制御部34、メインテナンスタスク制御部36の動作を制御する。SLAMタスク制御部32は、SLAM部40の動作を制御し、自律移動タスク制御部34は、自律移動部60の動作を制御し、メインテナンスタスク制御部36は、ランドマーク削除部100の動作を制御する。
As shown in FIG. 2, the
以下、ロボット1の運用前に、手動などでロボット1を事前に設定した経路に沿って移動させることを事前移動という。このときステレオカメラ3により例えば所定時間毎に取得される画像をSLAM画像といい、SLAM画像により生成されるランドマーク地図など後述する各種データをまとめて、SLAM生成物90という。また、ロボット1の運用時、SLAM部40により作成されたSLAM生成物90及び車輪部5からのエンコーダの情報を参照しながら、予め設定された経路に沿って移動することを自律移動という。また、ロボット1が自律移動する際に、ステレオカメラ3を制御して、所定時間毎にステレオカメラ3に撮影を行わせて撮影した画像を、自律画像という。
Hereinafter, moving the
SLAM部40は、ロボット1が自律移動を行う際に参照するSLAM生成物90を作成する。また、事前移動中に各時刻でステレオカメラ3、車輪部5等の各センサの環境計測データを記録し、ログという形で記憶装置に記憶させる。また、SLAM部40は、事前移動の完了後、このログデータ(例えば、ステレオカメラ3で撮影した画像など)を用いて後述するランドマーク地図97を作成する。
The
SLAM部40は、SLAM画像取得部42、特徴抽出部44、画像特徴バッグ(Bag of Features:BOF)計算部46、パターン登録部48、自己位置推定部52、エンコーダデータ取得部54、地図生成部56の機能を有している。
The
SLAM画像取得部42は、ロボット1の自律移動の前の事前移動中に各時刻でステレオカメラ3によるSLAM画像を取得するとともに、記憶装置17に記憶させる。SLAM画像取得部42は、画像取得装置11の機能の一部である。特徴抽出部44は、SLAM画像取得部42が取得した各SLAM画像において、例えば、画像の特徴の強い特徴点または特徴領域等(以下、まとめて特徴領域という)を抽出する。特徴領域とは、例えば画像中にあるコーナ、線分、点、スポットなどのようなものである。
The SLAM image acquisition unit 42 acquires SLAM images from the
BOF計算部46は、特徴抽出部44が抽出した特徴領域について、特徴ベクトルを算出する。また、BOF計算部46は、パターン登録部48を介して記憶装置17に登録された各ランドマークに対応する特徴ベクトルのパターンを参照し、算出した特徴ベクトルと登録された特徴ベクトルとの類似度(以下、ベクトル類似度という)を算出する。ベクトル類似度の算出方法は後述する。なお、ランドマークとは、識別情報(パターンID)と3次元座標情報を持った特徴領域である。
The BOF calculation unit 46 calculates a feature vector for the feature region extracted by the feature extraction unit 44. Further, the BOF calculation unit 46 refers to the feature vector pattern corresponding to each landmark registered in the
ベクトル類似度が所定の範囲内であれば、BOF計算部46は、抽出した特徴領域を当該ランドマークに対応する特徴ベクトルと同パターンとしてカウントし、所定範囲外であれば、算出した特徴ベクトルを新しいパターンとして登録する。BOF計算部46は、分類した結果に応じて各特徴ベクトルのパターン毎の出現頻度をカウントすることにより、BOFを計算する。計算されたパターン毎の出現頻度をBOF特徴値という。BOF特徴値の比較によって、2枚の画像の類似度が分かる。例えば、2枚の画像に似たシーンが写されときには、BOF類似度の値は高い。逆にBOF類似度が低い場合、2枚の画像には違ったシーンが映されている可能性がある。 If the vector similarity is within a predetermined range, the BOF calculation unit 46 counts the extracted feature region as the same pattern as the feature vector corresponding to the landmark. If the vector similarity is outside the predetermined range, the calculated feature vector is Register as a new pattern. The BOF calculator 46 calculates the BOF by counting the appearance frequency of each feature vector pattern according to the classified result. The calculated appearance frequency for each pattern is called a BOF feature value. By comparing the BOF feature values, the similarity between the two images can be found. For example, when a scene similar to two images is captured, the BOF similarity value is high. On the other hand, when the BOF similarity is low, different scenes may be reflected in the two images.
このように、BOF計算部46は、後述するランドマーク地図97、ランドマークデータベース92、パターンIDリスト94、およびBOFテーブル98を作成または更新する。パターン登録部48は、記憶装置17に記憶された情報を参照するとともに、ランドマーク地図97、ランドマークデータベース92、パターンIDリスト94、およびBOFテーブル98を記憶装置17に登録する。
In this manner, the BOF calculation unit 46 creates or updates a
ランドマーク位置計測部50は、事前移動時にステレオカメラ3により取得されたSLAM画像を用いて、例えばステレオビジョン計測などの原理に基づいて、検出されたランドマークの3次元位置を計測する。ランドマーク位置計測部50は、ロボット1のステレオカメラ3のグローバル座標値に基づいて、計測されたランドマークのグローバル座標値を座標変換することによって、3次元位置を算出する。
The landmark
エンコーダデータ取得部54は、車輪部5からのエンコーダの情報を取得する。自己位置推定部52は、ランドマーク位置計測部50によるランドマークの位置情報と、エンコーダデータ取得部54からの、エンコーダの情報とにより、ロボット1の自己位置を推定する。なお、この自己位置の推定は、エンコーダによる情報と、観測したランドマークの位置情報とを利用する方法であれば、例えば、特許文献1に記載の方法など、従来の様々な方法を利用することができる。地図生成部56は、上記により得られた情報からランドマーク地図97を生成する。その他のSLAM生成物については後述する。ランドマーク地図97とは、多くのランドマークを集めてパターンIDとステレオカメラ3次元座標値を対応付けた情報である。
The encoder
自律移動部60は、自律画像取得部62、特徴ベクトル抽出部64、自律BOF生成部66、対応付け部68、対応リスト作成部70、関連SLAM画像抽出部72、関連ランドマーク抽出部74、BOF類似度計算部76、消滅信念度算出部78、消滅信念度更新部80、自律移動制御部82の機能を有している。また、SLAM生成物90は、ランドマークデータベース92、パターンIDリスト94、消滅信念度テーブル96、ランドマーク地図97、BOFテーブル98を有し、記憶装置17に記憶されている。
The
自律画像取得部62は、ロボット1が、SLAM部40で生成されたランドマーク地図97などを参照しながら予め設定された経路に沿って自律移動する際に、ステレオカメラ3を制御して、所定時間毎にステレオカメラ3に撮影を行わせ、撮影した画像を取得する。自律画像取得部62は、画像取得装置11の機能の一部である。
特徴ベクトル抽出部64は、自律画像取得部62が取得した自律画像において、特徴領域を抽出し、抽出した特徴領域の特徴ベクトルを抽出し、後述する抽出領域リスト110を生成する。
The autonomous
The feature vector extraction unit 64 extracts a feature region in the autonomous image acquired by the autonomous
対応付け部68は、自律移動中に特徴ベクトル抽出部64で抽出された特徴ベクトルと、予め記録されている各ランドマークに応じた特徴ベクトルとのベクトル類似度を算出することにより、対応付けを行う。また、これにより対応付け部68は、後述するベクトル類似度テーブル116を生成する。なおこのとき、各ランドマークに応じた特徴ベクトルは、SLAM生成物90のランドマークデータベース92を参照する。対応リスト作成部70は、対応付け部68により行われた対応付けにより、後述する対応リスト112を作成する。
The association unit 68 performs association by calculating the vector similarity between the feature vector extracted by the feature vector extraction unit 64 during autonomous movement and the feature vector corresponding to each landmark recorded in advance. Do. Accordingly, the associating unit 68 generates a vector similarity table 116 described later. At this time, the feature vector corresponding to each landmark refers to the
関連SLAM画像抽出部72は、特徴ベクトル抽出部64で抽出された特徴領域に対応するランドマークが抽出されたSLAM画像を、ランドマークデータベース92を参照して全て抽出し、後述する関連SLAM画像テーブル118を作成する。関連ランドマーク抽出部74は、当該自律画像に関連して抽出された関連SLAM画像について後述するパターンIDリスト94を参照しながら、関連SLAM画像抽出部72で抽出された全てのランドマークを抽出し、関連SLAM画像テーブル118に登録する。
The related SLAM
自律BOF生成部66は、ベクトル類似度によりパターンIDに対応する特徴領域と所定の類似が確認された特徴領域について、当該ランドマークの出現頻度としてカウントすることにより、自律画像の自律BOFを算出し、後述する自律画像毎の自律BOFテーブル114を生成する。 The autonomous BOF generating unit 66 calculates the autonomous BOF of the autonomous image by counting the feature area whose predetermined similarity with the feature area corresponding to the pattern ID is confirmed by the vector similarity as the appearance frequency of the landmark. Then, an autonomous BOF table 114 for each autonomous image described later is generated.
BOF類似度計算部76は、算出された自律BOFと、SLAM部40で生成されたBOFテーブル98とから類似度(以下、BOF類似度という)を計算し、後述する自律BOF類似度リスト120を生成する。BOF類似度の計算方法については、後述する。また、BOF類似度計算部76は、ランドマークデータベース92、関連SLAM画像テーブル118、自律BOF類似度リスト120より、後述するBOF類似度比較テーブル122、パターン別スコアリスト124を生成する。
The BOF
消滅信念度算出部78は、算出されたBOF類似度、及び関連ランドマークに基づき、消滅信念度を算出する。消滅信念度とは、ランドマークが周囲環境から消滅したか否かの確からしさを表す値である。消滅信念度更新部80は、消滅信念度テーブル96に記憶された消滅信念度を、消滅信念度算出部78で算出された消滅信念度に更新する。
The disappearance belief calculation unit 78 calculates the disappearance belief based on the calculated BOF similarity and the related landmarks. The disappearance belief is a value representing the certainty of whether or not the landmark has disappeared from the surrounding environment. The disappearance
自律移動制御部82は外部から入力される始点、終点を取得して設定し、ステレオカメラ3によるセンサで環境を計測して、計測情報をランドマーク地図97と照合して、自分の位置姿勢を推定する(自己位置推定)とともに、移動のための制御信号を出力する。また、自律移動制御部82は、ロボット1目標経路から離れたら、目標経路に復帰するように移動を制御する。
The autonomous
ランドマーク削除部100は、消滅信念度テーブル96において更新された消滅信念度に基づき、ランドマークデータベース92およびランドマーク地図97におけるランドマークを削除することにより、SLAM生成物90のメインテナンスを行う。
The
続いて、図3から図7を参照しながら、SLAM生成物90について説明する。図3は、ランドマークデータベース92の一例を示す図、図4は、パターンIDリスト94の一例を示す図、図5は、BOFテーブル98の一例を示す図、図6は、ランドマーク地図97の一例を示す図、図7は、消滅信念度テーブル96の一例を示す図である。
Subsequently, the
図3に示すように、ランドマークデータベース92は、全てのSLAM画像から抽出した全ての特徴領域の特徴ベクトルをクラスタリングしたデータベースである。ランドマークデータベース92は、各ランドマークに対応するパターンID(図3の例では、F1〜F7)、各パターンIDに対応する特徴ベクトル、各パターンIDに対応する特徴領域が抽出されたSLAM画像の番号を示している。例えば、パターンID=F1については、特徴ベクトル=(0.1,0.2,0.4,・・・,1.0)と表される。また、ランドマークデータベース92は、パターンID=F1に対応する特徴領域が、関連SLAM画像番号=#1、#4、#5のSLAM画像で抽出されたことを示している。ランドマークデータベース92は、例えば特徴抽出部44により生成される。
As shown in FIG. 3, the
図4に示すように、パターンIDリスト94は、特徴領域をクラスタリングしたデータベースであり、各SLAM画像で検出されたパターンIDを示している。例えば、パターンIDリスト94は、SLAM画像番号=#1のSLAM画像(以下、SLAM画像#1という)では、パターンID=F1、F2に対応する特徴領域が抽出されたことを示している。パターンIDリスト94は、例えばパターン登録部48により生成される。
As shown in FIG. 4, the
図5に示すように、BOFテーブル98は、各SLAM画像における、パターンIDに対応する特徴ベクトルの抽出頻度を示している。例えば、BOFテーブル98は、SLAM画像#1において、ベクトル類似度によりパターンID=F1と判断された特徴領域が100回検出されたことを示している。同様に、BOFテーブル98は、パターンID=F2と判断された特徴領域が102回検出され、パターンID=F3、F4、F5と判断される特徴領域は検出されなかったことを示している。BOFテーブル98は、BOF計算部46により生成される。
As shown in FIG. 5, the BOF table 98 indicates the extraction frequency of the feature vector corresponding to the pattern ID in each SLAM image. For example, the BOF table 98 indicates that the feature area determined as pattern ID = F1 by the vector similarity is detected 100 times in the
ここで、ベクトル類似度の算出方法について説明する。パターンID=Fp(pは1以上の整数)に対応する特徴ベクトルをベクトルXp=(x1、x2、x3、・・・・、xn)(ここで、nは1以上の整数)とし、SLAM画像から抽出された特徴領域に対応する特徴ベクトルをYq=(y1、y2、y3、・・・、yn)(qは、整数)としたとき、ベクトル類似度Vpqは、例えば以下の式1により表される。
Vpq=1/{|x1−y1|+|x2−y2|+・・・+|xn―yn|}
・・・(式1)
BOF計算部46は、ベクトル類似度Vpqが所定値以上の場合に、2つの特徴ベクトルを同じパターンであると判断する。
Here, a method for calculating the vector similarity will be described. A feature vector corresponding to the pattern ID = Fp (p is an integer of 1 or more) is a vector Xp = (x1, x2, x3,..., Xn) (where n is an integer of 1 or more), and the SLAM image When the feature vector corresponding to the feature region extracted from Yq = (y1, y2, y3,..., Yn) (q is an integer), the vector similarity Vpq is expressed by the
Vpq = 1 / {| x1-y1 | + | x2-y2 | + ... + | xn-yn |}
... (Formula 1)
The BOF calculation unit 46 determines that the two feature vectors have the same pattern when the vector similarity Vpq is equal to or greater than a predetermined value.
図6に示すように、ランドマーク地図97は、事前移動において検出された全てのランドマークに対応するランドマークID、パターンID、及びランドマークの3次元位置(例えば、予め定められた点を原点とするx、y、z座標)を示している。ランドマーク地図97は、地図生成部56により生成される。
As illustrated in FIG. 6, the
図7に示すように、消滅信念度テーブル96は、事前移動において検出された全てのランドマークに対応するランドマークID、パターンID、及び消滅信念度を示している。消滅信念度テーブル96は、例えば地図生成部56で生成されるが、事前移動の際には、消滅信念度は全て初期状態で、「0」が入力される。
As shown in FIG. 7, the disappearance belief table 96 indicates landmark IDs, pattern IDs, and disappearance beliefs corresponding to all landmarks detected in advance movement. The disappearance belief level table 96 is generated by, for example, the
次に、図8から図16を参照しながら、自律移動部60により生成、または更新される情報について説明する。図8は、抽出領域リストを示す図、図9は、対応リストを示す図、図10は、自律BOFテーブルを示す図、図11は、ベクトル類似度テーブルを示す図、図12は、関連SLAM画像テーブルを示す図である。また、図13は、自律BOF類似度リストを示す図、図14は、BOF類似度比較テーブルを示す図、図15は、パターン別スコアリストを示す図、図16は、消滅信念度を示す図である。
Next, information generated or updated by the autonomous
図8に示すように、抽出領域リスト110は、自律画像において抽出された特徴領域(以下、抽出領域という)に対応する抽出領域IDと、対応する特徴ベクトルとを示している。抽出領域リスト110は、例えば、抽出領域ID=G1の特徴ベクトルが、特徴ベクトル=(0.2,0.2,0.3,・・・,0.99)であることを示している。抽出領域リスト110は、本実施の形態では、特徴ベクトル抽出部64で生成される。
As illustrated in FIG. 8, the
図9に示すように、対応リスト112は、抽出領域IDと、抽出領域IDに対応する特徴ベクトルが類似していると判別された特徴ベクトルと対応するパターンIDとを示している。特徴ベクトルが類似しているか否かは、上述のベクトル類似度により判別する。対応リスト112は、例えば、抽出領域ID=G1が、パターンID=F4に対応していることを示している。対応リスト112は、本実施の形態では、対応リスト作成部70で作成される。
As shown in FIG. 9, the
図10に示すように、自律BOFテーブル114は、自律画像において、パターンIDに対応する特徴ベクトルと類似していると判別された特徴領域の抽出頻度を示す。自律BOFテーブル114は、例えば、パターンID=F1、F3、F4、F7に対応する特徴領域がそれぞれ1回抽出されたことを示している。自律BOFテーブル114は、本実施の形態においては、自律BOF生成部66で生成される。 As shown in FIG. 10, the autonomous BOF table 114 indicates the extraction frequency of the feature region determined to be similar to the feature vector corresponding to the pattern ID in the autonomous image. The autonomous BOF table 114 indicates that the feature areas corresponding to the pattern IDs = F1, F3, F4, and F7 are extracted once, for example. The autonomous BOF table 114 is generated by the autonomous BOF generation unit 66 in the present embodiment.
図11に示すように、ベクトル類似度テーブル116は、抽出領域の特徴ベクトルと、パターンIDに対応する特徴ベクトルとの類似度を示している。ベクトル類似度テーブル116は、例えば、抽出領域ID=G1に対応する特徴ベクトルと、パターンID=F1〜F7に対応する特徴ベクトルとのベクトル類似度Vpqが、順番に、0.5,0.1,・・・・,0.1であることを示している。この例では、例えば、抽出領域ID=G1に対応する特徴ベクトルは、パターンID=F4に対応する特徴ベクトルと最もベクトル類似度Vpqが高いため、G1とF1とが対応付けられる。ベクトル類似度テーブル116は、本実施の形態においては、対応付け部68で生成される。 As shown in FIG. 11, the vector similarity table 116 indicates the similarity between the feature vector of the extraction region and the feature vector corresponding to the pattern ID. In the vector similarity table 116, for example, the vector similarity Vpq between the feature vector corresponding to the extraction region ID = G1 and the feature vector corresponding to the pattern ID = F1 to F7 is 0.5, 0.1 in order. ,..., 0.1. In this example, for example, since the feature vector corresponding to the extraction area ID = G1 has the highest vector similarity Vpq to the feature vector corresponding to the pattern ID = F4, G1 and F1 are associated with each other. The vector similarity table 116 is generated by the association unit 68 in the present embodiment.
図12に示すように、関連SLAM画像テーブル118は、1枚の自律画像に関連する関連パターンIDを示している。関連SLAM画像テーブル118において、対応パターンIDは、対応リスト112において抽出領域IDに対応したパターンIDであり、抽出領域IDに対応する特徴ベクトルと最もベクトル類似度Vpqの高い特徴ベクトルに対応するパターンIDを示している。SLAM画像番号とは、各対応パターンIDに対応するSLAM画像番号であり、ランドマークデータベース92を参照して抽出される。
As shown in FIG. 12, the related SLAM image table 118 shows related pattern IDs related to one autonomous image. In the related SLAM image table 118, the corresponding pattern ID is a pattern ID corresponding to the extracted area ID in the
関連SLAM画像番号とは、上記SLAM画像番号として抽出された全てのSLAM画像の番号である。関連パターンIDとは、関連SLAM画像番号の画像が検出した全ての特徴領域に対応したパターンIDであり、ランドマークデータベース92を参照して抽出される。関連SLAM画像テーブル118は、本実施の形態においては関連SLAM画像抽出部72で生成される。なお、図12では、説明の都合上、関連SLAM画像テーブル118に抽出領域IDと、対応パターンIDとを示したが、これらは、対応リスト112と同一の内容であり、省略してもよい。
The related SLAM image number is the number of all SLAM images extracted as the SLAM image number. The related pattern ID is a pattern ID corresponding to all feature areas detected by the image of the related SLAM image number, and is extracted with reference to the
図13に示すように、自律BOF類似度リスト120は、1枚の自律画像と複数のSLAM画像との間のBOF類似度を示している。例えば、この自律画像と、SLAM画像#1とのBOF類似度は、0.83である。自律BOF類似度リスト120は、本実施の形態においては自律BOF生成部66により生成される。
As shown in FIG. 13, the autonomous
ここで、BOF類似度の計算方法について説明する。SLAM画像#k(kは、整数)における、パターンID=F1〜Fm(mは1以上の整数)に対応する特徴領域のBOF頻度=f1〜fmとする。また、自律画像l(lは、1以上の整数)におけるパターンID=F1〜Fmに対応する特徴領域のBOF頻度=g1〜gmとする。このとき、BOF類似度Bklは、例えば以下の式2により表される。
Bkl=1/{|f1−g1|+|f2−g2|+・・・+|fm―gm|}
・・・(式2)
Here, a method for calculating the BOF similarity will be described. In the SLAM image #k (k is an integer), the BOF frequency of the feature region corresponding to the pattern ID = F1 to Fm (m is an integer of 1 or more) = f1 to fm. Further, the BOF frequency of the feature region corresponding to the pattern ID = F1 to Fm in the autonomous image 1 (l is an integer of 1 or more) = g1 to gm. At this time, the BOF similarity Bkl is expressed by, for example, the following
Bkl = 1 / {| f1-g1 | + | f2-g2 | + ... + | fm-gm |}
... (Formula 2)
図14に示すように、BOF類似度比較テーブル122は、1枚の自律画像に関して生成され、当該自律画像に関連するパターンIDに対応するBOF類似度Bklを示している。BOF類似度比較テーブル122において、パターンIDとしては、関連SLAM画像テーブル118から、当該自律画像における関連パターンIDが抽出される。SLAM画像としては、抽出された関連パターンIDのそれぞれについて、ランドマークデータベース92から、対応するSLAM画像番号が抽出される。
As illustrated in FIG. 14, the BOF similarity comparison table 122 is generated for one autonomous image, and indicates the BOF similarity Bkl corresponding to the pattern ID related to the autonomous image. In the BOF similarity comparison table 122, the related pattern ID in the autonomous image is extracted from the related SLAM image table 118 as the pattern ID. As the SLAM image, the corresponding SLAM image number is extracted from the
BOF類似度としては、ランドマークデータベース92から抽出されたSLAM画像のそれぞれについて、自律BOF類似度リスト120からBOF類似度Bklが抽出される。最大類似度は、パターンID毎に、最大のBOP類似度が抽出される。マスク後類似度においては、抽出された最大類似度のうち、当該自律画像において自律BOFテーブル114で特徴値のあるものについては、該当するパターンIDに対応するランドマークは観察されたものとして、ゼロに置き換えられる。この置き換え後の値が、マスク後類似度となる。BOF類似度比較テーブル122は、本実施の形態においては、BOF類似度計算部76で生成される。
As the BOF similarity, the BOF similarity Bkl is extracted from the autonomous
図15に示すように、パターン別スコアリスト124は、後述する消滅信念度算出に用いるBOF類似度に基づくスコアを示している。パターン別スコアリスト124においては、BOF類似度比較テーブル122におけるマスク後類似度が、スコアとして各パターンIDに対応付けられる。
As shown in FIG. 15, the pattern-
例えば、パターンID=F1は、当該自律画像において抽出されたと判断されているためスコア=0である。例えば、パターンID=F2については、関連するSLAM画像#1、#3、#4とのBOF類似度のうち最大のものが、SLAM画像#1とのBOF類似度=0.83であるため、最大類似度=0.83となる。このとき、パターンID=F2は、当該自律画像において抽出されたと判断されていないため、マスクはされず、スコア=最大類似度=0.83である。本実施の形態においては、パターン別スコアリスト124は、BOF類似度計算部76で生成される。
For example, since it is determined that the pattern ID = F1 is extracted from the autonomous image, the score = 0. For example, for pattern ID = F2, the largest BOF similarity among the related
図16に示すように、消滅信念度テーブル96は、各ランドマーク毎の消滅信念度を示している。消滅信念度は、ロボット1が自律移動を行う毎に、パターン別スコアリスト124で算出されたスコアを積算して、更新した値である。図16においては、例えば、ランドマークID=L1の場合、今回の自律移動の前の消滅信念度=0.9であり、これに今回のスコア=0を加算する。例えば、ランドマークID=L2の場合、今回の自律移動の前の消滅信念度=0.2であり、これに今回のスコア=0.83を加算する。本実施の形態においては、パターン別スコアリスト124は、消滅信念度更新部80により更新される。なお、消滅信念度が基準値を超えると、ランドマーク削除部100が、ランドマーク地図97から該当ランドマークを削除する。
As shown in FIG. 16, the disappearance belief degree table 96 indicates the disappearance belief degree for each landmark. The disappearance belief is an updated value obtained by accumulating the scores calculated in the pattern-
以下、フローチャートを参照しながら、本実施の形態によるロボット1の動作について説明する。図17は、ランドマークデータベース作成処理を説明するフローチャート、図18は、ランドマーク地図作成処理を説明するフローチャートである。また、図19は、ロボット1の運用時の動作の概要を説明するフローチャート、図20、図21は、消滅信念度更新処理を説明するフローチャートである。
Hereinafter, the operation of the
まず、図17を参照しながら、ランドマークデータベース92の作成処理について説明する。図17に示すように、ランドマークデータベース92の作成において、まず、SLAM画像取得部42は、SLAM画像を取得し、エンコーダデータ取得部54は、車輪部5からエンコーダのデータを取得する(S201)。このとき、SLAM部40では、ステレオカメラ3による時系列の画像データ(単に画像ともいう)、ステレオカメラ3による3次元情報、エンコーダのデータによるオドメトリを記憶装置17に保存している。
First, the creation process of the
SLAM画像取得部42は、SLAM画像の画像データのみを抽出し、記憶装置17に保存するとともに、少なくとも取得したSLAM画像の識別情報と、SLAM画像の画像データとが関連付けられたSLAM画像のリスト(図示せず)を作成する(S202)。特徴抽出部44は、SLAM画像のリストからSLAM画像を一枚抽出し(S203)、画像の特徴の強い特徴領域を抽出する(S204)。このとき、特徴抽出部44は、例えば特徴領域の画面上方の位置、及び特徴ベクトルを出力する。
The SLAM image acquisition unit 42 extracts only the image data of the SLAM image, stores it in the
特徴抽出部44は、S204で得られた一連の特徴領域について、少なくとも抽出した領域の識別情報と特徴ベクトルとが関連付けられた不図示の特徴領域リストを作成する(S205)。 The feature extraction unit 44 creates a feature region list (not shown) in which at least the extracted region identification information and the feature vector are associated with each other for the series of feature regions obtained in S204 (S205).
BOF計算部46は、不図示の特徴領域リストを用いて、BOFテーブル98を作成し(S206)、対応するBOF頻度を登録する(S207)。このときBOF計算部46は、抽出した特徴ベクトルと、既にBOFテーブル98に登録されている特徴ベクトルとのベクトル類似度Vpqを計算し、ベクトル類似度Vpqが所定値以上の場合に、既に登録されている特徴ベクトルの抽出頻度を増加させる。このBOFテーブル98は、画像同士を区別するための情報となる。 The BOF calculator 46 creates a BOF table 98 using a feature area list (not shown) (S206), and registers the corresponding BOF frequency (S207). At this time, the BOF calculation unit 46 calculates the vector similarity Vpq between the extracted feature vector and the feature vector already registered in the BOF table 98, and is already registered when the vector similarity Vpq is equal to or greater than a predetermined value. Increase the frequency of extracting feature vectors. The BOF table 98 is information for distinguishing images.
特徴抽出部44は、特徴領域リストから特徴領域を一つ抽出し(S208)、抽出した特徴領域がランドマークデータベース92にあるか否かを判別する(S209)。特徴抽出部44が、抽出した特徴領域がランドマークデータベース92に既にあると判別した場合には(S209:YES)、ランドマークデータベース92から、対応するパターンIDを取得する(S210)。このとき特徴抽出部44は、抽出した特徴領域の特徴ベクトルと、ランドマークデータベース92に格納されている特徴ベクトルとのベクトル類似度Vpqを計算し、ベクトル類似度Vpqが所定値以上の場合に、抽出した特徴領域がランドマークデータベース92に既にあると判別する。また、特徴抽出部44は、取得された特徴ベクトルを考慮して、ランドマークデータベース92に登録されている、対応するパターンIDの特徴ベクトルの値を更新するようにしてもよい。なお、ランドマークデータベース92は、初期状態では全ての項目の情報が登録されていない状態である。
The feature extraction unit 44 extracts one feature region from the feature region list (S208), and determines whether or not the extracted feature region is in the landmark database 92 (S209). When the feature extraction unit 44 determines that the extracted feature area already exists in the landmark database 92 (S209: YES), the corresponding pattern ID is acquired from the landmark database 92 (S210). At this time, the feature extraction unit 44 calculates the vector similarity Vpq between the feature vector of the extracted feature region and the feature vector stored in the
特徴抽出部44が、抽出した特徴領域がランドマークデータベース92にまだ登録されていないと判別した場合には(S209:NO)、その特徴領域に使用されていない新しいパターンIDを割り当てる(S211)。そして、特徴抽出部44は、ランドマークデータベース92に抽出した特徴ベクトルを登録する(S212)。このとき特徴抽出部44は、抽出した特徴領域の特徴ベクトルと、ランドマークデータベース92に格納されている特徴ベクトルとのベクトル類似度Vpqを計算する。特徴抽出部44は、ベクトル類似度Vpqが所定値未満の場合に、抽出した特徴領域が、まだランドマークデータベース92に登録されていないと判別する。また、パターン登録部48は、抽出されたパターンIDを、SLAM画像番号と関連付けてパターンIDリスト94に登録する(S213)。
If the feature extraction unit 44 determines that the extracted feature area is not yet registered in the landmark database 92 (S209: NO), a new pattern ID that is not used for the feature area is assigned (S211). Then, the feature extraction unit 44 registers the extracted feature vector in the landmark database 92 (S212). At this time, the feature extraction unit 44 calculates a vector similarity Vpq between the feature vector of the extracted feature region and the feature vector stored in the
特徴抽出部44は、全特徴領域についてS208からの処理が終了したか否か判別し(S214)、終了していない場合には(S214:NO)、S208に処理を戻す。終了した場合には(S214:YES)、SLAM画像取得部42は、全SLAM画像について処理が終了したか否か判別する(S215)。処理が終了していない場合には(S215:NO)、SLAM画像取得部42は処理をS203に戻す。処理が終了した場合には(S215:YES)、SLAMタスク制御部32は、ランドマークデータベース92の作成処理を終了する。
The feature extraction unit 44 determines whether or not the processing from S208 has been completed for all the feature regions (S214), and if not (S214: NO), returns the processing to S208. If the processing has been completed (S214: YES), the SLAM image acquisition unit 42 determines whether or not the processing has been completed for all SLAM images (S215). If the process has not ended (S215: NO), the SLAM image acquisition unit 42 returns the process to S203. When the process is completed (S215: YES), the SLAM
次に、図18を参照しながら、ランドマーク地図作成処理を説明する。図18に示すように、ランドマーク地図97の作成において、SLAM画像取得部42は、SLAM画像を取得し、エンコーダデータ取得部54は、車輪部5からエンコーダのデータを取得する(S231)。既に記憶装置17にデータが登録されている場合には、SLAM画像取得部42は、記憶装置17からデータを取得する。
Next, the landmark map creation process will be described with reference to FIG. As shown in FIG. 18, in creating the
ランドマーク位置計測部50は、不図示のSLAM画像のリストからSLAM画像を一枚抽出する(S232)とともに、パターンIDリスト94において、1つのパターンIDを抽出する(S233)。
The landmark
ランドマーク位置計測部50は、抽出したパターンIDがランドマーク地図97にあるか否かを判別する(S234)。パターンIDがランドマーク地図にある場合には(S234:YES)、ランドマーク位置計測部50は、対応するランドマークが二つ以上あるか否か判別し(S235)、二つ以上ない場合には(S235:NO)、処理をS239に進める。抽出したパターンIDがランドマーク地図にない場合には(S234:NO)、ランドマーク位置計測部50は、処理をS240に進める。
The landmark
対応するランドマークが二つ以上ある場合には(S235:YES)、ランドマーク位置計測部50は、ランドマーク地図97から、対応する全てのランドマーク位置を取得し(S236)、空間的距離が最短の対応ランドマークを一つ抽出する(S237)。すなわち、同じ画像パターンは空間内の異なる場所に存在する可能性があるため、同じパターンIDでランドマーク地図97を検索すると、複数のランドマークが対応していると判別される可能性がある。そこで、検索結果が複数ある場合には、ランドマーク位置計測部50は、対応するランドマークを空間的距離が最短なランドマーク1つに絞り込む。
When there are two or more corresponding landmarks (S235: YES), the landmark
ランドマーク位置計測部50は、S237で抽出した最短の空間的距離が、閾値以上であるか否かを判別する(S238)。閾値以上である場合には(S238:YES)、ランドマーク位置計測部50は、S240に処理を進める。閾値以上でない場合には(S238:NO)、ランドマーク位置計測部50は、すでに登録されたランドマークが再度観測されたと判断する。そしてランドマーク位置計測部50は、対応ランドマークの3次元位置を、パターンIDに対応する3次元位置、または登録されている位置とパターンIDに対応する位置との中間値等に更新する(S239)。
The landmark
地図生成部56は、ランドマーク地図97に登録されていないと判断された場合には、抽出されたパターンIDを新しいランドマークと判断し、使用されていない新しいランドマークIDを割り当てる(S240)。自己位置推定部52は、S231で取得したデータにおいて、オドメトリを参照し(S241)、ロボット1の位置姿勢を推定する(S242)。ランドマーク位置計測部50は、抽出されたパターンIDに対応する特徴領域の3次元位置をオドメトリ及びステレオカメラ3の情報から算出する(S243)。地図生成部56は、割り当てられたランドマークIDと、算出されたランドマークの3次元位置を登録する(S244)。
If it is determined that the
S245で、地図生成部56は、登録された情報により、記憶装置17のランドマーク地図97を更新する(S244)。なお、ランドマーク地図97は、初期状態では、全ての項目に情報が登録されていない状態であり、S244までの処理を繰り返すことにより、ランドマークID、パターンID、及びランドマークの3次元位置が登録されていく。
In S245, the
ランドマーク位置計測部50は、全てのパターンIDについて処理を行ったか否か判別し(S246)、処理を行っていないパターンIDがある場合には(S246:NO)、S233から処理を繰り返す。全てのパターンIDについて処理が終了した場合には(S246:YES)、ランドマーク位置計測部50は、全てのデータについて処理を行ったか否か判別する(S247)。全てのデータについて処理が終了していない場合には(S247:NO)、ランドマーク位置計測部50は、S231から処理を繰り返し、全てのデータについて処理が終了した場合には(S247:YES)、ランドマーク地図97の作成処理を終了する。
The landmark
続いて、図19を参照しながら、ロボット1の運用時の動作の概要を説明する。図19に示すように、例えば、ショッピングセンタでの案内業務など、ロボット1の運用を開始する際には、自律移動制御部82は、まず、ロボット1の電源を投入するなど、ロボット1を運用可能な状態で待機させる(S261)。自律移動制御部82は、自律移動タスク制御部34により自律移動タスクが開始されるまで待つ(S262:NO)。自律移動タスク制御部34により、新しい移動タスクが指示されると(S262:YES)、自律移動制御部82は、外部から入力される始点(通常は現在位置)、終点を取得して設定する(S263)。
Next, an overview of operations during operation of the
自律移動制御部82は、移動コントローラ15を制御してロボット1の自律移動を開始させる(S264)。このとき、自律移動制御部82は、ステレオカメラ3、車輪部5よりのセンサ情報によりロボット1の現在位置を推定し、自分の位置と姿勢を失うことなく、目的地に向かって移動させる。
The autonomous
自律移動部60では、消滅信念度の更新を行う(S265)。すなわち、自律移動部60は、ステレオカメラ3からの画像を取得して、現在のランドマークを計測し、ランドマーク地図97に基づいて、ロボット1の現在の位置姿勢でステレオカメラ3に映せるはずのランドマークを予測する。また、自律移動部60は、実際の観測と予測のずれから、ランドマーク地図97内に既存のランドマークの消滅信念度を更新する。詳細については、後述する。
The autonomous
自律移動が終了するまで、消滅信念度の更新が行われる(S266:NO)。自律移動が終了すると(S266:YES)、自律移動部60は、自律移動の制御プログラムの実行を終了し、メインテナンスタスク制御部36が、記憶装置17に記憶されている消滅信念度テーブル96をスキャンし、削除すべきランドマークがあるか否か判別する(S267)。このとき、メインテナンスタスク制御部36は、各ランドマークの消滅信念度があらかじめ定めた閾値を超えているか否か判別し、超えている場合には、該当するランドマークを削除すると判別する。
The extinction belief is updated until the autonomous movement ends (S266: NO). When the autonomous movement ends (S266: YES), the
削除すべきランドマークがない場合には(S267:NO)、メインテナンスタスク制御部36は、S261に処理を戻す。削除すべきランドマークがある場合には(S267:YES)、メインテナンスタスク制御部36は、SLAM生成物90から削除することにより、メインテナンスを行う(S268)。
If there is no landmark to be deleted (S267: NO), the maintenance
さらに、図20、図21を参照しながら、消滅信念度更新処理について説明する。図20、図21に示すように、消滅信念度更新処理において、ロボット1が移動コントローラ15により所定の自律移動を行っている際に、ステレオカメラ3が環境シーンを撮影することにより、自律画像取得部62が自律画像を取得する(S281)。特徴ベクトル抽出部64は、取得された自律画像において、特徴領域を抽出する(S282)。このとき、特徴ベクトル抽出部64は、1枚の自律画像に対して特徴領域を全て抽出する。特徴ベクトル抽出部64は、得られた抽出領域全てについての識別情報と特徴ベクトルとを対応付け、抽出領域リスト110を作成する(S283)。例えば、図8の抽出領域リスト110では、得られた抽出領域の識別情報を、G1、G2、G3、G4としている。
Furthermore, the disappearance belief level update process will be described with reference to FIGS. As shown in FIGS. 20 and 21, in the disappearance belief update process, when the
特徴ベクトル抽出部64は、抽出領域のリストから抽出領域を一つ抽出する(S284)。対応付け部68は、抽出した抽出領域全てについての特徴ベクトルと、ランドマークデータベース92に登録されたパターンIDの特徴ベクトルとにより、ベクトル類似度を計算し、ベクトル類似度テーブル116を作成する(S285)。
The feature vector extraction unit 64 extracts one extraction region from the list of extraction regions (S284). The associating unit 68 calculates a vector similarity based on the extracted feature vectors for all the extracted regions and the feature vector of the pattern ID registered in the
対応リスト作成部70は、ベクトル類似度テーブル116を参照して、ベクトル類似度の大きい抽出領域とパターンIDとを対応付け、対応リスト112に追加する(S286)。対応リスト112では、識別情報G1とパターンIDのF4、識別情報G2とパターンIDのF1、識別情報G3とパターンIDのF7、識別情報G4とパターンIDのF3とが対応している。ここで、対応付けができない抽出領域のデータは破棄する。自律BOF生成部66は、対応リスト112に基づき、各パターンIDに対応付けされた抽出領域の数を計数し、自律BOFテーブル114を作成する(S287)。
The correspondence
特徴ベクトル抽出部64は、全抽出領域について処理を終了したか否か判別し(S288)、終了していない場合には(S288:NO)、S284から処理を繰り返す。終了した場合には(S288:YES)、特徴ベクトル抽出部64は、処理をS289に進める。 The feature vector extraction unit 64 determines whether or not the processing has been completed for all the extraction areas (S288), and if not (S288: NO), repeats the processing from S284. When the process is completed (S288: YES), the feature vector extraction unit 64 advances the process to S289.
自律移動制御部82は、得られた対応リスト112を用いて、ロボット1の現在位置及び姿勢を推定し、移動コントローラ15に、予め設定された経路に応じた制御信号を出力する(S289)。
The autonomous
対応リスト作成部70は、対応リスト112から抽出領域とパターンIDのペアを1ペア抽出する(S290)。関連SLAM画像抽出部72は、ランドマークデータベース92を参照して、ペアとして抽出されたパターンIDに対応する特徴領域を、SLAM生成物生成の段階ではどのSLAM画像から検出されたのか、検出されているSLAM画像の番号を全て取得する。さらに、関連SLAM画像抽出部72は、取得したSLAM画像番号を、抽出したペアに関連付け、関連SLAM画像テーブル118のSLAM画像番号とする(S291)。
The correspondence
ここで、ランドマークデータベース92に保存されている同じパターンIDに対応する特徴領域が、複数枚のSLAM画像から検出されたものである可能性がある。この情報もランドマークデータベース92に保存されているため、関連SLAM画像抽出部72は、この複数枚のSLAM画像番号を得て、自律画像の抽出領域とペアリングする。
Here, there is a possibility that the feature region corresponding to the same pattern ID stored in the
例えば、ペアとして抽出領域=G1と、パターンID=F4が抽出されているとする。このとき、関連SLAM画像テーブル118は、SLAM生成物90の生成時に、パターンIDのF4に対応する特徴領域が、SLAM画像#2、#4から検出されたことを示している。同様に、パターンIDのF1に対応する特徴領域は、SLAM画像#1、#4、#5から検出され、パターンIDのF7に対応する特徴領域は、SLAM画像#7、#8、#9、#10から検出されたことが示されている。また、パターンIDのF3に対応する特徴領域は、SLAM画像#3、#4、#5から検出されたことが示されている。
For example, it is assumed that the extraction area = G1 and the pattern ID = F4 are extracted as a pair. At this time, the related SLAM image table 118 indicates that the feature region corresponding to the pattern ID F4 was detected from the
なお、S291で取得されたSLAM画像番号は重複している可能性があるが、関連SLAM画像抽出部72は、取得したSLAM画像番号を重複なく抽出して、関連SLAM画像テーブル118の関連SLAM画像番号とする。よって、関連SLAM画像テーブル118の例では、関連SLAM画像は、SLAM画像#1、#2、#3、#4、#5、#7、#8、#9、#10である。
Note that although the SLAM image numbers acquired in S291 may overlap, the related SLAM
関連ランドマーク抽出部74は、ランドマークデータベース92を参照して、関連SLAM画像と関連するパターンIDを全て抽出することにより、関連SLAM画像テーブル118の関連パターンIDとする(S292)。例えば、始めに抽出されたペアの関連SLAM画像番号=#2、#4に関しては、ランドマークデータベース92により、パターンID=F1〜F4が抽出される。
The related
関連SLAM画像抽出部72は、対応リスト112における抽出領域とパターンIDの全てのペアの処理を完了したか否か判別し(S293)、完了していない場合には(S293:NO)、S290から処理を繰り返す。
The related SLAM
すなわち、ランドマークデータベース92によれば、SLAM生成物90の生成時に、SLAM画像#1から、パターンID=F1、F2に対応する特徴領域が抽出されており、SLAM画像#2から、パターンID=F4に対応する特徴領域が抽出されている。また、SLAM画像#3から、パターンID=F2、F3に対応する特徴領域が抽出されており、SLAM画像#4から、パターンID=F1、F2、F3、F4に対応する特徴領域が抽出されている。以下、同様に、各SLAM画像から抽出された特徴領域のパターンIDを重畳なくまとめると、関連SLAM画像テーブル118に示すように、関連パターンID=F1、F2、F3、F4、F6、F7になる。全てのペアの処理を完了した場合には(S293:YES)、関連SLAM画像抽出部72は、処理を図21のS301に進める。
That is, according to the
図21に示すように、関連SLAM画像抽出部72は、関連SLAM画像テーブル118において、関連SLAM画像を1つ抽出する(S301)。BOF類似度計算部76は、抽出されたSLAM画像のBOFをBOFテーブル98から抽出し(S302)、自律BOFテーブル114のBOFとの間でBOF類似度を計算し(S303)、自律BOF類似度リスト120とする。
As shown in FIG. 21, the related SLAM
一方、関連ランドマーク抽出部74は、関連SLAM画像テーブル118から関連パターンIDを抽出し(S304)、抽出した関連パターンIDに対応するメモリを確保したか否か判別する(S305)。メモリが確保されている場合には(S305:YES)、関連ランドマーク抽出部74は、処理をS308に進める。抽出した関連パターンIDに対応するメモリが確保されていない場合には(S305:NO)、関連ランドマーク抽出部74は、メモリを確保し(S306)、確保したメモリをゼロリセット(初期化)し(S307)、処理をS308に進める。
On the other hand, the related
消滅信念度算出部78は、自律BOF類似度リスト120及びBOF類似度比較テーブル122を参照する。そして、消滅信念度算出部78は、自律画像と、抽出したパターンIDに対応付けられたSLAM画像のうちの一つの画像との自律BOF類似度と、抽出したパターンIDのメモリの既存値とを比較し、大きい方を最大類似度としてメモリに記憶させる(S308)。消滅信念度算出部78は、同じパターンIDに関連付けられた他のSLAM画像についても同様に処理を行い、1つのパターンIDについて、最大のBOF類似度を最大類似度としてメモリに記憶させる。すなわち、消滅信念度算出部78は、1つのパターンIDが複数の関連SLAM画像と対応付けられているときに、関連SLAM画像と自律画像とのBOF類似度の大きい方に基づき消滅信念度を算出することになる。
The disappearance belief calculation unit 78 refers to the autonomous
消滅信念度算出部78は、全ての関連SLAM画像について、最大類似度の算出処理が完了したか否かを判別し(S309)、完了していない場合には(S309:NO)、S301に戻って処理を繰り返す。 The disappearance belief calculation unit 78 determines whether or not the maximum similarity calculation processing has been completed for all the related SLAM images (S309), and if not (S309: NO), returns to S301. Repeat the process.
完了した場合には(S309:YES)、消滅信念度算出部78は、自律BOFテーブル114を参照して、当該自律画像において観測されたパターンIDに対応する最大類似度をゼロに置き換え、各パターンID毎のマスク後類似度を算出する。例えば、対応リスト112を参照すると、自律画像において、パターンID=F1、F3、F4、F7はそれぞれ、抽出領域G2、G4、G1、G3と対応している。よって、消滅信念度算出部78は、パターンID=F1、F3、F4、F7に対応するランドマークは今回観測されたと判断し、消滅信念度を増加させる必要はないため、マスク後類似度はゼロに設定して、BOF類似度比較テーブル122を生成する。
When completed (S309: YES), the disappearance belief calculation unit 78 refers to the autonomous BOF table 114, replaces the maximum similarity corresponding to the pattern ID observed in the autonomous image with zero, The degree of similarity after masking for each ID is calculated. For example, referring to the
消滅信念度算出部78は、BOF類似度比較テーブル122のマスク後類似度により、パターン別スコアリスト124を生成する。また、消滅信念度算出部78は、各パターンID毎に、パターン別スコアリスト124におけるスコアを消滅信念度とする。このとき、1つのパターンIDについて、過去において既に計算され、記憶されている消滅信念度がある場合には、消滅信念度算出部78は、記憶されている消滅信念度と、算出された消滅信念度とを加算して、新たな消滅信念度とする(S310)。このとき、記憶装置17に記憶されている消滅信念度を新たな消滅信念度に更新する。
The disappearance belief calculation unit 78 generates the pattern-
自律移動制御部82は、ロボット1の位置が自律移動の終了地点か否かを判別し(S311)、終了地点でないと判別された場合には(S311:NO)、移動を続けながら、S281に戻って処理を繰り返す。終了地点と判別された場合には(S311:YES)、自律移動制御部82は、移動処理を終了するとともに、消滅信念度更新処理を終了し、図19の処理に戻る。
The autonomous
以上説明したように、本実施の形態においては、SLAM技術の生成物であるランドマークデータベース92、パターンIDリスト94、BOFテーブル98、ランドマーク地図97等に加え、消滅信念度を導入する。消滅信念度とは、ランドマーク地図97生成を行った以降、各ランドマークが環境から消えたかどうかを判断するための、各ランドマークに対する数値基準とする。
As described above, in this embodiment, the disappearance belief is introduced in addition to the
消滅信念度はランドマーク地図97等、SLAM生成物90の生成を行った直後にすべてゼロに設定している。その後のロボット1の運用時の自律移動で、ロボット1に搭載しているステレオカメラ3によりランドマークを観測できるかどうかによって、そのランドマークへの消滅信念度を更新していく。このとき、自律画像とSLAM画像とのBOF類似度が高く、画像としての類似度が高いにもかかわらず、観測できないランドマークは、消滅した可能性が高いと判断する。そして、観測できないランドマークに関係する類似度を積算した値を消滅信念度とする。
The extinction beliefs are all set to zero immediately after the
ロボット1では、自律移動の完了後に記憶装置17に記憶された消滅信念度テーブル96を走査して、予め定めた閾値より消滅信念度の高いランドマークをランドマークデータベース92、ランドマーク地図97から消去する。
In the
上記実施の形態において、ランドマークIDは、ランドマーク識別情報の一例であり、SLAM画像は、事前画像の一例であり、SLAM画像番号は、事前画像識別情報の一例である。また、BOF特徴値は、事前画像特徴検出頻度の一例であり、SLAM部40は、事前情報取得部の一例である。特徴ベクトル抽出部64は、画像特徴抽出部の一例であり、自律BOF生成部66は、特徴頻度算出部の一例であり、BOF類似度計算部76は、類似度算出部の一例であり、ランドマーク削除部100は、消滅判定部、更新部の一例である。
In the above embodiment, the landmark ID is an example of landmark identification information, the SLAM image is an example of a prior image, and the SLAM image number is an example of prior image identification information. The BOF feature value is an example of a prior image feature detection frequency, and the
事前移動の際に取得されたランドマークデータベース92、パターンIDリスト94、消滅信念度テーブル96、ランドマーク地図97、BOFテーブル98は、事前情報の一例である。抽出領域リスト110、対応リスト112、自律BOFテーブル114、ベクトル類似度テーブル116、関連SLAM画像テーブル118は自律情報の一例である。また、自律BOF類似度リスト120,BOF類似度比較テーブル122、パターン別スコアリスト124も、自律情報の一例である。
The
以上説明したように、本実施の形態によれば、ステレオカメラ3により撮影された自律画像と、予め取得されたSLAM画像との類似度に基づく、ランドマーク毎の消滅信念度に基づき、消滅したと判断されたランドマークをSLAM生成物90から削除する。これにより、環境が変化しても、変化に応じて、ランドマークデータベース92、ランドマーク地図97等の更新を行うことが可能になる。SLAM生成物90の更新は、ステレオカメラ3の画像に基づいて算出される消滅信念度に応じて行うため、センサに基づく更新に比べて確度を向上させることができる。これにより、ランドマーク地図97を利用してロボット1が自律移動を行う際に、ステレオカメラ3により取得した画像を用いて、より確度の高いランドマーク地図97の更新を行うことができる。よって、ロボット1の自己位置推定および自律移動の精度を安定に維持することが可能になる。
As described above, according to the present embodiment, the disappearance is based on the disappearance belief for each landmark based on the similarity between the autonomous image captured by the
なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。例えば、上記実施の形態において例示したデータ構成は一例であり、同様の処理が可能なものであれば上記に限定されない。また、ベクトル類似度、BOF類似度の算出方法は上記に限定されない。例えば、上記実施の形態においては、いずれも各要素ごとの差の絶対値の和に基づいて算出するようにしたが、類似度が表せる数値であれば、各要素ごとの差の2乗に基づいて算出するなど変形が可能である。また、各表における数値は一例であり、これに限定されない。 The present invention is not limited to the embodiments described above, and various configurations or embodiments can be adopted without departing from the gist of the present invention. For example, the data configuration illustrated in the above embodiment is an example, and the present invention is not limited to the above as long as the same processing can be performed. Further, the method for calculating the vector similarity and the BOF similarity is not limited to the above. For example, in the above embodiment, the calculation is based on the sum of the absolute values of the differences for each element. However, if the numerical value can represent the similarity, it is based on the square of the difference for each element. It is possible to modify the calculation. Moreover, the numerical value in each table | surface is an example, and is not limited to this.
上記実施の形態においては、事前移動と自律移動を同一のロボット1により行う例について説明したが、別なロボットにより生成されたSLAM生成物90を予めロボット1に記憶させて用いるような変形例も可能である。
In the above embodiment, the example in which the advance movement and the autonomous movement are performed by the
ここで、上記実施の形態による事前情報更新方法の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図22は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図22に示すように、コンピュータ400は、Central Processing Unit(CPU)402、メモリ404、入力装置406、出力装置408、外部記憶装置412、媒体駆動装置414、ネットワーク接続装置等がバス410を介して接続されている。
Here, an example of a computer that is commonly applied to cause a computer to perform the operation of the prior information update method according to the above embodiment will be described. FIG. 22 is a block diagram illustrating an example of a hardware configuration of a standard computer. As shown in FIG. 22, a
CPU402は、コンピュータ400全体の動作を制御する演算処理装置である。メモリ404は、コンピュータ400の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ404は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置406は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU402に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置408は、コンピュータ400による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU402により送付される表示データに応じてテキストや画像を表示する。
The
外部記憶装置412は、例えば、ハードディスクなどの記憶装置であり、CPU402により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置414は、可搬記録媒体416に書き込みおよび読み出しを行うための装置である。CPU402は、可搬型記録媒体416に記録されている所定の制御プログラムを、記録媒体駆動装置414を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体416は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置418は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス410は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。
The
上記実施の形態による事前情報更新方法をコンピュータに実行させるプログラムは、例えば外部記憶装置412に記憶させる。CPU402は、外部記憶装置412からプログラムを読み出し、コンピュータ400に画像処理の動作を行なわせる。このとき、まず、画像処理の処理をCPU402に行わせるための制御プログラムを作成して外部記憶装置412に記憶させておく。そして、入力装置406から所定の指示をCPU402に与えて、この制御プログラムを外部記憶装置412から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体416に記憶するようにしてもよい。
A program that causes a computer to execute the prior information update method according to the above embodiment is stored in, for example, the
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する事前情報取得部と、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する自律情報取得部と、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する消滅信念度算出部と、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する更新部と、
を有することを特徴とする画像処理装置。
(付記2)
前記事前情報取得部は、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報取得部は、
前記自律移動装置が自律移動中に撮影した自律画像を取得する自律画像取得部と、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出する画像特徴抽出部と、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する特徴頻度算出部と、
を含み、
前記消滅信念度算出部は、
前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出する類似度算出部を有し、
前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付ける対応付け部、
をさらに有し、
前記消滅信念度算出部は、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定することを特徴とする付記2に記載の画像処理装置。
(付記4)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記2または付記3に記載の画像処理装置。
(付記5)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記2または付記3に記載の画像処理装置。
(付記6)
画像処理装置が、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出しと、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
ことを特徴とする事前情報更新方法。
(付記7)
前記事前情報取得する処理においては、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報を取得する処理は、
前記自律移動装置が自律移動中に撮影した自律画像を取得し、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出し、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する、
処理を含み、
前記消滅信念度を算出する処理においては、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出し、前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記6に記載の事前情報更新方法。
(付記8)
さらに、前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付け、
前記消滅信念度を算出する処理においては、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする付記2に記載の事前情報更新方法。
(付記9)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記7または付記8に記載の事前情報更新方法。
(付記10)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記7または付記8に記載の事前情報更新方法。
(付記11)
コンピュータが、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出しと、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
処理をコンピュータに実行させるためのプログラム。
(付記12)
前記事前情報取得する処理においては、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報を取得する処理は、
前記自律移動装置が自律移動中に撮影した自律画像を取得し、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出し、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する、
処理を含み、
前記消滅信念度を算出する処理においては、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出し、前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記11に記載のプログラム。
(付記13)
さらに、前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付け、
前記消滅信念度を算出する処理においては、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする付記12に記載のプログラム。
(付記14)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記12または付記13に記載のプログラム。
(付記15)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記12または付記13に記載のプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A pre-information acquisition unit that acquires pre-information including landmark position information and image characteristics acquired from a pre-image obtained by photographing the surrounding environment of a route where autonomous movement is performed;
An autonomous information acquisition unit for acquiring autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device;
Based on the prior information and the autonomous information, an extinction belief degree that calculates an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment A calculation unit;
Based on the annihilation belief degree, it is determined whether or not the landmark is extinguished from the prior information, and an update unit that updates the prior information;
An image processing apparatus comprising:
(Appendix 2)
The prior information acquisition unit has observed landmark identification information of the landmark, a feature vector corresponding to the landmark, three-dimensional position information of the landmark, and an image feature corresponding to the feature vector. Obtaining pre-image identification information of the pre-image and a pre-image feature detection frequency for each image feature included in the pre-image,
The autonomous information acquisition unit
An autonomous image acquisition unit that acquires an autonomous image captured during autonomous movement of the autonomous mobile device;
An image feature extraction unit that extracts a feature region in the acquired autonomous image and extracts a feature vector of the extracted feature region;
Classifying the feature vectors extracted in the autonomous image to calculate an autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image; and
Including
The disappearance belief calculation unit
A similarity calculation unit that calculates a similarity based on a difference between the prior image feature frequency and the autonomous image feature frequency for each image feature;
Calculating the extinction belief for each image feature based on the similarity for each image feature;
The image processing apparatus according to
(Appendix 3)
An association unit that associates the feature vector extracted in the autonomous image with the landmark;
Further comprising
The annihilation belief calculation unit calculates the annihilation belief based on the sum of the similarities for each of the image features corresponding to the landmarks not associated by the association unit,
The image processing apparatus according to
(Appendix 4)
The image processing according to
(Appendix 5)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The image processing apparatus according to 2 or
(Appendix 6)
The image processing device
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
The autonomous mobile device acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by photographing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculating an extinction belief representing the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment;
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
The prior information update method characterized by the above.
(Appendix 7)
In the prior information acquisition process, the landmark identification information of the landmark, the feature vector corresponding to the landmark, the three-dimensional position information of the landmark, and the image feature corresponding to the feature vector are observed. The prior image identification information of the prior image and the prior image feature detection frequency for each image feature included in the prior image,
The process of acquiring the autonomous information includes
Acquire an autonomous image taken during autonomous movement of the autonomous mobile device,
Extracting a feature region in the acquired autonomous image, extracting a feature vector of the extracted feature region,
By classifying the feature vectors extracted in the autonomous image, the autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image is calculated.
Including processing,
In the process of calculating the disappearance belief, a similarity is calculated based on a difference between the prior image feature frequency for each image feature and the autonomous image feature frequency, and based on the similarity for each image feature Calculating the disappearance belief for each image feature;
The prior information update method according to
(Appendix 8)
Further, the feature vector extracted in the autonomous image is associated with the landmark,
In the process of calculating the annihilation belief, the annihilation belief is calculated based on the sum of the similarities for each of the image features corresponding to the landmarks that are not associated by the association unit,
The prior information update method according to
(Appendix 9)
The prior information according to
(Appendix 10)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The prior information update method according to 7 or
(Appendix 11)
Computer
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
The autonomous mobile device acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by photographing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculating an extinction belief representing the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment;
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
A program that causes a computer to execute processing.
(Appendix 12)
In the prior information acquisition process, the landmark identification information of the landmark, the feature vector corresponding to the landmark, the three-dimensional position information of the landmark, and the image feature corresponding to the feature vector are observed. The prior image identification information of the prior image and the prior image feature detection frequency for each image feature included in the prior image,
The process of acquiring the autonomous information includes
Acquire an autonomous image taken during autonomous movement of the autonomous mobile device,
Extracting a feature region in the acquired autonomous image, extracting a feature vector of the extracted feature region,
By classifying the feature vectors extracted in the autonomous image, the autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image is calculated.
Including processing,
In the process of calculating the disappearance belief, a similarity is calculated based on a difference between the prior image feature frequency for each image feature and the autonomous image feature frequency, and based on the similarity for each image feature Calculating the disappearance belief for each image feature;
The program according to appendix 11, which is characterized by the above.
(Appendix 13)
Further, the feature vector extracted in the autonomous image is associated with the landmark,
In the process of calculating the annihilation belief, the annihilation belief is calculated based on the sum of the similarities for each of the image features corresponding to the landmarks that are not associated by the association unit,
13. The program according to
(Appendix 14)
The program according to
(Appendix 15)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The program according to 12 or
1 ロボット
3 ステレオカメラ
5 車輪部
7 センサ情報取得装置
9 画像処理装置
11 画像取得装置
13 情報処理装置
15 移動コントローラ
17 記憶装置
30 タスクマネージャ
32 SLAMタスク制御部
34 自律移動タスク制御部
36 メインテナンスタスク制御部
40 SLAM部
42 SLAM画像取得部
44 特徴抽出部
46 BOF計算部
48 パターン登録部
50 ランドマーク位置計測部
52 自己位置推定部
54 エンコーダデータ取得部
56 地図生成部
60 自律移動部
62 自律画像取得部
64 特徴ベクトル抽出部
66 自律BOF生成部
68 対応付け部
70 対応リスト作成部
72 関連SLAM画像抽出部
74 関連ランドマーク抽出部
76 BOF類似度計算部
78 消滅信念度算出部
80 消滅信念度更新部
82 自律移動制御部
90 SLAM生成物
92 ランドマークデータベース
94 パターンIDリスト
96 消滅信念度テーブル
97 ランドマーク地図
98 BOFテーブル
100 ランドマーク削除部
110 抽出領域リスト
112 対応リスト
114 自律BOFテーブル
116 ベクトル類似度テーブル
118 関連SLAM画像テーブル
120 自律BOF類似度リスト
122 BOF類似度比較テーブル
124 パターン別スコアリスト
DESCRIPTION OF
Claims (7)
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する自律情報取得部と、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する消滅信念度算出部と、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する更新部と、
を有することを特徴とする画像処理装置。 A pre-information acquisition unit that acquires pre-information including landmark position information and image characteristics acquired from a pre-image obtained by photographing the surrounding environment of a route where autonomous movement is performed;
An autonomous information acquisition unit for acquiring autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device;
Based on the prior information and the autonomous information, an extinction belief degree that calculates an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment A calculation unit;
Based on the annihilation belief degree, it is determined whether or not the landmark is extinguished from the prior information, and an update unit that updates the prior information;
An image processing apparatus comprising:
前記自律情報取得部は、
前記自律移動装置が自律移動中に撮影した自律画像を取得する自律画像取得部と、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出する画像特徴抽出部と、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する特徴頻度算出部と、
を含み、
前記消滅信念度算出部は、
前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出する類似度算出部を有し、
前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする請求項1に記載の画像処理装置。 The prior information acquisition unit has observed landmark identification information of the landmark, a feature vector corresponding to the landmark, three-dimensional position information of the landmark, and an image feature corresponding to the feature vector. Obtaining pre-image identification information of the pre-image and a pre-image feature detection frequency for each image feature included in the pre-image,
The autonomous information acquisition unit
An autonomous image acquisition unit that acquires an autonomous image captured during autonomous movement of the autonomous mobile device;
An image feature extraction unit that extracts a feature region in the acquired autonomous image and extracts a feature vector of the extracted feature region;
Classifying the feature vectors extracted in the autonomous image to calculate an autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image; and
Including
The disappearance belief calculation unit
A similarity calculation unit that calculates a similarity based on a difference between the prior image feature frequency and the autonomous image feature frequency for each image feature;
Calculating the extinction belief for each image feature based on the similarity for each image feature;
The image processing apparatus according to claim 1.
をさらに有し、
前記消滅信念度算出部は、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記更新部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする請求項2に記載の画像処理装置。 An association unit that associates the feature vector extracted in the autonomous image with the landmark;
Further comprising
The annihilation belief calculation unit calculates the annihilation belief based on the sum of the similarities for each of the image features corresponding to the landmarks not associated by the association unit,
The image processing apparatus according to claim 2, wherein the updating unit determines that the landmark corresponding to the image feature is to be deleted when the disappearance belief degree exceeds a predetermined value.
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出し、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
ことを特徴とする事前情報更新方法。 The image processing device
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
Autonomous mobile device acquires autonomous information including positional information and image features of the feature region related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculate a disappearance belief degree indicating the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment,
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
The prior information update method characterized by the above.
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出し、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
処理をコンピュータに実行させるためのプログラム。 Computer
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
Autonomous mobile device acquires autonomous information including positional information and image features of the feature region related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculate a disappearance belief degree indicating the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment,
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
A program that causes a computer to execute processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012027836A JP5862344B2 (en) | 2012-02-10 | 2012-02-10 | Image processing apparatus, prior information update method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012027836A JP5862344B2 (en) | 2012-02-10 | 2012-02-10 | Image processing apparatus, prior information update method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013164754A JP2013164754A (en) | 2013-08-22 |
JP5862344B2 true JP5862344B2 (en) | 2016-02-16 |
Family
ID=49176061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012027836A Active JP5862344B2 (en) | 2012-02-10 | 2012-02-10 | Image processing apparatus, prior information update method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5862344B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6397663B2 (en) * | 2014-06-18 | 2018-09-26 | シャープ株式会社 | Self-propelled electronic device |
JP7067130B2 (en) * | 2018-03-07 | 2022-05-16 | カシオ計算機株式会社 | Autonomous mobile device, memory organization method and program |
WO2019240208A1 (en) * | 2018-06-13 | 2019-12-19 | Groove X株式会社 | Robot, method for controlling robot, and program |
JP2020177289A (en) | 2019-04-15 | 2020-10-29 | ソニー株式会社 | Information processing device information processing method and information processing program |
JP6788291B1 (en) * | 2019-06-03 | 2020-11-25 | 株式会社イクシス | Inspection support system |
JP2021051497A (en) * | 2019-09-24 | 2021-04-01 | 東芝テック株式会社 | Information processing apparatus and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006172016A (en) * | 2004-12-14 | 2006-06-29 | Toshiba Corp | Mobile robot, mobile robot control method and mobile robot control program |
JP5614118B2 (en) * | 2010-06-15 | 2014-10-29 | 富士通株式会社 | Landmark detection method, robot and program |
-
2012
- 2012-02-10 JP JP2012027836A patent/JP5862344B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2013164754A (en) | 2013-08-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5862344B2 (en) | Image processing apparatus, prior information update method, and program | |
JP5803367B2 (en) | Self-position estimation apparatus, self-position estimation method and program | |
CA2870381C (en) | Adaptive mapping with spatial summaries of sensor data | |
KR101725060B1 (en) | Apparatus for recognizing location mobile robot using key point based on gradient and method thereof | |
KR100877072B1 (en) | Method and apparatus of building map for a mobile robot and cleaning simultaneously | |
US20190332115A1 (en) | Method of controlling mobile robot | |
KR101784183B1 (en) | APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF | |
CN107179082B (en) | Autonomous exploration method and navigation method based on fusion of topological map and measurement map | |
Vidas et al. | Real-time mobile 3D temperature mapping | |
KR20110091316A (en) | Apparatus for planning traveling path and method thereof | |
JP7147753B2 (en) | Information processing device, information processing method, and program | |
KR20100031277A (en) | Apparatus and method for localization using forward images | |
KR20040029493A (en) | Landmark, apparatus and method for determining position of autonomous vehicles effectively | |
KR20110122022A (en) | Apparatus for building map and method thereof | |
JP2010033447A (en) | Image processor and image processing method | |
Fischer et al. | Stereo vision-based localization for hexapod walking robots operating in rough terrains | |
JP2002296010A (en) | Own position identifying method using image | |
JP2022034861A (en) | Forklift, location estimation method, and program | |
KR101701241B1 (en) | Improving method for road information of fdb based on histogram similarity and improving apparatus thereof | |
Morioka et al. | Simplified map representation and map learning system for autonomous navigation of mobile robots | |
Bokovoy et al. | Maomaps: A photo-realistic benchmark for vslam and map merging quality assessment | |
Singh et al. | Visual Positioning Systems: Navigating The Future Of Precision Location Technologies | |
JP2024078661A (en) | Information processing device, information processing method, and computer program | |
KR20230108997A (en) | Method for visual localization, control server and buiding using the same | |
JP2024043795A (en) | Information processing device, mobile object, information processing method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140904 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150623 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150624 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150811 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151214 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5862344 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |