JP5862344B2 - Image processing apparatus, prior information update method, and program - Google Patents

Image processing apparatus, prior information update method, and program Download PDF

Info

Publication number
JP5862344B2
JP5862344B2 JP2012027836A JP2012027836A JP5862344B2 JP 5862344 B2 JP5862344 B2 JP 5862344B2 JP 2012027836 A JP2012027836 A JP 2012027836A JP 2012027836 A JP2012027836 A JP 2012027836A JP 5862344 B2 JP5862344 B2 JP 5862344B2
Authority
JP
Japan
Prior art keywords
image
autonomous
landmark
feature
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012027836A
Other languages
Japanese (ja)
Other versions
JP2013164754A (en
Inventor
彬 陳
彬 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2012027836A priority Critical patent/JP5862344B2/en
Publication of JP2013164754A publication Critical patent/JP2013164754A/en
Application granted granted Critical
Publication of JP5862344B2 publication Critical patent/JP5862344B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置、事前情報更新方法及びプログラムに関する。   The present invention relates to an image processing apparatus, a prior information update method, and a program.

移動型ロボットは、様々な複雑環境下で自由自在な自律移動を行うために、本体に搭載されたカメラを用いて、周囲環境から特徴のある画像領域をランドマークとして検出して、事前に作成した画像データベースや地図と照合することによって、自律走行を行う。   Mobile robots are created in advance by detecting distinctive image areas as landmarks from the surrounding environment using a camera mounted on the main body in order to perform autonomous movement freely in various complex environments. Autonomous driving is performed by collating with the image database and map.

例えば、自律移動ロボットの移動経路を、移動経路上の固定位置であるランドマークのうち、自律移動ロボットが直接移動可能ないくつかのランドマークを接続するリンクにより構成する技術が知られている。   For example, a technique is known in which a movement path of an autonomous mobile robot is configured by a link that connects several landmarks that can be directly moved by the autonomous mobile robot among landmarks that are fixed positions on the movement path.

ランドマークをカメラで認識する際には、認識の成績が撮影条件や装置の状態によって変わるため、認識結果の確からしさや認識の困難さなどを判断することにより、ランドマーク地図の更新情報の確度を向上させる例も知られている。   When recognizing landmarks with a camera, the recognition results vary depending on the shooting conditions and the state of the device, so the accuracy of the landmark map update information can be determined by judging the accuracy of the recognition results and the difficulty of recognition. An example of improving is also known.

しかし、ロボットの長期運用を考える際、事前にランドマークを用いた地図を作成するために計測した環境は変化することがあり、一定期間経過すると、例えば、新しいランドマークが現れたり、元のランドマークが消えたりすることがある。また、ランドマークを用いた地図作成当時にランドマークが間違って登録されたことなどが原因で、ロボット自律移動の際に、それらのランドマークが長期間に渡って再度観測されない場合も考えられる。このように、事前に作成された地図は、最新の環境との不整合を起こす場合があるため、ロボットの自己位置推定の精度を安定に維持するために、事前に作成された地図を一定期間ごとに更新する必要がある。   However, when considering long-term operation of robots, the environment measured to create a map using landmarks in advance may change.For example, after a certain period of time, a new landmark appears or the original landmark appears. The mark may disappear. In addition, there may be a case where the landmarks are not observed again for a long period of time when the robot autonomously moves due to the fact that the landmarks are registered incorrectly at the time of map creation using the landmarks. In this way, since a map created in advance may cause inconsistencies with the latest environment, the map created in advance is used for a certain period of time in order to maintain the accuracy of robot self-position estimation stably. It is necessary to update every time.

このため、自己位置同定に用いる地図において、局所地図と大域地図とを備え、ランドマーク候補及びランドマーク照合結果を局所地図に保存し、次回のランドマーク照合に利用する技術が知られている。このとき、対応するランドマークがないランドマーク候補を新たにランドマークとして登録する一方、既に登録されているランドマークであっても長期間にわたって観測されないものは削除する。   For this reason, there is known a technique that includes a local map and a global map in a map used for self-location identification, stores landmark candidates and landmark matching results in the local map, and uses them for the next landmark matching. At this time, a landmark candidate having no corresponding landmark is newly registered as a landmark, while those already registered that are not observed over a long period of time are deleted.

特開平10−143243号公報Japanese Patent Laid-Open No. 10-143243 特開2008−51612号公報JP 2008-51612 A 特開2008−165275号公報JP 2008-165275 A

しかしながら、地図を更新する場合、削除するランドマークをどのような基準で決定するかは、ロボットの自律移動の精度を保つために重要である。よって、既に地図に登録されているランドマークが消えたという判断方法が必要になる。しかし、上記の例では、センサを用いてランドマークが消えたことを判断しており、より確度の高い判断を行うには、カメラにより取得した画像を用いることが好ましい。   However, when updating the map, it is important to determine the criteria for determining the landmark to be deleted in order to maintain the accuracy of autonomous movement of the robot. Therefore, a method for determining that a landmark already registered in the map has disappeared is necessary. However, in the above example, it is determined that the landmark has disappeared using the sensor, and it is preferable to use an image acquired by the camera in order to make a more accurate determination.

上記課題に鑑み、地図等予め取得された周囲環境の情報を利用して自律移動を行う際に、カメラにより取得した画像を用いて、より確度の高い地図などの情報の更新を行うことによりロボットの自己位置推定および自律移動の精度を維持することが可能な画像処理装置、事前情報更新方法、及びプログラムを提供する。   In view of the above problem, when autonomous movement is performed using information on the surrounding environment acquired in advance such as a map, the robot can update the information such as a map with higher accuracy using an image acquired by the camera. An image processing apparatus, a prior information update method, and a program capable of maintaining the self-position estimation and the accuracy of autonomous movement are provided.

ひとつの態様である画像処理装置は、事前情報取得部と、自律情報取得部と、消滅信念度算出部と、更新部とを有する。事前情報取得部は、自律移動を行う経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する。自律情報取得部は、自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する。消滅信念度算出部は、事前情報と自律情報とに基づき、事前画像と自律画像とに基づきランドマークが周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する。更新部は、消滅信念度に基づき、ランドマークを事前情報から消滅させるか否かを判定し、事前情報を更新する。   An image processing apparatus according to one aspect includes a prior information acquisition unit, an autonomous information acquisition unit, a disappearance belief degree calculation unit, and an update unit. The prior information acquisition unit acquires the prior information including the position information of the landmark and the image feature acquired from the prior image obtained by photographing the surrounding environment of the route for autonomous movement. The autonomous information acquisition unit acquires autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device. The extinction belief calculation unit calculates an extinction belief indicating the certainty of whether or not the landmark has disappeared from the surrounding environment based on the prior image and the autonomous image based on the prior information and the autonomous information. The updating unit determines whether or not to delete the landmark from the prior information based on the disappearance belief degree, and updates the prior information.

別の態様である事前情報更新方法は、画像処理装置が、事前情報及び自律情報を取得し、消滅信念度を算出し、事前情報を更新する方法である。この方法において、画像処理装置は、自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する。画像処理装置は、前記自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得する。画像処理装置は、前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する。さらに画像処理装置は、前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する。   The prior information update method which is another aspect is a method in which the image processing apparatus acquires the prior information and the autonomous information, calculates the disappearance belief degree, and updates the prior information. In this method, the image processing apparatus obtains prior information including landmark position information and image features obtained from a prior image obtained by photographing the surrounding environment of a route on which autonomous movement is performed. The image processing apparatus acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during the autonomous movement of the autonomous mobile apparatus. The image processing device has an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment based on the prior information and the autonomous information. calculate. Further, the image processing apparatus determines whether or not to delete the landmark from the prior information based on the disappearance belief degree, and updates the prior information.

なお、上述した本発明に係る方法をコンピュータに行わせるためのプログラムであっても、このプログラムを当該コンピュータによって実行させることにより、上述した本発明に係る方法と同様の作用効果を奏するので、前述した課題が解決される。   Note that even a program for causing a computer to perform the method according to the present invention described above has the same operational effects as the method according to the present invention described above by causing the computer to execute the program. The problem that was solved is solved.

上述した態様によれば、地図を利用して自律移動を行う際に、カメラにより取得した画像を用いて、より確度の高い地図の更新を行うことにより自律移動の精度を維持することが可能な画像処理装置、事前情報更新方法、及びプログラムを提供できる。   According to the above-described aspect, when performing autonomous movement using a map, it is possible to maintain the accuracy of autonomous movement by updating the map with higher accuracy using an image acquired by a camera. An image processing apparatus, a prior information update method, and a program can be provided.

一実施の形態によるロボットのハードウエア構成を示す図である。It is a figure which shows the hardware constitutions of the robot by one Embodiment. 一実施の形態によるロボットの画像処理装置の機能を示すブロック図である。It is a block diagram which shows the function of the image processing apparatus of the robot by one embodiment. 一実施の形態によるランドマークデータベースの一例を示す図である。It is a figure which shows an example of the landmark database by one Embodiment. 一実施の形態によるパターンIDリストの一例を示す図である。It is a figure which shows an example of the pattern ID list by one Embodiment. 一実施の形態によるBOFテーブルの一例を示す図である。It is a figure which shows an example of the BOF table by one embodiment. 一実施の形態によるランドマーク地図の一例を示す図である。It is a figure which shows an example of the landmark map by one embodiment. 一実施の形態による消滅信念度の一例を示す図である。It is a figure which shows an example of the annihilation belief degree by one embodiment. 一実施の形態による抽出領域リストを示す図である。It is a figure which shows the extraction area | region list by one Embodiment. 一実施の形態による対応リストを示す図である。It is a figure which shows the corresponding | compatible list by one Embodiment. 一実施の形態による自律BOFテーブルを示す図である。It is a figure which shows the autonomous BOF table by one embodiment. 一実施の形態によるベクトル類似度テーブルを示す図である。It is a figure which shows the vector similarity table by one Embodiment. 一実施の形態による関連SLAM画像テーブルを示す図である。It is a figure which shows the related SLAM image table by one Embodiment. 一実施の形態による自律BOF類似度リストを示す図である。It is a figure which shows the autonomous BOF similarity list by one Embodiment. 一実施の形態によるBOF類似度比較テーブルを示す図である。It is a figure which shows the BOF similarity comparison table by one Embodiment. 一実施の形態によるパターン別スコアリストを示す図である。It is a figure which shows the score list classified by pattern by one Embodiment. 一実施の形態による消滅信念度を示す図である。It is a figure which shows the annihilation belief degree by one Embodiment. 一実施の形態によるランドマークデータベース作成処理を説明するフローチャートである。It is a flowchart explaining the landmark database creation processing by one embodiment. 一実施の形態によるランドマーク地図作成処理を説明するフローチャートである。It is a flowchart explaining the landmark map creation process by one Embodiment. 一実施の形態によるロボットの運用時の動作の概要を説明するフローチャートである。It is a flowchart explaining the outline | summary of the operation | movement at the time of operation | movement of the robot by one Embodiment. 一実施の形態による消滅信念度更新処理を説明するフローチャートである。It is a flowchart explaining the disappearance belief degree update process by one Embodiment. 一実施の形態による消滅信念度更新処理を説明するフローチャートである。It is a flowchart explaining the disappearance belief degree update process by one Embodiment. 標準的なコンピュータのハードウエア構成図である。It is a hardware block diagram of a standard computer.

以下、図面を参照しながら、一実施の形態によるロボット1について説明する。まず、図1、図2を参照しながらロボット1の構成について説明する。図1は、ロボット1のハードウエア構成を示す図、図2は、ロボット1の画像処理装置9の機能を示すブロック図である。   Hereinafter, a robot 1 according to an embodiment will be described with reference to the drawings. First, the configuration of the robot 1 will be described with reference to FIGS. FIG. 1 is a diagram illustrating a hardware configuration of the robot 1, and FIG. 2 is a block diagram illustrating functions of the image processing device 9 of the robot 1.

図1に示すように、ロボット1は、ステレオカメラ3、車輪部5、センサ情報取得装置7、画像処理装置9、記憶装置17を備えている。ステレオカメラ3は、所定距離離れて配置されるカメラ3−1、カメラ3−2を有し、対象物を2つの異なる方向から同時に撮影することにより、それぞれの画像情報とともに対象物の距離の情報も記録できるようにしたカメラである。車輪部5は、ロボット1を移動させる車輪、及び車輪の回転を計測するエンコーダを備えた車輪・エンコーダ5−1、5−2を含んで構成される。車輪部5は、後述する画像処理装置9の移動コントローラ15からの制御に応じて回転することによりロボット1を移動させるとともに、車輪の回転に応じたエンコーダによる情報を出力する。センサ情報取得装置7は、車輪部5のエンコーダからの出力を取得する。   As shown in FIG. 1, the robot 1 includes a stereo camera 3, a wheel unit 5, a sensor information acquisition device 7, an image processing device 9, and a storage device 17. The stereo camera 3 includes a camera 3-1 and a camera 3-2 that are arranged at a predetermined distance, and simultaneously captures an image of an object from two different directions, thereby providing information on the distance of the object together with the respective image information. It is a camera that can also record. The wheel unit 5 includes wheels that move the robot 1 and wheels / encoders 5-1 and 5-2 that include encoders that measure the rotation of the wheels. The wheel unit 5 moves in accordance with the control from the movement controller 15 of the image processing device 9 described later to move the robot 1 and outputs information by an encoder according to the rotation of the wheel. The sensor information acquisition device 7 acquires an output from the encoder of the wheel unit 5.

画像処理装置9は、画像取得装置11、情報処理装置13、移動コントローラ15を有している。画像取得装置11は、ステレオカメラ3の動作を制御するとともに、撮影した画像を取得する。情報処理装置13は、センサ情報取得装置7から車輪部5のエンコーダの情報を取得するとともに、画像取得装置11から取得した画像に基づき後述する処理を行う演算処理装置である。また、情報処理装置13は、センサ情報取得装置7を介して取得した車輪部5からの情報、および画像取得装置11から取得した画像に基づく処理結果に基づき、移動コントローラ15に車輪部5を制御する情報を出力する。情報処理装置13は、さらに、記憶装置17に情報を格納し、または記憶装置17から情報を読み出す。   The image processing device 9 includes an image acquisition device 11, an information processing device 13, and a movement controller 15. The image acquisition device 11 controls the operation of the stereo camera 3 and acquires a captured image. The information processing device 13 is an arithmetic processing device that acquires information on the encoder of the wheel unit 5 from the sensor information acquisition device 7 and performs processing described later based on the image acquired from the image acquisition device 11. Further, the information processing device 13 controls the wheel unit 5 by the movement controller 15 based on the information from the wheel unit 5 acquired via the sensor information acquisition device 7 and the processing result based on the image acquired from the image acquisition device 11. Output information. The information processing device 13 further stores information in the storage device 17 or reads information from the storage device 17.

移動コントローラ15は、情報処理装置13からの指示に基づき、車輪部5の車輪の動作を制御する。記憶装置17は、ロボット1の動作を行なう制御プログラム、制御に必要な各種情報を格納する随時書き込みおよび読み出し可能な記憶装置である。記憶装置17は、読み出し可能な記憶装置、または、取り外し可能な記憶装置を含むようにしてもよい。なお、情報処理装置13は、記憶装置17に記憶された制御プログラムを読出し実行することにより、ロボット1の動作を制御するようにしてもよい。   The movement controller 15 controls the operation of the wheels of the wheel unit 5 based on an instruction from the information processing device 13. The storage device 17 is a storage device capable of writing and reading as needed to store a control program for operating the robot 1 and various information necessary for control. The storage device 17 may include a readable storage device or a removable storage device. Note that the information processing apparatus 13 may control the operation of the robot 1 by reading and executing a control program stored in the storage device 17.

図2に示すように、画像処理装置9は、タスクマネージャ30、Simultaneous Localization and Mapping(SLAM)タスク制御部32、自律移動タスク制御部34、メインテナンスタスク制御部36の機能を有している。タスクマネージャ30は、SLAMタスク制御部32、自律移動タスク制御部34、メインテナンスタスク制御部36の動作を制御する。SLAMタスク制御部32は、SLAM部40の動作を制御し、自律移動タスク制御部34は、自律移動部60の動作を制御し、メインテナンスタスク制御部36は、ランドマーク削除部100の動作を制御する。   As shown in FIG. 2, the image processing apparatus 9 has functions of a task manager 30, a simultaneous localization and mapping (SLAM) task control unit 32, an autonomous movement task control unit 34, and a maintenance task control unit 36. The task manager 30 controls operations of the SLAM task control unit 32, the autonomous mobile task control unit 34, and the maintenance task control unit 36. The SLAM task control unit 32 controls the operation of the SLAM unit 40, the autonomous movement task control unit 34 controls the operation of the autonomous movement unit 60, and the maintenance task control unit 36 controls the operation of the landmark deletion unit 100. To do.

以下、ロボット1の運用前に、手動などでロボット1を事前に設定した経路に沿って移動させることを事前移動という。このときステレオカメラ3により例えば所定時間毎に取得される画像をSLAM画像といい、SLAM画像により生成されるランドマーク地図など後述する各種データをまとめて、SLAM生成物90という。また、ロボット1の運用時、SLAM部40により作成されたSLAM生成物90及び車輪部5からのエンコーダの情報を参照しながら、予め設定された経路に沿って移動することを自律移動という。また、ロボット1が自律移動する際に、ステレオカメラ3を制御して、所定時間毎にステレオカメラ3に撮影を行わせて撮影した画像を、自律画像という。   Hereinafter, moving the robot 1 along a route set in advance manually or the like before the operation of the robot 1 is referred to as advance movement. At this time, for example, images acquired every predetermined time by the stereo camera 3 are referred to as SLAM images, and various data described later such as landmark maps generated from the SLAM images are collectively referred to as SLAM products 90. In addition, when the robot 1 is operated, moving along a preset route while referring to the SLAM product 90 created by the SLAM unit 40 and the encoder information from the wheel unit 5 is called autonomous movement. In addition, when the robot 1 autonomously moves, an image captured by controlling the stereo camera 3 to cause the stereo camera 3 to capture images every predetermined time is referred to as an autonomous image.

SLAM部40は、ロボット1が自律移動を行う際に参照するSLAM生成物90を作成する。また、事前移動中に各時刻でステレオカメラ3、車輪部5等の各センサの環境計測データを記録し、ログという形で記憶装置に記憶させる。また、SLAM部40は、事前移動の完了後、このログデータ(例えば、ステレオカメラ3で撮影した画像など)を用いて後述するランドマーク地図97を作成する。   The SLAM unit 40 creates a SLAM product 90 that is referred to when the robot 1 performs autonomous movement. In addition, environmental measurement data of each sensor such as the stereo camera 3 and the wheel unit 5 is recorded at each time during advance movement, and is stored in a storage device in the form of a log. Further, the SLAM unit 40 creates a landmark map 97 to be described later using this log data (for example, an image photographed by the stereo camera 3) after the completion of the advance movement.

SLAM部40は、SLAM画像取得部42、特徴抽出部44、画像特徴バッグ(Bag of Features:BOF)計算部46、パターン登録部48、自己位置推定部52、エンコーダデータ取得部54、地図生成部56の機能を有している。 The SLAM unit 40 includes a SLAM image acquisition unit 42, a feature extraction unit 44, an image feature bag (BOF) Features calculation unit 46, a pattern registration unit 48, a self-position estimation unit 52, an encoder data acquisition unit 54, and a map generation unit. It has 56 functions.

SLAM画像取得部42は、ロボット1の自律移動の前の事前移動中に各時刻でステレオカメラ3によるSLAM画像を取得するとともに、記憶装置17に記憶させる。SLAM画像取得部42は、画像取得装置11の機能の一部である。特徴抽出部44は、SLAM画像取得部42が取得した各SLAM画像において、例えば、画像の特徴の強い特徴点または特徴領域等(以下、まとめて特徴領域という)を抽出する。特徴領域とは、例えば画像中にあるコーナ、線分、点、スポットなどのようなものである。   The SLAM image acquisition unit 42 acquires SLAM images from the stereo camera 3 at each time during the preliminary movement before the autonomous movement of the robot 1 and stores the SLAM image in the storage device 17. The SLAM image acquisition unit 42 is a part of the function of the image acquisition device 11. The feature extraction unit 44 extracts, for example, feature points or feature regions having strong features of the image (hereinafter collectively referred to as feature regions) from each SLAM image acquired by the SLAM image acquisition unit 42. The feature region is, for example, a corner, a line segment, a point, or a spot in the image.

BOF計算部46は、特徴抽出部44が抽出した特徴領域について、特徴ベクトルを算出する。また、BOF計算部46は、パターン登録部48を介して記憶装置17に登録された各ランドマークに対応する特徴ベクトルのパターンを参照し、算出した特徴ベクトルと登録された特徴ベクトルとの類似度(以下、ベクトル類似度という)を算出する。ベクトル類似度の算出方法は後述する。なお、ランドマークとは、識別情報(パターンID)と3次元座標情報を持った特徴領域である。   The BOF calculation unit 46 calculates a feature vector for the feature region extracted by the feature extraction unit 44. Further, the BOF calculation unit 46 refers to the feature vector pattern corresponding to each landmark registered in the storage device 17 via the pattern registration unit 48, and the similarity between the calculated feature vector and the registered feature vector. (Hereinafter referred to as vector similarity) is calculated. A method for calculating the vector similarity will be described later. The landmark is a feature area having identification information (pattern ID) and three-dimensional coordinate information.

ベクトル類似度が所定の範囲内であれば、BOF計算部46は、抽出した特徴領域を当該ランドマークに対応する特徴ベクトルと同パターンとしてカウントし、所定範囲外であれば、算出した特徴ベクトルを新しいパターンとして登録する。BOF計算部46は、分類した結果に応じて各特徴ベクトルのパターン毎の出現頻度をカウントすることにより、BOFを計算する。計算されたパターン毎の出現頻度をBOF特徴値という。BOF特徴値の比較によって、2枚の画像の類似度が分かる。例えば、2枚の画像に似たシーンが写されときには、BOF類似度の値は高い。逆にBOF類似度が低い場合、2枚の画像には違ったシーンが映されている可能性がある。   If the vector similarity is within a predetermined range, the BOF calculation unit 46 counts the extracted feature region as the same pattern as the feature vector corresponding to the landmark. If the vector similarity is outside the predetermined range, the calculated feature vector is Register as a new pattern. The BOF calculator 46 calculates the BOF by counting the appearance frequency of each feature vector pattern according to the classified result. The calculated appearance frequency for each pattern is called a BOF feature value. By comparing the BOF feature values, the similarity between the two images can be found. For example, when a scene similar to two images is captured, the BOF similarity value is high. On the other hand, when the BOF similarity is low, different scenes may be reflected in the two images.

このように、BOF計算部46は、後述するランドマーク地図97、ランドマークデータベース92、パターンIDリスト94、およびBOFテーブル98を作成または更新する。パターン登録部48は、記憶装置17に記憶された情報を参照するとともに、ランドマーク地図97、ランドマークデータベース92、パターンIDリスト94、およびBOFテーブル98を記憶装置17に登録する。   In this manner, the BOF calculation unit 46 creates or updates a landmark map 97, a landmark database 92, a pattern ID list 94, and a BOF table 98, which will be described later. The pattern registration unit 48 refers to the information stored in the storage device 17 and registers the landmark map 97, landmark database 92, pattern ID list 94, and BOF table 98 in the storage device 17.

ランドマーク位置計測部50は、事前移動時にステレオカメラ3により取得されたSLAM画像を用いて、例えばステレオビジョン計測などの原理に基づいて、検出されたランドマークの3次元位置を計測する。ランドマーク位置計測部50は、ロボット1のステレオカメラ3のグローバル座標値に基づいて、計測されたランドマークのグローバル座標値を座標変換することによって、3次元位置を算出する。   The landmark position measurement unit 50 measures the three-dimensional position of the detected landmark using the SLAM image acquired by the stereo camera 3 during the pre-movement based on the principle of stereo vision measurement, for example. The landmark position measurement unit 50 calculates a three-dimensional position by performing coordinate conversion on the measured global coordinate value of the landmark based on the global coordinate value of the stereo camera 3 of the robot 1.

エンコーダデータ取得部54は、車輪部5からのエンコーダの情報を取得する。自己位置推定部52は、ランドマーク位置計測部50によるランドマークの位置情報と、エンコーダデータ取得部54からの、エンコーダの情報とにより、ロボット1の自己位置を推定する。なお、この自己位置の推定は、エンコーダによる情報と、観測したランドマークの位置情報とを利用する方法であれば、例えば、特許文献1に記載の方法など、従来の様々な方法を利用することができる。地図生成部56は、上記により得られた情報からランドマーク地図97を生成する。その他のSLAM生成物については後述する。ランドマーク地図97とは、多くのランドマークを集めてパターンIDとステレオカメラ3次元座標値を対応付けた情報である。   The encoder data acquisition unit 54 acquires encoder information from the wheel unit 5. The self-position estimation unit 52 estimates the self-position of the robot 1 based on the landmark position information from the landmark position measurement unit 50 and the encoder information from the encoder data acquisition unit 54. Note that the self-position estimation may be performed by using various conventional methods such as the method described in Patent Document 1 as long as the information using the encoder and the position information of the observed landmark are used. Can do. The map generation unit 56 generates a landmark map 97 from the information obtained as described above. Other SLAM products will be described later. The landmark map 97 is information that collects many landmarks and associates the pattern ID with the three-dimensional coordinate values of the stereo camera.

自律移動部60は、自律画像取得部62、特徴ベクトル抽出部64、自律BOF生成部66、対応付け部68、対応リスト作成部70、関連SLAM画像抽出部72、関連ランドマーク抽出部74、BOF類似度計算部76、消滅信念度算出部78、消滅信念度更新部80、自律移動制御部82の機能を有している。また、SLAM生成物90は、ランドマークデータベース92、パターンIDリスト94、消滅信念度テーブル96、ランドマーク地図97、BOFテーブル98を有し、記憶装置17に記憶されている。   The autonomous movement unit 60 includes an autonomous image acquisition unit 62, a feature vector extraction unit 64, an autonomous BOF generation unit 66, an association unit 68, a correspondence list creation unit 70, a related SLAM image extraction unit 72, a related landmark extraction unit 74, and a BOF. It has functions of a similarity calculation unit 76, a disappearance belief calculation unit 78, a disappearance belief update unit 80, and an autonomous movement control unit 82. The SLAM product 90 has a landmark database 92, a pattern ID list 94, an extinction belief table 96, a landmark map 97, and a BOF table 98 and is stored in the storage device 17.

自律画像取得部62は、ロボット1が、SLAM部40で生成されたランドマーク地図97などを参照しながら予め設定された経路に沿って自律移動する際に、ステレオカメラ3を制御して、所定時間毎にステレオカメラ3に撮影を行わせ、撮影した画像を取得する。自律画像取得部62は、画像取得装置11の機能の一部である。
特徴ベクトル抽出部64は、自律画像取得部62が取得した自律画像において、特徴領域を抽出し、抽出した特徴領域の特徴ベクトルを抽出し、後述する抽出領域リスト110を生成する。
The autonomous image acquisition unit 62 controls the stereo camera 3 when the robot 1 autonomously moves along a preset route with reference to the landmark map 97 generated by the SLAM unit 40, and the like. The stereo camera 3 is photographed every time, and the photographed image is acquired. The autonomous image acquisition unit 62 is a part of the function of the image acquisition device 11.
The feature vector extraction unit 64 extracts a feature region in the autonomous image acquired by the autonomous image acquisition unit 62, extracts a feature vector of the extracted feature region, and generates an extraction region list 110 described later.

対応付け部68は、自律移動中に特徴ベクトル抽出部64で抽出された特徴ベクトルと、予め記録されている各ランドマークに応じた特徴ベクトルとのベクトル類似度を算出することにより、対応付けを行う。また、これにより対応付け部68は、後述するベクトル類似度テーブル116を生成する。なおこのとき、各ランドマークに応じた特徴ベクトルは、SLAM生成物90のランドマークデータベース92を参照する。対応リスト作成部70は、対応付け部68により行われた対応付けにより、後述する対応リスト112を作成する。   The association unit 68 performs association by calculating the vector similarity between the feature vector extracted by the feature vector extraction unit 64 during autonomous movement and the feature vector corresponding to each landmark recorded in advance. Do. Accordingly, the associating unit 68 generates a vector similarity table 116 described later. At this time, the feature vector corresponding to each landmark refers to the landmark database 92 of the SLAM product 90. The correspondence list creation unit 70 creates a correspondence list 112 to be described later by the association performed by the association unit 68.

関連SLAM画像抽出部72は、特徴ベクトル抽出部64で抽出された特徴領域に対応するランドマークが抽出されたSLAM画像を、ランドマークデータベース92を参照して全て抽出し、後述する関連SLAM画像テーブル118を作成する。関連ランドマーク抽出部74は、当該自律画像に関連して抽出された関連SLAM画像について後述するパターンIDリスト94を参照しながら、関連SLAM画像抽出部72で抽出された全てのランドマークを抽出し、関連SLAM画像テーブル118に登録する。   The related SLAM image extraction unit 72 extracts all SLAM images from which landmarks corresponding to the feature regions extracted by the feature vector extraction unit 64 have been extracted with reference to the landmark database 92, and a related SLAM image table described later. 118 is created. The related landmark extracting unit 74 extracts all the landmarks extracted by the related SLAM image extracting unit 72 while referring to a pattern ID list 94 described later for the related SLAM image extracted in relation to the autonomous image. And registered in the related SLAM image table 118.

自律BOF生成部66は、ベクトル類似度によりパターンIDに対応する特徴領域と所定の類似が確認された特徴領域について、当該ランドマークの出現頻度としてカウントすることにより、自律画像の自律BOFを算出し、後述する自律画像毎の自律BOFテーブル114を生成する。   The autonomous BOF generating unit 66 calculates the autonomous BOF of the autonomous image by counting the feature area whose predetermined similarity with the feature area corresponding to the pattern ID is confirmed by the vector similarity as the appearance frequency of the landmark. Then, an autonomous BOF table 114 for each autonomous image described later is generated.

BOF類似度計算部76は、算出された自律BOFと、SLAM部40で生成されたBOFテーブル98とから類似度(以下、BOF類似度という)を計算し、後述する自律BOF類似度リスト120を生成する。BOF類似度の計算方法については、後述する。また、BOF類似度計算部76は、ランドマークデータベース92、関連SLAM画像テーブル118、自律BOF類似度リスト120より、後述するBOF類似度比較テーブル122、パターン別スコアリスト124を生成する。   The BOF similarity calculation unit 76 calculates a similarity (hereinafter referred to as “BOF similarity”) from the calculated autonomous BOF and the BOF table 98 generated by the SLAM unit 40, and stores an autonomous BOF similarity list 120 described later. Generate. A method for calculating the BOF similarity will be described later. In addition, the BOF similarity calculation unit 76 generates a BOF similarity comparison table 122 and a pattern-specific score list 124 described later from the landmark database 92, the related SLAM image table 118, and the autonomous BOF similarity list 120.

消滅信念度算出部78は、算出されたBOF類似度、及び関連ランドマークに基づき、消滅信念度を算出する。消滅信念度とは、ランドマークが周囲環境から消滅したか否かの確からしさを表す値である。消滅信念度更新部80は、消滅信念度テーブル96に記憶された消滅信念度を、消滅信念度算出部78で算出された消滅信念度に更新する。   The disappearance belief calculation unit 78 calculates the disappearance belief based on the calculated BOF similarity and the related landmarks. The disappearance belief is a value representing the certainty of whether or not the landmark has disappeared from the surrounding environment. The disappearance belief update unit 80 updates the disappearance belief stored in the disappearance belief table 96 to the disappearance belief calculated by the disappearance belief calculation unit 78.

自律移動制御部82は外部から入力される始点、終点を取得して設定し、ステレオカメラ3によるセンサで環境を計測して、計測情報をランドマーク地図97と照合して、自分の位置姿勢を推定する(自己位置推定)とともに、移動のための制御信号を出力する。また、自律移動制御部82は、ロボット1目標経路から離れたら、目標経路に復帰するように移動を制御する。   The autonomous movement control unit 82 acquires and sets a start point and an end point input from the outside, measures the environment with a sensor by the stereo camera 3, compares the measurement information with the landmark map 97, and determines its position and orientation. Along with estimation (self-position estimation), a control signal for movement is output. Further, the autonomous movement control unit 82 controls the movement so as to return to the target path when the robot 1 leaves the target path.

ランドマーク削除部100は、消滅信念度テーブル96において更新された消滅信念度に基づき、ランドマークデータベース92およびランドマーク地図97におけるランドマークを削除することにより、SLAM生成物90のメインテナンスを行う。   The landmark deletion unit 100 performs maintenance of the SLAM product 90 by deleting the landmark in the landmark database 92 and the landmark map 97 based on the disappearance belief updated in the disappearance belief table 96.

続いて、図3から図7を参照しながら、SLAM生成物90について説明する。図3は、ランドマークデータベース92の一例を示す図、図4は、パターンIDリスト94の一例を示す図、図5は、BOFテーブル98の一例を示す図、図6は、ランドマーク地図97の一例を示す図、図7は、消滅信念度テーブル96の一例を示す図である。   Subsequently, the SLAM product 90 will be described with reference to FIGS. 3 shows an example of the landmark database 92, FIG. 4 shows an example of the pattern ID list 94, FIG. 5 shows an example of the BOF table 98, and FIG. FIG. 7 is a diagram illustrating an example, and FIG. 7 is a diagram illustrating an example of the disappearance belief degree table 96.

図3に示すように、ランドマークデータベース92は、全てのSLAM画像から抽出した全ての特徴領域の特徴ベクトルをクラスタリングしたデータベースである。ランドマークデータベース92は、各ランドマークに対応するパターンID(図3の例では、F1〜F7)、各パターンIDに対応する特徴ベクトル、各パターンIDに対応する特徴領域が抽出されたSLAM画像の番号を示している。例えば、パターンID=F1については、特徴ベクトル=(0.1,0.2,0.4,・・・,1.0)と表される。また、ランドマークデータベース92は、パターンID=F1に対応する特徴領域が、関連SLAM画像番号=#1、#4、#5のSLAM画像で抽出されたことを示している。ランドマークデータベース92は、例えば特徴抽出部44により生成される。   As shown in FIG. 3, the landmark database 92 is a database in which feature vectors of all feature regions extracted from all SLAM images are clustered. The landmark database 92 includes a pattern ID (F1 to F7 in the example of FIG. 3) corresponding to each landmark, a feature vector corresponding to each pattern ID, and a SLAM image in which a feature region corresponding to each pattern ID is extracted. Numbers are shown. For example, for pattern ID = F1, feature vector = (0.1, 0.2, 0.4,..., 1.0). Further, the landmark database 92 indicates that the feature region corresponding to the pattern ID = F1 is extracted with the SLAM images of the related SLAM image numbers = # 1, # 4, and # 5. The landmark database 92 is generated by the feature extraction unit 44, for example.

図4に示すように、パターンIDリスト94は、特徴領域をクラスタリングしたデータベースであり、各SLAM画像で検出されたパターンIDを示している。例えば、パターンIDリスト94は、SLAM画像番号=#1のSLAM画像(以下、SLAM画像#1という)では、パターンID=F1、F2に対応する特徴領域が抽出されたことを示している。パターンIDリスト94は、例えばパターン登録部48により生成される。   As shown in FIG. 4, the pattern ID list 94 is a database obtained by clustering feature regions, and indicates pattern IDs detected in each SLAM image. For example, the pattern ID list 94 indicates that in the SLAM image with SLAM image number = # 1 (hereinafter referred to as SLAM image # 1), feature regions corresponding to the pattern IDs = F1 and F2 are extracted. The pattern ID list 94 is generated by the pattern registration unit 48, for example.

図5に示すように、BOFテーブル98は、各SLAM画像における、パターンIDに対応する特徴ベクトルの抽出頻度を示している。例えば、BOFテーブル98は、SLAM画像#1において、ベクトル類似度によりパターンID=F1と判断された特徴領域が100回検出されたことを示している。同様に、BOFテーブル98は、パターンID=F2と判断された特徴領域が102回検出され、パターンID=F3、F4、F5と判断される特徴領域は検出されなかったことを示している。BOFテーブル98は、BOF計算部46により生成される。   As shown in FIG. 5, the BOF table 98 indicates the extraction frequency of the feature vector corresponding to the pattern ID in each SLAM image. For example, the BOF table 98 indicates that the feature area determined as pattern ID = F1 by the vector similarity is detected 100 times in the SLAM image # 1. Similarly, the BOF table 98 indicates that the feature region determined as pattern ID = F2 was detected 102 times, and the feature regions determined as pattern ID = F3, F4, F5 were not detected. The BOF table 98 is generated by the BOF calculation unit 46.

ここで、ベクトル類似度の算出方法について説明する。パターンID=Fp(pは1以上の整数)に対応する特徴ベクトルをベクトルXp=(x1、x2、x3、・・・・、xn)(ここで、nは1以上の整数)とし、SLAM画像から抽出された特徴領域に対応する特徴ベクトルをYq=(y1、y2、y3、・・・、yn)(qは、整数)としたとき、ベクトル類似度Vpqは、例えば以下の式1により表される。
Vpq=1/{|x1−y1|+|x2−y2|+・・・+|xn―yn|}
・・・(式1)
BOF計算部46は、ベクトル類似度Vpqが所定値以上の場合に、2つの特徴ベクトルを同じパターンであると判断する。
Here, a method for calculating the vector similarity will be described. A feature vector corresponding to the pattern ID = Fp (p is an integer of 1 or more) is a vector Xp = (x1, x2, x3,..., Xn) (where n is an integer of 1 or more), and the SLAM image When the feature vector corresponding to the feature region extracted from Yq = (y1, y2, y3,..., Yn) (q is an integer), the vector similarity Vpq is expressed by the following equation 1, for example. Is done.
Vpq = 1 / {| x1-y1 | + | x2-y2 | + ... + | xn-yn |}
... (Formula 1)
The BOF calculation unit 46 determines that the two feature vectors have the same pattern when the vector similarity Vpq is equal to or greater than a predetermined value.

図6に示すように、ランドマーク地図97は、事前移動において検出された全てのランドマークに対応するランドマークID、パターンID、及びランドマークの3次元位置(例えば、予め定められた点を原点とするx、y、z座標)を示している。ランドマーク地図97は、地図生成部56により生成される。   As illustrated in FIG. 6, the landmark map 97 includes a landmark ID, a pattern ID, and a three-dimensional position (for example, a predetermined point as the origin) corresponding to all the landmarks detected in advance movement. X, y, z coordinates). The landmark map 97 is generated by the map generation unit 56.

図7に示すように、消滅信念度テーブル96は、事前移動において検出された全てのランドマークに対応するランドマークID、パターンID、及び消滅信念度を示している。消滅信念度テーブル96は、例えば地図生成部56で生成されるが、事前移動の際には、消滅信念度は全て初期状態で、「0」が入力される。   As shown in FIG. 7, the disappearance belief table 96 indicates landmark IDs, pattern IDs, and disappearance beliefs corresponding to all landmarks detected in advance movement. The disappearance belief level table 96 is generated by, for example, the map generation unit 56, but when moving in advance, all disappearance beliefs are in an initial state and "0" is input.

次に、図8から図16を参照しながら、自律移動部60により生成、または更新される情報について説明する。図8は、抽出領域リストを示す図、図9は、対応リストを示す図、図10は、自律BOFテーブルを示す図、図11は、ベクトル類似度テーブルを示す図、図12は、関連SLAM画像テーブルを示す図である。また、図13は、自律BOF類似度リストを示す図、図14は、BOF類似度比較テーブルを示す図、図15は、パターン別スコアリストを示す図、図16は、消滅信念度を示す図である。   Next, information generated or updated by the autonomous mobile unit 60 will be described with reference to FIGS. 8 is a diagram showing an extraction area list, FIG. 9 is a diagram showing a correspondence list, FIG. 10 is a diagram showing an autonomous BOF table, FIG. 11 is a diagram showing a vector similarity table, and FIG. 12 is a related SLAM. It is a figure which shows an image table. 13 shows an autonomous BOF similarity list, FIG. 14 shows a BOF similarity comparison table, FIG. 15 shows a pattern-specific score list, and FIG. 16 shows disappearance belief degrees. It is.

図8に示すように、抽出領域リスト110は、自律画像において抽出された特徴領域(以下、抽出領域という)に対応する抽出領域IDと、対応する特徴ベクトルとを示している。抽出領域リスト110は、例えば、抽出領域ID=G1の特徴ベクトルが、特徴ベクトル=(0.2,0.2,0.3,・・・,0.99)であることを示している。抽出領域リスト110は、本実施の形態では、特徴ベクトル抽出部64で生成される。   As illustrated in FIG. 8, the extraction region list 110 indicates an extraction region ID corresponding to a feature region extracted from the autonomous image (hereinafter referred to as an extraction region) and a corresponding feature vector. The extraction area list 110 indicates that, for example, the feature vector of the extraction area ID = G1 is feature vector = (0.2, 0.2, 0.3,..., 0.99). In the present embodiment, the extraction area list 110 is generated by the feature vector extraction unit 64.

図9に示すように、対応リスト112は、抽出領域IDと、抽出領域IDに対応する特徴ベクトルが類似していると判別された特徴ベクトルと対応するパターンIDとを示している。特徴ベクトルが類似しているか否かは、上述のベクトル類似度により判別する。対応リスト112は、例えば、抽出領域ID=G1が、パターンID=F4に対応していることを示している。対応リスト112は、本実施の形態では、対応リスト作成部70で作成される。   As shown in FIG. 9, the correspondence list 112 shows the extraction region ID and the pattern ID corresponding to the feature vector determined to be similar to the feature vector corresponding to the extraction region ID. Whether or not the feature vectors are similar is determined by the above-described vector similarity. The correspondence list 112 indicates, for example, that the extraction area ID = G1 corresponds to the pattern ID = F4. The correspondence list 112 is created by the correspondence list creation unit 70 in this embodiment.

図10に示すように、自律BOFテーブル114は、自律画像において、パターンIDに対応する特徴ベクトルと類似していると判別された特徴領域の抽出頻度を示す。自律BOFテーブル114は、例えば、パターンID=F1、F3、F4、F7に対応する特徴領域がそれぞれ1回抽出されたことを示している。自律BOFテーブル114は、本実施の形態においては、自律BOF生成部66で生成される。   As shown in FIG. 10, the autonomous BOF table 114 indicates the extraction frequency of the feature region determined to be similar to the feature vector corresponding to the pattern ID in the autonomous image. The autonomous BOF table 114 indicates that the feature areas corresponding to the pattern IDs = F1, F3, F4, and F7 are extracted once, for example. The autonomous BOF table 114 is generated by the autonomous BOF generation unit 66 in the present embodiment.

図11に示すように、ベクトル類似度テーブル116は、抽出領域の特徴ベクトルと、パターンIDに対応する特徴ベクトルとの類似度を示している。ベクトル類似度テーブル116は、例えば、抽出領域ID=G1に対応する特徴ベクトルと、パターンID=F1〜F7に対応する特徴ベクトルとのベクトル類似度Vpqが、順番に、0.5,0.1,・・・・,0.1であることを示している。この例では、例えば、抽出領域ID=G1に対応する特徴ベクトルは、パターンID=F4に対応する特徴ベクトルと最もベクトル類似度Vpqが高いため、G1とF1とが対応付けられる。ベクトル類似度テーブル116は、本実施の形態においては、対応付け部68で生成される。   As shown in FIG. 11, the vector similarity table 116 indicates the similarity between the feature vector of the extraction region and the feature vector corresponding to the pattern ID. In the vector similarity table 116, for example, the vector similarity Vpq between the feature vector corresponding to the extraction region ID = G1 and the feature vector corresponding to the pattern ID = F1 to F7 is 0.5, 0.1 in order. ,..., 0.1. In this example, for example, since the feature vector corresponding to the extraction area ID = G1 has the highest vector similarity Vpq to the feature vector corresponding to the pattern ID = F4, G1 and F1 are associated with each other. The vector similarity table 116 is generated by the association unit 68 in the present embodiment.

図12に示すように、関連SLAM画像テーブル118は、1枚の自律画像に関連する関連パターンIDを示している。関連SLAM画像テーブル118において、対応パターンIDは、対応リスト112において抽出領域IDに対応したパターンIDであり、抽出領域IDに対応する特徴ベクトルと最もベクトル類似度Vpqの高い特徴ベクトルに対応するパターンIDを示している。SLAM画像番号とは、各対応パターンIDに対応するSLAM画像番号であり、ランドマークデータベース92を参照して抽出される。   As shown in FIG. 12, the related SLAM image table 118 shows related pattern IDs related to one autonomous image. In the related SLAM image table 118, the corresponding pattern ID is a pattern ID corresponding to the extracted area ID in the corresponding list 112, and the pattern ID corresponding to the feature vector corresponding to the extracted area ID and the highest vector similarity Vpq. Is shown. The SLAM image number is an SLAM image number corresponding to each corresponding pattern ID, and is extracted with reference to the landmark database 92.

関連SLAM画像番号とは、上記SLAM画像番号として抽出された全てのSLAM画像の番号である。関連パターンIDとは、関連SLAM画像番号の画像が検出した全ての特徴領域に対応したパターンIDであり、ランドマークデータベース92を参照して抽出される。関連SLAM画像テーブル118は、本実施の形態においては関連SLAM画像抽出部72で生成される。なお、図12では、説明の都合上、関連SLAM画像テーブル118に抽出領域IDと、対応パターンIDとを示したが、これらは、対応リスト112と同一の内容であり、省略してもよい。   The related SLAM image number is the number of all SLAM images extracted as the SLAM image number. The related pattern ID is a pattern ID corresponding to all feature areas detected by the image of the related SLAM image number, and is extracted with reference to the landmark database 92. The related SLAM image table 118 is generated by the related SLAM image extraction unit 72 in the present embodiment. In FIG. 12, for the convenience of explanation, the extraction area ID and the corresponding pattern ID are shown in the related SLAM image table 118, but these are the same contents as the correspondence list 112 and may be omitted.

図13に示すように、自律BOF類似度リスト120は、1枚の自律画像と複数のSLAM画像との間のBOF類似度を示している。例えば、この自律画像と、SLAM画像#1とのBOF類似度は、0.83である。自律BOF類似度リスト120は、本実施の形態においては自律BOF生成部66により生成される。   As shown in FIG. 13, the autonomous BOF similarity list 120 shows BOF similarity between one autonomous image and a plurality of SLAM images. For example, the BOF similarity between this autonomous image and SLAM image # 1 is 0.83. The autonomous BOF similarity list 120 is generated by the autonomous BOF generation unit 66 in the present embodiment.

ここで、BOF類似度の計算方法について説明する。SLAM画像#k(kは、整数)における、パターンID=F1〜Fm(mは1以上の整数)に対応する特徴領域のBOF頻度=f1〜fmとする。また、自律画像l(lは、1以上の整数)におけるパターンID=F1〜Fmに対応する特徴領域のBOF頻度=g1〜gmとする。このとき、BOF類似度Bklは、例えば以下の式2により表される。
Bkl=1/{|f1−g1|+|f2−g2|+・・・+|fm―gm|}
・・・(式2)
Here, a method for calculating the BOF similarity will be described. In the SLAM image #k (k is an integer), the BOF frequency of the feature region corresponding to the pattern ID = F1 to Fm (m is an integer of 1 or more) = f1 to fm. Further, the BOF frequency of the feature region corresponding to the pattern ID = F1 to Fm in the autonomous image 1 (l is an integer of 1 or more) = g1 to gm. At this time, the BOF similarity Bkl is expressed by, for example, the following formula 2.
Bkl = 1 / {| f1-g1 | + | f2-g2 | + ... + | fm-gm |}
... (Formula 2)

図14に示すように、BOF類似度比較テーブル122は、1枚の自律画像に関して生成され、当該自律画像に関連するパターンIDに対応するBOF類似度Bklを示している。BOF類似度比較テーブル122において、パターンIDとしては、関連SLAM画像テーブル118から、当該自律画像における関連パターンIDが抽出される。SLAM画像としては、抽出された関連パターンIDのそれぞれについて、ランドマークデータベース92から、対応するSLAM画像番号が抽出される。   As illustrated in FIG. 14, the BOF similarity comparison table 122 is generated for one autonomous image, and indicates the BOF similarity Bkl corresponding to the pattern ID related to the autonomous image. In the BOF similarity comparison table 122, the related pattern ID in the autonomous image is extracted from the related SLAM image table 118 as the pattern ID. As the SLAM image, the corresponding SLAM image number is extracted from the landmark database 92 for each of the extracted related pattern IDs.

BOF類似度としては、ランドマークデータベース92から抽出されたSLAM画像のそれぞれについて、自律BOF類似度リスト120からBOF類似度Bklが抽出される。最大類似度は、パターンID毎に、最大のBOP類似度が抽出される。マスク後類似度においては、抽出された最大類似度のうち、当該自律画像において自律BOFテーブル114で特徴値のあるものについては、該当するパターンIDに対応するランドマークは観察されたものとして、ゼロに置き換えられる。この置き換え後の値が、マスク後類似度となる。BOF類似度比較テーブル122は、本実施の形態においては、BOF類似度計算部76で生成される。   As the BOF similarity, the BOF similarity Bkl is extracted from the autonomous BOF similarity list 120 for each SLAM image extracted from the landmark database 92. As the maximum similarity, the maximum BOP similarity is extracted for each pattern ID. As for the similarity after masking, among the extracted maximum similarities, the landmarks corresponding to the corresponding pattern IDs are zero for those having a characteristic value in the autonomous BOF table 114 in the autonomous image. Is replaced by The value after the replacement is the degree of similarity after masking. The BOF similarity comparison table 122 is generated by the BOF similarity calculation unit 76 in the present embodiment.

図15に示すように、パターン別スコアリスト124は、後述する消滅信念度算出に用いるBOF類似度に基づくスコアを示している。パターン別スコアリスト124においては、BOF類似度比較テーブル122におけるマスク後類似度が、スコアとして各パターンIDに対応付けられる。   As shown in FIG. 15, the pattern-specific score list 124 shows scores based on the BOF similarity used for the calculation of the disappearance belief described later. In the pattern-specific score list 124, the post-mask similarity in the BOF similarity comparison table 122 is associated with each pattern ID as a score.

例えば、パターンID=F1は、当該自律画像において抽出されたと判断されているためスコア=0である。例えば、パターンID=F2については、関連するSLAM画像#1、#3、#4とのBOF類似度のうち最大のものが、SLAM画像#1とのBOF類似度=0.83であるため、最大類似度=0.83となる。このとき、パターンID=F2は、当該自律画像において抽出されたと判断されていないため、マスクはされず、スコア=最大類似度=0.83である。本実施の形態においては、パターン別スコアリスト124は、BOF類似度計算部76で生成される。   For example, since it is determined that the pattern ID = F1 is extracted from the autonomous image, the score = 0. For example, for pattern ID = F2, the largest BOF similarity among the related SLAM images # 1, # 3, # 4 is BOF similarity = 0.83 with the SLAM image # 1, Maximum similarity = 0.83. At this time, since it is not determined that the pattern ID = F2 is extracted in the autonomous image, masking is not performed, and score = maximum similarity = 0.83. In the present embodiment, the pattern-specific score list 124 is generated by the BOF similarity calculation unit 76.

図16に示すように、消滅信念度テーブル96は、各ランドマーク毎の消滅信念度を示している。消滅信念度は、ロボット1が自律移動を行う毎に、パターン別スコアリスト124で算出されたスコアを積算して、更新した値である。図16においては、例えば、ランドマークID=L1の場合、今回の自律移動の前の消滅信念度=0.9であり、これに今回のスコア=0を加算する。例えば、ランドマークID=L2の場合、今回の自律移動の前の消滅信念度=0.2であり、これに今回のスコア=0.83を加算する。本実施の形態においては、パターン別スコアリスト124は、消滅信念度更新部80により更新される。なお、消滅信念度が基準値を超えると、ランドマーク削除部100が、ランドマーク地図97から該当ランドマークを削除する。   As shown in FIG. 16, the disappearance belief degree table 96 indicates the disappearance belief degree for each landmark. The disappearance belief is an updated value obtained by accumulating the scores calculated in the pattern-specific score list 124 every time the robot 1 performs autonomous movement. In FIG. 16, for example, in the case of landmark ID = L1, the disappearance belief before the current autonomous movement is 0.9, and the current score = 0 is added to this. For example, in the case of landmark ID = L2, the disappearance belief before the current autonomous movement is 0.2, and the current score = 0.83 is added to this. In the present embodiment, the score list for each pattern 124 is updated by the disappearance belief update unit 80. If the disappearance belief exceeds the reference value, the landmark deletion unit 100 deletes the corresponding landmark from the landmark map 97.

以下、フローチャートを参照しながら、本実施の形態によるロボット1の動作について説明する。図17は、ランドマークデータベース作成処理を説明するフローチャート、図18は、ランドマーク地図作成処理を説明するフローチャートである。また、図19は、ロボット1の運用時の動作の概要を説明するフローチャート、図20、図21は、消滅信念度更新処理を説明するフローチャートである。   Hereinafter, the operation of the robot 1 according to the present embodiment will be described with reference to a flowchart. FIG. 17 is a flowchart for explaining the landmark database creation process, and FIG. 18 is a flowchart for explaining the landmark map creation process. FIG. 19 is a flowchart for explaining the outline of the operation during operation of the robot 1, and FIGS. 20 and 21 are flowcharts for explaining the disappearance belief update process.

まず、図17を参照しながら、ランドマークデータベース92の作成処理について説明する。図17に示すように、ランドマークデータベース92の作成において、まず、SLAM画像取得部42は、SLAM画像を取得し、エンコーダデータ取得部54は、車輪部5からエンコーダのデータを取得する(S201)。このとき、SLAM部40では、ステレオカメラ3による時系列の画像データ(単に画像ともいう)、ステレオカメラ3による3次元情報、エンコーダのデータによるオドメトリを記憶装置17に保存している。   First, the creation process of the landmark database 92 will be described with reference to FIG. As shown in FIG. 17, in creating the landmark database 92, first, the SLAM image acquisition unit 42 acquires a SLAM image, and the encoder data acquisition unit 54 acquires encoder data from the wheel unit 5 (S201). . At this time, the SLAM unit 40 stores time-series image data (also simply referred to as an image) from the stereo camera 3, three-dimensional information from the stereo camera 3, and odometry based on encoder data in the storage device 17.

SLAM画像取得部42は、SLAM画像の画像データのみを抽出し、記憶装置17に保存するとともに、少なくとも取得したSLAM画像の識別情報と、SLAM画像の画像データとが関連付けられたSLAM画像のリスト(図示せず)を作成する(S202)。特徴抽出部44は、SLAM画像のリストからSLAM画像を一枚抽出し(S203)、画像の特徴の強い特徴領域を抽出する(S204)。このとき、特徴抽出部44は、例えば特徴領域の画面上方の位置、及び特徴ベクトルを出力する。   The SLAM image acquisition unit 42 extracts only the image data of the SLAM image, stores it in the storage device 17, and at least a list of SLAM images in which identification information of the acquired SLAM image is associated with the image data of the SLAM image ( (Not shown) is created (S202). The feature extraction unit 44 extracts one SLAM image from the list of SLAM images (S203), and extracts a feature region having a strong feature of the image (S204). At this time, the feature extraction unit 44 outputs, for example, the position of the feature region above the screen and the feature vector.

特徴抽出部44は、S204で得られた一連の特徴領域について、少なくとも抽出した領域の識別情報と特徴ベクトルとが関連付けられた不図示の特徴領域リストを作成する(S205)。   The feature extraction unit 44 creates a feature region list (not shown) in which at least the extracted region identification information and the feature vector are associated with each other for the series of feature regions obtained in S204 (S205).

BOF計算部46は、不図示の特徴領域リストを用いて、BOFテーブル98を作成し(S206)、対応するBOF頻度を登録する(S207)。このときBOF計算部46は、抽出した特徴ベクトルと、既にBOFテーブル98に登録されている特徴ベクトルとのベクトル類似度Vpqを計算し、ベクトル類似度Vpqが所定値以上の場合に、既に登録されている特徴ベクトルの抽出頻度を増加させる。このBOFテーブル98は、画像同士を区別するための情報となる。   The BOF calculator 46 creates a BOF table 98 using a feature area list (not shown) (S206), and registers the corresponding BOF frequency (S207). At this time, the BOF calculation unit 46 calculates the vector similarity Vpq between the extracted feature vector and the feature vector already registered in the BOF table 98, and is already registered when the vector similarity Vpq is equal to or greater than a predetermined value. Increase the frequency of extracting feature vectors. The BOF table 98 is information for distinguishing images.

特徴抽出部44は、特徴領域リストから特徴領域を一つ抽出し(S208)、抽出した特徴領域がランドマークデータベース92にあるか否かを判別する(S209)。特徴抽出部44が、抽出した特徴領域がランドマークデータベース92に既にあると判別した場合には(S209:YES)、ランドマークデータベース92から、対応するパターンIDを取得する(S210)。このとき特徴抽出部44は、抽出した特徴領域の特徴ベクトルと、ランドマークデータベース92に格納されている特徴ベクトルとのベクトル類似度Vpqを計算し、ベクトル類似度Vpqが所定値以上の場合に、抽出した特徴領域がランドマークデータベース92に既にあると判別する。また、特徴抽出部44は、取得された特徴ベクトルを考慮して、ランドマークデータベース92に登録されている、対応するパターンIDの特徴ベクトルの値を更新するようにしてもよい。なお、ランドマークデータベース92は、初期状態では全ての項目の情報が登録されていない状態である。   The feature extraction unit 44 extracts one feature region from the feature region list (S208), and determines whether or not the extracted feature region is in the landmark database 92 (S209). When the feature extraction unit 44 determines that the extracted feature area already exists in the landmark database 92 (S209: YES), the corresponding pattern ID is acquired from the landmark database 92 (S210). At this time, the feature extraction unit 44 calculates the vector similarity Vpq between the feature vector of the extracted feature region and the feature vector stored in the landmark database 92, and when the vector similarity Vpq is equal to or greater than a predetermined value, It is determined that the extracted feature area already exists in the landmark database 92. The feature extraction unit 44 may update the value of the feature vector of the corresponding pattern ID registered in the landmark database 92 in consideration of the acquired feature vector. Note that the landmark database 92 is in a state where all items of information are not registered in the initial state.

特徴抽出部44が、抽出した特徴領域がランドマークデータベース92にまだ登録されていないと判別した場合には(S209:NO)、その特徴領域に使用されていない新しいパターンIDを割り当てる(S211)。そして、特徴抽出部44は、ランドマークデータベース92に抽出した特徴ベクトルを登録する(S212)。このとき特徴抽出部44は、抽出した特徴領域の特徴ベクトルと、ランドマークデータベース92に格納されている特徴ベクトルとのベクトル類似度Vpqを計算する。特徴抽出部44は、ベクトル類似度Vpqが所定値未満の場合に、抽出した特徴領域が、まだランドマークデータベース92に登録されていないと判別する。また、パターン登録部48は、抽出されたパターンIDを、SLAM画像番号と関連付けてパターンIDリスト94に登録する(S213)。   If the feature extraction unit 44 determines that the extracted feature area is not yet registered in the landmark database 92 (S209: NO), a new pattern ID that is not used for the feature area is assigned (S211). Then, the feature extraction unit 44 registers the extracted feature vector in the landmark database 92 (S212). At this time, the feature extraction unit 44 calculates a vector similarity Vpq between the feature vector of the extracted feature region and the feature vector stored in the landmark database 92. The feature extraction unit 44 determines that the extracted feature region is not yet registered in the landmark database 92 when the vector similarity Vpq is less than a predetermined value. Further, the pattern registration unit 48 registers the extracted pattern ID in the pattern ID list 94 in association with the SLAM image number (S213).

特徴抽出部44は、全特徴領域についてS208からの処理が終了したか否か判別し(S214)、終了していない場合には(S214:NO)、S208に処理を戻す。終了した場合には(S214:YES)、SLAM画像取得部42は、全SLAM画像について処理が終了したか否か判別する(S215)。処理が終了していない場合には(S215:NO)、SLAM画像取得部42は処理をS203に戻す。処理が終了した場合には(S215:YES)、SLAMタスク制御部32は、ランドマークデータベース92の作成処理を終了する。   The feature extraction unit 44 determines whether or not the processing from S208 has been completed for all the feature regions (S214), and if not (S214: NO), returns the processing to S208. If the processing has been completed (S214: YES), the SLAM image acquisition unit 42 determines whether or not the processing has been completed for all SLAM images (S215). If the process has not ended (S215: NO), the SLAM image acquisition unit 42 returns the process to S203. When the process is completed (S215: YES), the SLAM task control unit 32 ends the process of creating the landmark database 92.

次に、図18を参照しながら、ランドマーク地図作成処理を説明する。図18に示すように、ランドマーク地図97の作成において、SLAM画像取得部42は、SLAM画像を取得し、エンコーダデータ取得部54は、車輪部5からエンコーダのデータを取得する(S231)。既に記憶装置17にデータが登録されている場合には、SLAM画像取得部42は、記憶装置17からデータを取得する。   Next, the landmark map creation process will be described with reference to FIG. As shown in FIG. 18, in creating the landmark map 97, the SLAM image acquisition unit 42 acquires a SLAM image, and the encoder data acquisition unit 54 acquires encoder data from the wheel unit 5 (S231). When data is already registered in the storage device 17, the SLAM image acquisition unit 42 acquires data from the storage device 17.

ランドマーク位置計測部50は、不図示のSLAM画像のリストからSLAM画像を一枚抽出する(S232)とともに、パターンIDリスト94において、1つのパターンIDを抽出する(S233)。   The landmark position measurement unit 50 extracts one SLAM image from a list of SLAM images (not shown) (S232) and extracts one pattern ID from the pattern ID list 94 (S233).

ランドマーク位置計測部50は、抽出したパターンIDがランドマーク地図97にあるか否かを判別する(S234)。パターンIDがランドマーク地図にある場合には(S234:YES)、ランドマーク位置計測部50は、対応するランドマークが二つ以上あるか否か判別し(S235)、二つ以上ない場合には(S235:NO)、処理をS239に進める。抽出したパターンIDがランドマーク地図にない場合には(S234:NO)、ランドマーク位置計測部50は、処理をS240に進める。   The landmark position measurement unit 50 determines whether or not the extracted pattern ID is in the landmark map 97 (S234). If the pattern ID is on the landmark map (S234: YES), the landmark position measuring unit 50 determines whether there are two or more corresponding landmarks (S235). (S235: NO), the process proceeds to S239. When the extracted pattern ID is not in the landmark map (S234: NO), the landmark position measuring unit 50 advances the process to S240.

対応するランドマークが二つ以上ある場合には(S235:YES)、ランドマーク位置計測部50は、ランドマーク地図97から、対応する全てのランドマーク位置を取得し(S236)、空間的距離が最短の対応ランドマークを一つ抽出する(S237)。すなわち、同じ画像パターンは空間内の異なる場所に存在する可能性があるため、同じパターンIDでランドマーク地図97を検索すると、複数のランドマークが対応していると判別される可能性がある。そこで、検索結果が複数ある場合には、ランドマーク位置計測部50は、対応するランドマークを空間的距離が最短なランドマーク1つに絞り込む。   When there are two or more corresponding landmarks (S235: YES), the landmark position measuring unit 50 acquires all corresponding landmark positions from the landmark map 97 (S236), and the spatial distance is determined. One shortest corresponding landmark is extracted (S237). That is, since the same image pattern may exist in different places in the space, when the landmark map 97 is searched with the same pattern ID, it may be determined that a plurality of landmarks correspond. Therefore, when there are a plurality of search results, the landmark position measurement unit 50 narrows down the corresponding landmarks to one landmark having the shortest spatial distance.

ランドマーク位置計測部50は、S237で抽出した最短の空間的距離が、閾値以上であるか否かを判別する(S238)。閾値以上である場合には(S238:YES)、ランドマーク位置計測部50は、S240に処理を進める。閾値以上でない場合には(S238:NO)、ランドマーク位置計測部50は、すでに登録されたランドマークが再度観測されたと判断する。そしてランドマーク位置計測部50は、対応ランドマークの3次元位置を、パターンIDに対応する3次元位置、または登録されている位置とパターンIDに対応する位置との中間値等に更新する(S239)。   The landmark position measurement unit 50 determines whether or not the shortest spatial distance extracted in S237 is greater than or equal to a threshold value (S238). If it is equal to or greater than the threshold (S238: YES), the landmark position measurement unit 50 advances the process to S240. If it is not equal to or greater than the threshold (S238: NO), the landmark position measurement unit 50 determines that the already registered landmark has been observed again. Then, the landmark position measurement unit 50 updates the three-dimensional position of the corresponding landmark to a three-dimensional position corresponding to the pattern ID, or an intermediate value between the registered position and the position corresponding to the pattern ID (S239). ).

地図生成部56は、ランドマーク地図97に登録されていないと判断された場合には、抽出されたパターンIDを新しいランドマークと判断し、使用されていない新しいランドマークIDを割り当てる(S240)。自己位置推定部52は、S231で取得したデータにおいて、オドメトリを参照し(S241)、ロボット1の位置姿勢を推定する(S242)。ランドマーク位置計測部50は、抽出されたパターンIDに対応する特徴領域の3次元位置をオドメトリ及びステレオカメラ3の情報から算出する(S243)。地図生成部56は、割り当てられたランドマークIDと、算出されたランドマークの3次元位置を登録する(S244)。   If it is determined that the map generation unit 56 is not registered in the landmark map 97, the map generation unit 56 determines that the extracted pattern ID is a new landmark, and assigns a new landmark ID that is not used (S240). The self-position estimation unit 52 refers to odometry in the data acquired in S231 (S241), and estimates the position and orientation of the robot 1 (S242). The landmark position measurement unit 50 calculates the three-dimensional position of the feature area corresponding to the extracted pattern ID from the information of the odometry and the stereo camera 3 (S243). The map generation unit 56 registers the assigned landmark ID and the calculated three-dimensional position of the landmark (S244).

S245で、地図生成部56は、登録された情報により、記憶装置17のランドマーク地図97を更新する(S244)。なお、ランドマーク地図97は、初期状態では、全ての項目に情報が登録されていない状態であり、S244までの処理を繰り返すことにより、ランドマークID、パターンID、及びランドマークの3次元位置が登録されていく。   In S245, the map generation unit 56 updates the landmark map 97 in the storage device 17 with the registered information (S244). The landmark map 97 is in a state where information is not registered in all items in the initial state, and the landmark ID, the pattern ID, and the three-dimensional position of the landmark are changed by repeating the processing up to S244. It will be registered.

ランドマーク位置計測部50は、全てのパターンIDについて処理を行ったか否か判別し(S246)、処理を行っていないパターンIDがある場合には(S246:NO)、S233から処理を繰り返す。全てのパターンIDについて処理が終了した場合には(S246:YES)、ランドマーク位置計測部50は、全てのデータについて処理を行ったか否か判別する(S247)。全てのデータについて処理が終了していない場合には(S247:NO)、ランドマーク位置計測部50は、S231から処理を繰り返し、全てのデータについて処理が終了した場合には(S247:YES)、ランドマーク地図97の作成処理を終了する。   The landmark position measurement unit 50 determines whether or not processing has been performed for all pattern IDs (S246). If there is a pattern ID that has not been processed (S246: NO), the processing is repeated from S233. When the processing has been completed for all pattern IDs (S246: YES), the landmark position measurement unit 50 determines whether or not processing has been performed for all data (S247). When the processing has not been completed for all data (S247: NO), the landmark position measurement unit 50 repeats the processing from S231, and when the processing has been completed for all data (S247: YES), The creation process of the landmark map 97 ends.

続いて、図19を参照しながら、ロボット1の運用時の動作の概要を説明する。図19に示すように、例えば、ショッピングセンタでの案内業務など、ロボット1の運用を開始する際には、自律移動制御部82は、まず、ロボット1の電源を投入するなど、ロボット1を運用可能な状態で待機させる(S261)。自律移動制御部82は、自律移動タスク制御部34により自律移動タスクが開始されるまで待つ(S262:NO)。自律移動タスク制御部34により、新しい移動タスクが指示されると(S262:YES)、自律移動制御部82は、外部から入力される始点(通常は現在位置)、終点を取得して設定する(S263)。   Next, an overview of operations during operation of the robot 1 will be described with reference to FIG. As shown in FIG. 19, for example, when starting operation of the robot 1 such as guidance work at a shopping center, the autonomous movement control unit 82 first operates the robot 1 by turning on the power of the robot 1. A standby state is made possible (S261). The autonomous movement control unit 82 waits until the autonomous movement task is started by the autonomous movement task control unit 34 (S262: NO). When a new movement task is instructed by the autonomous movement task control unit 34 (S262: YES), the autonomous movement control unit 82 acquires and sets the start point (usually the current position) and the end point input from the outside ( S263).

自律移動制御部82は、移動コントローラ15を制御してロボット1の自律移動を開始させる(S264)。このとき、自律移動制御部82は、ステレオカメラ3、車輪部5よりのセンサ情報によりロボット1の現在位置を推定し、自分の位置と姿勢を失うことなく、目的地に向かって移動させる。   The autonomous movement control unit 82 controls the movement controller 15 to start the autonomous movement of the robot 1 (S264). At this time, the autonomous movement control unit 82 estimates the current position of the robot 1 based on the sensor information from the stereo camera 3 and the wheel unit 5 and moves the robot 1 toward the destination without losing its own position and posture.

自律移動部60では、消滅信念度の更新を行う(S265)。すなわち、自律移動部60は、ステレオカメラ3からの画像を取得して、現在のランドマークを計測し、ランドマーク地図97に基づいて、ロボット1の現在の位置姿勢でステレオカメラ3に映せるはずのランドマークを予測する。また、自律移動部60は、実際の観測と予測のずれから、ランドマーク地図97内に既存のランドマークの消滅信念度を更新する。詳細については、後述する。   The autonomous mobile unit 60 updates the disappearance belief degree (S265). In other words, the autonomous moving unit 60 should acquire an image from the stereo camera 3, measure the current landmark, and display it on the stereo camera 3 with the current position and orientation of the robot 1 based on the landmark map 97. Predict landmarks. In addition, the autonomous mobile unit 60 updates the disappearance belief of the existing landmark in the landmark map 97 based on the difference between actual observation and prediction. Details will be described later.

自律移動が終了するまで、消滅信念度の更新が行われる(S266:NO)。自律移動が終了すると(S266:YES)、自律移動部60は、自律移動の制御プログラムの実行を終了し、メインテナンスタスク制御部36が、記憶装置17に記憶されている消滅信念度テーブル96をスキャンし、削除すべきランドマークがあるか否か判別する(S267)。このとき、メインテナンスタスク制御部36は、各ランドマークの消滅信念度があらかじめ定めた閾値を超えているか否か判別し、超えている場合には、該当するランドマークを削除すると判別する。   The extinction belief is updated until the autonomous movement ends (S266: NO). When the autonomous movement ends (S266: YES), the autonomous movement unit 60 ends the execution of the autonomous movement control program, and the maintenance task control unit 36 scans the disappearance belief degree table 96 stored in the storage device 17. Then, it is determined whether there is a landmark to be deleted (S267). At this time, the maintenance task control unit 36 determines whether or not the disappearance belief of each landmark exceeds a predetermined threshold value, and if so, determines that the corresponding landmark is deleted.

削除すべきランドマークがない場合には(S267:NO)、メインテナンスタスク制御部36は、S261に処理を戻す。削除すべきランドマークがある場合には(S267:YES)、メインテナンスタスク制御部36は、SLAM生成物90から削除することにより、メインテナンスを行う(S268)。   If there is no landmark to be deleted (S267: NO), the maintenance task control unit 36 returns the process to S261. If there is a landmark to be deleted (S267: YES), the maintenance task control unit 36 performs maintenance by deleting it from the SLAM product 90 (S268).

さらに、図20、図21を参照しながら、消滅信念度更新処理について説明する。図20、図21に示すように、消滅信念度更新処理において、ロボット1が移動コントローラ15により所定の自律移動を行っている際に、ステレオカメラ3が環境シーンを撮影することにより、自律画像取得部62が自律画像を取得する(S281)。特徴ベクトル抽出部64は、取得された自律画像において、特徴領域を抽出する(S282)。このとき、特徴ベクトル抽出部64は、1枚の自律画像に対して特徴領域を全て抽出する。特徴ベクトル抽出部64は、得られた抽出領域全てについての識別情報と特徴ベクトルとを対応付け、抽出領域リスト110を作成する(S283)。例えば、図8の抽出領域リスト110では、得られた抽出領域の識別情報を、G1、G2、G3、G4としている。   Furthermore, the disappearance belief level update process will be described with reference to FIGS. As shown in FIGS. 20 and 21, in the disappearance belief update process, when the robot 1 performs a predetermined autonomous movement by the movement controller 15, the stereo camera 3 captures an autonomous scene, thereby acquiring an autonomous image. The unit 62 acquires an autonomous image (S281). The feature vector extraction unit 64 extracts a feature region from the acquired autonomous image (S282). At this time, the feature vector extraction unit 64 extracts all feature regions from one autonomous image. The feature vector extraction unit 64 associates the identification information and the feature vector for all the extracted regions, and creates the extraction region list 110 (S283). For example, in the extracted area list 110 of FIG. 8, the obtained extracted area identification information is G1, G2, G3, and G4.

特徴ベクトル抽出部64は、抽出領域のリストから抽出領域を一つ抽出する(S284)。対応付け部68は、抽出した抽出領域全てについての特徴ベクトルと、ランドマークデータベース92に登録されたパターンIDの特徴ベクトルとにより、ベクトル類似度を計算し、ベクトル類似度テーブル116を作成する(S285)。   The feature vector extraction unit 64 extracts one extraction region from the list of extraction regions (S284). The associating unit 68 calculates a vector similarity based on the extracted feature vectors for all the extracted regions and the feature vector of the pattern ID registered in the landmark database 92, and creates a vector similarity table 116 (S285). ).

対応リスト作成部70は、ベクトル類似度テーブル116を参照して、ベクトル類似度の大きい抽出領域とパターンIDとを対応付け、対応リスト112に追加する(S286)。対応リスト112では、識別情報G1とパターンIDのF4、識別情報G2とパターンIDのF1、識別情報G3とパターンIDのF7、識別情報G4とパターンIDのF3とが対応している。ここで、対応付けができない抽出領域のデータは破棄する。自律BOF生成部66は、対応リスト112に基づき、各パターンIDに対応付けされた抽出領域の数を計数し、自律BOFテーブル114を作成する(S287)。   The correspondence list creating unit 70 refers to the vector similarity table 116, associates an extraction region having a large vector similarity with a pattern ID, and adds the extracted region to the correspondence list 112 (S286). In the correspondence list 112, the identification information G1 and the pattern ID F4, the identification information G2 and the pattern ID F1, the identification information G3 and the pattern ID F7, and the identification information G4 and the pattern ID F3 correspond to each other. Here, the data of the extraction area that cannot be associated is discarded. The autonomous BOF generation unit 66 counts the number of extraction areas associated with each pattern ID based on the correspondence list 112, and creates the autonomous BOF table 114 (S287).

特徴ベクトル抽出部64は、全抽出領域について処理を終了したか否か判別し(S288)、終了していない場合には(S288:NO)、S284から処理を繰り返す。終了した場合には(S288:YES)、特徴ベクトル抽出部64は、処理をS289に進める。   The feature vector extraction unit 64 determines whether or not the processing has been completed for all the extraction areas (S288), and if not (S288: NO), repeats the processing from S284. When the process is completed (S288: YES), the feature vector extraction unit 64 advances the process to S289.

自律移動制御部82は、得られた対応リスト112を用いて、ロボット1の現在位置及び姿勢を推定し、移動コントローラ15に、予め設定された経路に応じた制御信号を出力する(S289)。   The autonomous movement control unit 82 estimates the current position and posture of the robot 1 using the obtained correspondence list 112, and outputs a control signal corresponding to a preset route to the movement controller 15 (S289).

対応リスト作成部70は、対応リスト112から抽出領域とパターンIDのペアを1ペア抽出する(S290)。関連SLAM画像抽出部72は、ランドマークデータベース92を参照して、ペアとして抽出されたパターンIDに対応する特徴領域を、SLAM生成物生成の段階ではどのSLAM画像から検出されたのか、検出されているSLAM画像の番号を全て取得する。さらに、関連SLAM画像抽出部72は、取得したSLAM画像番号を、抽出したペアに関連付け、関連SLAM画像テーブル118のSLAM画像番号とする(S291)。   The correspondence list creation unit 70 extracts one pair of extraction area and pattern ID from the correspondence list 112 (S290). The related SLAM image extraction unit 72 refers to the landmark database 92 to detect which SLAM image the feature region corresponding to the pattern ID extracted as a pair is detected at the stage of SLAM product generation. Get all the SLAM image numbers. Further, the related SLAM image extraction unit 72 associates the acquired SLAM image number with the extracted pair and sets it as the SLAM image number of the related SLAM image table 118 (S291).

ここで、ランドマークデータベース92に保存されている同じパターンIDに対応する特徴領域が、複数枚のSLAM画像から検出されたものである可能性がある。この情報もランドマークデータベース92に保存されているため、関連SLAM画像抽出部72は、この複数枚のSLAM画像番号を得て、自律画像の抽出領域とペアリングする。   Here, there is a possibility that the feature region corresponding to the same pattern ID stored in the landmark database 92 is detected from a plurality of SLAM images. Since this information is also stored in the landmark database 92, the related SLAM image extraction unit 72 obtains the plurality of SLAM image numbers and pairs them with the autonomous image extraction region.

例えば、ペアとして抽出領域=G1と、パターンID=F4が抽出されているとする。このとき、関連SLAM画像テーブル118は、SLAM生成物90の生成時に、パターンIDのF4に対応する特徴領域が、SLAM画像#2、#4から検出されたことを示している。同様に、パターンIDのF1に対応する特徴領域は、SLAM画像#1、#4、#5から検出され、パターンIDのF7に対応する特徴領域は、SLAM画像#7、#8、#9、#10から検出されたことが示されている。また、パターンIDのF3に対応する特徴領域は、SLAM画像#3、#4、#5から検出されたことが示されている。   For example, it is assumed that the extraction area = G1 and the pattern ID = F4 are extracted as a pair. At this time, the related SLAM image table 118 indicates that the feature region corresponding to the pattern ID F4 was detected from the SLAM images # 2 and # 4 when the SLAM product 90 was generated. Similarly, feature areas corresponding to pattern ID F1 are detected from SLAM images # 1, # 4, and # 5, and feature areas corresponding to pattern ID F7 are SLAM images # 7, # 8, # 9, It is shown that it was detected from # 10. In addition, it is shown that the feature region corresponding to the pattern ID F3 is detected from the SLAM images # 3, # 4, and # 5.

なお、S291で取得されたSLAM画像番号は重複している可能性があるが、関連SLAM画像抽出部72は、取得したSLAM画像番号を重複なく抽出して、関連SLAM画像テーブル118の関連SLAM画像番号とする。よって、関連SLAM画像テーブル118の例では、関連SLAM画像は、SLAM画像#1、#2、#3、#4、#5、#7、#8、#9、#10である。   Note that although the SLAM image numbers acquired in S291 may overlap, the related SLAM image extraction unit 72 extracts the acquired SLAM image numbers without duplication, and related SLAM images in the related SLAM image table 118. Number. Therefore, in the example of the related SLAM image table 118, the related SLAM images are SLAM images # 1, # 2, # 3, # 4, # 5, # 7, # 8, # 9, and # 10.

関連ランドマーク抽出部74は、ランドマークデータベース92を参照して、関連SLAM画像と関連するパターンIDを全て抽出することにより、関連SLAM画像テーブル118の関連パターンIDとする(S292)。例えば、始めに抽出されたペアの関連SLAM画像番号=#2、#4に関しては、ランドマークデータベース92により、パターンID=F1〜F4が抽出される。   The related landmark extraction unit 74 refers to the landmark database 92 and extracts all the pattern IDs related to the related SLAM image, thereby setting the related pattern ID of the related SLAM image table 118 (S292). For example, with respect to the pair-related SLAM image numbers = # 2 and # 4 extracted first, pattern IDs = F1 to F4 are extracted by the landmark database 92.

関連SLAM画像抽出部72は、対応リスト112における抽出領域とパターンIDの全てのペアの処理を完了したか否か判別し(S293)、完了していない場合には(S293:NO)、S290から処理を繰り返す。   The related SLAM image extraction unit 72 determines whether or not the processing of all pairs of extraction regions and pattern IDs in the correspondence list 112 has been completed (S293), and if not completed (S293: NO), from S290 Repeat the process.

すなわち、ランドマークデータベース92によれば、SLAM生成物90の生成時に、SLAM画像#1から、パターンID=F1、F2に対応する特徴領域が抽出されており、SLAM画像#2から、パターンID=F4に対応する特徴領域が抽出されている。また、SLAM画像#3から、パターンID=F2、F3に対応する特徴領域が抽出されており、SLAM画像#4から、パターンID=F1、F2、F3、F4に対応する特徴領域が抽出されている。以下、同様に、各SLAM画像から抽出された特徴領域のパターンIDを重畳なくまとめると、関連SLAM画像テーブル118に示すように、関連パターンID=F1、F2、F3、F4、F6、F7になる。全てのペアの処理を完了した場合には(S293:YES)、関連SLAM画像抽出部72は、処理を図21のS301に進める。   That is, according to the landmark database 92, when the SLAM product 90 is generated, the feature regions corresponding to the pattern ID = F1 and F2 are extracted from the SLAM image # 1, and the pattern ID = A feature region corresponding to F4 is extracted. Also, feature areas corresponding to pattern ID = F2, F3 are extracted from SLAM image # 3, and feature areas corresponding to pattern ID = F1, F2, F3, F4 are extracted from SLAM image # 4. Yes. Similarly, when the pattern IDs of the feature areas extracted from the respective SLAM images are collected without overlapping, as shown in the related SLAM image table 118, the related pattern ID = F1, F2, F3, F4, F6, and F7. . When the processing of all pairs is completed (S293: YES), the related SLAM image extraction unit 72 advances the processing to S301 in FIG.

図21に示すように、関連SLAM画像抽出部72は、関連SLAM画像テーブル118において、関連SLAM画像を1つ抽出する(S301)。BOF類似度計算部76は、抽出されたSLAM画像のBOFをBOFテーブル98から抽出し(S302)、自律BOFテーブル114のBOFとの間でBOF類似度を計算し(S303)、自律BOF類似度リスト120とする。   As shown in FIG. 21, the related SLAM image extraction unit 72 extracts one related SLAM image from the related SLAM image table 118 (S301). The BOF similarity calculation unit 76 extracts the BOF of the extracted SLAM image from the BOF table 98 (S302), calculates the BOF similarity with the BOF of the autonomous BOF table 114 (S303), and autonomous BOF similarity It is set as list 120.

一方、関連ランドマーク抽出部74は、関連SLAM画像テーブル118から関連パターンIDを抽出し(S304)、抽出した関連パターンIDに対応するメモリを確保したか否か判別する(S305)。メモリが確保されている場合には(S305:YES)、関連ランドマーク抽出部74は、処理をS308に進める。抽出した関連パターンIDに対応するメモリが確保されていない場合には(S305:NO)、関連ランドマーク抽出部74は、メモリを確保し(S306)、確保したメモリをゼロリセット(初期化)し(S307)、処理をS308に進める。   On the other hand, the related landmark extraction unit 74 extracts a related pattern ID from the related SLAM image table 118 (S304), and determines whether or not a memory corresponding to the extracted related pattern ID is secured (S305). If the memory is secured (S305: YES), the related landmark extraction unit 74 advances the process to S308. When the memory corresponding to the extracted related pattern ID is not secured (S305: NO), the related landmark extracting unit 74 secures the memory (S306), and resets (initializes) the secured memory to zero. (S307), the process proceeds to S308.

消滅信念度算出部78は、自律BOF類似度リスト120及びBOF類似度比較テーブル122を参照する。そして、消滅信念度算出部78は、自律画像と、抽出したパターンIDに対応付けられたSLAM画像のうちの一つの画像との自律BOF類似度と、抽出したパターンIDのメモリの既存値とを比較し、大きい方を最大類似度としてメモリに記憶させる(S308)。消滅信念度算出部78は、同じパターンIDに関連付けられた他のSLAM画像についても同様に処理を行い、1つのパターンIDについて、最大のBOF類似度を最大類似度としてメモリに記憶させる。すなわち、消滅信念度算出部78は、1つのパターンIDが複数の関連SLAM画像と対応付けられているときに、関連SLAM画像と自律画像とのBOF類似度の大きい方に基づき消滅信念度を算出することになる。   The disappearance belief calculation unit 78 refers to the autonomous BOF similarity list 120 and the BOF similarity comparison table 122. Then, the disappearance belief calculation unit 78 calculates the autonomous BOF similarity between the autonomous image and one of the SLAM images associated with the extracted pattern ID, and the existing value of the extracted pattern ID in the memory. The larger one is stored in the memory as the maximum similarity (S308). The extinction belief calculation unit 78 performs the same process for other SLAM images associated with the same pattern ID, and stores the maximum BOF similarity in the memory as the maximum similarity for one pattern ID. That is, the disappearance belief calculation unit 78 calculates the disappearance belief based on the larger BOF similarity between the related SLAM image and the autonomous image when one pattern ID is associated with a plurality of related SLAM images. Will do.

消滅信念度算出部78は、全ての関連SLAM画像について、最大類似度の算出処理が完了したか否かを判別し(S309)、完了していない場合には(S309:NO)、S301に戻って処理を繰り返す。   The disappearance belief calculation unit 78 determines whether or not the maximum similarity calculation processing has been completed for all the related SLAM images (S309), and if not (S309: NO), returns to S301. Repeat the process.

完了した場合には(S309:YES)、消滅信念度算出部78は、自律BOFテーブル114を参照して、当該自律画像において観測されたパターンIDに対応する最大類似度をゼロに置き換え、各パターンID毎のマスク後類似度を算出する。例えば、対応リスト112を参照すると、自律画像において、パターンID=F1、F3、F4、F7はそれぞれ、抽出領域G2、G4、G1、G3と対応している。よって、消滅信念度算出部78は、パターンID=F1、F3、F4、F7に対応するランドマークは今回観測されたと判断し、消滅信念度を増加させる必要はないため、マスク後類似度はゼロに設定して、BOF類似度比較テーブル122を生成する。   When completed (S309: YES), the disappearance belief calculation unit 78 refers to the autonomous BOF table 114, replaces the maximum similarity corresponding to the pattern ID observed in the autonomous image with zero, The degree of similarity after masking for each ID is calculated. For example, referring to the correspondence list 112, the pattern IDs = F1, F3, F4, and F7 correspond to the extraction regions G2, G4, G1, and G3, respectively, in the autonomous image. Therefore, the disappearance belief calculation unit 78 determines that the landmarks corresponding to the pattern IDs = F1, F3, F4, and F7 have been observed this time, and it is not necessary to increase the disappearance belief, so the post-mask similarity is zero. And the BOF similarity comparison table 122 is generated.

消滅信念度算出部78は、BOF類似度比較テーブル122のマスク後類似度により、パターン別スコアリスト124を生成する。また、消滅信念度算出部78は、各パターンID毎に、パターン別スコアリスト124におけるスコアを消滅信念度とする。このとき、1つのパターンIDについて、過去において既に計算され、記憶されている消滅信念度がある場合には、消滅信念度算出部78は、記憶されている消滅信念度と、算出された消滅信念度とを加算して、新たな消滅信念度とする(S310)。このとき、記憶装置17に記憶されている消滅信念度を新たな消滅信念度に更新する。   The disappearance belief calculation unit 78 generates the pattern-specific score list 124 based on the post-mask similarity in the BOF similarity comparison table 122. Further, the disappearance belief calculation unit 78 sets the score in the pattern score list 124 as the disappearance belief for each pattern ID. At this time, if there is an annihilation belief degree that has been calculated and stored in the past for one pattern ID, the annihilation belief calculation unit 78 stores the stored annihilation belief degree and the calculated annihilation belief. The degree is added to obtain a new disappearance belief degree (S310). At this time, the disappearance belief stored in the storage device 17 is updated to a new disappearance belief.

自律移動制御部82は、ロボット1の位置が自律移動の終了地点か否かを判別し(S311)、終了地点でないと判別された場合には(S311:NO)、移動を続けながら、S281に戻って処理を繰り返す。終了地点と判別された場合には(S311:YES)、自律移動制御部82は、移動処理を終了するとともに、消滅信念度更新処理を終了し、図19の処理に戻る。   The autonomous movement control unit 82 determines whether or not the position of the robot 1 is the end point of autonomous movement (S311). If it is determined that the position is not the end point (S311: NO), the autonomous movement control unit 82 proceeds to S281 while continuing the movement. Return and repeat the process. When it is determined as the end point (S311: YES), the autonomous movement control unit 82 ends the movement process, ends the disappearance belief degree update process, and returns to the process of FIG.

以上説明したように、本実施の形態においては、SLAM技術の生成物であるランドマークデータベース92、パターンIDリスト94、BOFテーブル98、ランドマーク地図97等に加え、消滅信念度を導入する。消滅信念度とは、ランドマーク地図97生成を行った以降、各ランドマークが環境から消えたかどうかを判断するための、各ランドマークに対する数値基準とする。   As described above, in this embodiment, the disappearance belief is introduced in addition to the landmark database 92, the pattern ID list 94, the BOF table 98, the landmark map 97, etc., which are products of the SLAM technology. The disappearance belief is a numerical standard for each landmark to determine whether each landmark has disappeared from the environment after the landmark map 97 is generated.

消滅信念度はランドマーク地図97等、SLAM生成物90の生成を行った直後にすべてゼロに設定している。その後のロボット1の運用時の自律移動で、ロボット1に搭載しているステレオカメラ3によりランドマークを観測できるかどうかによって、そのランドマークへの消滅信念度を更新していく。このとき、自律画像とSLAM画像とのBOF類似度が高く、画像としての類似度が高いにもかかわらず、観測できないランドマークは、消滅した可能性が高いと判断する。そして、観測できないランドマークに関係する類似度を積算した値を消滅信念度とする。   The extinction beliefs are all set to zero immediately after the SLAM product 90 is generated, such as the landmark map 97. The annihilation belief in the landmark is updated depending on whether or not the landmark can be observed by the stereo camera 3 mounted on the robot 1 in the subsequent autonomous movement of the robot 1 during operation. At this time, although the BOF similarity between the autonomous image and the SLAM image is high and the similarity as the image is high, it is determined that there is a high possibility that the landmark that cannot be observed has disappeared. Then, a value obtained by integrating the similarities related to the unobservable landmarks is set as the disappearance belief degree.

ロボット1では、自律移動の完了後に記憶装置17に記憶された消滅信念度テーブル96を走査して、予め定めた閾値より消滅信念度の高いランドマークをランドマークデータベース92、ランドマーク地図97から消去する。   In the robot 1, the disappearance belief table 96 stored in the storage device 17 is scanned after the autonomous movement is completed, and a landmark having a disappearance belief higher than a predetermined threshold is deleted from the landmark database 92 and the landmark map 97. To do.

上記実施の形態において、ランドマークIDは、ランドマーク識別情報の一例であり、SLAM画像は、事前画像の一例であり、SLAM画像番号は、事前画像識別情報の一例である。また、BOF特徴値は、事前画像特徴検出頻度の一例であり、SLAM部40は、事前情報取得部の一例である。特徴ベクトル抽出部64は、画像特徴抽出部の一例であり、自律BOF生成部66は、特徴頻度算出部の一例であり、BOF類似度計算部76は、類似度算出部の一例であり、ランドマーク削除部100は、消滅判定部、更新部の一例である。   In the above embodiment, the landmark ID is an example of landmark identification information, the SLAM image is an example of a prior image, and the SLAM image number is an example of prior image identification information. The BOF feature value is an example of a prior image feature detection frequency, and the SLAM unit 40 is an example of a prior information acquisition unit. The feature vector extraction unit 64 is an example of an image feature extraction unit, the autonomous BOF generation unit 66 is an example of a feature frequency calculation unit, the BOF similarity calculation unit 76 is an example of a similarity calculation unit, The mark deletion unit 100 is an example of a disappearance determination unit or an update unit.

事前移動の際に取得されたランドマークデータベース92、パターンIDリスト94、消滅信念度テーブル96、ランドマーク地図97、BOFテーブル98は、事前情報の一例である。抽出領域リスト110、対応リスト112、自律BOFテーブル114、ベクトル類似度テーブル116、関連SLAM画像テーブル118は自律情報の一例である。また、自律BOF類似度リスト120,BOF類似度比較テーブル122、パターン別スコアリスト124も、自律情報の一例である。   The landmark database 92, the pattern ID list 94, the disappearance belief table 96, the landmark map 97, and the BOF table 98 acquired at the time of advance movement are examples of advance information. The extraction area list 110, the correspondence list 112, the autonomous BOF table 114, the vector similarity table 116, and the related SLAM image table 118 are examples of autonomous information. The autonomous BOF similarity list 120, the BOF similarity comparison table 122, and the pattern-specific score list 124 are also examples of autonomous information.

以上説明したように、本実施の形態によれば、ステレオカメラ3により撮影された自律画像と、予め取得されたSLAM画像との類似度に基づく、ランドマーク毎の消滅信念度に基づき、消滅したと判断されたランドマークをSLAM生成物90から削除する。これにより、環境が変化しても、変化に応じて、ランドマークデータベース92、ランドマーク地図97等の更新を行うことが可能になる。SLAM生成物90の更新は、ステレオカメラ3の画像に基づいて算出される消滅信念度に応じて行うため、センサに基づく更新に比べて確度を向上させることができる。これにより、ランドマーク地図97を利用してロボット1が自律移動を行う際に、ステレオカメラ3により取得した画像を用いて、より確度の高いランドマーク地図97の更新を行うことができる。よって、ロボット1の自己位置推定および自律移動の精度を安定に維持することが可能になる。   As described above, according to the present embodiment, the disappearance is based on the disappearance belief for each landmark based on the similarity between the autonomous image captured by the stereo camera 3 and the SLAM image acquired in advance. The landmark determined to be deleted from the SLAM product 90. Thereby, even if the environment changes, the landmark database 92, the landmark map 97, etc. can be updated according to the change. Since the update of the SLAM product 90 is performed according to the extinction belief calculated based on the image of the stereo camera 3, the accuracy can be improved as compared with the update based on the sensor. Thus, when the robot 1 autonomously moves using the landmark map 97, the landmark map 97 with higher accuracy can be updated using the image acquired by the stereo camera 3. Therefore, it is possible to stably maintain the accuracy of self-position estimation and autonomous movement of the robot 1.

なお、本発明は、以上に述べた実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の構成または実施形態を採ることができる。例えば、上記実施の形態において例示したデータ構成は一例であり、同様の処理が可能なものであれば上記に限定されない。また、ベクトル類似度、BOF類似度の算出方法は上記に限定されない。例えば、上記実施の形態においては、いずれも各要素ごとの差の絶対値の和に基づいて算出するようにしたが、類似度が表せる数値であれば、各要素ごとの差の2乗に基づいて算出するなど変形が可能である。また、各表における数値は一例であり、これに限定されない。   The present invention is not limited to the embodiments described above, and various configurations or embodiments can be adopted without departing from the gist of the present invention. For example, the data configuration illustrated in the above embodiment is an example, and the present invention is not limited to the above as long as the same processing can be performed. Further, the method for calculating the vector similarity and the BOF similarity is not limited to the above. For example, in the above embodiment, the calculation is based on the sum of the absolute values of the differences for each element. However, if the numerical value can represent the similarity, it is based on the square of the difference for each element. It is possible to modify the calculation. Moreover, the numerical value in each table | surface is an example, and is not limited to this.

上記実施の形態においては、事前移動と自律移動を同一のロボット1により行う例について説明したが、別なロボットにより生成されたSLAM生成物90を予めロボット1に記憶させて用いるような変形例も可能である。   In the above embodiment, the example in which the advance movement and the autonomous movement are performed by the same robot 1 has been described. However, there is a modification in which the SLAM product 90 generated by another robot is stored in the robot 1 in advance and used. Is possible.

ここで、上記実施の形態による事前情報更新方法の動作をコンピュータに行わせるために共通に適用されるコンピュータの例について説明する。図22は、標準的なコンピュータのハードウエア構成の一例を示すブロック図である。図22に示すように、コンピュータ400は、Central Processing Unit(CPU)402、メモリ404、入力装置406、出力装置408、外部記憶装置412、媒体駆動装置414、ネットワーク接続装置等がバス410を介して接続されている。   Here, an example of a computer that is commonly applied to cause a computer to perform the operation of the prior information update method according to the above embodiment will be described. FIG. 22 is a block diagram illustrating an example of a hardware configuration of a standard computer. As shown in FIG. 22, a computer 400 includes a central processing unit (CPU) 402, a memory 404, an input device 406, an output device 408, an external storage device 412, a medium drive device 414, a network connection device, and the like via a bus 410. It is connected.

CPU402は、コンピュータ400全体の動作を制御する演算処理装置である。メモリ404は、コンピュータ400の動作を制御するプログラムを予め記憶したり、プログラムを実行する際に必要に応じて作業領域として使用したりするための記憶部である。メモリ404は、例えばRandom Access Memory(RAM)、Read Only Memory(ROM)等である。入力装置406は、コンピュータの使用者により操作されると、その操作内容に対応付けられている使用者からの各種情報の入力を取得し、取得した入力情報をCPU402に送付する装置であり、例えばキーボード装置、マウス装置などである。出力装置408は、コンピュータ400による処理結果を出力する装置であり、表示装置などが含まれる。例えば表示装置は、CPU402により送付される表示データに応じてテキストや画像を表示する。   The CPU 402 is an arithmetic processing unit that controls the operation of the entire computer 400. The memory 404 is a storage unit for storing a program for controlling the operation of the computer 400 in advance, or using it as a work area as needed when executing the program. The memory 404 is, for example, a random access memory (RAM), a read only memory (ROM), or the like. The input device 406 is a device that, when operated by a computer user, acquires various information inputs from the user associated with the operation content, and sends the acquired input information to the CPU 402. Keyboard device, mouse device, etc. The output device 408 is a device that outputs a processing result by the computer 400, and includes a display device and the like. For example, the display device displays text and images according to display data sent by the CPU 402.

外部記憶装置412は、例えば、ハードディスクなどの記憶装置であり、CPU402により実行される各種制御プログラムや、取得したデータ等を記憶しておく装置である。媒体駆動装置414は、可搬記録媒体416に書き込みおよび読み出しを行うための装置である。CPU402は、可搬型記録媒体416に記録されている所定の制御プログラムを、記録媒体駆動装置414を介して読み出して実行することによって、各種の制御処理を行うようにすることもできる。可搬記録媒体416は、例えばConpact Disc(CD)−ROM、Digital Versatile Disc(DVD)、Universal Serial Bus(USB)メモリ等である。ネットワーク接続装置418は、有線または無線により外部との間で行われる各種データの授受の管理を行うインタフェース装置である。バス410は、上記各装置等を互いに接続し、データのやり取りを行う通信経路である。   The external storage device 412 is, for example, a storage device such as a hard disk, and stores various control programs executed by the CPU 402, acquired data, and the like. The medium driving device 414 is a device for writing to and reading from the portable recording medium 416. The CPU 402 can perform various control processes by reading and executing a predetermined control program recorded on the portable recording medium 416 via the recording medium driving device 414. The portable recording medium 416 is, for example, a Compact Disc (CD) -ROM, a Digital Versatile Disc (DVD), a Universal Serial Bus (USB) memory, or the like. The network connection device 418 is an interface device that manages transmission / reception of various data performed between the outside by wired or wireless. A bus 410 is a communication path for connecting the above devices and the like to exchange data.

上記実施の形態による事前情報更新方法をコンピュータに実行させるプログラムは、例えば外部記憶装置412に記憶させる。CPU402は、外部記憶装置412からプログラムを読み出し、コンピュータ400に画像処理の動作を行なわせる。このとき、まず、画像処理の処理をCPU402に行わせるための制御プログラムを作成して外部記憶装置412に記憶させておく。そして、入力装置406から所定の指示をCPU402に与えて、この制御プログラムを外部記憶装置412から読み出させて実行させるようにする。また、このプログラムは、可搬記録媒体416に記憶するようにしてもよい。   A program that causes a computer to execute the prior information update method according to the above embodiment is stored in, for example, the external storage device 412. The CPU 402 reads a program from the external storage device 412 and causes the computer 400 to perform an image processing operation. At this time, first, a control program for causing the CPU 402 to perform image processing is created and stored in the external storage device 412. Then, a predetermined instruction is given from the input device 406 to the CPU 402 so that the control program is read from the external storage device 412 and executed. Further, this program may be stored in the portable recording medium 416.

以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する事前情報取得部と、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する自律情報取得部と、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する消滅信念度算出部と、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する更新部と、
を有することを特徴とする画像処理装置。
(付記2)
前記事前情報取得部は、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報取得部は、
前記自律移動装置が自律移動中に撮影した自律画像を取得する自律画像取得部と、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出する画像特徴抽出部と、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する特徴頻度算出部と、
を含み、
前記消滅信念度算出部は、
前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出する類似度算出部を有し、
前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記1に記載の画像処理装置。
(付記3)
前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付ける対応付け部、
をさらに有し、
前記消滅信念度算出部は、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定することを特徴とする付記2に記載の画像処理装置。
(付記4)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記2または付記3に記載の画像処理装置。
(付記5)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記2または付記3に記載の画像処理装置。
(付記6)
画像処理装置が、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出しと、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
ことを特徴とする事前情報更新方法。
(付記7)
前記事前情報取得する処理においては、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報を取得する処理は、
前記自律移動装置が自律移動中に撮影した自律画像を取得し、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出し、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する、
処理を含み、
前記消滅信念度を算出する処理においては、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出し、前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記6に記載の事前情報更新方法。
(付記8)
さらに、前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付け、
前記消滅信念度を算出する処理においては、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする付記2に記載の事前情報更新方法。
(付記9)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記7または付記8に記載の事前情報更新方法。
(付記10)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記7または付記8に記載の事前情報更新方法。
(付記11)
コンピュータが、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出しと、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
処理をコンピュータに実行させるためのプログラム。
(付記12)
前記事前情報取得する処理においては、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報を取得する処理は、
前記自律移動装置が自律移動中に撮影した自律画像を取得し、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出し、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する、
処理を含み、
前記消滅信念度を算出する処理においては、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出し、前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする付記11に記載のプログラム。
(付記13)
さらに、前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付け、
前記消滅信念度を算出する処理においては、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記消滅判定部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする付記12に記載のプログラム。
(付記14)
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする付記12または付記13に記載のプログラム。
(付記15)
前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする付記12または付記13に記載のプログラム。
Regarding the above embodiment, the following additional notes are disclosed.
(Appendix 1)
A pre-information acquisition unit that acquires pre-information including landmark position information and image characteristics acquired from a pre-image obtained by photographing the surrounding environment of a route where autonomous movement is performed;
An autonomous information acquisition unit for acquiring autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device;
Based on the prior information and the autonomous information, an extinction belief degree that calculates an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment A calculation unit;
Based on the annihilation belief degree, it is determined whether or not the landmark is extinguished from the prior information, and an update unit that updates the prior information;
An image processing apparatus comprising:
(Appendix 2)
The prior information acquisition unit has observed landmark identification information of the landmark, a feature vector corresponding to the landmark, three-dimensional position information of the landmark, and an image feature corresponding to the feature vector. Obtaining pre-image identification information of the pre-image and a pre-image feature detection frequency for each image feature included in the pre-image,
The autonomous information acquisition unit
An autonomous image acquisition unit that acquires an autonomous image captured during autonomous movement of the autonomous mobile device;
An image feature extraction unit that extracts a feature region in the acquired autonomous image and extracts a feature vector of the extracted feature region;
Classifying the feature vectors extracted in the autonomous image to calculate an autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image; and
Including
The disappearance belief calculation unit
A similarity calculation unit that calculates a similarity based on a difference between the prior image feature frequency and the autonomous image feature frequency for each image feature;
Calculating the extinction belief for each image feature based on the similarity for each image feature;
The image processing apparatus according to appendix 1, wherein:
(Appendix 3)
An association unit that associates the feature vector extracted in the autonomous image with the landmark;
Further comprising
The annihilation belief calculation unit calculates the annihilation belief based on the sum of the similarities for each of the image features corresponding to the landmarks not associated by the association unit,
The image processing apparatus according to appendix 2, wherein the disappearance determination unit determines that a landmark corresponding to the image feature is to be disappeared when the disappearance belief exceeds a predetermined value.
(Appendix 4)
The image processing according to appendix 2 or appendix 3, wherein the similarity is calculated based on a sum of absolute values of differences between the prior image feature frequency and the autonomous image feature frequency for each image feature apparatus.
(Appendix 5)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The image processing apparatus according to 2 or appendix 3.
(Appendix 6)
The image processing device
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
The autonomous mobile device acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by photographing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculating an extinction belief representing the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment;
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
The prior information update method characterized by the above.
(Appendix 7)
In the prior information acquisition process, the landmark identification information of the landmark, the feature vector corresponding to the landmark, the three-dimensional position information of the landmark, and the image feature corresponding to the feature vector are observed. The prior image identification information of the prior image and the prior image feature detection frequency for each image feature included in the prior image,
The process of acquiring the autonomous information includes
Acquire an autonomous image taken during autonomous movement of the autonomous mobile device,
Extracting a feature region in the acquired autonomous image, extracting a feature vector of the extracted feature region,
By classifying the feature vectors extracted in the autonomous image, the autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image is calculated.
Including processing,
In the process of calculating the disappearance belief, a similarity is calculated based on a difference between the prior image feature frequency for each image feature and the autonomous image feature frequency, and based on the similarity for each image feature Calculating the disappearance belief for each image feature;
The prior information update method according to appendix 6, characterized in that:
(Appendix 8)
Further, the feature vector extracted in the autonomous image is associated with the landmark,
In the process of calculating the annihilation belief, the annihilation belief is calculated based on the sum of the similarities for each of the image features corresponding to the landmarks that are not associated by the association unit,
The prior information update method according to appendix 2, wherein the disappearance determination unit determines that the landmark corresponding to the image feature is to be disappeared when the disappearance belief exceeds a predetermined value.
(Appendix 9)
The prior information according to appendix 7 or appendix 8, wherein the similarity is calculated based on a sum of absolute values of differences between the prior image feature frequency for each image feature and the autonomous image feature frequency. Update method.
(Appendix 10)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The prior information update method according to 7 or appendix 8.
(Appendix 11)
Computer
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
The autonomous mobile device acquires autonomous information including position information and image features related to the landmark acquired from an autonomous image obtained by photographing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculating an extinction belief representing the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment;
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
A program that causes a computer to execute processing.
(Appendix 12)
In the prior information acquisition process, the landmark identification information of the landmark, the feature vector corresponding to the landmark, the three-dimensional position information of the landmark, and the image feature corresponding to the feature vector are observed. The prior image identification information of the prior image and the prior image feature detection frequency for each image feature included in the prior image,
The process of acquiring the autonomous information includes
Acquire an autonomous image taken during autonomous movement of the autonomous mobile device,
Extracting a feature region in the acquired autonomous image, extracting a feature vector of the extracted feature region,
By classifying the feature vectors extracted in the autonomous image, the autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image is calculated.
Including processing,
In the process of calculating the disappearance belief, a similarity is calculated based on a difference between the prior image feature frequency for each image feature and the autonomous image feature frequency, and based on the similarity for each image feature Calculating the disappearance belief for each image feature;
The program according to appendix 11, which is characterized by the above.
(Appendix 13)
Further, the feature vector extracted in the autonomous image is associated with the landmark,
In the process of calculating the annihilation belief, the annihilation belief is calculated based on the sum of the similarities for each of the image features corresponding to the landmarks that are not associated by the association unit,
13. The program according to appendix 12, wherein the disappearance determination unit determines that the landmark corresponding to the image feature is to be disappeared when the disappearance belief exceeds a predetermined value.
(Appendix 14)
The program according to appendix 12 or appendix 13, wherein the similarity is calculated based on a sum of absolute values of differences between the prior image feature frequency and the autonomous image feature frequency for each image feature.
(Appendix 15)
The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The program according to 12 or appendix 13.

1 ロボット
3 ステレオカメラ
5 車輪部
7 センサ情報取得装置
9 画像処理装置
11 画像取得装置
13 情報処理装置
15 移動コントローラ
17 記憶装置
30 タスクマネージャ
32 SLAMタスク制御部
34 自律移動タスク制御部
36 メインテナンスタスク制御部
40 SLAM部
42 SLAM画像取得部
44 特徴抽出部
46 BOF計算部
48 パターン登録部
50 ランドマーク位置計測部
52 自己位置推定部
54 エンコーダデータ取得部
56 地図生成部
60 自律移動部
62 自律画像取得部
64 特徴ベクトル抽出部
66 自律BOF生成部
68 対応付け部
70 対応リスト作成部
72 関連SLAM画像抽出部
74 関連ランドマーク抽出部
76 BOF類似度計算部
78 消滅信念度算出部
80 消滅信念度更新部
82 自律移動制御部
90 SLAM生成物
92 ランドマークデータベース
94 パターンIDリスト
96 消滅信念度テーブル
97 ランドマーク地図
98 BOFテーブル
100 ランドマーク削除部
110 抽出領域リスト
112 対応リスト
114 自律BOFテーブル
116 ベクトル類似度テーブル
118 関連SLAM画像テーブル
120 自律BOF類似度リスト
122 BOF類似度比較テーブル
124 パターン別スコアリスト
DESCRIPTION OF SYMBOLS 1 Robot 3 Stereo camera 5 Wheel part 7 Sensor information acquisition apparatus 9 Image processing apparatus 11 Image acquisition apparatus 13 Information processing apparatus 15 Movement controller 17 Memory | storage device 30 Task manager 32 SLAM task control part 34 Autonomous movement task control part 36 Maintenance task control part 40 SLAM unit 42 SLAM image acquisition unit 44 Feature extraction unit 46 BOF calculation unit 48 Pattern registration unit 50 Landmark position measurement unit 52 Self-position estimation unit 54 Encoder data acquisition unit 56 Map generation unit 60 Autonomous movement unit 62 Autonomous image acquisition unit 64 Feature vector extraction unit 66 Autonomous BOF generation unit 68 Association unit 70 Corresponding list creation unit 72 Related SLAM image extraction unit 74 Related landmark extraction unit 76 BOF similarity calculation unit 78 Vanishing belief degree calculation unit 80 Vanishing belief degree update unit 8 Autonomous movement control unit 90 SLAM product 92 Landmark database 94 Pattern ID list 96 Vanishing belief degree table 97 Landmark map 98 BOF table 100 Landmark deletion unit 110 Extraction area list 112 Corresponding list 114 Autonomous BOF table 116 Vector similarity table 118 Related SLAM image table 120 Autonomous BOF similarity list 122 BOF similarity comparison table 124 Pattern-specific score list

Claims (7)

自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得する事前情報取得部と、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得する自律情報取得部と、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出する消滅信念度算出部と、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する更新部と、
を有することを特徴とする画像処理装置。
A pre-information acquisition unit that acquires pre-information including landmark position information and image characteristics acquired from a pre-image obtained by photographing the surrounding environment of a route where autonomous movement is performed;
An autonomous information acquisition unit for acquiring autonomous information including position information and image features of a feature region related to the landmark acquired from an autonomous image obtained by capturing an image of the surrounding environment during autonomous movement of the autonomous mobile device;
Based on the prior information and the autonomous information, an extinction belief degree that calculates an extinction belief degree indicating the certainty of whether or not the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment A calculation unit;
Based on the annihilation belief degree, it is determined whether or not the landmark is extinguished from the prior information, and an update unit that updates the prior information;
An image processing apparatus comprising:
前記事前情報取得部は、前記ランドマークのランドマーク識別情報と、前記ランドマークに対応する特徴ベクトルと、前記ランドマークの3次元位置情報と、前記特徴ベクトルに対応する画像特徴が観測された前記事前画像の事前画像識別情報と、前記事前画像に含まれる前記画像特徴毎の事前画像特徴検出頻度とを取得し、
前記自律情報取得部は、
前記自律移動装置が自律移動中に撮影した自律画像を取得する自律画像取得部と、
取得された前記自律画像において特徴領域を抽出して、抽出された前記特徴領域の特徴ベクトルを抽出する画像特徴抽出部と、
前記自律画像において抽出された前記特徴ベクトルを分類することにより、前記自律画像における前記ランドマークに関連した画像特徴毎の自律画像特徴検出頻度を算出する特徴頻度算出部と、
を含み、
前記消滅信念度算出部は、
前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差に基づき類似度を算出する類似度算出部を有し、
前記画像特徴毎の前記類似度に基づき前記画像特徴毎に前記消滅信念度を算出する、
ことを特徴とする請求項1に記載の画像処理装置。
The prior information acquisition unit has observed landmark identification information of the landmark, a feature vector corresponding to the landmark, three-dimensional position information of the landmark, and an image feature corresponding to the feature vector. Obtaining pre-image identification information of the pre-image and a pre-image feature detection frequency for each image feature included in the pre-image,
The autonomous information acquisition unit
An autonomous image acquisition unit that acquires an autonomous image captured during autonomous movement of the autonomous mobile device;
An image feature extraction unit that extracts a feature region in the acquired autonomous image and extracts a feature vector of the extracted feature region;
Classifying the feature vectors extracted in the autonomous image to calculate an autonomous image feature detection frequency for each image feature related to the landmark in the autonomous image; and
Including
The disappearance belief calculation unit
A similarity calculation unit that calculates a similarity based on a difference between the prior image feature frequency and the autonomous image feature frequency for each image feature;
Calculating the extinction belief for each image feature based on the similarity for each image feature;
The image processing apparatus according to claim 1.
前記自律画像において抽出された前記特徴ベクトルと前記ランドマークとを対応付ける対応付け部、
をさらに有し、
前記消滅信念度算出部は、前記対応付け部により対応付けられなかった前記ランドマークに対応する前記画像特徴毎の前記類似度の総和に基づき前記消滅信念度を算出し、
前記更新部は、前記消滅信念度が所定値を超えると、前記画像特徴に対応するランドマークを消滅させると判定する
ことを特徴とする請求項2に記載の画像処理装置。
An association unit that associates the feature vector extracted in the autonomous image with the landmark;
Further comprising
The annihilation belief calculation unit calculates the annihilation belief based on the sum of the similarities for each of the image features corresponding to the landmarks not associated by the association unit,
The image processing apparatus according to claim 2, wherein the updating unit determines that the landmark corresponding to the image feature is to be deleted when the disappearance belief degree exceeds a predetermined value.
前記類似度は、前記画像特徴毎の前記事前画像特徴頻度と前記自律画像特徴頻度との差の絶対値の総和に基づき算出されることを特徴とする請求項2または請求項3に記載の画像処理装置。   The said similarity is calculated based on the sum total of the absolute value of the difference between the said prior image feature frequency for every said image feature, and the said autonomous image feature frequency, The Claim 2 or Claim 3 characterized by the above-mentioned. Image processing device. 前記類似度は、前記自律画像において抽出された前記画像特徴が抽出されている複数の前記事前画像の各々と前記自律画像との類似度の最大値に基づき算出されることを特徴とする請求項2または請求項3に記載の画像処理装置。   The similarity is calculated based on a maximum value of the similarity between each of the plurality of prior images from which the image features extracted from the autonomous image are extracted and the autonomous image. The image processing device according to claim 2. 画像処理装置が、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出し、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
ことを特徴とする事前情報更新方法。
The image processing device
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
Autonomous mobile device acquires autonomous information including positional information and image features of the feature region related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculate a disappearance belief degree indicating the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment,
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
The prior information update method characterized by the above.
コンピュータが、
自律移動が行われる経路の周囲環境を撮影した事前画像から取得されたランドマークの位置情報と画像特徴とを含む事前情報を取得し、
自律移動装置が自律移動中に周囲環境を撮影した自律画像から取得された前記ランドマークに関連した特徴領域の位置情報と画像特徴とを含む自律情報を取得し、
前記事前情報と前記自律情報とに基づき、前記事前画像と前記自律画像とに基づく前記ランドマークが前記周囲環境から消滅したか否かの確からしさを表す消滅信念度を算出し、
前記消滅信念度に基づき、前記ランドマークを前記事前情報から消滅させるか否かを判定し、前記事前情報を更新する、
処理をコンピュータに実行させるためのプログラム。
Computer
Obtain prior information including the landmark location information and image features acquired from the previous image of the surrounding environment of the route where the autonomous movement takes place,
Autonomous mobile device acquires autonomous information including positional information and image features of the feature region related to the landmark acquired from an autonomous image obtained by capturing the surrounding environment during autonomous movement,
Based on the prior information and the autonomous information, calculate a disappearance belief degree indicating the certainty of whether the landmark based on the prior image and the autonomous image has disappeared from the surrounding environment,
Based on the extinction belief degree, determine whether or not to extinguish the landmark from the prior information, and update the prior information.
A program that causes a computer to execute processing.
JP2012027836A 2012-02-10 2012-02-10 Image processing apparatus, prior information update method, and program Active JP5862344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012027836A JP5862344B2 (en) 2012-02-10 2012-02-10 Image processing apparatus, prior information update method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012027836A JP5862344B2 (en) 2012-02-10 2012-02-10 Image processing apparatus, prior information update method, and program

Publications (2)

Publication Number Publication Date
JP2013164754A JP2013164754A (en) 2013-08-22
JP5862344B2 true JP5862344B2 (en) 2016-02-16

Family

ID=49176061

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012027836A Active JP5862344B2 (en) 2012-02-10 2012-02-10 Image processing apparatus, prior information update method, and program

Country Status (1)

Country Link
JP (1) JP5862344B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6397663B2 (en) * 2014-06-18 2018-09-26 シャープ株式会社 Self-propelled electronic device
JP7067130B2 (en) * 2018-03-07 2022-05-16 カシオ計算機株式会社 Autonomous mobile device, memory organization method and program
WO2019240208A1 (en) * 2018-06-13 2019-12-19 Groove X株式会社 Robot, method for controlling robot, and program
JP2020177289A (en) 2019-04-15 2020-10-29 ソニー株式会社 Information processing device information processing method and information processing program
JP6788291B1 (en) * 2019-06-03 2020-11-25 株式会社イクシス Inspection support system
JP2021051497A (en) * 2019-09-24 2021-04-01 東芝テック株式会社 Information processing apparatus and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006172016A (en) * 2004-12-14 2006-06-29 Toshiba Corp Mobile robot, mobile robot control method and mobile robot control program
JP5614118B2 (en) * 2010-06-15 2014-10-29 富士通株式会社 Landmark detection method, robot and program

Also Published As

Publication number Publication date
JP2013164754A (en) 2013-08-22

Similar Documents

Publication Publication Date Title
JP5862344B2 (en) Image processing apparatus, prior information update method, and program
JP5803367B2 (en) Self-position estimation apparatus, self-position estimation method and program
CA2870381C (en) Adaptive mapping with spatial summaries of sensor data
KR101725060B1 (en) Apparatus for recognizing location mobile robot using key point based on gradient and method thereof
KR100877072B1 (en) Method and apparatus of building map for a mobile robot and cleaning simultaneously
US20190332115A1 (en) Method of controlling mobile robot
KR101784183B1 (en) APPARATUS FOR RECOGNIZING LOCATION MOBILE ROBOT USING KEY POINT BASED ON ADoG AND METHOD THEREOF
CN107179082B (en) Autonomous exploration method and navigation method based on fusion of topological map and measurement map
Vidas et al. Real-time mobile 3D temperature mapping
KR20110091316A (en) Apparatus for planning traveling path and method thereof
JP7147753B2 (en) Information processing device, information processing method, and program
KR20100031277A (en) Apparatus and method for localization using forward images
KR20040029493A (en) Landmark, apparatus and method for determining position of autonomous vehicles effectively
KR20110122022A (en) Apparatus for building map and method thereof
JP2010033447A (en) Image processor and image processing method
Fischer et al. Stereo vision-based localization for hexapod walking robots operating in rough terrains
JP2002296010A (en) Own position identifying method using image
JP2022034861A (en) Forklift, location estimation method, and program
KR101701241B1 (en) Improving method for road information of fdb based on histogram similarity and improving apparatus thereof
Morioka et al. Simplified map representation and map learning system for autonomous navigation of mobile robots
Bokovoy et al. Maomaps: A photo-realistic benchmark for vslam and map merging quality assessment
Singh et al. Visual Positioning Systems: Navigating The Future Of Precision Location Technologies
JP2024078661A (en) Information processing device, information processing method, and computer program
KR20230108997A (en) Method for visual localization, control server and buiding using the same
JP2024043795A (en) Information processing device, mobile object, information processing method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150624

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151214

R150 Certificate of patent or registration of utility model

Ref document number: 5862344

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150