JP2009074995A - Mobile unit information processor, mobile unit information processing method, and program - Google Patents
Mobile unit information processor, mobile unit information processing method, and program Download PDFInfo
- Publication number
- JP2009074995A JP2009074995A JP2007245534A JP2007245534A JP2009074995A JP 2009074995 A JP2009074995 A JP 2009074995A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2009074995 A JP2009074995 A JP 2009074995A
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- color
- captured image
- node
- self
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動体情報処理装置、移動体情報処理方法、およびプログラムに関する。 The present invention relates to a mobile information processing apparatus, a mobile information processing method, and a program.
例えば、移動型ロボットが自己の位置を特定する方法として、移動体の走行環境内の規定位置に予めランドマークを設置しておき、そのランドマークを撮像して得られた撮像画像により自己位置を推定する方法が知られている。 For example, as a method for a mobile robot to identify its own position, a landmark is set in advance at a specified position in the traveling environment of the moving body, and the self-position is determined by a captured image obtained by imaging the landmark. An estimation method is known.
詳細には、例えば、移動体の走行環境内に複数のランドマークを予め配置しておき、移動体を初期の位置から任意の距離だけ移動させたときの移動状態量と、移動体から撮像された複数のランドマーク画像のずれ量から、ランドマークの三次元位置座標を算出するランドマークの登録方法が知られている(例えば、特許文献1参照)。
しかし、特許文献1に記載された技術では、配置されたランドマークの3次元位置座標を自動的に登録して、その登録されたランドマークの位置に基づいて自己位置を推定するが、予めランドマークを規定位置に配置することを要する。
また、ランドマークを移動体の走行環境内に配置するので、走行環境内の美観が損なわれる。
However, in the technique described in
In addition, since the landmark is arranged in the traveling environment of the moving body, the beauty in the traveling environment is impaired.
本発明は、このような問題に対処することを課題の一例とするものである。すなわち、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成すること、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うこと、等が本発明の目的である。 This invention makes it an example of a subject to cope with such a problem. That is, generating landmark data for specifying the position of a moving object from a plurality of color images photographed within the moving range without previously arranging the landmark in the traveling environment of the moving object, for position estimation It is an object of the present invention to estimate the position of the moving object from the captured image and landmark data.
このような目的を達成するために、本発明は、以下の各独立請求項に係る構成を少なくとも具備するものである。
本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部とを有することを特徴とする。
In order to achieve such an object, the present invention comprises at least the configurations according to the following independent claims.
A mobile information processing apparatus according to the present invention is a mobile information processing apparatus that generates landmark data for performing position estimation using color images captured in a mobile environment, and includes a plurality of captured images to be learned, And a storage unit that associates and stores positional information related to the imaging position of the captured image, and learns a self-organizing map based on the color information of each pixel of the plurality of captured images, and the self-organizing map after learning A plurality of clusters for classifying the color information and a color range of the clusters, specifying the cluster in which the color information of the captured image is classified for each captured image, the identified cluster, And a control unit that generates the landmark data in which the captured image and the position information are associated with each other.
好適には、前記制御部は、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行うことを特徴とする。 Preferably, the control unit identifies the cluster into which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and identifies the identified cluster and the land. According to the mark data, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and the position estimation is performed based on the similarity and the position information associated with the captured image to be learned. It is characterized by performing the process regarding.
また、本発明に係る移動体情報処理装置の情報処理方法は、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置の情報処理方法であって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを有することを特徴とする。 Also, the information processing method of the mobile information processing apparatus according to the present invention stores a plurality of captured images that have been subjected to color imaging in a moving environment and positional information related to the imaging position of the captured images in association with each other, and moves An information processing method for a mobile information processing apparatus that generates landmark data for estimating a position from a color image captured in an environment, the self-organization based on color information of each pixel of the plurality of captured images A first step of defining a plurality of clusters for classifying the color information and a color range of the clusters based on a self-organizing map after learning, and the imaging for each captured image The cluster to which the color information of the image is classified is specified, and the landmark data that associates the specified cluster, the captured image, and the position information is generated. And having a second step.
好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有する。 Preferably, based on the cluster and the color range, the cluster into which color information of each pixel of the captured image for position estimation is classified is identified, and according to the identified cluster and the landmark data Calculating a similarity of the captured image to be learned with respect to the captured image for position estimation, and performing processing related to the position estimation based on the similarity and position information associated with the captured image to be learned It has 3 steps.
また、本発明に係るプログラムは、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置に実行させるためのプログラムであって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを前記移動体情報処理装置に実行させることを特徴とする。 In addition, the program according to the present invention stores a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured images in association with each other, and the color images that are captured in the moving environment A program for causing a mobile information processing apparatus that generates landmark data to perform position estimation by performing learning of a self-organizing map based on color information of each pixel of the plurality of captured images. A first step of defining a plurality of clusters for classifying the color information and a color range of the clusters by the self-organizing map after learning, and the color information of the captured image is classified for each captured image A second cluster that generates the landmark data that associates the identified cluster, the captured image, and the position information. And-up, characterized in that to be executed by the mobile information processing apparatus.
好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする。 Preferably, based on the cluster and the color range, the cluster into which color information of each pixel of the captured image for position estimation is classified is identified, and according to the identified cluster and the landmark data Calculating a similarity of the captured image to be learned with respect to the captured image for position estimation, and performing processing related to the position estimation based on the similarity and position information associated with the captured image to be learned It has 3 steps.
本発明によれば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。また、本発明によれば、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。 According to the present invention, landmark data for specifying the position of a moving body is generated from a plurality of color images photographed within the moving range without arranging the landmark in advance in the traveling environment of the moving body. Can do. Further, according to the present invention, it is possible to estimate the position of the moving object from the captured image for position estimation and the landmark data.
本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部とを有することを特徴とする。 A mobile information processing apparatus according to the present invention is a mobile information processing apparatus that generates landmark data for performing position estimation using color images captured in a mobile environment, and includes a plurality of captured images to be learned, And a storage unit that associates and stores position information related to the imaging position of the captured image, and learns a self-organizing map based on the color information of each pixel of the plurality of captured images, and by the self-organizing map after learning, A plurality of clusters for classifying color information and a color range of the clusters are specified, a cluster in which the color information of the captured image is classified for each captured image, the identified cluster, captured image, and position And a control unit that generates landmark data associated with the information.
上記構成の移動体情報処理装置によれば、制御部が、記憶部に記憶された複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成するので、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数の画像から移動体の位置を特定するためのランドマークデータを生成することができる。 According to the mobile information processing apparatus configured as described above, the control unit learns the self-organizing map based on the color information of each pixel of the plurality of captured images stored in the storage unit, and self-organizes after learning. A map defines a plurality of clusters for classifying color information and a color range of the clusters, identifies a cluster in which the color information of the captured image is classified for each captured image, and identifies the identified cluster and captured image In order to identify the position of the moving body from a plurality of images taken within the moving range without previously arranging the landmark in the traveling environment of the moving body. Landmark data can be generated.
また、好適には、制御部は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うことを特徴とする。 Preferably, the control unit identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and corresponds to the identified cluster and landmark data. Then, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to position estimation is performed based on the similarity and position information associated with the captured image to be learned. And
上記構成の移動体情報処理装置によれば、制御部が、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。 According to the mobile information processing apparatus having the above configuration, the control unit identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and the identified cluster In addition, according to the landmark data, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and position estimation is performed based on the similarity and the position information associated with the captured image to be learned. Since the process is performed, the position of the moving object can be estimated from the captured image for position estimation and the landmark data.
以下、本発明に係る移動体情報処理装置、その情報処理方法、およびプログラムを図面を参照しながら説明する。 A mobile information processing apparatus, information processing method, and program according to the present invention will be described below with reference to the drawings.
[第1実施形態]
図1は、本発明の第1実施形態に係る移動体情報処理装置の全体機能ブロック図である。図2は、図1に示した移動体情報処理装置の移動環境を説明するための図である。
[First Embodiment]
FIG. 1 is an overall functional block diagram of a mobile information processing apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram for explaining a moving environment of the mobile information processing apparatus shown in FIG.
本実施形態では、本発明に係る移動体情報処理装置1を採用した移動型ロボット(ロボットとも言う)100を説明する。
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2を備えており、例えば図2に示すように移動環境200内を移動して所定のタイミングで移動環境200内の被写体をカラー撮像して、複数のカラー画像Pを取得する。移動体情報処理装置1は、この撮像画像Pを、撮像位置に関する位置情報と関連付けて記憶部4に記憶する。
また、移動体情報処理装置1は、移動環境200内で撮像されたカラー画像Pにより、移動環境200内のロボット100の位置推定を行うためのランドマークデータを生成する。
詳細には、本実施形態に係る移動体情報処理装置1は、移動環境200内の被写体を撮像して複数のカラー画像を取得し、その複数のカラー画像の各画素の色情報を基に、色の分布を複数のクラスタに分類して、各クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、該クラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
In the present embodiment, a mobile robot (also referred to as a robot) 100 that employs the mobile
As shown in FIG. 1, the mobile
In addition, the mobile
Specifically, the mobile
また、移動体情報処理装置1は、そのクラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
In addition, the mobile
例えば、一般的な装置では、予めランドマークを規定の位置に配置することを要する。一方、本発明に係る移動体情報処理装置1は、予めランドマークを配置することなく、各撮像位置と色の分布の特徴が関連付けられたランドマークデータを生成することができる。
For example, in a general apparatus, it is necessary to arrange landmarks at predetermined positions in advance. On the other hand, the mobile
また、一般的な装置では、撮像画像の色情報を分類する場合、予め分類するための色の範囲を設定することを要する。
一方、本発明に係る移動体情報処理装置1は、ニューラルネットワークの自己組織化マップを用いて、教師なし学習によるクラスタリングを行うことで、移動環境内の被写体をカラー撮像して得られた撮像画像の各画素の色情報に応じて、その色情報を分類するためのクラスタおよび該クラスタの色の範囲を自動的に規定することができる。このため簡単に撮像画像の各画素の色情報を分類することができる。
Further, in a general apparatus, when classifying color information of a captured image, it is necessary to set a color range for classification in advance.
On the other hand, the mobile
また、複数の撮像画像の色情報を基にランドマークデータを生成し、そのランドマークデータと位置推定用の撮像画像により移動体の位置推定を行うので、例えば撮像画像の被写体の輪郭パターンにより、ランドマークデータを生成する場合と比べて、比較的高精度にかつ比較的高速に位置推定を行うことができる。
以下、移動体情報処理装置1の各構成要素について詳細に説明する。
In addition, landmark data is generated based on the color information of a plurality of captured images, and the position of the moving object is estimated based on the landmark data and the captured image for position estimation. Compared to the case of generating landmark data, position estimation can be performed with relatively high accuracy and relatively high speed.
Hereinafter, each component of the mobile
[移動体情報処理装置1の構成]
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2、量子化部3、記憶部4、駆動部5、車輪(移動手段)6、センサ7、および制御部8を有する。
撮像部2は本発明に係る撮像部の一実施形態に相当し、記憶部4は本発明に係る記憶部の一実施形態に相当し、駆動部5および車輪6は本発明に係る駆動部の一実施形態に相当する。制御部8は、本発明に係る制御部の一実施形態に相当する。
[Configuration of Mobile Information Processing Apparatus 1]
As shown in FIG. 1, the mobile
The
本実施形態に係る移動体(移動型ロボット100)は、例えば図1,2に示すように、略円筒形状、略直方体形状、等の規定形状の筐体10を備えている。
For example, as shown in FIGS. 1 and 2, the mobile body (mobile robot 100) according to the present embodiment includes a
撮像部2は、例えば制御部8の制御により、ロボット100(移動体)の周囲の移動環境内の被写体をカラー撮像して、カラー画像を出力する。また、撮像部2は、例えば各画素が、R(Red),G(Green),B(Blue)のRGB値にて規定された色情報により構成されるカラー画像を出力する。撮像部2としては、例えば、CCD(Charge coupled device)、CMOS(Complementary metal oxide semiconductor)イメージセンサ、等の撮像素子を備えた撮像装置を採用することができる。撮像部2は、例えば図2に示すように、筐体10の所定位置、例えば筐体10の上部や前面部等に設けられている。この撮像部2は、ロボット100の進行方向を基準として規定の視野角を有する。例えば視野角は30度〜180度程度である。撮像部2は、筐体10に固定されて備えられてもよいし、撮像方向が可変となるように筐体10に設けられてもよい。
For example, under the control of the
量子化部3は、カラー画像の各画素の色情報を規定の階調に量子化し、その量子化された色情報を含むカラー画像を出力する。量子化部3から出力された画像は、例えば記憶部4に記憶されてもよいし、制御部8に入力されてもよい。
本実施形態に係る量子化部3は、例えば撮像画像の画素の各RGB値が256階調に設定されている場合、RGB値を比較的小さい階調、例えば8階調のRGB値に変換する。このように色情報を比較的小さい階調に変換することで、被写体の色の小さな差異を低減して、被写体の色を反映しつつ、比較的小さな情報量の色情報を出力することができる。また、量子化部3は、撮像部2により出力されたカラー画像に量子化処理を施してもよいし、制御部8に記憶されている画像に対して上記量子化処理を施してもよい。
The
For example, when the RGB values of the pixels of the captured image are set to 256 gradations, the
記憶部4は、例えば、学習対象の複数の撮像画像P、および撮像画像Pの撮像位置に関する位置情報を関連付けて記憶する。また、記憶部4は、撮像部2の撮像部から出力された画像のバッファとして機能する。また、記憶部4は、本発明に係る機能を有するプログラム(PRG)41を記憶する。
記憶部4としては、例えば、RAM(Random access memory)やROM(Read only memory)などの半導体メモリ、ハードディスクドライブなどの磁気ディスク記憶装置、等の記憶装置を採用してもよい。また、記憶部4は、制御部8のワークエリアとしても機能する。
The storage unit 4 stores, for example, a plurality of captured images P to be learned and positional information regarding the imaging positions of the captured images P in association with each other. In addition, the storage unit 4 functions as a buffer for images output from the imaging unit of the
As the storage unit 4, for example, a storage device such as a semiconductor memory such as a random access memory (RAM) or a read only memory (ROM), a magnetic disk storage device such as a hard disk drive, or the like may be employed. The storage unit 4 also functions as a work area for the
駆動部5は、制御部8の制御により、例えば移動体(ロボット100)に設けられた移動手段を駆動して、ロボット100を移動環境内で移動させる。移動手段としては、例えばロボット100の下部や側部等に設けられた車輪6や可動脚等の規定の移動装置を採用するこができる。
The
センサ7は、例えば駆動部5の駆動状態、移動手段の移動距離や移動速度等を検出して、撮像位置に関する位置情報を取得し、その取得した情報を示す信号を制御部8に出力する。
The
制御部8は、本装置の各構成要素を統括的に制御して、本発明に係る機能を実現する。また、制御部8は、例えば、記憶部4に記憶されているプログラム(PRG)41を実行することにより、本発明に係る機能を実現する。制御部8としては、例えばCPU(Central Processing Unit)などの電子回路を採用することができる。
The
図3は、図1に示した移動体情報処理装置の制御部の機能を説明するための機能ブロック図である。
図3に示すように、制御部8は、例えば、第1の処理部81、および第2の処理部82を有する。
FIG. 3 is a functional block diagram for explaining functions of the control unit of the mobile information processing apparatus shown in FIG.
As illustrated in FIG. 3, the
[第1の処理部81]
第1の処理部81は、複数の撮像画像Pの各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
[First processing unit 81]
The first processing unit 81 learns a self-organizing map based on the color information of each pixel of the plurality of captured images P, and a plurality of clusters for classifying the color information based on the self-organizing map after learning. And defining a color range of the cluster, specifying a cluster in which the color information of the captured image is classified for each captured image, and generating landmark data in which the identified cluster, captured image, and position information are associated with each other .
詳細には、第1の処理部81は、例えば図3に示すように、駆動制御部811、第1クラスタリング処理部(第1SOM)812、最大値最小値抽出部813、第2クラスタリング処理部(第2SOM)814、クラスタリスト生成部815、およびランドマークデータ生成部816を有する。
Specifically, as shown in FIG. 3, for example, the first processing unit 81 includes a drive control unit 811, a first clustering processing unit (first SOM) 812, a maximum / minimum
駆動制御部811は、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。
The drive control unit 811 performs various controls such as drive control related to imaging of the
第1クラスタリング処理部(第1SOM)812は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。 The first clustering processing unit (first SOM) 812 learns the self-organizing map based on the color information of each pixel of the captured image, and a plurality of classes for classifying the color information based on the self-organizing map after learning. Define the cluster and the color range of the cluster.
最大値最小値抽出部813は、各クラスタの色の範囲(最大値および最小値)を抽出して、クラスタとその色の範囲に関する情報を出力する。
The maximum / minimum
第2クラスタリング処理部(第2SOM)814は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。 The second clustering processing unit (second SOM) 814 performs self-organization map learning based on the clusters and color ranges defined for each of the plurality of captured images P, and a plurality of self-organization maps after learning A plurality of clusters for classifying the color information of the captured images and the color range of the clusters are defined.
クラスタリスト生成部815は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。このように、クラスタリスト生成部815が、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。
The cluster
ランドマークデータ生成部816は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。 The landmark data generation unit 816 generates landmark data (RMD) that associates the identified cluster, the captured image, and the position information based on the cluster list and the captured image P described above.
[第2の処理部]
第2の処理部82は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
[Second processing unit]
The
クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、該クラスタおよびランドマークデータに応じて、当該位置推定の撮像画像に対して類似度の高い学習対象の撮像画像を特定し、特定された撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。 Based on the cluster and the color range, a cluster in which color information of each pixel of the captured image for position estimation is classified is identified, and similar to the captured image of the position estimation according to the cluster and landmark data A captured image with a high degree of learning is specified, and processing related to position estimation is performed based on position information associated with the specified captured image.
詳細には、第2の処理部82は、例えば図3に示すように、クラスタ取得部821、マッチング部822、位置推定部823、および駆動制御部824を有する。
Specifically, for example, as illustrated in FIG. 3, the
クラスタ取得部821は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定して取得する。詳細には、クラスタ取得部821は、例えば、上記学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定する。
The
マッチング部822は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。
The
位置推定部823は、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。 The position estimation unit 823 performs processing related to position estimation based on the similarity and the position information associated with the captured image to be learned.
駆動制御部824は、位置推定部823による位置推定の処理の結果に応じて、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。
The
[移動体情報処理装置1の学習時の動作]
次に、上記構成の移動体情報処理装置1の動作を説明する。
図4は、図1に示した移動体情報処理装置の動作を説明するためのフローチャートである。図4を参照しながら、移動体情報処理装置1の学習時の動作を説明する。詳細には、移動体情報処理装置1のランドマークデータを生成する処理を説明する。
[Operation during learning of mobile information processing apparatus 1]
Next, the operation of the mobile
FIG. 4 is a flowchart for explaining the operation of the mobile information processing apparatus shown in FIG. The operation at the time of learning of the mobile
ステップST1において、移動体情報処理装置1は、図2に示すように移動環境200内の被写体を撮像して複数のカラー画像Pを取得する。本実施形態では、図2に示すように、例えば移動環境200の部屋内に、四隅の内2つの角部に茶色の木箱、および灰色の棚が配置されている。木箱と棚の壁際には赤茶色の鉢、緑色の葉を備えた観葉植物が配置されている。観葉植物が配置されている壁と対向する壁際には、グレーの机が配置されている。また、青色のクッションとグレーの脚部を備えた3つ椅子が、木箱の近傍、棚の近傍、および棚が配置された角部と対抗する角部に配置されている。また、壁の色は略白色であり、床の色はインディゴ(藍色)である。
In step ST1, the mobile
移動体情報処理装置1は、例えば図2に示すように、移動環境200内を一周しながら撮像する。詳細には、移動体情報処理装置1は、机の近傍から角部に配置されている椅子に向かって直進したのち右に90度回転し、木箱近傍に向かって直進したのち右に90度回転し、棚に向かって直進したのち右に回転し、角部近傍に向かって直進したのち右に90度回転し、その状態で直進して机の近傍に戻る。移動体情報処理装置1は、図2に示すように、所定のタイミングで、撮像位置1〜22で撮像する。
For example, as shown in FIG. 2, the mobile
詳細には、制御部8は、駆動部5に駆動制御信号を出力して車輪6を回転駆動させて、例えば図2に示すように、移動環境200内を移動する。また、制御部8は、所定のタイミングで、移動環境200内の進行方向を基準とする視野角内の被写体を、撮像部2により撮像して、複数のカラー画像Pを取得する。制御部8は、撮像画像Pと、その撮像位置に関する位置情報とを関連付けて記憶部4に記憶する。
詳細には、制御部8は、例えば図2に示すように、ロボット100の移動距離や移動の軌跡、基準方向に対する相対的な進行方向などにより、移動環境内での撮像位置を定めて、その撮像位置に関する位置情報を、撮像画像と関連付けて記憶部4に記憶する。
Specifically, the
Specifically, as shown in FIG. 2, for example, the
この際、制御部8は、例えば、駆動部5の左右の駆動モータの回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、制御部8は、例えば、左右の車輪6の回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、ロボット100に備えられた撮像部2は、進行方向に沿って一定の視野角の撮像画像Pを取得する。
At this time, the
Further, the
In addition, the
ステップST2において、移動体情報処理装置1は、一画像のクラスタリング処理(SOM)を行う。詳細には、制御部8が、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
In step ST2, the mobile
ステップST3において、移動体情報処理装置1は、各クラスタの色の範囲、詳細にはクラスタの色の最大値および最小値を抽出する処理を行う。詳細には、制御部8は、上記学習結果の自己組織化マップにより、競合層に、各画像の色情報を分類するクラスタが、各色情報に応じて自動的に生成され、そのクラスタ毎に色の範囲、詳細には各クラスタのRGB空間での最大値および最小値を抽出する。
In step ST3, the mobile
ステップST4において、制御部8は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。
In step ST4, the
ステップST5において、移動体情報処理装置1は、クラスタリストを生成する処理を行う。詳細には、制御部8は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、各画像に含まれる固有の色の分布(色のパターン)を示すクラスタリスト(CL)を生成することができる。
In step ST5, the mobile
ステップST6において、移動体情報処理装置1は、ランドマークデータを生成する処理を行う。詳細には、制御部8は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。
In step ST6, the mobile
以下、移動体情報処理装置1の動作について図面を参照しながら詳細に説明する。本実施形態では、自己組織化マップの学習に関する処理は制御部8が行う。
Hereinafter, the operation of the mobile
図5は、撮像画像と自己組織化マップによるクラスタリングを説明するための図である。詳細には、図5(A)は学習対象のカラー撮像画像Pを説明するための図であり、図5(B)は図5(A)に示した撮像画像Pの各画素の色情報をRGB空間に示した図である。図5(C)は図5(B)に示した撮像画像Pを入力データとして生成された複数のクラスタと各クラスタの色の範囲を説明するための図である。 FIG. 5 is a diagram for explaining clustering based on a captured image and a self-organizing map. Specifically, FIG. 5A is a diagram for explaining a color captured image P to be learned, and FIG. 5B shows color information of each pixel of the captured image P shown in FIG. It is the figure shown in RGB space. FIG. 5C is a diagram for explaining a plurality of clusters generated using the captured image P shown in FIG. 5B as input data and the color range of each cluster.
制御部8は、ステップST1において、図5(A)に示すように、カラー画像Pを取得する。このカラー画像の画素の色情報は、量子化部3により所定の階調のRGB値に変換されている。撮像画像Pの各画素のRGB値は、図5(B)に示すように、RGB空間に表すことができる。
また、図5(C)に示すように、このRGB空間の色のパターンは、後述する自己組織化マップによる学習により、規定される複数のクラスタCL1 jに分類される。このクラスタCLi jは、第i番目の撮像画像Pにおける、第j番目のクラスタCLを示す。
In step ST1, the
Further, as shown in FIG. 5C, the color pattern in the RGB space is classified into a plurality of defined clusters CL 1 j by learning using a self-organizing map described later. The cluster CL i j indicates the j-th cluster CL in the i-th captured image P.
図6は、図5(C)に示したクラスタCL1 1に含まれる色情報を説明するための図である。
クラスタCL1 1に含まれる画素の色情報は、例えば図6に示すように、8個の色情報{(R11,G11,B11),(R12,G12,B12),(R13,G13,B13),(R14,G14,B14),(R15,G15,B15),(R16,G16,B17),(R18,G18,B18)}を有する。
Figure 6 is a diagram for explaining a color information included in the cluster CL 1 1 shown in FIG. 5 (C).
For example, as shown in FIG. 6, the color information of the pixels included in the cluster CL 1 1 is eight pieces of color information {(R11, G11, B11), (R12, G12, B12), (R13, G13, B13). , (R14, G14, B14), (R15, G15, B15), (R16, G16, B17), (R18, G18, B18)}.
図7は、図5(C)に示した各クラスタおよびクラスタに含まれる色情報を説明するための図である。
また、図5(C)に示したクラスタCL1 1,CL1 2,・・・,CL1 nそれぞれには、図7に示すように、各画素の色情報が含まれる。
詳細には、クラスタCL1 1には、{(R11,G11,B11),(R12,G12,B12),・・・,(R18,G18,B18)}が含まれ、クラスタCL1 2には、{(R21,G21,B21),(R22,G22,B22),・・・,(R2b,G2b,B2b)}が含まれ、・・・、クラスタCL1 nには、{(Rn1,Gn1,Bn1),(Rn2,Gn2,Bn2),・・・,(Rnc,Gnc,Bnc)}が含まれる。
FIG. 7 is a diagram for explaining each cluster illustrated in FIG. 5C and color information included in the cluster.
Each of the clusters CL 1 1 , CL 1 2 ,..., CL 1 n shown in FIG. 5C includes color information of each pixel as shown in FIG.
Specifically, the cluster CL 1 1 includes {(R11, G11, B11), (R12, G12, B12),..., (R18, G18, B18)}, and the cluster CL 1 2 includes , {(R21, G21, B21), (R22, G22, B22),..., (R2b, G2b, B2b)} are included, and the cluster CL 1 n includes {(Rn1, Gn1 , Bn1), (Rn2, Gn2, Bn2), ..., (Rnc, Gnc, Bnc)}.
このクラスタCLおよび色の範囲は、後述する自己組織化マップの学習により規定される。
以下、自己組織化マップの学習(クラスタリング処理)について説明する。
The cluster CL and the color range are defined by learning a self-organizing map described later.
The self-organizing map learning (clustering process) will be described below.
[自己組織化マップ]
図8は、本発明に係る自己組織化マップを説明するための図である。詳細には、図8(A)は競合層に複数のノードが予め規定されている自己組織化マップを説明するための図であり、図8(B)は初期時に競合層に一つのノードが規定されている自己組織化マップを説明するための図であり、図8(C)は図8(B)に示した自己組織化マップの競合層のノードが増殖する動作を説明するための図である。
[Self-organizing map]
FIG. 8 is a diagram for explaining a self-organizing map according to the present invention. Specifically, FIG. 8A is a diagram for explaining a self-organizing map in which a plurality of nodes are defined in advance in the competitive layer, and FIG. 8B is a diagram in which one node is present in the competitive layer at the initial stage. FIG. 8C is a diagram for explaining a prescribed self-organizing map, and FIG. 8C is a diagram for explaining an operation in which nodes in a competitive layer of the self-organizing map shown in FIG. 8B proliferate. It is.
まず、図8(A)を参照しながら、一般的な自己組織化マップのアルゴリズムを説明する。
例えば、図8(A)に示すように、一般的な自己組織化マップのアルゴリズムでは、その構成は、入力層40と競合層50の2層構造を備えている。一般的な自己組織化マップは、教師なし学習ニューラルネットワークである。
入力層40は、例えばn次元の入力ベクトルx(x1,x2,x3,・・・,xn)に対応する。入力ベクトルxは入力データともいう。本実施形態に係る入力ベクトルxとしては、例えば、撮像画像の各画素の色情報、撮像画像の各画素の色情報を分類して規定されたクラスタの色の範囲、等のデータである。
First, a general self-organizing map algorithm will be described with reference to FIG.
For example, as shown in FIG. 8A, in a general self-organizing map algorithm, the configuration has a two-layer structure of an
The
競合層50は、規定の次元、例えば1次元や2次元、本実施形態では2次元に複数のノード(素子)が配列されている。各ノードiは、入力ベクトルxと同じ次元(n次元)の荷重ベクトルmi(重みベクトル,荷重結合ともいう)を有する。入力データxは、競合層50の各ノードiと結合している。本実施形態に係る競合層50は、例えば予め規定されたノード数、例えばh×h個のノードiが格子状に配列されている。
The
図8(A)に示す、一般的な自己組織化マップの学習方法を説明する。
まず、競合層50の各ノードiの荷重ベクトルmiの初期値を乱数にて規定する。
そして、入力ベクトルxに対してある測度、例えばユークリッド距離を最小とする荷重ベクトルmiを有するノードi(勝利ノード)を特定し、次に、勝利ノードiの荷重ベクトルmiと、その荷重ベクトルmiの近傍のノードの荷重ベクトルを、入力ベクトルxに近づけるように更新する(競合学習)。
A general self-organizing map learning method shown in FIG. 8A will be described.
First, define the initial value of the weight vector m i of each node i of
Then, identify the measures with respect to the input vector x, for example, a node having a load vector m i to the Euclidean distance between the minimum i (Win node), then the load vector m i victory node i, the load vector The load vector of the node near m i is updated so as to approach the input vector x (competitive learning).
荷重ベクトルmiは、例えば学習率係数α(t)を用いて、数式(1)のように表すことができる。学習率係数α(t)は、学習回数および勝利ノードからの距離をパラメータとする関数であり、例えば学習回数および距離の増加に応じて値が小さくなるように規定されている。 Load vector m i, for example by using learning rate α a (t), can be expressed as Equation (1). The learning rate coefficient α (t) is a function using the number of learnings and the distance from the winning node as parameters, and is defined such that the value decreases as the number of learnings and the distance increase, for example.
図8(A)に示した自己組織化マップのアルゴリズムでは、競合層50に、勝利ノードiの荷重ベクトルmiが更新されるとともに、勝利ノードiの近傍のノードの荷重ベクトルも更新される。これにより、学習後の自己組織化マップ(競合層50)には、入力データxに応じた荷重ベクトルを備えたノードにより複数のクラスタが形成される。
本発明に係る移動体情報処理装置1では、上述した自己組織化マップのアルゴリズムにより学習を行ってもよいが、後述する自己組織化マップ(自己増殖型)によりクラスタリング処理を行うことで、比較的高速にかつ高精度にランドマークデータを生成することができる。
In the self-organizing map algorithm shown in FIG. 8A, the load vector mi of the winning node i is updated in the
In the mobile
[本実施形態に係る自己組織化マップ]
本実施形態に係る自己組織化マップのアルゴリズムを、図8(B),(C)を参照しながら説明する。
本実施形態に係る自己組織化マップは、入力層40と競合層50とを備えた2層構造である。入力層40のノード数は一定である。競合層50のノード数は、初期時のノード数が1個に設定されている。
[Self-organizing map according to this embodiment]
The self-organizing map algorithm according to the present embodiment will be described with reference to FIGS.
The self-organizing map according to the present embodiment has a two-layer structure including an
[ノードの増殖]
また、ノードiaの発火頻度(選択回数)が閾値を超えたときに、該ノードiaを学習の対象から規定期間(不応期)だけ除外し、該ノードiaと同じ荷重ベクトルmiを備えた新たなノードibを増殖して、自己組織化マップの学習を行う。つまり不応期の間ではノードibが学習対象となる。
このように出現頻度の高い色のノードを増殖することにより、その出現頻度の高い色の近傍の解像度(分解能)を増加させることができる。このため、より高精度なクラスタリング処理を行うことができる。
[Node proliferation]
Also, new to when the firing frequency of the node ia (selection count) exceeds the threshold value, excluding the node ia from the learning of the target by a specified period (refractory period), with the same load vector m i and the node ia The node ib is propagated to learn the self-organizing map. That is, during the refractory period, the node ib is a learning target.
In this way, by multiplying the color nodes having a high appearance frequency, the resolution (resolution) in the vicinity of the color having the high appearance frequency can be increased. For this reason, more accurate clustering processing can be performed.
[競合学習]
また、制御部8は、本実施形態に係る自己組織化マップの学習として、上述した競合学習も行う。この際、制御部8は、近傍のノードについては学習を行わず、その代りに階層学習を行う。
[Competitive learning]
Moreover, the
[階層学習]
また、制御部8は、増殖したノードibを子ノード、増殖元のノードiaを親ノードに設定し、親ノードiaおよび子ノードibの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う(階層学習)。
[Layer learning]
The
また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行う。
In addition, when the
[ノードの除去]
また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
Remove node
In addition, the
次に、移動体情報処理装置1の自己組織化マップの学習をRGB空間で表現して、詳細に説明する。
Next, learning of the self-organizing map of the mobile
図9は、本発明の第1実施形態に係る自己組織化マップの学習によるクラスタリング処理を説明するためのフローチャートである。図10は、RGB空間における初期ノードiを示す図である。 FIG. 9 is a flowchart for explaining the clustering process by learning the self-organizing map according to the first embodiment of the present invention. FIG. 10 is a diagram showing an initial node i in the RGB space.
ステップST101において、制御部8は、図10に示すように、一個の初期ノードiを生成する。荷重ベクトル(荷重結合)は規定された範囲内でランダムな値を設定する。
In step ST101, the
図11(A)は、一具体例に係る撮像画像Pであり、図11(B)は撮像画像の各画素の色情報をRGB空間に示した図である。
ステップST102において、制御部8は、図11(B)に示すように、ひし形の点は各色情報の入力ベクトルであり、その複数の入力ベクトルを入力データセットとして入力する。
FIG. 11A is a captured image P according to a specific example, and FIG. 11B is a diagram showing color information of each pixel of the captured image in the RGB space.
In step ST102, as shown in FIG. 11B, the
図12は、入力データxと、全ノードiのユークリッド距離を説明するための図である。
ステップST103において、制御部8は、入力データxと、全ノードiのユークリッド距離dを例えば数式(2)に示すように測定し、そのうち距離dが最小の距離のノードi1(勝利ノード)を選択する(決定する)。入力層のi番目の入力ベクトルxi、入力層のi番目と競合層のj番目の荷重ベクトル荷重ベクトルwi,jを用いて表している。
FIG. 12 is a diagram for explaining the input data x and the Euclidean distance of all nodes i.
In step ST103, the
図13は、入力ベクトルxとノードi間の距離dと閾値の関係を示す図である。図14は、新規のノードの追加を説明するための図である。
制御部8は、入力ベクトルxとノードi間の距離が閾値thより小さいか否かを判別し、その結果、距離が閾値より大きいと判別した場合は、ステップST105の処理に進み、距離が閾値より小さいと判別した場合はステップST106の処理に進む。
FIG. 13 is a diagram illustrating the relationship between the distance d between the input vector x and the node i and the threshold value. FIG. 14 is a diagram for explaining addition of a new node.
The
図14は、新規のノードの追加を説明するための図である。
ステップST105において、制御部8は、入力ベクトルxに対して最小の距離の荷重ベクトルi1が対応付けられたノードを選択して当該距離が閾値ihを超えている場合、当該ノードi1を学習の対象から除外し、該入力ベクトルxと同じ荷重ベクトルを有する新たなノードi5を生成して自己組織化マップの学習を行い、ステップST110の処理に進む。
FIG. 14 is a diagram for explaining addition of a new node.
In Step ST105, the
図15(A)はノードの更新を説明するための図であり、図15(B)は図15(A)に示した勝利ノード付近を拡大した図である。
ステップST106において、制御部8は、勝利ノードの荷重結合を更新する処理を行う。詳細には、制御部8は、勝利ノードの荷重ベクトルwi,win、学習率係数α(t)を用いて例えば数式(3)に示すように算出して、勝利ノードの更新を行う。
FIG. 15A is a diagram for explaining node updating, and FIG. 15B is an enlarged view of the vicinity of the winning node shown in FIG. 15A.
In step ST106, the
[数3]
wi,win(t+1)=wi,win(t)+α(xi(t)−wi,win(t)) ・・(3)
[Equation 3]
w i, win (t + 1) = w i, win (t) + α (x i (t) −w i, win (t)) (3)
図15(а),(B)に示すように、学習により勝利ノードiの荷重ベクトルが入力データxに近づいてノードi’となる。
図16(A)は勝利ノードと同じクラスタの階層学習を説明するための図であり、図16(B)は図16(A)に示した勝利ノード付近を拡大した図である。
ステップST107において、制御部8は、勝利者ノードi1と同じ階層構造のノードi2についても、例えば、親ノードの荷重ベクトルwi,moと、子ノードの荷重ベクトルwi,daを用いて、数式(4)に示すように更新を行う(階層学習)。この学習率係数αの係数0.1は、各種条件によって適宜設定する。
As shown in FIGS. 15A and 15B, the weight vector of the winning node i approaches the input data x and becomes the node i ′ by learning.
FIG. 16A is a diagram for explaining hierarchical learning of the same cluster as the winning node, and FIG. 16B is an enlarged view of the vicinity of the winning node shown in FIG.
In step ST107, the
[数4]
wi,mo(t+1)=wi,mo(t)+0.1α(wi,da(t)−wi,mo(t)) ・・(4)
[Equation 4]
w i, mo (t + 1) = w i, mo (t) + 0.1α (w i, da (t) −w i, mo (t)) (4)
次に、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行う。
詳細には、ステップST108において、制御部8は、勝利ノードの反応回数が予め規定された閾値より大きいか否かを判別し、反応回数が閾値より大きいと判断した場合にステップST109の処理に進み、反動回数が閾値以下の場合にステップST110の処理に進む。
Next, when the number of selections of the node selected according to the input vector exceeds the threshold value, the
Specifically, in step ST108, the
図17(A)は勝利ノードの増殖を説明するための図であり、図17(B)は図17(A)に示した勝利ノード付近の拡大図である。
ステップST109において、制御部8は、勝利ノード(親ノード)i2aを増殖させて、親ノードi2aと同じ荷重ベクトルを有する子ノードi2bを生成し、親ノードi2aである勝利ノードを一定期間だけ不応期とする。例えば図17(B)において、ノードを結ぶ線の端部に黒丸が形成された側を子ノード、ノードを結ぶ線の端部に黒丸が形成されていない側を親ノードと設定して、ステップST110の処理に進む。
つまり、制御部8は、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う。
FIG. 17A is a diagram for explaining the proliferation of victory nodes, and FIG. 17B is an enlarged view of the vicinity of the victory node shown in FIG.
In step ST109, the
That is, when updating one of the parent node and the child node, the
ステップST110において、制御部8は、複数の画素を入力データとした場合に、データセットについて処理が終了したか否かを判別し、判別の結果、データセットのうちの全ての入力データに対して上記処理が終了したか否かを判別し、判別の結果、終了したと判別した場合にステップST111の処理に進み、それ以外の場合にステップST103の処理に戻る。
In step ST110, when a plurality of pixels are set as input data, the
ステップST111において、制御部8は、ノードの統廃合処理を行う。詳細には、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
図18(A)はノードの統廃合処理を説明するための図であり、図18(B)はノードi3a付近の拡大図であり、図18(C)はノードi3a付近の拡大図である。
In step ST111, the
FIG. 18A is a diagram for explaining node consolidation processing, FIG. 18B is an enlarged view of the vicinity of the node i3a, and FIG. 18C is an enlarged view of the vicinity of the node i3a.
図18(A),(B)に示すように、親ノードi3aに子ノードi3bおよび子ノードi3cが同じクラスタに属し、ノードi3aを停止(除去)する場合、ノードi3b,ノードi3cそれぞれが新しいクラスタとなる。
また、図18(A),(C)に示すように、ノードi1aに子ノードi1b,i1c,i1dが同じクラスタに属し、ノードi1bを停止(除去)する場合、ノードi1aとノードi1cとが再接続される。また、親ノードが存在しない場合には子ノードが新しいクラスタとなる。
As shown in FIGS. 18A and 18B, when the child node i3b and the child node i3c belong to the same cluster in the parent node i3a and the node i3a is stopped (removed), each of the nodes i3b and i3c is a new cluster. It becomes.
As shown in FIGS. 18A and 18C, when the node i1a has child nodes i1b, i1c, and i1d belonging to the same cluster, and the node i1b is stopped (removed), the node i1a and the node i1c are reconnected. Connected. If there is no parent node, the child node becomes a new cluster.
ステップST112において、制御部8は、学習回数が規定回数より大きいか否かを判別し、判別の結果、大きいと判断した場合にステップ113の処理に進み、それ以外の場合にステップ102の処理に戻る。詳細には、本実施形態では1000〜3000回程度、上記ステップを繰り返して自己組織化マップの学習を行う。
In step ST112, the
ステップST113において、制御部8は、学習後の自己組織化マップにより色情報の分布に応じた複数のクラスタとそのクラスタの色の範囲(最大値,最小値)を規定する。
In step ST113, the
図19(A)は複数の撮像画像Pを示す図であり、図19(B)は複数の撮像画像Pのクラスタを重ね合わせて表現した図であり、図19(C)は全撮像画像P毎のクラスタリストを説明するための図である。
次に、制御部8は、図19(C)に示すように、撮像画像Pに撮像画像Pの色情報が分類されるクラスタを特定し、その各画像毎にそのクラスタを関連付けたクラスタリストを生成する。
各画像P毎に、各画素の色情報が分類されるクラスタのリストを生成する。
詳細には、図19(C)に示すように、画像P1はクラスタCL1 1、クラスタCL1 2、・・・、クラスタCL1 aを含む。画像P2はクラスタCL2 1、クラスタCL2 2、・・・、クラスタCL2 bを含む。また、画像Pnはクラスタは、クラスタCLn 1、クラスタCLn 2、・・・、クラスタCLn cを含む。
また、このクラスタCLそれぞれには、色の範囲、詳細には色の最小値および最大値が規定されている。
FIG. 19A is a diagram illustrating a plurality of captured images P, FIG. 19B is a diagram in which clusters of the plurality of captured images P are superimposed, and FIG. It is a figure for demonstrating each cluster list.
Next, as shown in FIG. 19C, the
For each image P, a list of clusters into which the color information of each pixel is classified is generated.
Specifically, as shown in FIG. 19C, the image P1 includes a cluster CL 1 1 , a cluster CL 1 2 ,..., A cluster CL 1 a . The image P2 includes a cluster CL 2 1 , a cluster CL 2 2 ,..., A cluster CL 2 b . The image Pn includes a cluster CL n 1 , a cluster CL n 2 ,..., A cluster CL n c .
Each cluster CL defines a color range, specifically, a minimum value and a maximum value of the color.
図20(A)は複数の撮像画像Pの複数のクラスタを重ねて示した図であり、図20(B)は図20(A)に示したクラスタを自己組織化マップによりクラスタリング処理を施した後の状態を示す図である。
制御部8は、クラスタとクラスタの色の範囲(最大値および最小値)を基に、例えば上述したように自己組織化マップの学習を行う。その結果、図20(B)に示すように、クラスタのRGB値の近いクラスタにより、全体のクラスタを形成する。
20A is a diagram in which a plurality of clusters of a plurality of captured images P are overlapped, and FIG. 20B is a clustering process performed on the clusters illustrated in FIG. 20A using a self-organizing map. It is a figure which shows a back state.
For example, as described above, the
詳細には、図20(C)に示すように、自己組織化マップの学習の結果、複数撮像画像Pの各画素の色情報のクラスタおよび該クラスタの色の範囲を規定することができる。
図20(C)に示すように、クラスタIDとクラスタの色の範囲(RGB値の最小値,RGB値の最大値)の関係は、例えば、CLALL 1=(R11,G11,B11,R12,G12,B12),CLALL 2=(R21,G21,B21,R22,G22,B22),・・・,CLALL m=(Rm1,Gm1,Bm1,Rm2,Gm2,Bm2)となる。ここでは、第2のクラスタリング処理後のj番目のクラスタをCLALL jと表す。
Specifically, as shown in FIG. 20C, as a result of learning of the self-organizing map, the color information cluster of each pixel of the plurality of captured images P and the color range of the cluster can be defined.
As shown in FIG. 20C, the relationship between the cluster ID and the color range of the cluster (minimum RGB value, maximum RGB value) is, for example, CL ALL 1 = (R11, G11, B11, R12, G12, B12), CL ALL 2 = (R21, G21, B21, R22, G22, B22), ..., CL ALL m = (Rm1, Gm1, Bm1, Rm2, Gm2, Bm2). Here, the j-th cluster after the second clustering process is represented as CL ALL j .
[出現頻度によるクラスタの分類処理(頻出クラスタの除去処理)]
図21は、クラスタの頻出クラスタの除去処理を説明するための図である。
クラスタCLALL mには、壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタが含まれている。このような位置推定に直接には役に立たないクラスタを除去することで、高精度なランドマークデータを生成することができる。詳細には、移動環境200内で撮像した複数の画像Pにおいて、共通するクラスタを除去する。
[Classification of clusters based on appearance frequency (removal of frequent clusters)]
FIG. 21 is a diagram for explaining frequent cluster removal processing of clusters.
The cluster CL ALL m includes a cluster into which color information that can be acquired anywhere in the
詳細には、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。つまり、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。
Specifically, the
具体的には、例えば図21に示すように、移動環境200内で撮像された画像P1,P2,・・・,PNそれぞれについて、クラスタCLALL 1,CLALL 2,・・・,CLALL j,・・・,CLALL mが含まれているか否かを示すリスト(クラスタリスト)を生成する。図21に示すように、例えば撮像画像P1には、クラスタCLALL 1とCLALL jが含まれており、その他のクラスタは含まれていない。
図21に示すように、クラスタリストに基づいて、各画像に共通に含まれているクラスタCLALL jが全画像Pに含まれているので、このクラスタCLALL jを除去して、新たに色クラスタIDをCCL1,CCL2,・・・,CCLxを割り当てる。このクラスタCLALL jについては、色クラスタIDを割り振らない。
More specifically, as shown in FIG. 21, the image P1, P2 taken in the
As shown in FIG. 21, based on the cluster list, the cluster CL ALL j that is commonly included in each image is included in all the images P. Therefore, the cluster CL ALL j is removed and a new color is added. Cluster IDs CCL 1 , CCL 2 ,..., CCL x are assigned. No color cluster ID is assigned to this cluster CL ALL j .
図22(A)は色クラスタリストを説明するための図であり、図22(B)は学習対象の撮像画像を示す図であり、図22(C)は学習対象の画像に含まれる色クラスタのリスト(ランドマークデータ)を説明するための図である。
図21に示した色クラスタリストは、色クラスタCCLそれぞれの色の範囲(RGB値の最小値,およびRGB値の最大値)が、例えば、図22(A)に示すように規定される。このクラスタCCLと色の範囲は、第2のクラスタリング処理の結果により得られる。
詳細には、色クラスタCCL1には色の範囲(R11,G11,B11,R12,G12,B12)が対応し、色クラスタCCL2には色の範囲(R21,G21,B21,R22,G22,B22)が対応し、・・・、色クラスタCCLjには色の範囲(RX1,GX1,BX1,RX2,GX2,BX2)が対応している。
22A is a diagram for explaining a color cluster list, FIG. 22B is a diagram showing a captured image to be learned, and FIG. 22C is a color cluster included in the image to be learned. It is a figure for demonstrating the list (landmark data) of.
In the color cluster list shown in FIG. 21, the color range (minimum RGB value and maximum RGB value) of each color cluster CCL is defined as shown in FIG. 22A, for example. The cluster CCL and the color range are obtained as a result of the second clustering process.
In particular, the color range to the color cluster CCL 1 (R11, G11, B11 , R12, G12, B12) corresponds, color range to the color cluster CCL 2 (R21, G21, B21 , R22, G22, B22) corresponds to..., And the color range (RX1, GX1, BX1, RX2, GX2, BX2) corresponds to the color cluster CCL j .
次に、図22(B)に示すように、移動環境200内で撮像された複数のカラー画像Pそれぞれと、図22(A)に示した色クラスタリストとの反応を調べる。その結果、反応した色クラスタCLLを図22(C)に示すように、各画像Pそれぞれについて関連付けたリストを生成する。
詳細には、例えば図22(C)に示すように、画像P1には色クラスタCCL1、CCL2が含まれており、画像P2には色クラスタCCL2、CCL5が含まれており、画像P3には色クラスタが含まれず(NULL)、画像PNには色クラスタCCLxが含まれている。
Next, as shown in FIG. 22B, the reaction between each of the color images P captured in the
Specifically, as shown in FIG. 22C, for example, the image P1 includes color clusters CCL 1 and CCL 2 , and the image P2 includes color clusters CCL 2 and CCL 5. P3 does not include a color cluster (NULL), and the image PN includes a color cluster CCL x .
また、上記色クラスタを特定する方法としては、制御部8は、学習後の自己組織化マップを用いて、各画像の画素の色情報を入力ベクトルとして入力し、その結果、反応するクラスタにより判断してもよい。
Further, as a method for specifying the color cluster, the
図22(C)に示すように、画像P毎に色クラスタが関連付けられたリストをランドマークデータ(RMD)という。また、図22(C)に示すように、ランドマークデータの各画像それぞれは、撮像位置に関する位置情報と関連付けられている。
つまり、制御部8は、撮像画像、その撮像画像の色情報が分類された色クラスタ、およびその撮像画像の撮像位置に関する位置情報とが関連付けられたランドマークデータ(RMD)を生成する。制御部8は、このランドマークデータ(RMD)を記憶部4に記憶する。
上記実施形態では、ランドマークデータとして、各撮像画像P、色クラスタ、位置情報とが関連付けられていたが、この形態に限られるものではない。例えば、撮像画像と上記色クラスタとを関連付けたデータ(リスト)を生成して記憶部4に記憶してもよい。その結果、記憶部4は、位置情報と撮像画像を関連付けて記憶し、さらに撮像画像と色クラスタとを関連付けて記憶する。つまり、ランドマークデータの各要素それぞれは、互いに関連付けられて記憶されていれば、上記形態に限られるものではない。
また、本実施形態に係るランドマークデータでは、上述したように撮像画像と、その撮像画像の色情報が分類される色クラスタ(色クラスタの組み合わせ)が明確に規定されている。
As shown in FIG. 22C, a list in which color clusters are associated with each image P is referred to as landmark data (RMD). Further, as shown in FIG. 22C, each image of the landmark data is associated with position information regarding the imaging position.
That is, the
In the above-described embodiment, each captured image P, color cluster, and position information are associated as landmark data. However, the present invention is not limited to this form. For example, data (list) in which the captured image is associated with the color cluster may be generated and stored in the storage unit 4. As a result, the storage unit 4 stores the positional information and the captured image in association with each other, and further stores the captured image and the color cluster in association with each other. That is, each element of the landmark data is not limited to the above form as long as it is stored in association with each other.
In the landmark data according to the present embodiment, as described above, a captured image and a color cluster (a combination of color clusters) into which color information of the captured image is classified are clearly defined.
[ランドマークデータ利用時の動作(位置推定処理)]
図23は、移動体情報処理装置1がランドマークデータを生成した後、位置推定を行う動作を説明するための図である。図24は、図1に示した移動体情報処理装置のランドマークデータ利用時の動作を説明するフローチャートである。図25(A)は位置推定用の撮像画像Pを示す図であり、図25(B)は位置推定用の撮像画像Pの色情報をRGB空間で示した図である。
図26(A)は撮像画像の色情報が分類されるクラスタCLLを示す図であり、図26(B)は入力データ(位置推定用の撮像画像)とクラスタを示すRGB空間の図である。
[Operation when using landmark data (position estimation processing)]
FIG. 23 is a diagram for explaining an operation of performing position estimation after the mobile
FIG. 26A is a diagram showing a cluster CLL in which color information of a captured image is classified, and FIG. 26B is a diagram of RGB space indicating input data (captured image for position estimation) and clusters.
移動体情報処理装置1は、上記自己組織化マップの学習によりランドマークデータを生成した後、そのランドマークデータと位置推定用の撮像画像により移動体(ロボット)の位置推定を行う。詳細には、移動体(ロボット)100を環境200内に配置した際に、移動体100の位置を推定する場合、移動体情報処理装置1は、その位置で撮像された位置推定用の撮像画像と、学習対象の撮像画像の間の類似度を算出して、その類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。詳細には、制御部8は、位置推定用の撮像画像に対して比較的高い類似度の学習用の撮像画像を特定し、その特定された撮像画像に関連付けられた位置情報を基に位置推定を行う。
以下、移動体情報処理装置1の位置推定に関する動作を詳細に説明する。
The mobile body
Hereinafter, operations related to position estimation of the mobile
本実施形態では、移動体情報処理装置1が、移動環境200内の任意の位置、例えば図23に示すように、木箱とその木箱の近傍に備えられた観葉植物の間付近の位置に、配置される。移動体情報処理装置1の進行方向は、棚が位置する方向と略一致しており、撮像部の撮像方向も同様である。
In the present embodiment, the mobile
ステップST201において、移動体情報処理装置1は、例えば図24に示すように、初期位置で撮像部2により移動環境200内の被写体を撮像して、図25(A)に示すように、位置推定用のカラー画像Pを取得する。詳細には、制御部8は、撮像部2を駆動して位置推定用のカラー画像Pを取得し、図25(B)に示すように色情報を取得する。例えば、この位置推定用の撮像画像Pには、赤茶色の鉢、緑色の葉を備えた観葉植物、略白色の壁、および藍色の床が被写体として撮像されている。
In step ST201, the mobile
図27は、位置推定用の撮像画像の各画素の色情報が反応する色クラスタCLLと、ランドマークデータとのマッチングを説明するための図である。
ステップST202において、制御部8は、図26(A),(B)に示すように、クラスタCLLおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタCLLを特定する。本実施形態では、例えば図26,図27に示すように、色クラスタCLL1,CLL2が特定される。
FIG. 27 is a diagram for explaining matching between the color cluster CLL to which the color information of each pixel of the captured image for position estimation reacts and landmark data.
In step ST202, as shown in FIGS. 26A and 26B, the
ステップST204において、制御部8は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。類似度は、例えば、位置推定用の撮像画像の色情報から特定されたクラスタCLLの組み合わせと、ランドマークデータ(RMD)の各クラスタCLLの組み合わせとの一致の度合を数値化したものを採用する。この際、ランドマークデータの各クラスタCLLそれぞれに重み付けを設定して、その重み付けを考慮して類似度を算出してもよい。例えば各クラスタの重み付けは、そのクラスタを含む画像の個数が少ないほど、大きく設定することが好ましい。こうすることで高精度に類似度を決定することができる。
類似度は、この形態に限られるものではなく、例えば既存の類似判断方法により類似度を算出してもよい。
In step ST204, the
The similarity is not limited to this form. For example, the similarity may be calculated by an existing similarity determination method.
次に、制御部8は、算出された類似度が閾値より大きいか否かを判別し、類似度が閾値より大きいと判別した場合に、ステップST105の処理に進み、それ以外の場合にステップST206の処理に進む。
Next, the
ステップST205において、制御部8は、類似度が閾値より大きい学習用の撮像画像Pを特定し、その撮像画像Pに関連付けられている位置情報に基づいて、位置推定に関する処理を行う。例えば、制御部8は、特定された撮像画像Pに関連付けられている位置情報と、移動体(ロボット100)の自己位置との差が比較的小さいと判断する。つまり、制御部8は、移動体の自己位置が、特定された撮像画像の撮像位置の近傍であると推定する。
In step ST205, the
制御部8は、類似度が閾値以下であると判断した場合、駆動部5を駆動して移動体(ロボット)100を移動して、ステップST201の処理に戻る。
この際、制御部8は、例えば類似度が閾値以下であるが、類似度が最も高い撮像画像に関連付けられている位置情報を特定して、その位置に移動してステップST201の処理に戻り、再度上述した位置推定の処理を行ってもよい。このように、類似度が閾値以上となるまで移動しながら位置推定を行うことで、高精度に自己位置を特定することができる。
When determining that the similarity is equal to or less than the threshold value, the
At this time, for example, the
移動制御の他の具体例としては、例えば、ステップST206において、制御部8は、ロボット100の縦軸を基準とする回転角が、閾値より大きいか否かを判別し、大きいと判断した場合には、所定角度、例えば90度右回転するように駆動部5を制御してロボット100を回転した後(ST207)、ステップST201の処理に戻る。一方、制御部8は、回転角が閾値以下であると判断した場合、所定距離だけ移動してステップST201の処理に戻る。
このように類似度が閾値以上となるまで上述した処理を繰り返すことで、高精度に自己位置を特定することができる。
As another specific example of the movement control, for example, in step ST206, the
In this way, by repeating the above-described processing until the similarity is equal to or higher than the threshold value, the self-position can be specified with high accuracy.
また、例えば、制御部8は、位置推定用の撮像画像に対して、類似度が閾値以下で、かつ所定の色クラスタCLLに分類することができない場合には、この位置推定用の撮像画像に対して、上述したランドマークデータを生成する処理を施して、ランドマークデータに新たなクラスタを生成してもよい。
Further, for example, when the similarity of the captured image for position estimation is equal to or lower than the threshold value and it cannot be classified into the predetermined color cluster CLL, the
[第2実施形態]
図28は、本発明の第2実施形態に係る移動体情報処理装置を説明するための図である。
本実施形態に係る移動体情報処理装置1Aは、図28に示すように、移動体(ロボット)100Aと、外部コンピュータ100Bとを有する。第1実施形態と第2実施形態と同じ構成要素、機能、動作等については、説明を省略する。
[Second Embodiment]
FIG. 28 is a diagram for explaining a mobile information processing apparatus according to the second embodiment of the present invention.
As shown in FIG. 28, the mobile
本実施形態に係るロボット100Aは、外部コンピュータ100Bと通信可能な通信部9を有する。通信部9は、制御部8の制御により外部コンピュータ100Bとデータ通信を行う。
外部コンピュータ100Bは、記憶部、通信部、制御部などを有しており、ロボット100Aとデータ通信を行うことにより、ロボット100Aを制御することができる。外部コンピュータ100Bは、例えば本発明に係るクラスタリング処理によるランドマーク生成処理、位置推定処理、等の比較的高い演算処理能力を要する処理を行う。
The
The
ロボット100Aは、外部コンピュータ100Bから、撮影命令を示す制御信号を受信した場合、撮像部2により撮像を行って、撮像画像Pを通信部9を介して外部コンピュータ100Bに送信する。また、ロボット100Aは、外部コンピュータ100Bから、車輪駆動命令を示す制御信号を受信した場合、その制御信号に応じて車輪を駆動して移動する。
When the
本実施形態に係る移動体情報処理装置1Aでは、ロボット100Aと外部コンピュータ100Bが、上述したように分散処理を行うので、ロボット100Aを比較的軽量に構成することができる。
また、複数のロボット100Aを設け、外部コンピュータ100Bがその複数のロボット100Aを統括的に制御することで、より高精度にランドマークデータを生成することができる。また、取得する情報量が増加するので、より高精度に位置推定を行うことができる。
In the mobile
Also, landmark data can be generated with higher accuracy by providing a plurality of
本発明は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができれば、各種形態をとることができる。 The present invention is not limited to the embodiment described above. If the functions according to the present invention can be realized, various forms can be taken.
例えば、上述した実施形態では、カラー画像の各画素それぞれが色情報としてRGB値を備えていたが、この形態に限られるものではない。例えばカラー画像の各画素の色情報が、YIQ(輝度信号Y、色差信号R−Y、B−Y)、YCbCr、等の規定の色空間により表現したデータであってもよい。 For example, in the above-described embodiment, each pixel of the color image has an RGB value as color information, but the present invention is not limited to this form. For example, the color information of each pixel of the color image may be data expressed by a prescribed color space such as YIQ (luminance signal Y, color difference signals RY, BY), YCbCr, or the like.
また、本発明に係る機能をコンピュータがプログラムを実行することにより実現してもよいし、専用の電子回路が情報処理を行うことにより実現してもよい。 The functions according to the present invention may be realized by a computer executing a program, or may be realized by a dedicated electronic circuit performing information processing.
また、移動体情報処理装置1の位置推定時の動作は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができるように任意の動作を行ってもよい。
Moreover, the operation | movement at the time of the position estimation of the mobile
また、上記した実施形態では、撮像部により所定のタイミングで複数のカラー画像を撮像したが、例えば、1秒間に数十フレーム程度の枚程度のカラーの動画像を撮像してもよい。移動体情報処理装置1は、動画像にて本発明に係るクラスタリング処理を行うことで、より高精度なランドマークデータを生成することができ、かつそのランドマークデータを用いて高精度に位置推測を行うことができる。
Further, in the above-described embodiment, a plurality of color images are captured at a predetermined timing by the imaging unit. However, for example, about several tens of frames of moving images may be captured per second. The mobile
また、本発明に係る移動体情報処理装置1は、例えば、掃除ロボット、工場内の運搬ロボット、道案内ロボット、等の移動環境内で移動可能であるロボットに適用することができる。
Moreover, the mobile body
以上、説明したように、本発明に係る移動体情報処理装置1は、移動環境内の被写体を撮像してカラー画像を取得する撮像部2と、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部4と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部8とを有するので、例えば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。
As described above, the mobile
また、制御部8は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、比較的高精度に、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。
Further, the
また、制御部8は、学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定するので、簡単に撮像画像の色情報が分類されるクラスタを特定することができる。
Further, the
また、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、ランドマークデータを生成する処理を行うので、例えば壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタを除去することで、高精度なランドマークデータを生成することができる。
In addition, the
また、本発明に係る移動体情報処理装置1は、撮像画像の色情報に関するデータが入力ベクトルとして入力される入力層40と、入力ベクトルと同じ次元の荷重ベクトルが対応付けられたノードを備える競合層50とを有するニューラルネットワークを有し、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、自己組織化マップの教師なし学習を行うので、簡単な処理によりクラスタリングを行うことができる。
In addition, the mobile
また、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行うので、ノードの増殖により、出現頻度の高い色の近傍の解像度(分解能)を増加させることで、より高精度なクラスタリング処理を行うことができる。
In addition, when the number of selections of the node selected according to the input vector exceeds the threshold, the
また、制御部8は、増殖したノードを子ノード、増殖元のノードを親ノードに設定し、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
In addition, when the
また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該最小の距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
In addition, when the
また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。
In addition, the
また、制御部8は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のクラスタリング処理部812と、複数の撮像画像それぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部814とを有するので、簡単な処理により複数の撮像画像の各画素の色情報を比較的高精度にクラスタリングすることができる。
Further, the
また、移動体情報処理装置1は、移動体100の周囲の被写体を撮像してカラー画像を生成する撮像部2と、移動体100を移動環境内で移動させる駆動部5とを有し、制御部8は、駆動部5を駆動制御して移動体100を移動させるとともに移動体100の撮像部2により撮像された画像に応じた処理を行うことにより、例えば高精度に、ランドマークデータを生成する処理や位置推定処理を行うことができる。
The mobile
また、移動体情報処理装置1は、撮像部2を撮像方向が進行方向と略同一となるように固定した場合であっても、その撮像方向に応じた画像により、ランドマークデータの生成処理、および位置推定に関する処理を行うことができる。
In addition, the mobile
1 移動体情報処理装置
2 撮像部
3 量子化部
4 記憶部
5 駆動部
6 車輪
7 センサ
8 制御部
10 筐体
81 第1の処理部
82 第2の処理部
100 ロボット
811 駆動制御部
812 第1クラスタリング処理部(第1SOM)
813 最大値最小値抽出部
814 第2クラスタリング処理部(第2SOM)
815 クラスタリスト生成部
816 ランドマークデータ生成部
821 クラスタ取得部
822 マッチング部
823 位置推定部
824 駆動制御部
DESCRIPTION OF
813 Maximum value / minimum
815 Cluster list generation unit 816 Landmark
Claims (15)
学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部と
を有することを特徴とする移動体情報処理装置。 A mobile information processing apparatus that generates landmark data for performing position estimation from a color image captured in a mobile environment,
A storage unit that associates and stores a plurality of captured images to be learned and position information related to an imaging position of the captured image;
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster Control for specifying the cluster in which color information of the captured image is classified for each captured image, and generating the landmark data in which the identified cluster, the captured image, and the position information are associated with each other And a mobile information processing apparatus.
前記制御部は、前記入力ベクトルに対して最小の距離の前記荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、前記自己組織化マップの学習を行うことを特徴とする請求項1に記載の移動体情報処理装置。 A neural network including an input layer in which data regarding color information of the captured image is input as an input vector, and a competitive layer including a node associated with a load vector of the same dimension as the input vector;
The control unit selects a node associated with the load vector having a minimum distance with respect to the input vector, updates the load vector, and learns the self-organizing map. The mobile information processing apparatus according to claim 1.
前記複数の撮像画像それぞれに規定された前記クラスタおよび前記色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部と
を有することを特徴とする請求項1に記載の移動体情報処理装置。 The control unit learns a self-organizing map based on color information of each pixel of the captured image, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and the cluster A first clustering processing unit for defining a color range;
Based on the cluster and the color range defined for each of the plurality of captured images, learning of a self-organizing map is performed, and the color information of the plurality of captured images is classified based on the self-organizing map after learning. The mobile information processing apparatus according to claim 1, further comprising: a plurality of clusters and a second clustering processing unit that defines a color range of the clusters.
前記移動体を移動環境内で移動させる駆動部とを有し、
前記制御部は、前記駆動部を駆動制御して前記移動体を移動させるとともに前記移動体の前記撮像部により撮像された画像に応じた処理を行うことを特徴とする請求項1に記載の情報処理装置。 An imaging unit that images a subject around the moving object to generate a color image;
A drive unit for moving the moving body in a moving environment;
2. The information according to claim 1, wherein the control unit drives and controls the driving unit to move the moving body and performs processing according to an image captured by the imaging unit of the moving body. Processing equipment.
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
を有することを特徴とする移動体情報処理の情報処理方法。 A landmark for storing a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured image, and performing position estimation based on the color image captured in the moving environment An information processing method for a mobile information processing apparatus for generating data,
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster A first step defining:
A second step of identifying the cluster into which color information of the captured image is classified for each captured image, and generating the landmark data that associates the identified cluster, the captured image, and the position information; An information processing method for mobile information processing, characterized by comprising:
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
を前記移動体情報処理装置に実行させるためのプログラム。 A landmark for storing a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured image, and performing position estimation based on the color image captured in the moving environment A program for causing a mobile information processing apparatus to generate data to execute,
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster A first step defining:
A second step of identifying the cluster into which color information of the captured image is classified for each captured image, and generating the landmark data that associates the identified cluster, the captured image, and the position information; For causing the mobile information processing apparatus to execute the program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007245534A JP2009074995A (en) | 2007-09-21 | 2007-09-21 | Mobile unit information processor, mobile unit information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007245534A JP2009074995A (en) | 2007-09-21 | 2007-09-21 | Mobile unit information processor, mobile unit information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009074995A true JP2009074995A (en) | 2009-04-09 |
Family
ID=40610095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007245534A Pending JP2009074995A (en) | 2007-09-21 | 2007-09-21 | Mobile unit information processor, mobile unit information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009074995A (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227037A (en) * | 2010-03-31 | 2011-11-10 | Aisin Aw Co Ltd | Image processing system and location positioning system |
WO2012086821A1 (en) * | 2010-12-20 | 2012-06-28 | 日本電気株式会社 | Positioning apparatus and positioning method |
WO2014129116A1 (en) * | 2013-02-22 | 2014-08-28 | 国立大学法人東京工業大学 | Information processing device, information processing method, and non-transitory computer-readable medium |
JP2016143354A (en) * | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | Learning device, learning method and program |
WO2019035155A1 (en) * | 2017-08-14 | 2019-02-21 | 楽天株式会社 | Image processing system, image processing method, and program |
CN110781334A (en) * | 2018-07-24 | 2020-02-11 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and computer program |
KR20200134807A (en) * | 2019-05-23 | 2020-12-02 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR20210106639A (en) * | 2020-02-21 | 2021-08-31 | 동명대학교산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
WO2022264370A1 (en) * | 2021-06-17 | 2022-12-22 | 日本電気株式会社 | Image processing device, image processing method, and program |
-
2007
- 2007-09-21 JP JP2007245534A patent/JP2009074995A/en active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011227037A (en) * | 2010-03-31 | 2011-11-10 | Aisin Aw Co Ltd | Image processing system and location positioning system |
WO2012086821A1 (en) * | 2010-12-20 | 2012-06-28 | 日本電気株式会社 | Positioning apparatus and positioning method |
US9794519B2 (en) | 2010-12-20 | 2017-10-17 | Nec Corporation | Positioning apparatus and positioning method regarding a position of mobile object |
WO2014129116A1 (en) * | 2013-02-22 | 2014-08-28 | 国立大学法人東京工業大学 | Information processing device, information processing method, and non-transitory computer-readable medium |
JP2014164396A (en) * | 2013-02-22 | 2014-09-08 | Tokyo Institute Of Technology | Information processing apparatus, information processing method and program |
JP2016143354A (en) * | 2015-02-04 | 2016-08-08 | エヌ・ティ・ティ・コムウェア株式会社 | Learning device, learning method and program |
WO2019035155A1 (en) * | 2017-08-14 | 2019-02-21 | 楽天株式会社 | Image processing system, image processing method, and program |
JPWO2019035155A1 (en) * | 2017-08-14 | 2019-11-07 | 楽天株式会社 | Image processing system, image processing method, and program |
CN110781334A (en) * | 2018-07-24 | 2020-02-11 | 丰田自动车株式会社 | Information processing apparatus, information processing method, and computer program |
CN110781334B (en) * | 2018-07-24 | 2023-09-29 | 丰田自动车株式会社 | Information processing apparatus and information processing method |
KR20200134807A (en) * | 2019-05-23 | 2020-12-02 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR102277974B1 (en) * | 2019-05-23 | 2021-07-15 | 주식회사 다비오 | System and method for indoor positioning based on image |
KR20210106639A (en) * | 2020-02-21 | 2021-08-31 | 동명대학교산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
KR102317499B1 (en) * | 2020-02-21 | 2021-10-25 | 동명대학교 산학협력단 | Apparatus for guiding indoor route of pedestrian through training of image data and method thereof |
WO2022264370A1 (en) * | 2021-06-17 | 2022-12-22 | 日本電気株式会社 | Image processing device, image processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009074995A (en) | Mobile unit information processor, mobile unit information processing method, and program | |
KR101901586B1 (en) | Apparatus for estimating the robot pose and method thereof | |
JP5480667B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program | |
US9805443B2 (en) | Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly | |
CN112505065A (en) | Method for detecting surface defects of large part by indoor unmanned aerial vehicle | |
JP5777367B2 (en) | Pattern identification device, pattern identification method and program | |
JP6675691B1 (en) | Learning data generation method, program, learning data generation device, and inference processing method | |
JP2008506953A5 (en) | ||
WO2017163928A1 (en) | Image processing device and method | |
CN109448023B (en) | Satellite video small target real-time tracking method | |
JP2007128247A (en) | Image processor, image processing method, program therefor, and computer-readable recording medium recording with the program | |
CN110006444B (en) | Anti-interference visual odometer construction method based on optimized Gaussian mixture model | |
CN112802186B (en) | Dynamic scene real-time three-dimensional reconstruction method based on binarization characteristic coding matching | |
JP2007064836A (en) | Algorithm for automating camera calibration | |
CN114494594B (en) | Deep learning-based astronaut operation equipment state identification method | |
JP5872395B2 (en) | Region dividing device | |
JP3411889B2 (en) | Automatic camera calibration method | |
CN109344758B (en) | Face recognition method based on improved local binary pattern | |
CN107590829B (en) | Seed point picking method suitable for multi-view dense point cloud data registration | |
JP5872401B2 (en) | Region dividing device | |
JP2007109126A (en) | Moving body distribution estimation device, moving body distribution estimation method, and moving body distribution estimation program | |
WO2019230965A1 (en) | Object likelihood estimation device, method, and program | |
JP2002032760A (en) | Method and device for extracting moving object | |
WO2021210492A1 (en) | Information processing device, information processing method, and program | |
JP4830585B2 (en) | Image processing apparatus and image processing method |