JP2009074995A - Mobile unit information processor, mobile unit information processing method, and program - Google Patents

Mobile unit information processor, mobile unit information processing method, and program Download PDF

Info

Publication number
JP2009074995A
JP2009074995A JP2007245534A JP2007245534A JP2009074995A JP 2009074995 A JP2009074995 A JP 2009074995A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2007245534 A JP2007245534 A JP 2007245534A JP 2009074995 A JP2009074995 A JP 2009074995A
Authority
JP
Japan
Prior art keywords
cluster
color
captured image
node
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007245534A
Other languages
Japanese (ja)
Inventor
Ken Inamasu
謙 稲益
Chikun Hashiyama
智訓 橋山
Yasuo Masaki
康生 政木
Guokun Zuo
国坤 左
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
University of Electro Communications NUC
Original Assignee
Funai Electric Co Ltd
University of Electro Communications NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd, University of Electro Communications NUC filed Critical Funai Electric Co Ltd
Priority to JP2007245534A priority Critical patent/JP2009074995A/en
Publication of JP2009074995A publication Critical patent/JP2009074995A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate landmark data for specifying the position of a mobile unit from a plurality of color images photographed within a moving range without arranging landmarks within the travel environment of the mobile unit in advance, and to estimate the position of the mobile unit from a photographed image for position estimation and the landmark data. <P>SOLUTION: The mobile unit information processor 1 comprises: a photographing section 2 for photographing a subject within a moving environment to acquire a color image; a storage section 4 for storing a plurality of photographed images of an object to be learned and positional information on the photographing position of the photographed image with them associated with each other; and a control section 8 which learns a self-organizing map on the basis of the color information of each pixel of the plurality of photographed images, provides a plurality of clusters and the color range of the clusters for classifying color information by the self-organizing map after learning, specifies a cluster into which the color information of the photographed image is classified for each photographed image, and generates landmark data with the specified cluster, the photographed image, and the positional information associated with each other. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、移動体情報処理装置、移動体情報処理方法、およびプログラムに関する。   The present invention relates to a mobile information processing apparatus, a mobile information processing method, and a program.

例えば、移動型ロボットが自己の位置を特定する方法として、移動体の走行環境内の規定位置に予めランドマークを設置しておき、そのランドマークを撮像して得られた撮像画像により自己位置を推定する方法が知られている。   For example, as a method for a mobile robot to identify its own position, a landmark is set in advance at a specified position in the traveling environment of the moving body, and the self-position is determined by a captured image obtained by imaging the landmark. An estimation method is known.

詳細には、例えば、移動体の走行環境内に複数のランドマークを予め配置しておき、移動体を初期の位置から任意の距離だけ移動させたときの移動状態量と、移動体から撮像された複数のランドマーク画像のずれ量から、ランドマークの三次元位置座標を算出するランドマークの登録方法が知られている(例えば、特許文献1参照)。
特開2006−234453号公報
Specifically, for example, a plurality of landmarks are arranged in advance in the traveling environment of the moving body, and the moving state amount when the moving body is moved by an arbitrary distance from the initial position, and the moving body are imaged. In addition, a landmark registration method is known in which the three-dimensional position coordinates of a landmark are calculated from the shift amounts of a plurality of landmark images (see, for example, Patent Document 1).
JP 2006-234453 A

しかし、特許文献1に記載された技術では、配置されたランドマークの3次元位置座標を自動的に登録して、その登録されたランドマークの位置に基づいて自己位置を推定するが、予めランドマークを規定位置に配置することを要する。
また、ランドマークを移動体の走行環境内に配置するので、走行環境内の美観が損なわれる。
However, in the technique described in Patent Document 1, the three-dimensional position coordinates of the arranged landmarks are automatically registered, and the self-position is estimated based on the registered landmark positions. It is necessary to place the mark at a specified position.
In addition, since the landmark is arranged in the traveling environment of the moving body, the beauty in the traveling environment is impaired.

本発明は、このような問題に対処することを課題の一例とするものである。すなわち、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成すること、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うこと、等が本発明の目的である。   This invention makes it an example of a subject to cope with such a problem. That is, generating landmark data for specifying the position of a moving object from a plurality of color images photographed within the moving range without previously arranging the landmark in the traveling environment of the moving object, for position estimation It is an object of the present invention to estimate the position of the moving object from the captured image and landmark data.

このような目的を達成するために、本発明は、以下の各独立請求項に係る構成を少なくとも具備するものである。
本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部とを有することを特徴とする。
In order to achieve such an object, the present invention comprises at least the configurations according to the following independent claims.
A mobile information processing apparatus according to the present invention is a mobile information processing apparatus that generates landmark data for performing position estimation using color images captured in a mobile environment, and includes a plurality of captured images to be learned, And a storage unit that associates and stores positional information related to the imaging position of the captured image, and learns a self-organizing map based on the color information of each pixel of the plurality of captured images, and the self-organizing map after learning A plurality of clusters for classifying the color information and a color range of the clusters, specifying the cluster in which the color information of the captured image is classified for each captured image, the identified cluster, And a control unit that generates the landmark data in which the captured image and the position information are associated with each other.

好適には、前記制御部は、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行うことを特徴とする。   Preferably, the control unit identifies the cluster into which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and identifies the identified cluster and the land. According to the mark data, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and the position estimation is performed based on the similarity and the position information associated with the captured image to be learned. It is characterized by performing the process regarding.

また、本発明に係る移動体情報処理装置の情報処理方法は、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置の情報処理方法であって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを有することを特徴とする。   Also, the information processing method of the mobile information processing apparatus according to the present invention stores a plurality of captured images that have been subjected to color imaging in a moving environment and positional information related to the imaging position of the captured images in association with each other, and moves An information processing method for a mobile information processing apparatus that generates landmark data for estimating a position from a color image captured in an environment, the self-organization based on color information of each pixel of the plurality of captured images A first step of defining a plurality of clusters for classifying the color information and a color range of the clusters based on a self-organizing map after learning, and the imaging for each captured image The cluster to which the color information of the image is classified is specified, and the landmark data that associates the specified cluster, the captured image, and the position information is generated. And having a second step.

好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有する。   Preferably, based on the cluster and the color range, the cluster into which color information of each pixel of the captured image for position estimation is classified is identified, and according to the identified cluster and the landmark data Calculating a similarity of the captured image to be learned with respect to the captured image for position estimation, and performing processing related to the position estimation based on the similarity and position information associated with the captured image to be learned It has 3 steps.

また、本発明に係るプログラムは、移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置に実行させるためのプログラムであって、前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップとを前記移動体情報処理装置に実行させることを特徴とする。   In addition, the program according to the present invention stores a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured images in association with each other, and the color images that are captured in the moving environment A program for causing a mobile information processing apparatus that generates landmark data to perform position estimation by performing learning of a self-organizing map based on color information of each pixel of the plurality of captured images. A first step of defining a plurality of clusters for classifying the color information and a color range of the clusters by the self-organizing map after learning, and the color information of the captured image is classified for each captured image A second cluster that generates the landmark data that associates the identified cluster, the captured image, and the position information. And-up, characterized in that to be executed by the mobile information processing apparatus.

好適には、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする。   Preferably, based on the cluster and the color range, the cluster into which color information of each pixel of the captured image for position estimation is classified is identified, and according to the identified cluster and the landmark data Calculating a similarity of the captured image to be learned with respect to the captured image for position estimation, and performing processing related to the position estimation based on the similarity and position information associated with the captured image to be learned It has 3 steps.

本発明によれば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。また、本発明によれば、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。   According to the present invention, landmark data for specifying the position of a moving body is generated from a plurality of color images photographed within the moving range without arranging the landmark in advance in the traveling environment of the moving body. Can do. Further, according to the present invention, it is possible to estimate the position of the moving object from the captured image for position estimation and the landmark data.

本発明に係る移動体情報処理装置は、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部とを有することを特徴とする。   A mobile information processing apparatus according to the present invention is a mobile information processing apparatus that generates landmark data for performing position estimation using color images captured in a mobile environment, and includes a plurality of captured images to be learned, And a storage unit that associates and stores position information related to the imaging position of the captured image, and learns a self-organizing map based on the color information of each pixel of the plurality of captured images, and by the self-organizing map after learning, A plurality of clusters for classifying color information and a color range of the clusters are specified, a cluster in which the color information of the captured image is classified for each captured image, the identified cluster, captured image, and position And a control unit that generates landmark data associated with the information.

上記構成の移動体情報処理装置によれば、制御部が、記憶部に記憶された複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成するので、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数の画像から移動体の位置を特定するためのランドマークデータを生成することができる。   According to the mobile information processing apparatus configured as described above, the control unit learns the self-organizing map based on the color information of each pixel of the plurality of captured images stored in the storage unit, and self-organizes after learning. A map defines a plurality of clusters for classifying color information and a color range of the clusters, identifies a cluster in which the color information of the captured image is classified for each captured image, and identifies the identified cluster and captured image In order to identify the position of the moving body from a plurality of images taken within the moving range without previously arranging the landmark in the traveling environment of the moving body. Landmark data can be generated.

また、好適には、制御部は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うことを特徴とする。   Preferably, the control unit identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and corresponds to the identified cluster and landmark data. Then, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to position estimation is performed based on the similarity and position information associated with the captured image to be learned. And

上記構成の移動体情報処理装置によれば、制御部が、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、当該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。   According to the mobile information processing apparatus having the above configuration, the control unit identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and the identified cluster In addition, according to the landmark data, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and position estimation is performed based on the similarity and the position information associated with the captured image to be learned. Since the process is performed, the position of the moving object can be estimated from the captured image for position estimation and the landmark data.

以下、本発明に係る移動体情報処理装置、その情報処理方法、およびプログラムを図面を参照しながら説明する。   A mobile information processing apparatus, information processing method, and program according to the present invention will be described below with reference to the drawings.

[第1実施形態]
図1は、本発明の第1実施形態に係る移動体情報処理装置の全体機能ブロック図である。図2は、図1に示した移動体情報処理装置の移動環境を説明するための図である。
[First Embodiment]
FIG. 1 is an overall functional block diagram of a mobile information processing apparatus according to the first embodiment of the present invention. FIG. 2 is a diagram for explaining a moving environment of the mobile information processing apparatus shown in FIG.

本実施形態では、本発明に係る移動体情報処理装置1を採用した移動型ロボット(ロボットとも言う)100を説明する。
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2を備えており、例えば図2に示すように移動環境200内を移動して所定のタイミングで移動環境200内の被写体をカラー撮像して、複数のカラー画像Pを取得する。移動体情報処理装置1は、この撮像画像Pを、撮像位置に関する位置情報と関連付けて記憶部4に記憶する。
また、移動体情報処理装置1は、移動環境200内で撮像されたカラー画像Pにより、移動環境200内のロボット100の位置推定を行うためのランドマークデータを生成する。
詳細には、本実施形態に係る移動体情報処理装置1は、移動環境200内の被写体を撮像して複数のカラー画像を取得し、その複数のカラー画像の各画素の色情報を基に、色の分布を複数のクラスタに分類して、各クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、該クラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
In the present embodiment, a mobile robot (also referred to as a robot) 100 that employs the mobile information processing apparatus 1 according to the present invention will be described.
As shown in FIG. 1, the mobile information processing apparatus 1 according to the present embodiment includes an imaging unit 2. For example, as shown in FIG. 2, the mobile information processing apparatus 1 moves within the mobile environment 200 and moves at a predetermined timing. A plurality of color images P are acquired by performing color imaging of the subject inside. The mobile information processing apparatus 1 stores the captured image P in the storage unit 4 in association with position information regarding the imaging position.
In addition, the mobile information processing apparatus 1 generates landmark data for estimating the position of the robot 100 in the mobile environment 200 based on the color image P captured in the mobile environment 200.
Specifically, the mobile information processing apparatus 1 according to the present embodiment captures a subject in the moving environment 200 to acquire a plurality of color images, and based on the color information of each pixel of the plurality of color images, The color distribution is classified into a plurality of clusters, the color range of each cluster is defined, the cluster into which the color information of the captured image is classified for each captured image, the cluster, the captured image, and the position information The landmark data associated with is generated.

また、移動体情報処理装置1は、そのクラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。   In addition, the mobile information processing apparatus 1 identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and uses the identified cluster and landmark data. Accordingly, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to position estimation is performed based on the similarity and the position information associated with the captured image to be learned.

例えば、一般的な装置では、予めランドマークを規定の位置に配置することを要する。一方、本発明に係る移動体情報処理装置1は、予めランドマークを配置することなく、各撮像位置と色の分布の特徴が関連付けられたランドマークデータを生成することができる。   For example, in a general apparatus, it is necessary to arrange landmarks at predetermined positions in advance. On the other hand, the mobile information processing apparatus 1 according to the present invention can generate landmark data in which each imaging position is associated with a color distribution feature without arranging landmarks in advance.

また、一般的な装置では、撮像画像の色情報を分類する場合、予め分類するための色の範囲を設定することを要する。
一方、本発明に係る移動体情報処理装置1は、ニューラルネットワークの自己組織化マップを用いて、教師なし学習によるクラスタリングを行うことで、移動環境内の被写体をカラー撮像して得られた撮像画像の各画素の色情報に応じて、その色情報を分類するためのクラスタおよび該クラスタの色の範囲を自動的に規定することができる。このため簡単に撮像画像の各画素の色情報を分類することができる。
Further, in a general apparatus, when classifying color information of a captured image, it is necessary to set a color range for classification in advance.
On the other hand, the mobile information processing apparatus 1 according to the present invention uses a self-organizing map of a neural network to perform clustering by unsupervised learning, so that a captured image obtained by performing color imaging on a subject in a moving environment. According to the color information of each pixel, a cluster for classifying the color information and a color range of the cluster can be automatically defined. Therefore, the color information of each pixel of the captured image can be easily classified.

また、複数の撮像画像の色情報を基にランドマークデータを生成し、そのランドマークデータと位置推定用の撮像画像により移動体の位置推定を行うので、例えば撮像画像の被写体の輪郭パターンにより、ランドマークデータを生成する場合と比べて、比較的高精度にかつ比較的高速に位置推定を行うことができる。
以下、移動体情報処理装置1の各構成要素について詳細に説明する。
In addition, landmark data is generated based on the color information of a plurality of captured images, and the position of the moving object is estimated based on the landmark data and the captured image for position estimation. Compared to the case of generating landmark data, position estimation can be performed with relatively high accuracy and relatively high speed.
Hereinafter, each component of the mobile information processing apparatus 1 will be described in detail.

[移動体情報処理装置1の構成]
図1に示すように、本実施形態に係る移動体情報処理装置1は、撮像部2、量子化部3、記憶部4、駆動部5、車輪(移動手段)6、センサ7、および制御部8を有する。
撮像部2は本発明に係る撮像部の一実施形態に相当し、記憶部4は本発明に係る記憶部の一実施形態に相当し、駆動部5および車輪6は本発明に係る駆動部の一実施形態に相当する。制御部8は、本発明に係る制御部の一実施形態に相当する。
[Configuration of Mobile Information Processing Apparatus 1]
As shown in FIG. 1, the mobile information processing apparatus 1 according to the present embodiment includes an imaging unit 2, a quantization unit 3, a storage unit 4, a drive unit 5, wheels (moving means) 6, a sensor 7, and a control unit. 8 has.
The imaging unit 2 corresponds to one embodiment of the imaging unit according to the present invention, the storage unit 4 corresponds to one embodiment of the storage unit according to the present invention, and the driving unit 5 and the wheel 6 are the driving unit according to the present invention. This corresponds to one embodiment. The control unit 8 corresponds to an embodiment of the control unit according to the present invention.

本実施形態に係る移動体(移動型ロボット100)は、例えば図1,2に示すように、略円筒形状、略直方体形状、等の規定形状の筐体10を備えている。   For example, as shown in FIGS. 1 and 2, the mobile body (mobile robot 100) according to the present embodiment includes a casing 10 having a predetermined shape such as a substantially cylindrical shape or a substantially rectangular parallelepiped shape.

撮像部2は、例えば制御部8の制御により、ロボット100(移動体)の周囲の移動環境内の被写体をカラー撮像して、カラー画像を出力する。また、撮像部2は、例えば各画素が、R(Red),G(Green),B(Blue)のRGB値にて規定された色情報により構成されるカラー画像を出力する。撮像部2としては、例えば、CCD(Charge coupled device)、CMOS(Complementary metal oxide semiconductor)イメージセンサ、等の撮像素子を備えた撮像装置を採用することができる。撮像部2は、例えば図2に示すように、筐体10の所定位置、例えば筐体10の上部や前面部等に設けられている。この撮像部2は、ロボット100の進行方向を基準として規定の視野角を有する。例えば視野角は30度〜180度程度である。撮像部2は、筐体10に固定されて備えられてもよいし、撮像方向が可変となるように筐体10に設けられてもよい。   For example, under the control of the control unit 8, the imaging unit 2 performs color imaging on a subject in a moving environment around the robot 100 (moving body) and outputs a color image. In addition, the imaging unit 2 outputs a color image in which each pixel is configured by color information defined by RGB values of R (Red), G (Green), and B (Blue), for example. As the imaging unit 2, for example, an imaging device including an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor can be employed. For example, as shown in FIG. 2, the imaging unit 2 is provided at a predetermined position of the housing 10, for example, at an upper portion or a front surface portion of the housing 10. The imaging unit 2 has a prescribed viewing angle with reference to the traveling direction of the robot 100. For example, the viewing angle is about 30 to 180 degrees. The imaging unit 2 may be fixed to the housing 10 or may be provided in the housing 10 so that the imaging direction is variable.

量子化部3は、カラー画像の各画素の色情報を規定の階調に量子化し、その量子化された色情報を含むカラー画像を出力する。量子化部3から出力された画像は、例えば記憶部4に記憶されてもよいし、制御部8に入力されてもよい。
本実施形態に係る量子化部3は、例えば撮像画像の画素の各RGB値が256階調に設定されている場合、RGB値を比較的小さい階調、例えば8階調のRGB値に変換する。このように色情報を比較的小さい階調に変換することで、被写体の色の小さな差異を低減して、被写体の色を反映しつつ、比較的小さな情報量の色情報を出力することができる。また、量子化部3は、撮像部2により出力されたカラー画像に量子化処理を施してもよいし、制御部8に記憶されている画像に対して上記量子化処理を施してもよい。
The quantization unit 3 quantizes the color information of each pixel of the color image to a specified gradation, and outputs a color image including the quantized color information. The image output from the quantization unit 3 may be stored, for example, in the storage unit 4 or may be input to the control unit 8.
For example, when the RGB values of the pixels of the captured image are set to 256 gradations, the quantization unit 3 according to the present embodiment converts the RGB values into relatively small gradations, for example, 8 gradation RGB values. . By converting the color information into relatively small gradations as described above, it is possible to reduce the small difference in the color of the subject and output the color information having a relatively small amount of information while reflecting the color of the subject. . Further, the quantization unit 3 may perform a quantization process on the color image output from the imaging unit 2 or may perform the quantization process on an image stored in the control unit 8.

記憶部4は、例えば、学習対象の複数の撮像画像P、および撮像画像Pの撮像位置に関する位置情報を関連付けて記憶する。また、記憶部4は、撮像部2の撮像部から出力された画像のバッファとして機能する。また、記憶部4は、本発明に係る機能を有するプログラム(PRG)41を記憶する。
記憶部4としては、例えば、RAM(Random access memory)やROM(Read only memory)などの半導体メモリ、ハードディスクドライブなどの磁気ディスク記憶装置、等の記憶装置を採用してもよい。また、記憶部4は、制御部8のワークエリアとしても機能する。
The storage unit 4 stores, for example, a plurality of captured images P to be learned and positional information regarding the imaging positions of the captured images P in association with each other. In addition, the storage unit 4 functions as a buffer for images output from the imaging unit of the imaging unit 2. The storage unit 4 stores a program (PRG) 41 having a function according to the present invention.
As the storage unit 4, for example, a storage device such as a semiconductor memory such as a random access memory (RAM) or a read only memory (ROM), a magnetic disk storage device such as a hard disk drive, or the like may be employed. The storage unit 4 also functions as a work area for the control unit 8.

駆動部5は、制御部8の制御により、例えば移動体(ロボット100)に設けられた移動手段を駆動して、ロボット100を移動環境内で移動させる。移動手段としては、例えばロボット100の下部や側部等に設けられた車輪6や可動脚等の規定の移動装置を採用するこができる。   The drive unit 5 drives, for example, a moving unit provided in the moving body (robot 100) under the control of the control unit 8 to move the robot 100 in the moving environment. As the moving means, for example, a prescribed moving device such as a wheel 6 or a movable leg provided at the lower part or the side part of the robot 100 can be adopted.

センサ7は、例えば駆動部5の駆動状態、移動手段の移動距離や移動速度等を検出して、撮像位置に関する位置情報を取得し、その取得した情報を示す信号を制御部8に出力する。   The sensor 7 detects, for example, the driving state of the driving unit 5, the moving distance or moving speed of the moving unit, acquires position information regarding the imaging position, and outputs a signal indicating the acquired information to the control unit 8.

制御部8は、本装置の各構成要素を統括的に制御して、本発明に係る機能を実現する。また、制御部8は、例えば、記憶部4に記憶されているプログラム(PRG)41を実行することにより、本発明に係る機能を実現する。制御部8としては、例えばCPU(Central Processing Unit)などの電子回路を採用することができる。   The control part 8 controls each component of this apparatus centrally, and implement | achieves the function based on this invention. Moreover, the control part 8 implement | achieves the function which concerns on this invention by running the program (PRG) 41 memorize | stored in the memory | storage part 4, for example. As the control unit 8, for example, an electronic circuit such as a CPU (Central Processing Unit) can be employed.

図3は、図1に示した移動体情報処理装置の制御部の機能を説明するための機能ブロック図である。
図3に示すように、制御部8は、例えば、第1の処理部81、および第2の処理部82を有する。
FIG. 3 is a functional block diagram for explaining functions of the control unit of the mobile information processing apparatus shown in FIG.
As illustrated in FIG. 3, the control unit 8 includes, for example, a first processing unit 81 and a second processing unit 82.

[第1の処理部81]
第1の処理部81は、複数の撮像画像Pの各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する。
[First processing unit 81]
The first processing unit 81 learns a self-organizing map based on the color information of each pixel of the plurality of captured images P, and a plurality of clusters for classifying the color information based on the self-organizing map after learning. And defining a color range of the cluster, specifying a cluster in which the color information of the captured image is classified for each captured image, and generating landmark data in which the identified cluster, captured image, and position information are associated with each other .

詳細には、第1の処理部81は、例えば図3に示すように、駆動制御部811、第1クラスタリング処理部(第1SOM)812、最大値最小値抽出部813、第2クラスタリング処理部(第2SOM)814、クラスタリスト生成部815、およびランドマークデータ生成部816を有する。   Specifically, as shown in FIG. 3, for example, the first processing unit 81 includes a drive control unit 811, a first clustering processing unit (first SOM) 812, a maximum / minimum value extracting unit 813, a second clustering processing unit ( 2nd SOM) 814, cluster list generation unit 815, and landmark data generation unit 816.

駆動制御部811は、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。   The drive control unit 811 performs various controls such as drive control related to imaging of the imaging unit 2 and drive control of the drive unit 5.

第1クラスタリング処理部(第1SOM)812は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。   The first clustering processing unit (first SOM) 812 learns the self-organizing map based on the color information of each pixel of the captured image, and a plurality of classes for classifying the color information based on the self-organizing map after learning. Define the cluster and the color range of the cluster.

最大値最小値抽出部813は、各クラスタの色の範囲(最大値および最小値)を抽出して、クラスタとその色の範囲に関する情報を出力する。   The maximum / minimum value extraction unit 813 extracts the color range (maximum value and minimum value) of each cluster, and outputs information on the cluster and the color range.

第2クラスタリング処理部(第2SOM)814は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。   The second clustering processing unit (second SOM) 814 performs self-organization map learning based on the clusters and color ranges defined for each of the plurality of captured images P, and a plurality of self-organization maps after learning A plurality of clusters for classifying the color information of the captured images and the color range of the clusters are defined.

クラスタリスト生成部815は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。このように、クラスタリスト生成部815が、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。   The cluster list generation unit 815 specifies a cluster into which the color information of the captured image is classified for each captured image. In addition, the cluster list generation unit 815 preferentially excludes a plurality of clusters in descending order of the number of captured images associated with each cluster. As described above, the cluster list generation unit 815 removes clusters in which colors that are commonly included in a plurality of captured images are classified, so that the characteristics of the color distribution (color pattern) included in each image can be obtained. A cluster list (CL) can be generated.

ランドマークデータ生成部816は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。   The landmark data generation unit 816 generates landmark data (RMD) that associates the identified cluster, the captured image, and the position information based on the cluster list and the captured image P described above.

[第2の処理部]
第2の処理部82は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。
[Second processing unit]
The second processing unit 82 identifies a cluster into which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and according to the identified cluster and landmark data, The degree of similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to position estimation is performed based on the similarity and the position information associated with the captured image to be learned.

クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、該クラスタおよびランドマークデータに応じて、当該位置推定の撮像画像に対して類似度の高い学習対象の撮像画像を特定し、特定された撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。   Based on the cluster and the color range, a cluster in which color information of each pixel of the captured image for position estimation is classified is identified, and similar to the captured image of the position estimation according to the cluster and landmark data A captured image with a high degree of learning is specified, and processing related to position estimation is performed based on position information associated with the specified captured image.

詳細には、第2の処理部82は、例えば図3に示すように、クラスタ取得部821、マッチング部822、位置推定部823、および駆動制御部824を有する。   Specifically, for example, as illustrated in FIG. 3, the second processing unit 82 includes a cluster acquisition unit 821, a matching unit 822, a position estimation unit 823, and a drive control unit 824.

クラスタ取得部821は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定して取得する。詳細には、クラスタ取得部821は、例えば、上記学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定する。   The cluster acquisition unit 821 specifies and acquires a cluster into which the color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range. Specifically, the cluster acquisition unit 821 specifies a cluster into which color information of each pixel of the captured image is classified based on, for example, the cluster and color range based on the self-organizing map after learning.

マッチング部822は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。   The matching unit 822 calculates the similarity of the captured image to be learned with respect to the captured image for position estimation according to the identified cluster and landmark data.

位置推定部823は、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。   The position estimation unit 823 performs processing related to position estimation based on the similarity and the position information associated with the captured image to be learned.

駆動制御部824は、位置推定部823による位置推定の処理の結果に応じて、撮像部2の撮像に関する駆動制御、駆動部5の駆動制御、等の各種制御を行う。   The drive control unit 824 performs various controls such as drive control related to imaging of the imaging unit 2 and drive control of the drive unit 5 according to the result of the position estimation process by the position estimation unit 823.

[移動体情報処理装置1の学習時の動作]
次に、上記構成の移動体情報処理装置1の動作を説明する。
図4は、図1に示した移動体情報処理装置の動作を説明するためのフローチャートである。図4を参照しながら、移動体情報処理装置1の学習時の動作を説明する。詳細には、移動体情報処理装置1のランドマークデータを生成する処理を説明する。
[Operation during learning of mobile information processing apparatus 1]
Next, the operation of the mobile information processing apparatus 1 configured as described above will be described.
FIG. 4 is a flowchart for explaining the operation of the mobile information processing apparatus shown in FIG. The operation at the time of learning of the mobile information processing apparatus 1 will be described with reference to FIG. In detail, the process which produces | generates the landmark data of the mobile body information processing apparatus 1 is demonstrated.

ステップST1において、移動体情報処理装置1は、図2に示すように移動環境200内の被写体を撮像して複数のカラー画像Pを取得する。本実施形態では、図2に示すように、例えば移動環境200の部屋内に、四隅の内2つの角部に茶色の木箱、および灰色の棚が配置されている。木箱と棚の壁際には赤茶色の鉢、緑色の葉を備えた観葉植物が配置されている。観葉植物が配置されている壁と対向する壁際には、グレーの机が配置されている。また、青色のクッションとグレーの脚部を備えた3つ椅子が、木箱の近傍、棚の近傍、および棚が配置された角部と対抗する角部に配置されている。また、壁の色は略白色であり、床の色はインディゴ(藍色)である。   In step ST1, the mobile information processing apparatus 1 captures a subject in the moving environment 200 and acquires a plurality of color images P as shown in FIG. In the present embodiment, as shown in FIG. 2, for example, in a room of the mobile environment 200, brown wooden boxes and gray shelves are arranged at two corners of the four corners. A foliage plant with red-brown pots and green leaves is placed near the wooden boxes and shelves. A gray desk is arranged on the wall facing the wall on which the foliage plants are arranged. In addition, three chairs having blue cushions and gray legs are arranged in the vicinity of the wooden box, in the vicinity of the shelf, and in the corner opposite to the corner in which the shelf is disposed. The wall color is substantially white and the floor color is indigo.

移動体情報処理装置1は、例えば図2に示すように、移動環境200内を一周しながら撮像する。詳細には、移動体情報処理装置1は、机の近傍から角部に配置されている椅子に向かって直進したのち右に90度回転し、木箱近傍に向かって直進したのち右に90度回転し、棚に向かって直進したのち右に回転し、角部近傍に向かって直進したのち右に90度回転し、その状態で直進して机の近傍に戻る。移動体情報処理装置1は、図2に示すように、所定のタイミングで、撮像位置1〜22で撮像する。   For example, as shown in FIG. 2, the mobile information processing apparatus 1 captures an image while making a round in the mobile environment 200. Specifically, the mobile information processing apparatus 1 moves 90 degrees to the right after moving straight from the vicinity of the desk toward the chair arranged at the corner, and then moves 90 degrees to the right after moving straight to the vicinity of the wooden box. Rotate, go straight to the shelf, turn right, go straight to the vicinity of the corner, turn 90 degrees to the right, go straight in that state and return to the vicinity of the desk. As shown in FIG. 2, the mobile information processing apparatus 1 captures images at imaging positions 1 to 22 at a predetermined timing.

詳細には、制御部8は、駆動部5に駆動制御信号を出力して車輪6を回転駆動させて、例えば図2に示すように、移動環境200内を移動する。また、制御部8は、所定のタイミングで、移動環境200内の進行方向を基準とする視野角内の被写体を、撮像部2により撮像して、複数のカラー画像Pを取得する。制御部8は、撮像画像Pと、その撮像位置に関する位置情報とを関連付けて記憶部4に記憶する。
詳細には、制御部8は、例えば図2に示すように、ロボット100の移動距離や移動の軌跡、基準方向に対する相対的な進行方向などにより、移動環境内での撮像位置を定めて、その撮像位置に関する位置情報を、撮像画像と関連付けて記憶部4に記憶する。
Specifically, the control unit 8 outputs a drive control signal to the drive unit 5 to rotate the wheel 6 to move in the moving environment 200 as shown in FIG. 2, for example. Further, the control unit 8 captures a subject within a viewing angle with reference to the traveling direction in the moving environment 200 at a predetermined timing by the imaging unit 2 and acquires a plurality of color images P. The control unit 8 stores the captured image P in the storage unit 4 in association with the position information regarding the imaging position.
Specifically, as shown in FIG. 2, for example, the control unit 8 determines the imaging position in the moving environment based on the movement distance, movement trajectory, direction of travel relative to the reference direction, and the like. Position information relating to the imaging position is stored in the storage unit 4 in association with the captured image.

この際、制御部8は、例えば、駆動部5の左右の駆動モータの回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、制御部8は、例えば、左右の車輪6の回転数、回転速度を検出するセンサ7の検出結果に基づいて、移動距離や移動方向を計算し、その計算結果により撮像位置を取得してもよい。
また、ロボット100に備えられた撮像部2は、進行方向に沿って一定の視野角の撮像画像Pを取得する。
At this time, the control unit 8 calculates, for example, the moving distance and the moving direction based on the detection results of the sensor 7 that detects the rotation speed and the rotation speed of the left and right drive motors of the driving unit 5 and performs imaging based on the calculation results. You may acquire a position.
Further, the control unit 8 calculates the moving distance and the moving direction based on the detection result of the sensor 7 that detects the rotation speed and the rotation speed of the left and right wheels 6, for example, and acquires the imaging position based on the calculation result. Also good.
In addition, the imaging unit 2 provided in the robot 100 acquires a captured image P having a constant viewing angle along the traveling direction.

ステップST2において、移動体情報処理装置1は、一画像のクラスタリング処理(SOM)を行う。詳細には、制御部8が、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。   In step ST2, the mobile information processing apparatus 1 performs clustering processing (SOM) for one image. Specifically, the control unit 8 learns the self-organizing map based on the color information of each pixel of the captured image, and includes a plurality of clusters for classifying the color information based on the self-organizing map after learning. Specifies the color range of the cluster.

ステップST3において、移動体情報処理装置1は、各クラスタの色の範囲、詳細にはクラスタの色の最大値および最小値を抽出する処理を行う。詳細には、制御部8は、上記学習結果の自己組織化マップにより、競合層に、各画像の色情報を分類するクラスタが、各色情報に応じて自動的に生成され、そのクラスタ毎に色の範囲、詳細には各クラスタのRGB空間での最大値および最小値を抽出する。   In step ST3, the mobile information processing apparatus 1 performs a process of extracting the color range of each cluster, specifically the maximum value and the minimum value of the cluster color. Specifically, the control unit 8 automatically generates a cluster for classifying the color information of each image in the competitive layer based on the self-organization map of the learning result, according to each color information. Specifically, the maximum value and the minimum value in the RGB space of each cluster are extracted.

ステップST4において、制御部8は、複数の撮像画像Pそれぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する。   In step ST4, the control unit 8 learns the self-organizing map based on the clusters and color ranges defined for the plurality of picked-up images P, and the plurality of picked-up images by the self-organizing map after learning. A plurality of clusters for classifying the color information and the color range of the clusters are defined.

ステップST5において、移動体情報処理装置1は、クラスタリストを生成する処理を行う。詳細には、制御部8は、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定する。また、クラスタリスト生成部815は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、各画像に含まれる固有の色の分布(色のパターン)を示すクラスタリスト(CL)を生成することができる。   In step ST5, the mobile information processing apparatus 1 performs a process for generating a cluster list. Specifically, the control unit 8 specifies a cluster in which the color information of the captured image is classified for each captured image. In addition, the cluster list generation unit 815 preferentially excludes a plurality of clusters in the descending order of the number of captured images associated with each cluster, and distributes a unique color (color color) included in each image. A cluster list (CL) indicating the pattern of

ステップST6において、移動体情報処理装置1は、ランドマークデータを生成する処理を行う。詳細には、制御部8は、上述したクラスタリストと撮像画像Pを基に、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータ(RMD)を生成する。   In step ST6, the mobile information processing apparatus 1 performs processing for generating landmark data. Specifically, the control unit 8 generates landmark data (RMD) that associates the identified cluster, the captured image, and the position information based on the cluster list and the captured image P described above.

以下、移動体情報処理装置1の動作について図面を参照しながら詳細に説明する。本実施形態では、自己組織化マップの学習に関する処理は制御部8が行う。   Hereinafter, the operation of the mobile information processing apparatus 1 will be described in detail with reference to the drawings. In the present embodiment, the control unit 8 performs processing related to learning of the self-organizing map.

図5は、撮像画像と自己組織化マップによるクラスタリングを説明するための図である。詳細には、図5(A)は学習対象のカラー撮像画像Pを説明するための図であり、図5(B)は図5(A)に示した撮像画像Pの各画素の色情報をRGB空間に示した図である。図5(C)は図5(B)に示した撮像画像Pを入力データとして生成された複数のクラスタと各クラスタの色の範囲を説明するための図である。   FIG. 5 is a diagram for explaining clustering based on a captured image and a self-organizing map. Specifically, FIG. 5A is a diagram for explaining a color captured image P to be learned, and FIG. 5B shows color information of each pixel of the captured image P shown in FIG. It is the figure shown in RGB space. FIG. 5C is a diagram for explaining a plurality of clusters generated using the captured image P shown in FIG. 5B as input data and the color range of each cluster.

制御部8は、ステップST1において、図5(A)に示すように、カラー画像Pを取得する。このカラー画像の画素の色情報は、量子化部3により所定の階調のRGB値に変換されている。撮像画像Pの各画素のRGB値は、図5(B)に示すように、RGB空間に表すことができる。
また、図5(C)に示すように、このRGB空間の色のパターンは、後述する自己組織化マップによる学習により、規定される複数のクラスタCL1 jに分類される。このクラスタCLi jは、第i番目の撮像画像Pにおける、第j番目のクラスタCLを示す。
In step ST1, the control unit 8 acquires a color image P as shown in FIG. The color information of the pixels of the color image is converted into RGB values of a predetermined gradation by the quantization unit 3. The RGB value of each pixel of the captured image P can be represented in the RGB space as shown in FIG.
Further, as shown in FIG. 5C, the color pattern in the RGB space is classified into a plurality of defined clusters CL 1 j by learning using a self-organizing map described later. The cluster CL i j indicates the j-th cluster CL in the i-th captured image P.

図6は、図5(C)に示したクラスタCL1 1に含まれる色情報を説明するための図である。
クラスタCL1 1に含まれる画素の色情報は、例えば図6に示すように、8個の色情報{(R11,G11,B11),(R12,G12,B12),(R13,G13,B13),(R14,G14,B14),(R15,G15,B15),(R16,G16,B17),(R18,G18,B18)}を有する。
Figure 6 is a diagram for explaining a color information included in the cluster CL 1 1 shown in FIG. 5 (C).
For example, as shown in FIG. 6, the color information of the pixels included in the cluster CL 1 1 is eight pieces of color information {(R11, G11, B11), (R12, G12, B12), (R13, G13, B13). , (R14, G14, B14), (R15, G15, B15), (R16, G16, B17), (R18, G18, B18)}.

図7は、図5(C)に示した各クラスタおよびクラスタに含まれる色情報を説明するための図である。
また、図5(C)に示したクラスタCL1 1,CL1 2,・・・,CL1 nそれぞれには、図7に示すように、各画素の色情報が含まれる。
詳細には、クラスタCL1 1には、{(R11,G11,B11),(R12,G12,B12),・・・,(R18,G18,B18)}が含まれ、クラスタCL1 2には、{(R21,G21,B21),(R22,G22,B22),・・・,(R2b,G2b,B2b)}が含まれ、・・・、クラスタCL1 nには、{(Rn1,Gn1,Bn1),(Rn2,Gn2,Bn2),・・・,(Rnc,Gnc,Bnc)}が含まれる。
FIG. 7 is a diagram for explaining each cluster illustrated in FIG. 5C and color information included in the cluster.
Each of the clusters CL 1 1 , CL 1 2 ,..., CL 1 n shown in FIG. 5C includes color information of each pixel as shown in FIG.
Specifically, the cluster CL 1 1 includes {(R11, G11, B11), (R12, G12, B12),..., (R18, G18, B18)}, and the cluster CL 1 2 includes , {(R21, G21, B21), (R22, G22, B22),..., (R2b, G2b, B2b)} are included, and the cluster CL 1 n includes {(Rn1, Gn1 , Bn1), (Rn2, Gn2, Bn2), ..., (Rnc, Gnc, Bnc)}.

このクラスタCLおよび色の範囲は、後述する自己組織化マップの学習により規定される。
以下、自己組織化マップの学習(クラスタリング処理)について説明する。
The cluster CL and the color range are defined by learning a self-organizing map described later.
The self-organizing map learning (clustering process) will be described below.

[自己組織化マップ]
図8は、本発明に係る自己組織化マップを説明するための図である。詳細には、図8(A)は競合層に複数のノードが予め規定されている自己組織化マップを説明するための図であり、図8(B)は初期時に競合層に一つのノードが規定されている自己組織化マップを説明するための図であり、図8(C)は図8(B)に示した自己組織化マップの競合層のノードが増殖する動作を説明するための図である。
[Self-organizing map]
FIG. 8 is a diagram for explaining a self-organizing map according to the present invention. Specifically, FIG. 8A is a diagram for explaining a self-organizing map in which a plurality of nodes are defined in advance in the competitive layer, and FIG. 8B is a diagram in which one node is present in the competitive layer at the initial stage. FIG. 8C is a diagram for explaining a prescribed self-organizing map, and FIG. 8C is a diagram for explaining an operation in which nodes in a competitive layer of the self-organizing map shown in FIG. 8B proliferate. It is.

まず、図8(A)を参照しながら、一般的な自己組織化マップのアルゴリズムを説明する。
例えば、図8(A)に示すように、一般的な自己組織化マップのアルゴリズムでは、その構成は、入力層40と競合層50の2層構造を備えている。一般的な自己組織化マップは、教師なし学習ニューラルネットワークである。
入力層40は、例えばn次元の入力ベクトルx(x1,x2,x3,・・・,xn)に対応する。入力ベクトルxは入力データともいう。本実施形態に係る入力ベクトルxとしては、例えば、撮像画像の各画素の色情報、撮像画像の各画素の色情報を分類して規定されたクラスタの色の範囲、等のデータである。
First, a general self-organizing map algorithm will be described with reference to FIG.
For example, as shown in FIG. 8A, in a general self-organizing map algorithm, the configuration has a two-layer structure of an input layer 40 and a competitive layer 50. A common self-organizing map is an unsupervised learning neural network.
The input layer 40 corresponds to, for example, an n-dimensional input vector x (x 1 , x 2 , x 3 ,..., X n ). The input vector x is also called input data. The input vector x according to the present embodiment is, for example, data such as color information of each pixel of the captured image, a color range of a cluster defined by classifying color information of each pixel of the captured image, and the like.

競合層50は、規定の次元、例えば1次元や2次元、本実施形態では2次元に複数のノード(素子)が配列されている。各ノードiは、入力ベクトルxと同じ次元(n次元)の荷重ベクトルmi(重みベクトル,荷重結合ともいう)を有する。入力データxは、競合層50の各ノードiと結合している。本実施形態に係る競合層50は、例えば予め規定されたノード数、例えばh×h個のノードiが格子状に配列されている。 The competitive layer 50 has a plurality of nodes (elements) arranged in a prescribed dimension, for example, one dimension or two dimensions, or two dimensions in this embodiment. Each node i has a load vector m i (also referred to as a weight vector or load coupling) of the same dimension (n dimension) as the input vector x. The input data x is coupled to each node i of the competitive layer 50. In the competitive layer 50 according to the present embodiment, for example, a predetermined number of nodes, for example, h × h nodes i are arranged in a lattice pattern.

図8(A)に示す、一般的な自己組織化マップの学習方法を説明する。
まず、競合層50の各ノードiの荷重ベクトルmiの初期値を乱数にて規定する。
そして、入力ベクトルxに対してある測度、例えばユークリッド距離を最小とする荷重ベクトルmiを有するノードi(勝利ノード)を特定し、次に、勝利ノードiの荷重ベクトルmiと、その荷重ベクトルmiの近傍のノードの荷重ベクトルを、入力ベクトルxに近づけるように更新する(競合学習)。
A general self-organizing map learning method shown in FIG. 8A will be described.
First, define the initial value of the weight vector m i of each node i of competitive layer 50 at random.
Then, identify the measures with respect to the input vector x, for example, a node having a load vector m i to the Euclidean distance between the minimum i (Win node), then the load vector m i victory node i, the load vector The load vector of the node near m i is updated so as to approach the input vector x (competitive learning).

荷重ベクトルmiは、例えば学習率係数α(t)を用いて、数式(1)のように表すことができる。学習率係数α(t)は、学習回数および勝利ノードからの距離をパラメータとする関数であり、例えば学習回数および距離の増加に応じて値が小さくなるように規定されている。 Load vector m i, for example by using learning rate α a (t), can be expressed as Equation (1). The learning rate coefficient α (t) is a function using the number of learnings and the distance from the winning node as parameters, and is defined such that the value decreases as the number of learnings and the distance increase, for example.

Figure 2009074995
Figure 2009074995

図8(A)に示した自己組織化マップのアルゴリズムでは、競合層50に、勝利ノードiの荷重ベクトルmiが更新されるとともに、勝利ノードiの近傍のノードの荷重ベクトルも更新される。これにより、学習後の自己組織化マップ(競合層50)には、入力データxに応じた荷重ベクトルを備えたノードにより複数のクラスタが形成される。
本発明に係る移動体情報処理装置1では、上述した自己組織化マップのアルゴリズムにより学習を行ってもよいが、後述する自己組織化マップ(自己増殖型)によりクラスタリング処理を行うことで、比較的高速にかつ高精度にランドマークデータを生成することができる。
In the self-organizing map algorithm shown in FIG. 8A, the load vector mi of the winning node i is updated in the competitive layer 50, and the load vectors of the nodes near the winning node i are also updated. As a result, a plurality of clusters are formed in the post-learning self-organizing map (competitive layer 50) by nodes having load vectors according to the input data x.
In the mobile information processing apparatus 1 according to the present invention, learning may be performed using the above-described self-organizing map algorithm. However, by performing clustering processing using a self-organizing map (self-propagating type) described later, Landmark data can be generated at high speed and with high accuracy.

[本実施形態に係る自己組織化マップ]
本実施形態に係る自己組織化マップのアルゴリズムを、図8(B),(C)を参照しながら説明する。
本実施形態に係る自己組織化マップは、入力層40と競合層50とを備えた2層構造である。入力層40のノード数は一定である。競合層50のノード数は、初期時のノード数が1個に設定されている。
[Self-organizing map according to this embodiment]
The self-organizing map algorithm according to the present embodiment will be described with reference to FIGS.
The self-organizing map according to the present embodiment has a two-layer structure including an input layer 40 and a competitive layer 50. The number of nodes in the input layer 40 is constant. The number of nodes in the competitive layer 50 is set to one at the initial time.

[ノードの増殖]
また、ノードiaの発火頻度(選択回数)が閾値を超えたときに、該ノードiaを学習の対象から規定期間(不応期)だけ除外し、該ノードiaと同じ荷重ベクトルmiを備えた新たなノードibを増殖して、自己組織化マップの学習を行う。つまり不応期の間ではノードibが学習対象となる。
このように出現頻度の高い色のノードを増殖することにより、その出現頻度の高い色の近傍の解像度(分解能)を増加させることができる。このため、より高精度なクラスタリング処理を行うことができる。
[Node proliferation]
Also, new to when the firing frequency of the node ia (selection count) exceeds the threshold value, excluding the node ia from the learning of the target by a specified period (refractory period), with the same load vector m i and the node ia The node ib is propagated to learn the self-organizing map. That is, during the refractory period, the node ib is a learning target.
In this way, by multiplying the color nodes having a high appearance frequency, the resolution (resolution) in the vicinity of the color having the high appearance frequency can be increased. For this reason, more accurate clustering processing can be performed.

[競合学習]
また、制御部8は、本実施形態に係る自己組織化マップの学習として、上述した競合学習も行う。この際、制御部8は、近傍のノードについては学習を行わず、その代りに階層学習を行う。
[Competitive learning]
Moreover, the control part 8 also performs the competitive learning mentioned above as learning of the self-organization map which concerns on this embodiment. At this time, the control unit 8 does not learn the neighboring nodes, but performs hierarchical learning instead.

[階層学習]
また、制御部8は、増殖したノードibを子ノード、増殖元のノードiaを親ノードに設定し、親ノードiaおよび子ノードibの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う(階層学習)。
[Layer learning]
The control unit 8 sets the propagated node ib as a child node and the propagated node ia as a parent node, and updates one of the parent node ia and the child node ib together with the other node. , Self-organizing map learning (hierarchical learning).

また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行う。   In addition, when the control unit 8 selects a node in which the load vector having the minimum distance is associated with the input vector and the distance exceeds the threshold, the control unit 8 excludes the node from the learning target, A new node having the same load vector as the vector is generated to learn the self-organizing map.

[ノードの除去]
また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
Remove node
In addition, the control unit 8 removes nodes that have not been updated for a specified period and learns a self-organizing map.

次に、移動体情報処理装置1の自己組織化マップの学習をRGB空間で表現して、詳細に説明する。   Next, learning of the self-organizing map of the mobile information processing apparatus 1 is expressed in RGB space and described in detail.

図9は、本発明の第1実施形態に係る自己組織化マップの学習によるクラスタリング処理を説明するためのフローチャートである。図10は、RGB空間における初期ノードiを示す図である。   FIG. 9 is a flowchart for explaining the clustering process by learning the self-organizing map according to the first embodiment of the present invention. FIG. 10 is a diagram showing an initial node i in the RGB space.

ステップST101において、制御部8は、図10に示すように、一個の初期ノードiを生成する。荷重ベクトル(荷重結合)は規定された範囲内でランダムな値を設定する。   In step ST101, the control unit 8 generates one initial node i as shown in FIG. The load vector (load coupling) is set to a random value within a specified range.

図11(A)は、一具体例に係る撮像画像Pであり、図11(B)は撮像画像の各画素の色情報をRGB空間に示した図である。
ステップST102において、制御部8は、図11(B)に示すように、ひし形の点は各色情報の入力ベクトルであり、その複数の入力ベクトルを入力データセットとして入力する。
FIG. 11A is a captured image P according to a specific example, and FIG. 11B is a diagram showing color information of each pixel of the captured image in the RGB space.
In step ST102, as shown in FIG. 11B, the control unit 8 has diamond-shaped points as input vectors of color information, and inputs the input vectors as an input data set.

図12は、入力データxと、全ノードiのユークリッド距離を説明するための図である。
ステップST103において、制御部8は、入力データxと、全ノードiのユークリッド距離dを例えば数式(2)に示すように測定し、そのうち距離dが最小の距離のノードi1(勝利ノード)を選択する(決定する)。入力層のi番目の入力ベクトルxi、入力層のi番目と競合層のj番目の荷重ベクトル荷重ベクトルwi,jを用いて表している。
FIG. 12 is a diagram for explaining the input data x and the Euclidean distance of all nodes i.
In step ST103, the control unit 8 measures the input data x and the Euclidean distance d of all the nodes i as shown in Equation (2), for example, and selects the node i1 (victory node) having the smallest distance d. Do (determine). The i-th input vector x i of the input layer and the i-th input vector of the input layer and the j-th load vector w i, j of the competitive layer are represented.

Figure 2009074995
Figure 2009074995

図13は、入力ベクトルxとノードi間の距離dと閾値の関係を示す図である。図14は、新規のノードの追加を説明するための図である。
制御部8は、入力ベクトルxとノードi間の距離が閾値thより小さいか否かを判別し、その結果、距離が閾値より大きいと判別した場合は、ステップST105の処理に進み、距離が閾値より小さいと判別した場合はステップST106の処理に進む。
FIG. 13 is a diagram illustrating the relationship between the distance d between the input vector x and the node i and the threshold value. FIG. 14 is a diagram for explaining addition of a new node.
The control unit 8 determines whether or not the distance between the input vector x and the node i is smaller than the threshold value th, and as a result, if the distance is determined to be larger than the threshold value, the control unit 8 proceeds to the processing of step ST105. If it is determined that the value is smaller, the process proceeds to step ST106.

図14は、新規のノードの追加を説明するための図である。
ステップST105において、制御部8は、入力ベクトルxに対して最小の距離の荷重ベクトルi1が対応付けられたノードを選択して当該距離が閾値ihを超えている場合、当該ノードi1を学習の対象から除外し、該入力ベクトルxと同じ荷重ベクトルを有する新たなノードi5を生成して自己組織化マップの学習を行い、ステップST110の処理に進む。
FIG. 14 is a diagram for explaining addition of a new node.
In Step ST105, the control unit 8 selects a node in which the load vector i1 having the minimum distance is associated with the input vector x, and when the distance exceeds the threshold value ih, the control unit 8 learns the node i1. And a new node i5 having the same load vector as the input vector x is generated to learn the self-organizing map, and the process proceeds to step ST110.

図15(A)はノードの更新を説明するための図であり、図15(B)は図15(A)に示した勝利ノード付近を拡大した図である。
ステップST106において、制御部8は、勝利ノードの荷重結合を更新する処理を行う。詳細には、制御部8は、勝利ノードの荷重ベクトルwi,win、学習率係数α(t)を用いて例えば数式(3)に示すように算出して、勝利ノードの更新を行う。
FIG. 15A is a diagram for explaining node updating, and FIG. 15B is an enlarged view of the vicinity of the winning node shown in FIG. 15A.
In step ST106, the control unit 8 performs a process of updating the load coupling of the winning node. Specifically, the control unit 8 calculates the victory node by using the load vector w i, win of the victory node and the learning rate coefficient α (t), for example, as shown in Equation (3), and updates the victory node.

[数3]
i,win(t+1)=wi,win(t)+α(xi(t)−wi,win(t)) ・・(3)
[Equation 3]
w i, win (t + 1) = w i, win (t) + α (x i (t) −w i, win (t)) (3)

図15(а),(B)に示すように、学習により勝利ノードiの荷重ベクトルが入力データxに近づいてノードi’となる。
図16(A)は勝利ノードと同じクラスタの階層学習を説明するための図であり、図16(B)は図16(A)に示した勝利ノード付近を拡大した図である。
ステップST107において、制御部8は、勝利者ノードi1と同じ階層構造のノードi2についても、例えば、親ノードの荷重ベクトルwi,moと、子ノードの荷重ベクトルwi,daを用いて、数式(4)に示すように更新を行う(階層学習)。この学習率係数αの係数0.1は、各種条件によって適宜設定する。
As shown in FIGS. 15A and 15B, the weight vector of the winning node i approaches the input data x and becomes the node i ′ by learning.
FIG. 16A is a diagram for explaining hierarchical learning of the same cluster as the winning node, and FIG. 16B is an enlarged view of the vicinity of the winning node shown in FIG.
In step ST107, the control unit 8 also uses the parent node load vector w i, mo and the child node load vector w i, da , for example, for the node i2 having the same hierarchical structure as the winner node i1. Update is performed as shown in (4) (hierarchical learning). The coefficient 0.1 of the learning rate coefficient α is appropriately set according to various conditions.

[数4]
i,mo(t+1)=wi,mo(t)+0.1α(wi,da(t)−wi,mo(t)) ・・(4)
[Equation 4]
w i, mo (t + 1) = w i, mo (t) + 0.1α (w i, da (t) −w i, mo (t)) (4)

次に、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行う。
詳細には、ステップST108において、制御部8は、勝利ノードの反応回数が予め規定された閾値より大きいか否かを判別し、反応回数が閾値より大きいと判断した場合にステップST109の処理に進み、反動回数が閾値以下の場合にステップST110の処理に進む。
Next, when the number of selections of the node selected according to the input vector exceeds the threshold value, the control unit 8 excludes the node from the learning target for a specified period, and adds a new load vector having the same load vector as the node. A self-organizing map is learned by multiplying various nodes.
Specifically, in step ST108, the control unit 8 determines whether or not the number of reactions of the winning node is greater than a predetermined threshold value, and proceeds to the processing of step ST109 when determining that the number of reactions is greater than the threshold value. If the number of recoils is less than or equal to the threshold value, the process proceeds to step ST110.

図17(A)は勝利ノードの増殖を説明するための図であり、図17(B)は図17(A)に示した勝利ノード付近の拡大図である。
ステップST109において、制御部8は、勝利ノード(親ノード)i2aを増殖させて、親ノードi2aと同じ荷重ベクトルを有する子ノードi2bを生成し、親ノードi2aである勝利ノードを一定期間だけ不応期とする。例えば図17(B)において、ノードを結ぶ線の端部に黒丸が形成された側を子ノード、ノードを結ぶ線の端部に黒丸が形成されていない側を親ノードと設定して、ステップST110の処理に進む。
つまり、制御部8は、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行う。
FIG. 17A is a diagram for explaining the proliferation of victory nodes, and FIG. 17B is an enlarged view of the vicinity of the victory node shown in FIG.
In step ST109, the control unit 8 propagates the winning node (parent node) i2a to generate a child node i2b having the same load vector as the parent node i2a, and sets the winning node that is the parent node i2a as a refractory period for a certain period. And For example, in FIG. 17B, the side where the black circle is formed at the end of the line connecting the nodes is set as the child node, and the side where the black circle is not formed at the end of the line connecting the nodes is set as the parent node. The process proceeds to ST110.
That is, when updating one of the parent node and the child node, the control unit 8 updates the other node and learns the self-organizing map.

ステップST110において、制御部8は、複数の画素を入力データとした場合に、データセットについて処理が終了したか否かを判別し、判別の結果、データセットのうちの全ての入力データに対して上記処理が終了したか否かを判別し、判別の結果、終了したと判別した場合にステップST111の処理に進み、それ以外の場合にステップST103の処理に戻る。   In step ST110, when a plurality of pixels are set as input data, the control unit 8 determines whether or not the processing is completed for the data set, and as a result of the determination, for all input data in the data set. It is determined whether or not the above process is completed. If it is determined that the process is completed, the process proceeds to step ST111. Otherwise, the process returns to step ST103.

ステップST111において、制御部8は、ノードの統廃合処理を行う。詳細には、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行う。
図18(A)はノードの統廃合処理を説明するための図であり、図18(B)はノードi3a付近の拡大図であり、図18(C)はノードi3a付近の拡大図である。
In step ST111, the control unit 8 performs node consolidation processing. Specifically, the control unit 8 removes nodes that have not been updated for a specified period and learns a self-organizing map.
FIG. 18A is a diagram for explaining node consolidation processing, FIG. 18B is an enlarged view of the vicinity of the node i3a, and FIG. 18C is an enlarged view of the vicinity of the node i3a.

図18(A),(B)に示すように、親ノードi3aに子ノードi3bおよび子ノードi3cが同じクラスタに属し、ノードi3aを停止(除去)する場合、ノードi3b,ノードi3cそれぞれが新しいクラスタとなる。
また、図18(A),(C)に示すように、ノードi1aに子ノードi1b,i1c,i1dが同じクラスタに属し、ノードi1bを停止(除去)する場合、ノードi1aとノードi1cとが再接続される。また、親ノードが存在しない場合には子ノードが新しいクラスタとなる。
As shown in FIGS. 18A and 18B, when the child node i3b and the child node i3c belong to the same cluster in the parent node i3a and the node i3a is stopped (removed), each of the nodes i3b and i3c is a new cluster. It becomes.
As shown in FIGS. 18A and 18C, when the node i1a has child nodes i1b, i1c, and i1d belonging to the same cluster, and the node i1b is stopped (removed), the node i1a and the node i1c are reconnected. Connected. If there is no parent node, the child node becomes a new cluster.

ステップST112において、制御部8は、学習回数が規定回数より大きいか否かを判別し、判別の結果、大きいと判断した場合にステップ113の処理に進み、それ以外の場合にステップ102の処理に戻る。詳細には、本実施形態では1000〜3000回程度、上記ステップを繰り返して自己組織化マップの学習を行う。   In step ST112, the control unit 8 determines whether or not the number of learning is larger than the prescribed number, and if it is determined that the number of learning is larger, the process proceeds to step 113. Otherwise, the process proceeds to step 102. Return. Specifically, in this embodiment, the above steps are repeated about 1000 to 3000 times to learn the self-organizing map.

ステップST113において、制御部8は、学習後の自己組織化マップにより色情報の分布に応じた複数のクラスタとそのクラスタの色の範囲(最大値,最小値)を規定する。   In step ST113, the control unit 8 defines a plurality of clusters corresponding to the distribution of the color information and the color range (maximum value, minimum value) of the clusters based on the self-organizing map after learning.

図19(A)は複数の撮像画像Pを示す図であり、図19(B)は複数の撮像画像Pのクラスタを重ね合わせて表現した図であり、図19(C)は全撮像画像P毎のクラスタリストを説明するための図である。
次に、制御部8は、図19(C)に示すように、撮像画像Pに撮像画像Pの色情報が分類されるクラスタを特定し、その各画像毎にそのクラスタを関連付けたクラスタリストを生成する。
各画像P毎に、各画素の色情報が分類されるクラスタのリストを生成する。
詳細には、図19(C)に示すように、画像P1はクラスタCL1 1、クラスタCL1 2、・・・、クラスタCL1 aを含む。画像P2はクラスタCL2 1、クラスタCL2 2、・・・、クラスタCL2 bを含む。また、画像Pnはクラスタは、クラスタCLn 1、クラスタCLn 2、・・・、クラスタCLn cを含む。
また、このクラスタCLそれぞれには、色の範囲、詳細には色の最小値および最大値が規定されている。
FIG. 19A is a diagram illustrating a plurality of captured images P, FIG. 19B is a diagram in which clusters of the plurality of captured images P are superimposed, and FIG. It is a figure for demonstrating each cluster list.
Next, as shown in FIG. 19C, the control unit 8 specifies a cluster in which the color information of the captured image P is classified into the captured image P, and creates a cluster list in which the cluster is associated with each image. Generate.
For each image P, a list of clusters into which the color information of each pixel is classified is generated.
Specifically, as shown in FIG. 19C, the image P1 includes a cluster CL 1 1 , a cluster CL 1 2 ,..., A cluster CL 1 a . The image P2 includes a cluster CL 2 1 , a cluster CL 2 2 ,..., A cluster CL 2 b . The image Pn includes a cluster CL n 1 , a cluster CL n 2 ,..., A cluster CL n c .
Each cluster CL defines a color range, specifically, a minimum value and a maximum value of the color.

図20(A)は複数の撮像画像Pの複数のクラスタを重ねて示した図であり、図20(B)は図20(A)に示したクラスタを自己組織化マップによりクラスタリング処理を施した後の状態を示す図である。
制御部8は、クラスタとクラスタの色の範囲(最大値および最小値)を基に、例えば上述したように自己組織化マップの学習を行う。その結果、図20(B)に示すように、クラスタのRGB値の近いクラスタにより、全体のクラスタを形成する。
20A is a diagram in which a plurality of clusters of a plurality of captured images P are overlapped, and FIG. 20B is a clustering process performed on the clusters illustrated in FIG. 20A using a self-organizing map. It is a figure which shows a back state.
For example, as described above, the control unit 8 learns the self-organizing map based on the cluster and the color range (maximum value and minimum value) of the cluster. As a result, as shown in FIG. 20B, the entire cluster is formed by clusters having similar RGB values.

詳細には、図20(C)に示すように、自己組織化マップの学習の結果、複数撮像画像Pの各画素の色情報のクラスタおよび該クラスタの色の範囲を規定することができる。
図20(C)に示すように、クラスタIDとクラスタの色の範囲(RGB値の最小値,RGB値の最大値)の関係は、例えば、CLALL 1=(R11,G11,B11,R12,G12,B12),CLALL 2=(R21,G21,B21,R22,G22,B22),・・・,CLALL m=(Rm1,Gm1,Bm1,Rm2,Gm2,Bm2)となる。ここでは、第2のクラスタリング処理後のj番目のクラスタをCLALL jと表す。
Specifically, as shown in FIG. 20C, as a result of learning of the self-organizing map, the color information cluster of each pixel of the plurality of captured images P and the color range of the cluster can be defined.
As shown in FIG. 20C, the relationship between the cluster ID and the color range of the cluster (minimum RGB value, maximum RGB value) is, for example, CL ALL 1 = (R11, G11, B11, R12, G12, B12), CL ALL 2 = (R21, G21, B21, R22, G22, B22), ..., CL ALL m = (Rm1, Gm1, Bm1, Rm2, Gm2, Bm2). Here, the j-th cluster after the second clustering process is represented as CL ALL j .

[出現頻度によるクラスタの分類処理(頻出クラスタの除去処理)]
図21は、クラスタの頻出クラスタの除去処理を説明するための図である。
クラスタCLALL mには、壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタが含まれている。このような位置推定に直接には役に立たないクラスタを除去することで、高精度なランドマークデータを生成することができる。詳細には、移動環境200内で撮像した複数の画像Pにおいて、共通するクラスタを除去する。
[Classification of clusters based on appearance frequency (removal of frequent clusters)]
FIG. 21 is a diagram for explaining frequent cluster removal processing of clusters.
The cluster CL ALL m includes a cluster into which color information that can be acquired anywhere in the mobile environment 200 such as a wall or a floor is classified. By removing clusters that are not directly useful for such position estimation, highly accurate landmark data can be generated. Specifically, a common cluster is removed from a plurality of images P taken in the mobile environment 200.

詳細には、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外する。つまり、複数の撮像画像内に共通して含まれる色が分類されるクラスタを除去することにより、各画像に含まれる色の分布(色のパターン)の特徴を示すクラスタリスト(CL)を生成することができる。   Specifically, the control unit 8 preferentially excludes a plurality of clusters from the plurality of clusters in descending order of the number of captured images associated with each cluster. That is, a cluster list (CL) indicating the characteristics of the color distribution (color pattern) included in each image is generated by removing clusters in which colors included in a plurality of captured images are classified. be able to.

具体的には、例えば図21に示すように、移動環境200内で撮像された画像P1,P2,・・・,PNそれぞれについて、クラスタCLALL 1,CLALL 2,・・・,CLALL j,・・・,CLALL mが含まれているか否かを示すリスト(クラスタリスト)を生成する。図21に示すように、例えば撮像画像P1には、クラスタCLALL 1とCLALL jが含まれており、その他のクラスタは含まれていない。
図21に示すように、クラスタリストに基づいて、各画像に共通に含まれているクラスタCLALL jが全画像Pに含まれているので、このクラスタCLALL jを除去して、新たに色クラスタIDをCCL1,CCL2,・・・,CCLxを割り当てる。このクラスタCLALL jについては、色クラスタIDを割り振らない。
More specifically, as shown in FIG. 21, the image P1, P2 taken in the mobile environment 200, ..., for each PN, clusters CL ALL 1, CL ALL 2, ···, CL ALL j ,..., A list (cluster list) indicating whether CL ALL m is included is generated. As shown in FIG. 21, for example, the captured image P1 includes clusters CL ALL 1 and CL ALL j , and does not include other clusters.
As shown in FIG. 21, based on the cluster list, the cluster CL ALL j that is commonly included in each image is included in all the images P. Therefore, the cluster CL ALL j is removed and a new color is added. Cluster IDs CCL 1 , CCL 2 ,..., CCL x are assigned. No color cluster ID is assigned to this cluster CL ALL j .

図22(A)は色クラスタリストを説明するための図であり、図22(B)は学習対象の撮像画像を示す図であり、図22(C)は学習対象の画像に含まれる色クラスタのリスト(ランドマークデータ)を説明するための図である。
図21に示した色クラスタリストは、色クラスタCCLそれぞれの色の範囲(RGB値の最小値,およびRGB値の最大値)が、例えば、図22(A)に示すように規定される。このクラスタCCLと色の範囲は、第2のクラスタリング処理の結果により得られる。
詳細には、色クラスタCCL1には色の範囲(R11,G11,B11,R12,G12,B12)が対応し、色クラスタCCL2には色の範囲(R21,G21,B21,R22,G22,B22)が対応し、・・・、色クラスタCCLjには色の範囲(RX1,GX1,BX1,RX2,GX2,BX2)が対応している。
22A is a diagram for explaining a color cluster list, FIG. 22B is a diagram showing a captured image to be learned, and FIG. 22C is a color cluster included in the image to be learned. It is a figure for demonstrating the list (landmark data) of.
In the color cluster list shown in FIG. 21, the color range (minimum RGB value and maximum RGB value) of each color cluster CCL is defined as shown in FIG. 22A, for example. The cluster CCL and the color range are obtained as a result of the second clustering process.
In particular, the color range to the color cluster CCL 1 (R11, G11, B11 , R12, G12, B12) corresponds, color range to the color cluster CCL 2 (R21, G21, B21 , R22, G22, B22) corresponds to..., And the color range (RX1, GX1, BX1, RX2, GX2, BX2) corresponds to the color cluster CCL j .

次に、図22(B)に示すように、移動環境200内で撮像された複数のカラー画像Pそれぞれと、図22(A)に示した色クラスタリストとの反応を調べる。その結果、反応した色クラスタCLLを図22(C)に示すように、各画像Pそれぞれについて関連付けたリストを生成する。
詳細には、例えば図22(C)に示すように、画像P1には色クラスタCCL1、CCL2が含まれており、画像P2には色クラスタCCL2、CCL5が含まれており、画像P3には色クラスタが含まれず(NULL)、画像PNには色クラスタCCLxが含まれている。
Next, as shown in FIG. 22B, the reaction between each of the color images P captured in the mobile environment 200 and the color cluster list shown in FIG. 22A is examined. As a result, a list in which the reacted color cluster CLL is associated with each image P is generated as shown in FIG.
Specifically, as shown in FIG. 22C, for example, the image P1 includes color clusters CCL 1 and CCL 2 , and the image P2 includes color clusters CCL 2 and CCL 5. P3 does not include a color cluster (NULL), and the image PN includes a color cluster CCL x .

また、上記色クラスタを特定する方法としては、制御部8は、学習後の自己組織化マップを用いて、各画像の画素の色情報を入力ベクトルとして入力し、その結果、反応するクラスタにより判断してもよい。   Further, as a method for specifying the color cluster, the control unit 8 uses the learned self-organization map to input the color information of the pixels of each image as an input vector, and as a result, determines by the reacting cluster. May be.

図22(C)に示すように、画像P毎に色クラスタが関連付けられたリストをランドマークデータ(RMD)という。また、図22(C)に示すように、ランドマークデータの各画像それぞれは、撮像位置に関する位置情報と関連付けられている。
つまり、制御部8は、撮像画像、その撮像画像の色情報が分類された色クラスタ、およびその撮像画像の撮像位置に関する位置情報とが関連付けられたランドマークデータ(RMD)を生成する。制御部8は、このランドマークデータ(RMD)を記憶部4に記憶する。
上記実施形態では、ランドマークデータとして、各撮像画像P、色クラスタ、位置情報とが関連付けられていたが、この形態に限られるものではない。例えば、撮像画像と上記色クラスタとを関連付けたデータ(リスト)を生成して記憶部4に記憶してもよい。その結果、記憶部4は、位置情報と撮像画像を関連付けて記憶し、さらに撮像画像と色クラスタとを関連付けて記憶する。つまり、ランドマークデータの各要素それぞれは、互いに関連付けられて記憶されていれば、上記形態に限られるものではない。
また、本実施形態に係るランドマークデータでは、上述したように撮像画像と、その撮像画像の色情報が分類される色クラスタ(色クラスタの組み合わせ)が明確に規定されている。
As shown in FIG. 22C, a list in which color clusters are associated with each image P is referred to as landmark data (RMD). Further, as shown in FIG. 22C, each image of the landmark data is associated with position information regarding the imaging position.
That is, the control unit 8 generates landmark data (RMD) in which a captured image, a color cluster in which color information of the captured image is classified, and position information regarding the imaging position of the captured image are associated. The control unit 8 stores the landmark data (RMD) in the storage unit 4.
In the above-described embodiment, each captured image P, color cluster, and position information are associated as landmark data. However, the present invention is not limited to this form. For example, data (list) in which the captured image is associated with the color cluster may be generated and stored in the storage unit 4. As a result, the storage unit 4 stores the positional information and the captured image in association with each other, and further stores the captured image and the color cluster in association with each other. That is, each element of the landmark data is not limited to the above form as long as it is stored in association with each other.
In the landmark data according to the present embodiment, as described above, a captured image and a color cluster (a combination of color clusters) into which color information of the captured image is classified are clearly defined.

[ランドマークデータ利用時の動作(位置推定処理)]
図23は、移動体情報処理装置1がランドマークデータを生成した後、位置推定を行う動作を説明するための図である。図24は、図1に示した移動体情報処理装置のランドマークデータ利用時の動作を説明するフローチャートである。図25(A)は位置推定用の撮像画像Pを示す図であり、図25(B)は位置推定用の撮像画像Pの色情報をRGB空間で示した図である。
図26(A)は撮像画像の色情報が分類されるクラスタCLLを示す図であり、図26(B)は入力データ(位置推定用の撮像画像)とクラスタを示すRGB空間の図である。
[Operation when using landmark data (position estimation processing)]
FIG. 23 is a diagram for explaining an operation of performing position estimation after the mobile information processing apparatus 1 generates landmark data. FIG. 24 is a flowchart for explaining the operation of the mobile information processing apparatus shown in FIG. 1 when using landmark data. FIG. 25A is a diagram illustrating a captured image P for position estimation, and FIG. 25B is a diagram illustrating color information of the captured image P for position estimation in RGB space.
FIG. 26A is a diagram showing a cluster CLL in which color information of a captured image is classified, and FIG. 26B is a diagram of RGB space indicating input data (captured image for position estimation) and clusters.

移動体情報処理装置1は、上記自己組織化マップの学習によりランドマークデータを生成した後、そのランドマークデータと位置推定用の撮像画像により移動体(ロボット)の位置推定を行う。詳細には、移動体(ロボット)100を環境200内に配置した際に、移動体100の位置を推定する場合、移動体情報処理装置1は、その位置で撮像された位置推定用の撮像画像と、学習対象の撮像画像の間の類似度を算出して、その類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行う。詳細には、制御部8は、位置推定用の撮像画像に対して比較的高い類似度の学習用の撮像画像を特定し、その特定された撮像画像に関連付けられた位置情報を基に位置推定を行う。
以下、移動体情報処理装置1の位置推定に関する動作を詳細に説明する。
The mobile body information processing apparatus 1 generates landmark data by learning the self-organizing map, and then estimates the position of the mobile body (robot) using the landmark data and a captured image for position estimation. Specifically, when the position of the moving body 100 is estimated when the moving body (robot) 100 is arranged in the environment 200, the moving body information processing apparatus 1 captures a captured image for position estimation captured at that position. Then, the degree of similarity between the captured images of the learning target is calculated, and processing related to position estimation is performed based on the similarity and the position information associated with the captured image of the learning target. Specifically, the control unit 8 identifies a captured image for learning having a relatively high similarity to the captured image for position estimation, and estimates the position based on position information associated with the identified captured image. I do.
Hereinafter, operations related to position estimation of the mobile information processing apparatus 1 will be described in detail.

本実施形態では、移動体情報処理装置1が、移動環境200内の任意の位置、例えば図23に示すように、木箱とその木箱の近傍に備えられた観葉植物の間付近の位置に、配置される。移動体情報処理装置1の進行方向は、棚が位置する方向と略一致しており、撮像部の撮像方向も同様である。   In the present embodiment, the mobile information processing apparatus 1 is placed at an arbitrary position in the moving environment 200, for example, at a position between a wooden box and a houseplant provided near the wooden box, as shown in FIG. Placed. The traveling direction of the mobile information processing apparatus 1 is substantially the same as the direction in which the shelf is located, and the imaging direction of the imaging unit is the same.

ステップST201において、移動体情報処理装置1は、例えば図24に示すように、初期位置で撮像部2により移動環境200内の被写体を撮像して、図25(A)に示すように、位置推定用のカラー画像Pを取得する。詳細には、制御部8は、撮像部2を駆動して位置推定用のカラー画像Pを取得し、図25(B)に示すように色情報を取得する。例えば、この位置推定用の撮像画像Pには、赤茶色の鉢、緑色の葉を備えた観葉植物、略白色の壁、および藍色の床が被写体として撮像されている。   In step ST201, the mobile information processing apparatus 1 images the subject in the moving environment 200 by the imaging unit 2 at the initial position as shown in FIG. 24, for example, and estimates the position as shown in FIG. A color image P is obtained. Specifically, the control unit 8 drives the imaging unit 2 to acquire the color image P for position estimation, and acquires color information as shown in FIG. For example, in this captured image P for position estimation, red-brown pots, houseplants with green leaves, a substantially white wall, and an indigo floor are captured as subjects.

図27は、位置推定用の撮像画像の各画素の色情報が反応する色クラスタCLLと、ランドマークデータとのマッチングを説明するための図である。
ステップST202において、制御部8は、図26(A),(B)に示すように、クラスタCLLおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタCLLを特定する。本実施形態では、例えば図26,図27に示すように、色クラスタCLL1,CLL2が特定される。
FIG. 27 is a diagram for explaining matching between the color cluster CLL to which the color information of each pixel of the captured image for position estimation reacts and landmark data.
In step ST202, as shown in FIGS. 26A and 26B, the control unit 8 classifies the color information of each pixel of the captured image for position estimation based on the cluster CLL and the color range. Specify CLL. In this embodiment, for example, as shown in FIGS. 26 and 27, color clusters CLL 1 and CLL 2 are specified.

ステップST204において、制御部8は、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出する。類似度は、例えば、位置推定用の撮像画像の色情報から特定されたクラスタCLLの組み合わせと、ランドマークデータ(RMD)の各クラスタCLLの組み合わせとの一致の度合を数値化したものを採用する。この際、ランドマークデータの各クラスタCLLそれぞれに重み付けを設定して、その重み付けを考慮して類似度を算出してもよい。例えば各クラスタの重み付けは、そのクラスタを含む画像の個数が少ないほど、大きく設定することが好ましい。こうすることで高精度に類似度を決定することができる。
類似度は、この形態に限られるものではなく、例えば既存の類似判断方法により類似度を算出してもよい。
In step ST204, the control unit 8 calculates the similarity of the captured image to be learned with respect to the captured image for position estimation in accordance with the identified cluster and landmark data. As the similarity, for example, a value obtained by quantifying the degree of coincidence between the combination of the clusters CLL identified from the color information of the captured image for position estimation and the combination of each cluster CLL of the landmark data (RMD) is adopted. . At this time, a weight may be set for each cluster CLL of the landmark data, and the similarity may be calculated in consideration of the weight. For example, the weight of each cluster is preferably set to be larger as the number of images including the cluster is smaller. By doing so, the similarity can be determined with high accuracy.
The similarity is not limited to this form. For example, the similarity may be calculated by an existing similarity determination method.

次に、制御部8は、算出された類似度が閾値より大きいか否かを判別し、類似度が閾値より大きいと判別した場合に、ステップST105の処理に進み、それ以外の場合にステップST206の処理に進む。   Next, the control unit 8 determines whether or not the calculated similarity is greater than a threshold value. When the control unit 8 determines that the similarity is greater than the threshold value, the control unit 8 proceeds to the process of step ST105. Proceed to the process.

ステップST205において、制御部8は、類似度が閾値より大きい学習用の撮像画像Pを特定し、その撮像画像Pに関連付けられている位置情報に基づいて、位置推定に関する処理を行う。例えば、制御部8は、特定された撮像画像Pに関連付けられている位置情報と、移動体(ロボット100)の自己位置との差が比較的小さいと判断する。つまり、制御部8は、移動体の自己位置が、特定された撮像画像の撮像位置の近傍であると推定する。   In step ST205, the control unit 8 specifies a captured image P for learning whose similarity is greater than a threshold value, and performs processing related to position estimation based on position information associated with the captured image P. For example, the control unit 8 determines that the difference between the position information associated with the specified captured image P and the self position of the moving body (robot 100) is relatively small. That is, the control unit 8 estimates that the mobile object's own position is in the vicinity of the imaging position of the specified captured image.

制御部8は、類似度が閾値以下であると判断した場合、駆動部5を駆動して移動体(ロボット)100を移動して、ステップST201の処理に戻る。
この際、制御部8は、例えば類似度が閾値以下であるが、類似度が最も高い撮像画像に関連付けられている位置情報を特定して、その位置に移動してステップST201の処理に戻り、再度上述した位置推定の処理を行ってもよい。このように、類似度が閾値以上となるまで移動しながら位置推定を行うことで、高精度に自己位置を特定することができる。
When determining that the similarity is equal to or less than the threshold value, the control unit 8 drives the drive unit 5 to move the moving body (robot) 100, and returns to the process of step ST201.
At this time, for example, the control unit 8 specifies the position information associated with the captured image having the highest similarity, which is equal to or lower than the threshold, moves to that position, and returns to the process of step ST201. The position estimation process described above may be performed again. In this way, by performing position estimation while moving until the similarity is equal to or greater than the threshold, the self-position can be specified with high accuracy.

移動制御の他の具体例としては、例えば、ステップST206において、制御部8は、ロボット100の縦軸を基準とする回転角が、閾値より大きいか否かを判別し、大きいと判断した場合には、所定角度、例えば90度右回転するように駆動部5を制御してロボット100を回転した後(ST207)、ステップST201の処理に戻る。一方、制御部8は、回転角が閾値以下であると判断した場合、所定距離だけ移動してステップST201の処理に戻る。
このように類似度が閾値以上となるまで上述した処理を繰り返すことで、高精度に自己位置を特定することができる。
As another specific example of the movement control, for example, in step ST206, the control unit 8 determines whether or not the rotation angle with respect to the vertical axis of the robot 100 is larger than a threshold, and determines that the rotation angle is large. After the robot 100 is rotated by controlling the drive unit 5 so as to rotate right by a predetermined angle, for example, 90 degrees (ST207), the process returns to step ST201. On the other hand, when determining that the rotation angle is equal to or less than the threshold value, the control unit 8 moves by a predetermined distance and returns to the process of step ST201.
In this way, by repeating the above-described processing until the similarity is equal to or higher than the threshold value, the self-position can be specified with high accuracy.

また、例えば、制御部8は、位置推定用の撮像画像に対して、類似度が閾値以下で、かつ所定の色クラスタCLLに分類することができない場合には、この位置推定用の撮像画像に対して、上述したランドマークデータを生成する処理を施して、ランドマークデータに新たなクラスタを生成してもよい。   Further, for example, when the similarity of the captured image for position estimation is equal to or lower than the threshold value and it cannot be classified into the predetermined color cluster CLL, the control unit 8 selects the captured image for position estimation. On the other hand, the above-described processing for generating landmark data may be performed to generate a new cluster for the landmark data.

[第2実施形態]
図28は、本発明の第2実施形態に係る移動体情報処理装置を説明するための図である。
本実施形態に係る移動体情報処理装置1Aは、図28に示すように、移動体(ロボット)100Aと、外部コンピュータ100Bとを有する。第1実施形態と第2実施形態と同じ構成要素、機能、動作等については、説明を省略する。
[Second Embodiment]
FIG. 28 is a diagram for explaining a mobile information processing apparatus according to the second embodiment of the present invention.
As shown in FIG. 28, the mobile information processing apparatus 1A according to the present embodiment includes a mobile (robot) 100A and an external computer 100B. The description of the same components, functions, operations, etc. as in the first embodiment and the second embodiment is omitted.

本実施形態に係るロボット100Aは、外部コンピュータ100Bと通信可能な通信部9を有する。通信部9は、制御部8の制御により外部コンピュータ100Bとデータ通信を行う。
外部コンピュータ100Bは、記憶部、通信部、制御部などを有しており、ロボット100Aとデータ通信を行うことにより、ロボット100Aを制御することができる。外部コンピュータ100Bは、例えば本発明に係るクラスタリング処理によるランドマーク生成処理、位置推定処理、等の比較的高い演算処理能力を要する処理を行う。
The robot 100A according to the present embodiment includes a communication unit 9 that can communicate with the external computer 100B. The communication unit 9 performs data communication with the external computer 100B under the control of the control unit 8.
The external computer 100B includes a storage unit, a communication unit, a control unit, and the like, and can control the robot 100A by performing data communication with the robot 100A. The external computer 100B performs, for example, processing that requires relatively high arithmetic processing capability, such as landmark generation processing and position estimation processing by clustering processing according to the present invention.

ロボット100Aは、外部コンピュータ100Bから、撮影命令を示す制御信号を受信した場合、撮像部2により撮像を行って、撮像画像Pを通信部9を介して外部コンピュータ100Bに送信する。また、ロボット100Aは、外部コンピュータ100Bから、車輪駆動命令を示す制御信号を受信した場合、その制御信号に応じて車輪を駆動して移動する。   When the robot 100A receives a control signal indicating an imaging command from the external computer 100B, the robot 100A performs imaging by the imaging unit 2 and transmits the captured image P to the external computer 100B via the communication unit 9. When receiving a control signal indicating a wheel driving command from the external computer 100B, the robot 100A drives and moves the wheel according to the control signal.

本実施形態に係る移動体情報処理装置1Aでは、ロボット100Aと外部コンピュータ100Bが、上述したように分散処理を行うので、ロボット100Aを比較的軽量に構成することができる。
また、複数のロボット100Aを設け、外部コンピュータ100Bがその複数のロボット100Aを統括的に制御することで、より高精度にランドマークデータを生成することができる。また、取得する情報量が増加するので、より高精度に位置推定を行うことができる。
In the mobile information processing apparatus 1A according to the present embodiment, since the robot 100A and the external computer 100B perform distributed processing as described above, the robot 100A can be configured to be relatively lightweight.
Also, landmark data can be generated with higher accuracy by providing a plurality of robots 100A and the external computer 100B comprehensively controlling the plurality of robots 100A. In addition, since the amount of information to be acquired increases, position estimation can be performed with higher accuracy.

本発明は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができれば、各種形態をとることができる。   The present invention is not limited to the embodiment described above. If the functions according to the present invention can be realized, various forms can be taken.

例えば、上述した実施形態では、カラー画像の各画素それぞれが色情報としてRGB値を備えていたが、この形態に限られるものではない。例えばカラー画像の各画素の色情報が、YIQ(輝度信号Y、色差信号R−Y、B−Y)、YCbCr、等の規定の色空間により表現したデータであってもよい。   For example, in the above-described embodiment, each pixel of the color image has an RGB value as color information, but the present invention is not limited to this form. For example, the color information of each pixel of the color image may be data expressed by a prescribed color space such as YIQ (luminance signal Y, color difference signals RY, BY), YCbCr, or the like.

また、本発明に係る機能をコンピュータがプログラムを実行することにより実現してもよいし、専用の電子回路が情報処理を行うことにより実現してもよい。   The functions according to the present invention may be realized by a computer executing a program, or may be realized by a dedicated electronic circuit performing information processing.

また、移動体情報処理装置1の位置推定時の動作は、上述した実施形態に限られるものではない。本発明に係る機能を実現することができるように任意の動作を行ってもよい。   Moreover, the operation | movement at the time of the position estimation of the mobile information processing apparatus 1 is not restricted to embodiment mentioned above. Arbitrary operations may be performed so that the functions according to the present invention can be realized.

また、上記した実施形態では、撮像部により所定のタイミングで複数のカラー画像を撮像したが、例えば、1秒間に数十フレーム程度の枚程度のカラーの動画像を撮像してもよい。移動体情報処理装置1は、動画像にて本発明に係るクラスタリング処理を行うことで、より高精度なランドマークデータを生成することができ、かつそのランドマークデータを用いて高精度に位置推測を行うことができる。   Further, in the above-described embodiment, a plurality of color images are captured at a predetermined timing by the imaging unit. However, for example, about several tens of frames of moving images may be captured per second. The mobile information processing apparatus 1 can generate more accurate landmark data by performing clustering processing according to the present invention on a moving image, and can estimate a position with high accuracy using the landmark data. It can be performed.

また、本発明に係る移動体情報処理装置1は、例えば、掃除ロボット、工場内の運搬ロボット、道案内ロボット、等の移動環境内で移動可能であるロボットに適用することができる。   Moreover, the mobile body information processing apparatus 1 according to the present invention can be applied to a robot that can move in a moving environment such as a cleaning robot, a transport robot in a factory, a road guide robot, and the like.

以上、説明したように、本発明に係る移動体情報処理装置1は、移動環境内の被写体を撮像してカラー画像を取得する撮像部2と、学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部4と、複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、撮像画像毎に該撮像画像の色情報が分類されるクラスタを特定し、特定されたクラスタ、撮像画像、および位置情報を関連付けたランドマークデータを生成する制御部8とを有するので、例えば、移動体の走行環境内に予めランドマークを配置することなく、移動範囲内で撮影された複数のカラー画像から移動体の位置を特定するためのランドマークデータを生成することができる。   As described above, the mobile information processing apparatus 1 according to the present invention includes an imaging unit 2 that captures a color image by capturing a subject in a moving environment, a plurality of captured images to be learned, and the captured image. The storage unit 4 that stores the positional information related to the imaging positions in association with each other, and learns the self-organizing map based on the color information of each pixel of the plurality of captured images, and the color information is obtained by the self-organizing map after learning. Defines a plurality of clusters to be classified and the color range of the clusters, identifies a cluster in which the color information of the captured image is classified for each captured image, and associates the identified cluster, captured image, and position information Control unit 8 for generating landmark data, for example, from a plurality of color images photographed within the moving range without arranging landmarks in advance in the traveling environment of the moving body. It can generate landmark data for specifying the position of the moving object.

また、制御部8は、クラスタおよび色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類されるクラスタを特定し、特定されたクラスタおよびランドマークデータに応じて、該位置推定用の撮像画像に対する学習対象の撮像画像の類似度を算出し、該類似度および学習対象の撮像画像に関連付けられている位置情報を基に位置推定に関する処理を行うので、比較的高精度に、位置推定用の撮像画像とランドマークデータから移動体の位置推定を行うことができる。   Further, the control unit 8 identifies a cluster in which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and according to the identified cluster and landmark data, The degree of similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to position estimation is performed based on the similarity and the position information associated with the captured image to be learned. In addition, the position of the moving object can be estimated from the captured image for position estimation and the landmark data.

また、制御部8は、学習後の自己組織化マップによるクラスタおよび色の範囲に基づいて、撮像画像の各画素の色情報が分類されるクラスタを特定するので、簡単に撮像画像の色情報が分類されるクラスタを特定することができる。   Further, the control unit 8 specifies a cluster into which the color information of each pixel of the captured image is classified based on the cluster and the color range based on the self-organizing map after learning, so that the color information of the captured image can be easily obtained. Clusters to be classified can be specified.

また、制御部8は、複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、ランドマークデータを生成する処理を行うので、例えば壁や床等の移動環境200内のどこでも取得できる色情報が分類されるクラスタを除去することで、高精度なランドマークデータを生成することができる。   In addition, the control unit 8 performs processing for generating landmark data by preferentially excluding the clusters in the descending order of the number of captured images associated with each cluster from among a plurality of clusters. By removing clusters in which color information that can be acquired anywhere in the mobile environment 200 such as a floor is classified, highly accurate landmark data can be generated.

また、本発明に係る移動体情報処理装置1は、撮像画像の色情報に関するデータが入力ベクトルとして入力される入力層40と、入力ベクトルと同じ次元の荷重ベクトルが対応付けられたノードを備える競合層50とを有するニューラルネットワークを有し、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、自己組織化マップの教師なし学習を行うので、簡単な処理によりクラスタリングを行うことができる。   In addition, the mobile information processing apparatus 1 according to the present invention is a competitor that includes an input layer 40 in which data relating to color information of a captured image is input as an input vector, and a node in which a load vector having the same dimension as the input vector is associated. The control unit 8 selects a node in which a load vector having a minimum distance is associated with an input vector, updates the load vector, and updates the self-organizing map. Since unsupervised learning is performed, clustering can be performed by simple processing.

また、制御部8は、入力ベクトルに応じて選択されたノードの選択回数が閾値を超えた場合、該ノードを学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、自己組織化マップの学習を行うので、ノードの増殖により、出現頻度の高い色の近傍の解像度(分解能)を増加させることで、より高精度なクラスタリング処理を行うことができる。   In addition, when the number of selections of the node selected according to the input vector exceeds the threshold, the control unit 8 excludes the node from the learning target for a specified period, and creates a new load vector having the same load vector as the node. Since nodes are proliferated and self-organizing maps are learned, more accurate clustering processing can be performed by increasing the resolution (resolution) in the vicinity of frequently occurring colors through node proliferation. .

また、制御部8は、増殖したノードを子ノード、増殖元のノードを親ノードに設定し、親ノードおよび子ノードの一方のノードを更新する場合、他方のノードとともに更新して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。   In addition, when the control unit 8 sets the propagated node as a child node and the propagated node as a parent node, and updates one of the parent node and the child node, the control unit 8 updates the other node together with the self-organization. Since the map is learned, more accurate clustering processing can be performed.

また、制御部8は、入力ベクトルに対して最小の距離の荷重ベクトルが対応付けられたノードを選択して当該最小の距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。   In addition, when the control unit 8 selects a node in which the load vector having the minimum distance is associated with the input vector and the minimum distance exceeds the threshold, the control unit 8 excludes the node from the learning target, Since a new node having the same load vector as the input vector is generated and the self-organizing map is learned, more accurate clustering processing can be performed.

また、制御部8は、規定期間更新されていないノードを除去して、自己組織化マップの学習を行うので、より高精度なクラスタリング処理を行うことができる。   In addition, the control unit 8 removes the nodes that have not been updated for the specified period and learns the self-organizing map, so that more accurate clustering processing can be performed.

また、制御部8は、撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のクラスタリング処理部812と、複数の撮像画像それぞれに規定されたクラスタおよび色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部814とを有するので、簡単な処理により複数の撮像画像の各画素の色情報を比較的高精度にクラスタリングすることができる。   Further, the control unit 8 learns a self-organizing map based on the color information of each pixel of the captured image, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and the clusters Based on the first clustering processing unit 812 that defines the color range and the clusters and color ranges defined for each of the plurality of captured images, learning of the self-organizing map is performed, and the self-organizing map after learning is used. A plurality of clusters for classifying the color information of the plurality of captured images and a second clustering processing unit 814 that defines a color range of the clusters, so that each pixel of the plurality of captured images can be obtained by simple processing. Color information can be clustered with relatively high accuracy.

また、移動体情報処理装置1は、移動体100の周囲の被写体を撮像してカラー画像を生成する撮像部2と、移動体100を移動環境内で移動させる駆動部5とを有し、制御部8は、駆動部5を駆動制御して移動体100を移動させるとともに移動体100の撮像部2により撮像された画像に応じた処理を行うことにより、例えば高精度に、ランドマークデータを生成する処理や位置推定処理を行うことができる。   The mobile information processing apparatus 1 includes an imaging unit 2 that captures a subject around the mobile unit 100 to generate a color image, and a drive unit 5 that moves the mobile unit 100 in a mobile environment. The unit 8 drives and controls the drive unit 5 to move the moving body 100 and perform processing according to the image captured by the imaging unit 2 of the moving body 100 to generate landmark data with high accuracy, for example. Processing and position estimation processing can be performed.

また、移動体情報処理装置1は、撮像部2を撮像方向が進行方向と略同一となるように固定した場合であっても、その撮像方向に応じた画像により、ランドマークデータの生成処理、および位置推定に関する処理を行うことができる。   In addition, the mobile information processing apparatus 1 can generate landmark data using an image corresponding to the imaging direction even when the imaging unit 2 is fixed so that the imaging direction is substantially the same as the traveling direction. And processing related to position estimation can be performed.

本発明の第1実施形態に係る移動体情報処理装置の全体機能ブロック図である。1 is an overall functional block diagram of a mobile information processing apparatus according to a first embodiment of the present invention. 図1に示した移動体情報処理装置の移動環境を説明するための図である。It is a figure for demonstrating the movement environment of the mobile information processing apparatus shown in FIG. 図1に示した移動体情報処理装置の制御部の機能を説明するための機能ブロック図である。It is a functional block diagram for demonstrating the function of the control part of the mobile information processing apparatus shown in FIG. 図1に示した移動体情報処理装置の動作を説明するためのフローチャートである。3 is a flowchart for explaining the operation of the mobile information processing apparatus shown in FIG. 撮像画像と自己組織化マップによるクラスタリングを説明するための図であり、(A)は学習対象のカラー撮像画像Pを説明するための図であり、(B)は(A)に示した撮像画像Pの各画素の色情報をRGB空間に示した図であり、(C)は(B)に示した撮像画像Pを入力データとして生成された複数のクラスタと各クラスタの色の範囲を説明するための図である。It is a figure for demonstrating the clustering by a captured image and a self-organizing map, (A) is a figure for demonstrating the color captured image P of learning object, (B) is the captured image shown to (A). FIG. 4C is a diagram showing color information of each pixel of P in RGB space, and FIG. 8C illustrates a plurality of clusters generated using the captured image P shown in FIG. 5B as input data and the color range of each cluster. FIG. 図5(C)に示したクラスタCL1 1に含まれる色情報を説明するための図である。It is a diagram for explaining a color information included in the cluster CL 1 1 shown in FIG. 5 (C). 図5(C)に示した各クラスタおよびクラスタに含まれる色情報を説明するための図である。It is a figure for demonstrating the color information contained in each cluster shown in FIG.5 (C), and a cluster. 本発明に係る自己組織化マップを説明するための図であり、(A)は競合層に複数のノードが予め規定されている自己組織化マップを説明するための図であり、(B)は初期時に競合層に一つのノードが規定されている自己組織化マップを説明するための図であり、(C)は(B)に示した自己組織化マップの競合層のノードが増殖する動作を説明するための図である。It is a figure for demonstrating the self-organization map which concerns on this invention, (A) is a figure for demonstrating the self-organization map by which the some node is previously prescribed | regulated by the competitive layer, (B) It is a figure for demonstrating the self-organization map by which one node is prescribed | regulated to the competitive layer at the time of initial stage, (C) is the operation | movement which the node of the competitive layer of the self-organization map shown to (B) proliferates. It is a figure for demonstrating. 本発明の第1実施形態に係る自己組織化マップの学習によるクラスタリング処理を説明するためのフローチャートである。It is a flowchart for demonstrating the clustering process by the learning of the self-organization map which concerns on 1st Embodiment of this invention. RGB空間における初期ノードiを示す図である。It is a figure which shows the initial node i in RGB space. (A)は一具体例に係る撮像画像Pであり、(B)は撮像画像の各画素の色情報をRGB空間に示した図である。(A) is the captured image P which concerns on one specific example, (B) is the figure which showed the color information of each pixel of a captured image in RGB space. 入力データxと、全ノードiのユークリッド距離を説明するための図である。It is a figure for demonstrating the input data x and the Euclidean distance of all the nodes i. 入力ベクトルxとノードi間の距離dと閾値の関係を示す図である。It is a figure which shows the relationship between the distance d between the input vector x and the node i, and a threshold value. 新規のノードの追加を説明するための図である。It is a figure for demonstrating addition of a new node. (A)はノードの更新を説明するための図であり、(B)は(A)に示した勝利ノード付近を拡大した図である。(A) is a figure for demonstrating the update of a node, (B) is the figure which expanded the victory node vicinity shown to (A). (A)は勝利ノードと同じクラスタの階層学習を説明するための図であり、(B)は(A)に示した勝利ノード付近を拡大した図である。(A) is a figure for demonstrating the hierarchical learning of the same cluster as a victory node, (B) is the figure which expanded the victory node vicinity shown to (A). (A)は勝利ノードの増殖を説明するための図であり、(B)は(A)に示した勝利ノード付近の拡大図である。(A) is a figure for demonstrating the proliferation of a victory node, (B) is an enlarged view of the vicinity of the victory node shown to (A). (A)はノードの統廃合処理を説明するための図であり、(B)はノードi3a付近の拡大図であり、(C)はノードi3a付近の拡大図である。(A) is a figure for demonstrating a node consolidation process, (B) is an enlarged view near node i3a, (C) is an enlarged view near node i3a. (A)は複数の撮像画像Pを示す図であり、(B)は複数の撮像画像Pのクラスタを重ね合わせて表現した図であり、(C)は全撮像画像P毎のクラスタリストを説明するための図である。(A) is a diagram showing a plurality of captured images P, (B) is a diagram in which clusters of the plurality of captured images P are overlaid, and (C) describes a cluster list for all captured images P. It is a figure for doing. (A)は複数の撮像画像Pの複数のクラスタを重ねて示した図であり、(B)は(A)に示したクラスタを自己組織化マップによりクラスタリング処理を施した後の状態を示す図である。(A) is a diagram showing a plurality of clusters of a plurality of captured images P, and (B) is a diagram showing a state after the cluster shown in (A) is subjected to clustering processing by a self-organizing map. It is. クラスタの頻出クラスタの除去処理を説明するための図である。It is a figure for demonstrating the removal process of the frequent cluster of a cluster. (A)は色クラスタリストを説明するための図であり、(B)は学習対象の撮像画像を示す図であり、(C)は学習対象の画像に含まれる色クラスタのリスト(ランドマークデータ)を説明するための図である。(A) is a figure for demonstrating a color cluster list, (B) is a figure which shows the captured image of learning object, (C) is a list (landmark data) of the color cluster contained in the image of learning object. FIG. 移動体情報処理装置1がランドマークデータを生成した後、位置推定を行う動作を説明するための図である。It is a figure for demonstrating the operation | movement which performs position estimation, after the mobile body information processing apparatus 1 produces | generates landmark data. 図1に示した移動体情報処理装置のランドマークデータ利用時の動作を説明するフローチャートである。3 is a flowchart illustrating an operation when landmark data is used in the mobile information processing apparatus shown in FIG. (A)は位置推定用の撮像画像Pを示す図であり、(B)は位置推定用の撮像画像Pの色情報をRGB空間で示した図である。(A) is the figure which shows the captured image P for position estimation, (B) is the figure which showed the color information of the captured image P for position estimation in RGB space. (A)は撮像画像の色情報が分類されるクラスタCLLを示す図であり、(B)は入力データ(位置推定用の撮像画像)とクラスタを示すRGB空間の図である。(A) is a diagram showing a cluster CLL in which color information of a captured image is classified, and (B) is a diagram of RGB space indicating input data (captured image for position estimation) and clusters. 位置推定用の撮像画像の各画素の色情報が反応する色クラスタCLLと、ランドマークデータとのマッチングを説明するための図である。It is a figure for demonstrating matching with the color cluster CLL with which the color information of each pixel of the captured image for position estimation reacts, and landmark data. 本発明の第2実施形態に係る移動体情報処理装置を説明するための図である。It is a figure for demonstrating the mobile information processing apparatus which concerns on 2nd Embodiment of this invention.

符号の説明Explanation of symbols

1 移動体情報処理装置
2 撮像部
3 量子化部
4 記憶部
5 駆動部
6 車輪
7 センサ
8 制御部
10 筐体
81 第1の処理部
82 第2の処理部
100 ロボット
811 駆動制御部
812 第1クラスタリング処理部(第1SOM)
813 最大値最小値抽出部
814 第2クラスタリング処理部(第2SOM)
815 クラスタリスト生成部
816 ランドマークデータ生成部
821 クラスタ取得部
822 マッチング部
823 位置推定部
824 駆動制御部
DESCRIPTION OF SYMBOLS 1 Mobile body information processing apparatus 2 Imaging part 3 Quantization part 4 Storage part 5 Drive part 6 Wheel 7 Sensor 8 Control part 10 Case 81 1st process part 82 2nd process part 100 Robot 811 Drive control part 812 1st Clustering processing unit (first SOM)
813 Maximum value / minimum value extraction unit 814 Second clustering processing unit (second SOM)
815 Cluster list generation unit 816 Landmark data generation unit 821 Cluster acquisition unit 822 Matching unit 823 Position estimation unit 824 Drive control unit

Claims (15)

移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置であって、
学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶する記憶部と、
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定し、前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する制御部と
を有することを特徴とする移動体情報処理装置。
A mobile information processing apparatus that generates landmark data for performing position estimation from a color image captured in a mobile environment,
A storage unit that associates and stores a plurality of captured images to be learned and position information related to an imaging position of the captured image;
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster Control for specifying the cluster in which color information of the captured image is classified for each captured image, and generating the landmark data in which the identified cluster, the captured image, and the position information are associated with each other And a mobile information processing apparatus.
前記制御部は、前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行うことを特徴とする請求項1に記載の移動体情報処理装置。   The control unit identifies the cluster into which color information of each pixel of the captured image for position estimation is classified based on the cluster and the color range, and according to the identified cluster and the landmark data Then, the similarity of the captured image to be learned with respect to the captured image for position estimation is calculated, and processing related to the position estimation is performed based on the similarity and the position information associated with the captured image to be learned. The mobile information processing apparatus according to claim 1. 前記制御部は、前記学習後の自己組織化マップによるクラスタおよび前記色の範囲に基づいて、前記撮像画像の各画素の色情報が分類される前記クラスタを特定することを特徴とする請求項1に記載の移動体情報処理装置。   The control unit identifies the cluster into which color information of each pixel of the captured image is classified based on a cluster based on the self-organizing map after learning and the color range. The mobile information processing apparatus according to claim 1. 前記制御部は、前記複数のクラスタのうち、各クラスタに関連付けられた撮像画像の個数が多い順に優先的に該クラスタを除外して、前記ランドマークデータを生成する処理を行うことを特徴とする請求項1に記載の移動体情報処理装置。   The control unit performs processing for generating the landmark data by preferentially excluding the clusters from the plurality of clusters in descending order of the number of captured images associated with each cluster. The mobile information processing apparatus according to claim 1. 前記撮像画像の色情報に関するデータが入力ベクトルとして入力される入力層と、前記入力ベクトルと同じ次元の荷重ベクトルが対応付けられたノードを備える競合層とを備えるニューラルネットワークを有し、
前記制御部は、前記入力ベクトルに対して最小の距離の前記荷重ベクトルが対応付けられたノードを選択し、該荷重ベクトルを更新して、前記自己組織化マップの学習を行うことを特徴とする請求項1に記載の移動体情報処理装置。
A neural network including an input layer in which data regarding color information of the captured image is input as an input vector, and a competitive layer including a node associated with a load vector of the same dimension as the input vector;
The control unit selects a node associated with the load vector having a minimum distance with respect to the input vector, updates the load vector, and learns the self-organizing map. The mobile information processing apparatus according to claim 1.
前記制御部は、前記入力ベクトルに応じて選択された前記ノードの選択回数が閾値を超えた場合、該ノードを前記学習の対象から規定期間だけ除外し、該ノードと同じ荷重ベクトルを備えた新たなノードを増殖して、前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。   When the number of times of selection of the node selected according to the input vector exceeds a threshold, the control unit excludes the node from the learning target for a specified period, and adds a new load vector having the same load vector as the node. The mobile information processing apparatus according to claim 5, wherein the self-organizing map is learned by multiplying various nodes. 前記制御部は、前記増殖したノードを子ノード、増殖元のノードを親ノードに設定し、前記親ノードおよび前記子ノードの一方のノードを更新する場合、他方のノードとともに更新して、前記自己組織化マップの学習を行うことを特徴とする請求項6に記載の移動体情報処理装置。   The control unit sets the propagated node as a child node and the propagated node as a parent node, and when updating one of the parent node and the child node, updates the other node together with the self node The mobile information processing apparatus according to claim 6, wherein learning of an organized map is performed. 前記制御部は、前記入力ベクトルに対して最小の距離の前記荷重ベクトルが対応付けられたノードを選択して当該最小の距離が閾値を超えている場合、当該ノードを学習の対象から除外し、該入力ベクトルと同じ荷重ベクトルを有する新たなノードを生成して前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。   When the control unit selects a node associated with the load vector having the minimum distance with respect to the input vector and the minimum distance exceeds a threshold, the control unit excludes the node from learning targets; 6. The mobile information processing apparatus according to claim 5, wherein a new node having the same load vector as the input vector is generated to learn the self-organizing map. 前記制御部は、規定期間更新されていないノードを除去して、前記自己組織化マップの学習を行うことを特徴とする請求項5に記載の移動体情報処理装置。   The mobile information processing apparatus according to claim 5, wherein the control unit learns the self-organizing map by removing a node that has not been updated for a specified period. 前記制御部は、前記撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のクラスタリング処理部と、
前記複数の撮像画像それぞれに規定された前記クラスタおよび前記色の範囲に基づいて、自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記複数の撮像画像の色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第2のクラスタリング処理部と
を有することを特徴とする請求項1に記載の移動体情報処理装置。
The control unit learns a self-organizing map based on color information of each pixel of the captured image, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and the cluster A first clustering processing unit for defining a color range;
Based on the cluster and the color range defined for each of the plurality of captured images, learning of a self-organizing map is performed, and the color information of the plurality of captured images is classified based on the self-organizing map after learning. The mobile information processing apparatus according to claim 1, further comprising: a plurality of clusters and a second clustering processing unit that defines a color range of the clusters.
移動体の周囲の被写体を撮像してカラー画像を生成する撮像部と、
前記移動体を移動環境内で移動させる駆動部とを有し、
前記制御部は、前記駆動部を駆動制御して前記移動体を移動させるとともに前記移動体の前記撮像部により撮像された画像に応じた処理を行うことを特徴とする請求項1に記載の情報処理装置。
An imaging unit that images a subject around the moving object to generate a color image;
A drive unit for moving the moving body in a moving environment;
2. The information according to claim 1, wherein the control unit drives and controls the driving unit to move the moving body and performs processing according to an image captured by the imaging unit of the moving body. Processing equipment.
移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置の情報処理方法であって、
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
を有することを特徴とする移動体情報処理の情報処理方法。
A landmark for storing a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured image, and performing position estimation based on the color image captured in the moving environment An information processing method for a mobile information processing apparatus for generating data,
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster A first step defining:
A second step of identifying the cluster into which color information of the captured image is classified for each captured image, and generating the landmark data that associates the identified cluster, the captured image, and the position information; An information processing method for mobile information processing, characterized by comprising:
前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする請求項12に記載の移動体情報処理の情報処理方法。   Based on the cluster and the color range, the cluster in which color information of each pixel of the captured image for position estimation is classified is identified, and the position estimation is performed according to the identified cluster and the landmark data Calculating a degree of similarity of the captured image to be learned with respect to the captured image, and performing a process relating to the position estimation based on the similarity and position information associated with the captured image to be learned 13. The information processing method for mobile object information processing according to claim 12, further comprising: 移動環境内でカラー撮像された学習対象の複数の撮像画像、および該撮像画像の撮像位置に関する位置情報を関連付けて記憶し、移動環境内で撮像されたカラー画像により位置推定を行うためのランドマークデータを生成する移動体情報処理装置に実行させるためのプログラムであって、
前記複数の撮像画像の各画素の色情報に基づいて自己組織化マップの学習を行い、学習後の自己組織化マップにより、前記色情報を分類するための複数のクラスタおよび該クラスタの色の範囲を規定する第1のステップと、
前記撮像画像毎に該撮像画像の色情報が分類される前記クラスタを特定し、前記特定されたクラスタ、前記撮像画像、および前記位置情報を関連付けた前記ランドマークデータを生成する第2のステップと
を前記移動体情報処理装置に実行させるためのプログラム。
A landmark for storing a plurality of captured images that have been color-captured in a moving environment and positional information related to the imaging position of the captured image, and performing position estimation based on the color image captured in the moving environment A program for causing a mobile information processing apparatus to generate data to execute,
Learning a self-organizing map based on color information of each pixel of the plurality of captured images, and a plurality of clusters for classifying the color information by the self-organizing map after learning, and a color range of the cluster A first step defining:
A second step of identifying the cluster into which color information of the captured image is classified for each captured image, and generating the landmark data that associates the identified cluster, the captured image, and the position information; For causing the mobile information processing apparatus to execute the program.
前記クラスタおよび前記色の範囲に基づいて、位置推定用の撮像画像の各画素の色情報が分類される前記クラスタを特定し、前記特定されたクラスタおよび前記ランドマークデータに応じて、該位置推定用の撮像画像に対する前記学習対象の撮像画像の類似度を算出し、該類似度および前記学習対象の撮像画像に関連付けられている位置情報を基に前記位置推定に関する処理を行う第3のステップを有することを特徴とする請求項14に記載のプログラム。   Based on the cluster and the color range, the cluster in which color information of each pixel of the captured image for position estimation is classified is identified, and the position estimation is performed according to the identified cluster and the landmark data Calculating a degree of similarity of the captured image to be learned with respect to the captured image, and performing a process relating to the position estimation based on the similarity and position information associated with the captured image to be learned The program according to claim 14, comprising:
JP2007245534A 2007-09-21 2007-09-21 Mobile unit information processor, mobile unit information processing method, and program Pending JP2009074995A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007245534A JP2009074995A (en) 2007-09-21 2007-09-21 Mobile unit information processor, mobile unit information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007245534A JP2009074995A (en) 2007-09-21 2007-09-21 Mobile unit information processor, mobile unit information processing method, and program

Publications (1)

Publication Number Publication Date
JP2009074995A true JP2009074995A (en) 2009-04-09

Family

ID=40610095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007245534A Pending JP2009074995A (en) 2007-09-21 2007-09-21 Mobile unit information processor, mobile unit information processing method, and program

Country Status (1)

Country Link
JP (1) JP2009074995A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227037A (en) * 2010-03-31 2011-11-10 Aisin Aw Co Ltd Image processing system and location positioning system
WO2012086821A1 (en) * 2010-12-20 2012-06-28 日本電気株式会社 Positioning apparatus and positioning method
WO2014129116A1 (en) * 2013-02-22 2014-08-28 国立大学法人東京工業大学 Information processing device, information processing method, and non-transitory computer-readable medium
JP2016143354A (en) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 Learning device, learning method and program
WO2019035155A1 (en) * 2017-08-14 2019-02-21 楽天株式会社 Image processing system, image processing method, and program
CN110781334A (en) * 2018-07-24 2020-02-11 丰田自动车株式会社 Information processing apparatus, information processing method, and computer program
KR20200134807A (en) * 2019-05-23 2020-12-02 주식회사 다비오 System and method for indoor positioning based on image
KR20210106639A (en) * 2020-02-21 2021-08-31 동명대학교산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof
WO2022264370A1 (en) * 2021-06-17 2022-12-22 日本電気株式会社 Image processing device, image processing method, and program

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227037A (en) * 2010-03-31 2011-11-10 Aisin Aw Co Ltd Image processing system and location positioning system
WO2012086821A1 (en) * 2010-12-20 2012-06-28 日本電気株式会社 Positioning apparatus and positioning method
US9794519B2 (en) 2010-12-20 2017-10-17 Nec Corporation Positioning apparatus and positioning method regarding a position of mobile object
WO2014129116A1 (en) * 2013-02-22 2014-08-28 国立大学法人東京工業大学 Information processing device, information processing method, and non-transitory computer-readable medium
JP2014164396A (en) * 2013-02-22 2014-09-08 Tokyo Institute Of Technology Information processing apparatus, information processing method and program
JP2016143354A (en) * 2015-02-04 2016-08-08 エヌ・ティ・ティ・コムウェア株式会社 Learning device, learning method and program
WO2019035155A1 (en) * 2017-08-14 2019-02-21 楽天株式会社 Image processing system, image processing method, and program
JPWO2019035155A1 (en) * 2017-08-14 2019-11-07 楽天株式会社 Image processing system, image processing method, and program
CN110781334A (en) * 2018-07-24 2020-02-11 丰田自动车株式会社 Information processing apparatus, information processing method, and computer program
CN110781334B (en) * 2018-07-24 2023-09-29 丰田自动车株式会社 Information processing apparatus and information processing method
KR20200134807A (en) * 2019-05-23 2020-12-02 주식회사 다비오 System and method for indoor positioning based on image
KR102277974B1 (en) * 2019-05-23 2021-07-15 주식회사 다비오 System and method for indoor positioning based on image
KR20210106639A (en) * 2020-02-21 2021-08-31 동명대학교산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof
KR102317499B1 (en) * 2020-02-21 2021-10-25 동명대학교 산학협력단 Apparatus for guiding indoor route of pedestrian through training of image data and method thereof
WO2022264370A1 (en) * 2021-06-17 2022-12-22 日本電気株式会社 Image processing device, image processing method, and program

Similar Documents

Publication Publication Date Title
JP2009074995A (en) Mobile unit information processor, mobile unit information processing method, and program
KR101901586B1 (en) Apparatus for estimating the robot pose and method thereof
JP5480667B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program
US9805443B2 (en) Image processing method, image processing apparatus, program, storage medium, production apparatus, and method of producing assembly
CN112505065A (en) Method for detecting surface defects of large part by indoor unmanned aerial vehicle
JP5777367B2 (en) Pattern identification device, pattern identification method and program
JP6675691B1 (en) Learning data generation method, program, learning data generation device, and inference processing method
JP2008506953A5 (en)
WO2017163928A1 (en) Image processing device and method
CN109448023B (en) Satellite video small target real-time tracking method
JP2007128247A (en) Image processor, image processing method, program therefor, and computer-readable recording medium recording with the program
CN110006444B (en) Anti-interference visual odometer construction method based on optimized Gaussian mixture model
CN112802186B (en) Dynamic scene real-time three-dimensional reconstruction method based on binarization characteristic coding matching
JP2007064836A (en) Algorithm for automating camera calibration
CN114494594B (en) Deep learning-based astronaut operation equipment state identification method
JP5872395B2 (en) Region dividing device
JP3411889B2 (en) Automatic camera calibration method
CN109344758B (en) Face recognition method based on improved local binary pattern
CN107590829B (en) Seed point picking method suitable for multi-view dense point cloud data registration
JP5872401B2 (en) Region dividing device
JP2007109126A (en) Moving body distribution estimation device, moving body distribution estimation method, and moving body distribution estimation program
WO2019230965A1 (en) Object likelihood estimation device, method, and program
JP2002032760A (en) Method and device for extracting moving object
WO2021210492A1 (en) Information processing device, information processing method, and program
JP4830585B2 (en) Image processing apparatus and image processing method