JP2008123365A - Object recognition system, object recognition method, and object recognition robot - Google Patents

Object recognition system, object recognition method, and object recognition robot Download PDF

Info

Publication number
JP2008123365A
JP2008123365A JP2006308237A JP2006308237A JP2008123365A JP 2008123365 A JP2008123365 A JP 2008123365A JP 2006308237 A JP2006308237 A JP 2006308237A JP 2006308237 A JP2006308237 A JP 2006308237A JP 2008123365 A JP2008123365 A JP 2008123365A
Authority
JP
Japan
Prior art keywords
function
shape
recognition
concept
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006308237A
Other languages
Japanese (ja)
Other versions
JP4771543B2 (en
Inventor
Takayuki Nagai
隆行 長井
Yosuke Sato
陽介 佐藤
Kazukuni Hosoi
一邦 細井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electro Communications NUC
Optoelectronics Co Ltd
Original Assignee
University of Electro Communications NUC
Optoelectronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electro Communications NUC, Optoelectronics Co Ltd filed Critical University of Electro Communications NUC
Priority to JP2006308237A priority Critical patent/JP4771543B2/en
Publication of JP2008123365A publication Critical patent/JP2008123365A/en
Application granted granted Critical
Publication of JP4771543B2 publication Critical patent/JP4771543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an object recognition system, an object recognition method, and an object recognition robot capable of reducing erroneous recognition of an object in object recognition carried out by using an image of the object. <P>SOLUTION: The object recognition system is provided with an image data acquisition device 20 acquiring image data of the object and image data of an article to be operated, which is affected by operation of the object, before and after the operation of the object, a shape feature quantity extraction unit 11 extracting a shape feature quantity of the object from the image data of the object, a function feature quantity extraction unit 13 extracting change of the article to be operated as a function feature quantity of the object from the image data before and after the operation, an object concept learning unit 15 applying the shape of the object identified by using the shape feature quantity and the function of the object identifier by using the function feature quantity to an object concept model for performing statistical processing to learn the object, and an object recognition unit 16 applying observed information of the shape or function of a recognition target object to the object concept model of the object for performing statistical processing to estimate unmeasured information of the recognition target object for recognizing the recognition target object. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、物体認識技術に係り、特に物体の形状情報を用いて物体を認識する物体認識システム、物体認識方法及び物体認識ロボットに関する。   The present invention relates to an object recognition technique, and more particularly to an object recognition system, an object recognition method, and an object recognition robot for recognizing an object using shape information of the object.

物体を認識する方法として、予め用意された多数の画像と認識対象の物体の画像とを比較し、形状の特徴をマッチングさせる方法が用いられている。(例えば、非特許文献1参照。)。   As a method for recognizing an object, a method of comparing a large number of images prepared in advance with an image of an object to be recognized and matching shape features is used. (For example, refer nonpatent literature 1.).

しかしながら、上記方法では、事前に多数の画像を取得して予め学習しておく必要がある。また、画像のノイズによって物体の形状を誤認識する場合がある。更に、物体を特定しても、形状の情報のみに基づいて物体を認識するため、物体の機能や使用方法は特定できず、形状は類似するが機能が異なる物体を区別できないという問題があった。
バーバック・モガダム(Baback Moghaddam)、アレックス・ペントランド(Alex Pentland)著、「プロバビリスティック・ビジュアル・ラーニング・フォー・オブジェクト・レプリゼンテイション(Probabilistic Visual Learning for Object Representation)、 米国電子通信技術者協会トランサクション・オン・パターン・アナリシス・アンド・マシン・インテリジェンス、第19巻、第7号(IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.19, No.7)」、1997年7月、p.696−710
However, in the above method, it is necessary to acquire a large number of images in advance and learn in advance. In addition, the shape of an object may be erroneously recognized due to image noise. Furthermore, even if an object is specified, the object is recognized based only on shape information, so the function and usage of the object cannot be specified, and there is a problem that objects with similar shapes but different functions cannot be distinguished. .
By Baback Moghaddam, Alex Pentland, “Probabilistic Visual Learning for Object Representation, American Institute of Electronics and Communication Engineers” “Transaction on Pattern Analysis and Machine Intelligence, Vol. 19, No. 7 (IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.19, No.7)”, July 1997, p. 696-710

本発明は、物体の画像を用いて行う物体認識において、物体の誤認識を低減できる物体認識システム、物体認識方法及び物体認識ロボットを提供する。   The present invention provides an object recognition system, an object recognition method, and an object recognition robot capable of reducing erroneous recognition of an object in object recognition performed using an object image.

本発明の一態様によれば、(イ)物体の画像データ、及びその物体が操作されることにより影響を受ける被作用物の物体の操作前後における画像データをそれぞれ取得する画像データ取得装置と、(ロ)物体の画像データから物体の形状特徴量を抽出する形状特徴量抽出ユニットと、(ハ)操作前後の画像データから被作用物の変化を物体の機能特徴量として抽出する機能特徴量抽出ユニットと、(ニ)機能、形状及び物体概念を要素とし、その要素間の依存関係を条件付確率で表す物体概念モデルに、形状特徴量を用いて認識される物体の形状と機能特徴量を用いて認識される物体の機能とを適用して統計的に処理し、物体の物体概念を推定して物体を学習する物体概念学習ユニットと、(ホ)認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を学習された物体の物体概念モデルに適用して統計的に処理し、認識対象物体の未観測情報を推定して認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識する物体認識ユニットとを備える物体認識システムが提供される。   According to one aspect of the present invention, (a) an image data acquisition device that respectively acquires image data of an object and image data before and after the operation of the object of the object affected by the operation of the object; (B) A shape feature quantity extraction unit that extracts the shape feature quantity of the object from the image data of the object, and (c) functional feature quantity extraction that extracts a change in the object as a function feature quantity of the object from the image data before and after the operation. An object concept model that uses units and (d) function, shape, and object concept as elements and expresses the dependency between the elements as conditional probabilities. An object concept learning unit that applies a function of an object that is recognized using the object and statistically processes the object to learn the object concept by estimating the object concept of the object; and (e) a less-recognized object shape or function When At least one of the object concept, shape and function of the recognition target object is estimated by applying the observed information to the object concept model of the learned object and statistically processing it, and estimating the unobserved information of the recognition target object There is provided an object recognition system comprising an object recognition unit for recognizing.

本発明の他の態様によれば、(イ)物体の画像データ、及びその物体が操作されることにより影響を受ける被作用物の物体の操作前後における画像データをそれぞれ取得するステップと、(ロ)物体の画像データから物体の形状特徴量を抽出するステップと、(ハ)操作前後の画像データから被作用物の変化を物体の機能特徴量として抽出するステップと、(ニ)機能、形状及び物体概念を要素とし、その要素間の依存関係を条件付確率で表す物体概念モデルに、形状特徴量を用いて認識される物体の形状と機能特徴量を用いて認識される物体の機能とを適用して統計的に処理し、物体の物体概念を推定して物体を学習するステップと、(ホ)認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を学習された物体の物体概念モデルに適用して統計的に処理し、認識対象物体の未観測情報を推定して認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識するステップとを含む物体認識方法が提供される。   According to another aspect of the present invention, (a) acquiring image data of an object, and image data before and after the operation of the object of the object affected by the operation of the object; ) A step of extracting the shape feature amount of the object from the image data of the object, (c) a step of extracting the change of the object as the functional feature amount of the object from the image data before and after the operation, and (d) the function, shape, and An object concept model that uses an object concept as an element and expresses the dependency between the elements as a conditional probability. The shape of the object recognized using the shape feature and the function of the object recognized using the function feature. Applying and statistically processing, estimating the object concept of the object, learning the object, and (e) the object of the object in which at least one of the shapes or functions of the recognition target object has been observed concept An object recognition method comprising: applying statistical processing to Dell, estimating unobserved information of a recognition target object, and recognizing at least one of an object concept, a shape, and a function of the recognition target object. .

本発明の更に他の態様によれば、(イ)物体の画像データ、及びその物体が操作されることにより影響を受ける被作用物の物体の操作前後における画像データをそれぞれ取得するカメラと、(ロ)物体の画像データから物体の形状特徴量を抽出する形状特徴量抽出ユニットと、(ハ)操作前後の画像データから被作用物の変化を物体の機能特徴量として抽出する機能特徴量抽出ユニットと、(ニ)機能、形状及び物体概念を要素とし、その要素間の依存関係を条件付確率で表す物体概念モデルに、形状特徴量を用いて認識される物体の形状と機能特徴量を用いて認識される物体の機能とを適用して統計的に処理し、物体の物体概念を推定して物体を学習する物体概念学習ユニットと、(ホ)認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を学習された物体の物体概念モデルに適用して統計的に処理し、認識対象物体の未観測情報を推定して認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識する物体認識ユニットとを備え、物体認識ユニットがベイズの定理を用いて未観測情報を推定し、物体概念モデルがベイジアンネットワークである物体認識ロボットが提供される。   According to still another aspect of the present invention, (a) a camera that acquires image data of an object and image data before and after the operation of the object of the object affected by the operation of the object; (B) A shape feature amount extraction unit that extracts the shape feature amount of the object from the image data of the object, and (c) a function feature amount extraction unit that extracts changes in the object as the function feature amount of the object from the image data before and after the operation. (D) Using object shape and function features recognized using shape features in an object concept model that uses function, shape, and object concepts as elements, and that expresses the dependency between the elements as conditional probabilities. An object concept learning unit that applies statistical processing to the object function to be recognized and estimates the object concept of the object to learn the object; and (e) at least one of the shape or function of the recognition target object One Apply the observed information to the object concept model of the learned object and statistically process it, and estimate the unobserved information of the recognition target object to recognize at least one of the object concept, shape, and function of the recognition target object And an object recognition unit that estimates unobserved information using Bayes' theorem, and has an object conceptual model of a Bayesian network.

本発明によれば、物体の画像を用いて行う物体認識において、物体の誤認識を低減できる物体認識システム、物体認識方法及び物体認識ロボットを提供できる。   According to the present invention, it is possible to provide an object recognition system, an object recognition method, and an object recognition robot capable of reducing erroneous recognition of an object in object recognition using an object image.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。又、以下に示す実施の形態は、この発明の技術的思想を具体化するための装置や方法を例示するものであって、この発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものでない。この発明の技術的思想は、特許請求の範囲において、種々の変更を加えることができる。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals. Further, the following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention. The technical idea of the present invention describes the structure, arrangement, etc. of components as follows. It is not something specific. The technical idea of the present invention can be variously modified within the scope of the claims.

本発明の実施の形態に係る物体認識システム1は、図1に示すように、物体の画像データ、及びその物体が操作されることにより影響を受ける被作用物の物体の操作前後における画像データをそれぞれ取得する画像データ取得装置20と、物体の画像データから物体の形状特徴量を抽出する形状特徴量抽出ユニット11と、操作前後の画像データから被作用物の変化を物体の機能特徴量として抽出する機能特徴量抽出ユニット13と、機能、形状及び物体概念を要素とし、その要素間の依存関係を条件付確率で表す物体概念モデルに、形状特徴量を用いて認識される物体の形状と機能特徴量を用いて認識される物体の機能とを適用して統計的に処理し、物体の物体概念を推定して物体を学習する物体概念学習ユニット15と、認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を学習された物体の物体概念モデルに適用して統計的に処理し、認識対象物体の未観測情報を推定して認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識する物体認識ユニット16とを備える。画像データ取得装置20として、例えばカメラ等の撮像装置が採用可能である。ここで、「影響を受ける被作用物」とは、物体がその機能を発揮するように操作される際に、操作された物体が作用を及ぼす物体である。「形状特徴量」は、物体の形状に関する特徴量である。「機能特徴量」は、被作用物を観測することにより抽出される物体の機能に関する特徴量である。形状特徴量及び機能特徴量の詳細は後述する。   As shown in FIG. 1, the object recognition system 1 according to the embodiment of the present invention includes image data of an object and image data before and after the operation of the object of an object affected by the operation of the object. An image data acquisition device 20 for acquiring the object, a shape feature amount extraction unit 11 for extracting the shape feature amount of the object from the image data of the object, and a change in the object as the function feature amount of the object from the image data before and after the operation The function feature extraction unit 13 that performs functions, shapes, and object concepts as elements, and the object shapes and functions that are recognized using shape features in object concept models that express the dependency relationships between the elements as conditional probabilities An object concept learning unit 15 that applies a function of an object recognized using the feature quantity and statistically processes the object concept to learn the object by estimating the object concept of the object; Information on at least one of the shape or function is applied to the object concept model of the learned object and statistically processed to estimate the unobserved information of the recognition target object and the object concept and shape of the recognition target object And an object recognition unit 16 for recognizing at least one of the functions. As the image data acquisition device 20, for example, an imaging device such as a camera can be employed. Here, the “subject to be affected” is an object on which the operated object acts when the object is operated so as to exhibit its function. The “shape feature amount” is a feature amount related to the shape of the object. The “functional feature value” is a feature value related to the function of the object extracted by observing the object. Details of the shape feature quantity and the function feature quantity will be described later.

物体認識システム1は、物体の画像データから抽出される形状特徴量をベクトル量子化して物体の形状を学習する形状学習ユニット12、及び物体の操作による影響が及ぶ前後の被作用物の画像データから被作用物の変化として抽出される機能特徴量を統計処理して、物体の機能を学習する機能学習ユニット14を更に備える。形状特徴量抽出ユニット11、形状学習ユニット12、機能特徴量抽出ユニット13、機能学習ユニット14、物体概念学習ユニット15、及び物体認識ユニット16は、処理装置10に含まれる。   The object recognition system 1 includes a shape learning unit 12 that learns the shape of an object by vector quantization of a shape feature amount extracted from the image data of the object, and the image data of the subject before and after being affected by the operation of the object. It further includes a function learning unit 14 that statistically processes the function feature amount extracted as the change in the object to learn the function of the object. The shape feature amount extraction unit 11, the shape learning unit 12, the function feature amount extraction unit 13, the function learning unit 14, the object concept learning unit 15, and the object recognition unit 16 are included in the processing device 10.

また、物体認識システム1は、記憶装置30、形状モデルデータベース40、機能モデルデータベース50及び物体概念モデルデータベース60を更に備える。記憶装置30は、入力データ記憶領域301、形状特徴量記憶領域302、形状モデル記憶領域303、機能特徴量記憶領域304、機能モデル記憶領域305、物体概念モデル記憶領域306、及び認識結果記憶領域307を有する。   The object recognition system 1 further includes a storage device 30, a shape model database 40, a function model database 50, and an object concept model database 60. The storage device 30 includes an input data storage area 301, a shape feature amount storage area 302, a shape model storage area 303, a function feature amount storage area 304, a function model storage area 305, an object concept model storage area 306, and a recognition result storage area 307. Have

入力データ記憶領域301は、画像データ取得装置20から転送される画像データ等を格納する。形状特徴量記憶領域302は、形状特徴量抽出ユニット11によって抽出される形状特徴量を格納する。形状モデル記憶領域303は、物体認識システム1によって生成される形状モデルを格納する。機能特徴量記憶領域304は、機能特徴量抽出ユニット13によって抽出される機能特徴量を格納する。機能モデル記憶領域305は、物体認識システム1によって生成される機能モデルを格納する。物体概念モデル記憶領域306は、物体認識システム1によって生成される物体概念モデルを格納する。認識結果記憶領域307は、物体認識システム1による物体認識結果を格納する。   The input data storage area 301 stores image data transferred from the image data acquisition device 20. The shape feature amount storage area 302 stores the shape feature amount extracted by the shape feature amount extraction unit 11. The shape model storage area 303 stores a shape model generated by the object recognition system 1. The function feature quantity storage area 304 stores the function feature quantity extracted by the function feature quantity extraction unit 13. The function model storage area 305 stores a function model generated by the object recognition system 1. The object concept model storage area 306 stores an object concept model generated by the object recognition system 1. The recognition result storage area 307 stores the object recognition result by the object recognition system 1.

形状モデルデータベース40は、複数の物体の形状データをコードベクトルとして格納する。形状モデルデータベース40に格納されたコードベクトルは、物体の形状に関する形状特徴量をベクトル量子化する際にコードブックとして使用される。   The shape model database 40 stores shape data of a plurality of objects as code vectors. The code vector stored in the shape model database 40 is used as a code book when the vector feature quantity related to the shape of the object is vector quantized.

機能モデルデータベース50は、複数の物体の機能モデルを格納する。機能モデルの詳細は後述するが、機能モデルデータベース50に格納された機能モデルは、物体の観測結果を用いて学習対象の物体の機能を分類する際に使用される。   The function model database 50 stores function models of a plurality of objects. Although the details of the function model will be described later, the function model stored in the function model database 50 is used when classifying the function of the object to be learned using the observation result of the object.

物体概念モデルデータベース60は、複数の物体の物体概念モデルを格納する。物体概念モデルデータベース60に格納される物体概念モデルは、後述するように、物体の概念を形状、機能、及び物体を要素とし、要素間の依存関係を条件付確率で表したモデルである。   The object concept model database 60 stores object concept models of a plurality of objects. As will be described later, the object concept model stored in the object concept model database 60 is a model in which the concept of an object is a shape, function, and object as elements, and the dependency relationship between the elements is expressed by a conditional probability.

物体認識システム1は、入力装置70及び出力装置80を更に備える。入力装置70はキーボード、マウス、ライトペン又はフレキシブルディスク装置等で構成される。入力装置70より物体学習及び物体認識実行者(ユーザ)は、学習対象の物体や認識対象の物体に関する入力データや、出力するデータを指定したり、物体学習操作及び物体認識操作の実行や中止等の指示を入力したりすることが可能である。   The object recognition system 1 further includes an input device 70 and an output device 80. The input device 70 includes a keyboard, a mouse, a light pen, a flexible disk device, or the like. An object learning and object recognition performer (user) from the input device 70 designates input data related to the object to be learned or the object to be recognized, data to be output, execution or cancellation of the object learning operation and object recognition operation, and the like. It is possible to input the instruction.

又、出力装置80としては、物体学習及び物体認識の結果を表示するディスプレイやプリンタ、或いはコンピュータ読み取り可能な記録媒体に保存する記録装置等が使用可能である。ここで、「コンピュータ読み取り可能な記録媒体」とは、例えばコンピュータの外部メモリ装置、半導体メモリ、磁気ディスク、光ディスク、光磁気ディスク、磁気テープ等の電子データを記録することができるような媒体等を意味する。具体的には、フレキシブルディスク、CD−ROM、MOディスク等が「コンピュータ読み取り可能な記録媒体」に含まれる。ユーザは、図1に示した物体認識システム1による物体の学習結果、或いは認識結果を、出力装置80を介して確認することができる。   As the output device 80, a display or printer that displays the results of object learning and object recognition, or a recording device that stores data in a computer-readable recording medium can be used. Here, the “computer-readable recording medium” refers to a medium capable of recording electronic data such as an external memory device of a computer, a semiconductor memory, a magnetic disk, an optical disk, a magneto-optical disk, and a magnetic tape. means. Specifically, a “flexible disk, CD-ROM, MO disk, etc.” are included in the “computer-readable recording medium”. The user can confirm the learning result or recognition result of the object by the object recognition system 1 shown in FIG.

先ず、図1に示した物体認識システム1で学習する物体の概念について説明する。物体、特に道具に関してその概念を構成する要素の中で重要度の高い項目として、物体の機能が考えられる。通常、物体には使用目的や用途があり、それらを満たすための機能を有していることがその物体の存在意義として必要だからである。また、一般的に物体の形状は機能に依存する。つまり、物体には使用目的を遂げる機能があり、その機能を実行するために形状が定まる。そのため、物体認識システム1では、物体の概念を形状と機能の組み合わせとして捉える。   First, the concept of an object learned by the object recognition system 1 shown in FIG. 1 will be described. The function of an object can be considered as an item of high importance among the elements that constitute the concept of an object, particularly a tool. This is because an object usually has a purpose of use and application, and it is necessary for the object to have a function to satisfy them. In general, the shape of an object depends on the function. That is, the object has a function for achieving the intended purpose, and the shape is determined in order to execute the function. Therefore, the object recognition system 1 captures the concept of an object as a combination of shape and function.

ところで、物体の機能の情報は、物体を操作することによって物体の作用が及ぶ被作用物の物理的な変化として観測することができる。例えば、物体が「はさみ」である場合、はさみで切られることにより被作用物の個数の増加が引き起こされる。また、物体が「ペン」である場合、ペンによって文字や図形が書き込まれる被作用物の表面の輝度が変化する。   By the way, the information on the function of the object can be observed as a physical change of the object to which the action of the object is exerted by operating the object. For example, when the object is “scissors”, an increase in the number of objects is caused by cutting with scissors. In addition, when the object is a “pen”, the brightness of the surface of the object on which characters and figures are written is changed by the pen.

そのため、被作用物に作用が及ぶようにユーザ等によって物体が操作された際に、物体が操作されたことに起因して被作用物に生じる形状等の変化を観測し、観測可能な被作用物の変化を観測結果から抽出することによって物体の機能を推定することができる。例えば、観測された変化を特徴ベクトルとすることで、特徴ベクトルを物体の機能特徴量とすることができる。そして、機能に関する特徴ベクトルを用いて、被作用物の変化のパターンとして物体の機能を推定できる。つまり、物体本来の機能に基づいて被作用物に生じる特定の物理的な変化のパターンを、物体の観測により取得可能な「機能」の情報とする。   Therefore, when an object is manipulated by a user or the like so that the action is applied to the object, the change in the shape or the like that occurs in the object due to the manipulation of the object is observed, and the observable action The function of an object can be estimated by extracting changes in the object from the observation results. For example, by using the observed change as a feature vector, the feature vector can be used as a functional feature amount of the object. Then, the function of the object can be estimated as a pattern of change of the object using the feature vector related to the function. That is, a specific physical change pattern generated in the object based on the original function of the object is used as “function” information that can be acquired by observing the object.

物体の概念を形状と機能の組み合わせであると捉えて物体の概念を学習する場合、物体の概念は例えば図2のように表される。図2(a)は、物体認識システムが、物体は被作用物を切断する機能を有する「はさみ」であることを、物体の観測によって認識することを表す模式図である。図2(a)に示す模式図に対応する物体概念モデルは、図2(b)に示すように、物体概念O、形状S及び機能Fを要素(ノード)とするグラフィカルモデルを用いて表現できる。「グラフィカルモデル」とは、確率変数をノードで表し、ノード間の因果関係等の依存関係の有無を有向グラフで表したグラフ構造を有する確率モデルである。ここで物体概念Oは、概念として捉えられた物体を示す名称、例えば「はさみ」、「ペン」等である。また、形状Sは、観測可能な物体の形状である。機能Fは、被作用物の物理的な変化として観測可能な物体の機能である。   When learning the concept of an object by regarding the concept of the object as a combination of shape and function, the concept of the object is expressed as shown in FIG. 2, for example. FIG. 2A is a schematic diagram showing that the object recognition system recognizes that an object is “scissors” having a function of cutting an object by observation of the object. The object conceptual model corresponding to the schematic diagram shown in FIG. 2A can be expressed using a graphical model having the object concept O, the shape S, and the function F as elements (nodes) as shown in FIG. 2B. . The “graphical model” is a probability model having a graph structure in which random variables are represented by nodes and whether or not there is a dependency such as a causal relationship between nodes is represented by a directed graph. Here, the object concept O is a name indicating an object captured as a concept, such as “scissors”, “pen”, and the like. The shape S is the shape of an observable object. The function F is a function of an object that can be observed as a physical change of the object.

図2(b)に示した物体概念モデルでは、物体概念Oの事前確率を確率P(O)、物体概念Oと形状Sの依存関係の強さを条件付確率P(S|O)、物体概念Oと機能Fの依存関係の強さを条件付確率P(F|O)でそれぞれ示している。条件付確率P(S|O)は、物体概念Oが与えられた場合における形状Sの確率を示し、条件付確率P(F|O)は、物体概念Oが与えられた場合における機能Fの確率を示す。   In the object concept model shown in FIG. 2B, the prior probability of the object concept O is the probability P (O), the strength of the dependency between the object concept O and the shape S is the conditional probability P (S | O), the object The strength of the dependency relationship between the concept O and the function F is indicated by the conditional probability P (F | O). The conditional probability P (S | O) indicates the probability of the shape S when the object concept O is given, and the conditional probability P (F | O) is the function F of the function F when the object concept O is given. Shows the probability.

図2(b)に示した物体概念モデルは、リンクの向きが依存関係をもつ方向のみであり、リンクをたどったパスが元のノードに戻らない非循環有向グラフ構造を有するベイジアンネットワークである。ベイジアンネットワークは、観測不可能な要素が存在する事象を取り扱うことに適している。ベイジアンネットワークにおいては、ノードに事前確率を与え、観測された確定値からの伝搬確率によって各変数の確率を更新して事後確立を算出することにより、観測不可能な要素が推定される。   The object conceptual model shown in FIG. 2B is a Bayesian network having an acyclic directed graph structure in which the direction of the link has only a dependency direction and the path following the link does not return to the original node. Bayesian networks are suitable for handling events that have unobservable elements. In a Bayesian network, elements that cannot be observed are estimated by giving prior probabilities to the nodes and calculating the posterior probability by updating the probabilities of each variable by the propagation probability from the observed definite value.

図2(b)に示した物体の物体概念モデルにおいて、形状S及び機能Fは観測することにより情報を取得できる変数である。しかし、物体概念Oは、観測によっては情報を取得できない変数である。ベイジアンネットワークを用いることによって、物体概念Oを形状S及び機能Fを観測して確率推論し、直接観測できない物体概念Oを推定できる。   In the object conceptual model of the object shown in FIG. 2B, the shape S and the function F are variables from which information can be acquired by observation. However, the object concept O is a variable from which information cannot be obtained by observation. By using the Bayesian network, the object concept O can be probabilistically inferred by observing the shape S and the function F, and the object concept O that cannot be directly observed can be estimated.

そのため、図1に示した物体認識システム1においては、物体概念Oを推定するために形状Sと機能Fの依存関係を学習することが「物体の学習」である。つまり、観測によって情報が取得可能な形状Sと機能F、及び観測不能な物体概念Oを要素として構成されるベイジアンネットワークにおける条件付確率を推定することで、物体の学習が行われる。   Therefore, in the object recognition system 1 shown in FIG. 1, “object learning” is to learn the dependency relationship between the shape S and the function F in order to estimate the object concept O. That is, an object is learned by estimating a conditional probability in a Bayesian network that includes the shape S and function F that can be acquired by observation and the object concept O that cannot be observed as elements.

以下に、物体認識システム1が、物体概念の学習対象の物体(以下において、「学習対象物体」という。)を学習する方法を説明する。   Hereinafter, a method in which the object recognition system 1 learns an object that is a learning target of an object concept (hereinafter referred to as a “learning target object”) will be described.

先ず、形状特徴量抽出ユニット11が、観測結果から学習対象物体の形状に関する形状特徴量を抽出する方法の例を説明する。形状特徴量としては、例えば物体の輪郭が採用可能である。形状特徴量として物体の輪郭を採用した場合には、形状特徴量抽出ユニット11は、学習対象物体の画像データから、物体の輪郭を形状特徴量として抽出する。   First, an example of a method in which the shape feature quantity extraction unit 11 extracts a shape feature quantity related to the shape of the learning target object from the observation result will be described. As the shape feature amount, for example, the contour of an object can be adopted. When the contour of the object is adopted as the shape feature amount, the shape feature amount extraction unit 11 extracts the contour of the object as the shape feature amount from the image data of the learning target object.

具体的には、形状特徴量抽出ユニット11の有する学習物体領域抽出モジュール111が、背景差分法を用いて、学習対象物体の画像データから学習対象物体の領域の形状を輪郭のデータとして抽出する。ここで「背景差分法」とは、予め取得済みの背景の画像データとその背景に物体を配置した画像データとの差分を用いて、物体の領域形状を取得する方法である。学習対象物体の画像データは、操作前又は操作後のいずれの画像データでもよい。   Specifically, the learning object region extraction module 111 included in the shape feature quantity extraction unit 11 extracts the shape of the region of the learning target object from the image data of the learning target object as contour data using the background difference method. Here, the “background difference method” is a method for acquiring a region shape of an object using a difference between image data of a background acquired in advance and image data in which an object is arranged on the background. The image data of the learning target object may be any image data before or after the operation.

輪郭のデータは、例えばピクセルの位置座標の集合として抽出されるため、一般にデータ量が多い。そのため、形状特徴量抽出ユニット11の有する形状特徴量算出モジュール112が、データ量を削減された輪郭のデータを形状特徴量として算出する。具体的には、形状特徴量算出モジュール112は、輪郭のデータを重心からの極座標に変換した後、フーリエ記述子を用いて周波数変換する。そして、形状特徴量算出モジュール112は、周波数変換された輪郭のデータの高周波成分をローパスフィルタ機能によってカットする。例えば低いほうから10個程度の周波数成分を残すことにより、輪郭のデータに高周波成分として含まれるノイズが取り除かれると同時に、データ量が削減された輪郭のデータとして形状特徴量を算出される。算出された形状特徴量は、形状特徴量記憶領域302に格納される。   The contour data is extracted as, for example, a set of pixel position coordinates, so that the amount of data is generally large. Therefore, the shape feature value calculation module 112 of the shape feature value extraction unit 11 calculates the contour data with the reduced data amount as the shape feature value. Specifically, the shape feature quantity calculation module 112 converts the contour data into polar coordinates from the center of gravity, and then performs frequency conversion using a Fourier descriptor. Then, the shape feature quantity calculation module 112 cuts the high-frequency component of the frequency-converted contour data by the low-pass filter function. For example, by leaving about 10 frequency components from the lowest, noise included as high-frequency components in the contour data is removed, and at the same time, the shape feature amount is calculated as contour data with a reduced data amount. The calculated shape feature quantity is stored in the shape feature quantity storage area 302.

次に、形状学習ユニット12が、学習対象物体の形状を学習する方法を説明する。形状学習ユニット12は、形状特徴量を用いて学習対象物体のコードベクトルを生成する。本明細書では、生成されるコードベクトルを形状モデルとし、形状モデルを生成することを「形状の学習」と定義する。   Next, a method in which the shape learning unit 12 learns the shape of the learning target object will be described. The shape learning unit 12 generates a code vector of the learning target object using the shape feature amount. In this specification, a code vector to be generated is defined as a shape model, and generating a shape model is defined as “shape learning”.

具体的には、形状学習ユニット12は、形状モデルデータベース40に格納された多様な物体のコードベクトルの集合をコードブックとして用いて学習対象物体の形状特徴量をベクトル量子化して、学習対象物体の形状モデルを生成する。つまり、コードブックに含まれる最も類似性の高い最近傍のコードベクトルによって学習対象物体の形状特徴量を代表させることにより、形状特徴量をベクトル量子化してコードベクトルが生成される。コードブックは、例えば物体の形状データをk平均法等でクラスタリングすることにより生成される。   Specifically, the shape learning unit 12 vector-quantizes the shape feature amount of the learning target object using a set of code vectors of various objects stored in the shape model database 40 as a code book, and Generate a shape model. That is, by representing the shape feature quantity of the learning target object by the nearest code vector with the highest similarity included in the code book, the shape feature quantity is vector quantized to generate a code vector. The code book is generated, for example, by clustering object shape data by the k-average method or the like.

生成された形状モデルは、形状モデル記憶領域303に格納される。更に、生成された形状モデルが形状モデルデータベース40に格納される。その結果、形状モデルデータベース40が格納する形状モデルの種類を増やすことができる。   The generated shape model is stored in the shape model storage area 303. Further, the generated shape model is stored in the shape model database 40. As a result, the types of shape models stored in the shape model database 40 can be increased.

次に、物体認識システム1が、被作用物の観測結果から学習対象物体の機能を学習する方法例を説明する。既に述べたように、操作された学習対象物体が被作用物に影響を及ぼすことによって被作用物に生じる物理的な変化のパターンが学習対象物体の機能として観測される。しかし、観測された被作用物の変化がどのような機能を意味しているかは不明である。そのため、物体認識システム1は、被作用物を観測することにより抽出される学習対象物体の機能特徴量を解析して、被作用物の変化のパターンを学習対象物体の機能として推定し、学習対象物体の機能モデルを生成する。本明細書では、機能モデルを生成することを「機能の学習」と定義する。機能モデルの詳細については後述する。   Next, a method example in which the object recognition system 1 learns the function of the learning target object from the observation result of the object to be operated will be described. As already described, a pattern of physical change that occurs in the actuated object when the operated learning target object affects the actuated object is observed as a function of the learned object. However, it is unclear what function the observed change in the object means. Therefore, the object recognition system 1 analyzes the functional feature amount of the learning target object extracted by observing the object, estimates the pattern of the change of the object as the function of the learning target object, and Generate a functional model of the object. In this specification, the generation of a function model is defined as “function learning”. Details of the function model will be described later.

学習対象物体の機能を被作用物の変化のパターンとして観測するためには、被作用物のどのような変化に着目して観測するかが非常に重要であり、着目する変化によって観測可能な機能が決定される。以下では、一般的な物体の機能を考慮して、被作用物の変化を示すパラメータとして被作用物の色変化、輪郭変化、位置変化及び個数変化の4つの変化を採用する例を説明する。   In order to observe the function of an object to be learned as a pattern of change in an object, it is very important to observe what kind of change the object is observed. Is determined. In the following, an example will be described in which four changes, that is, a color change, a contour change, a position change, and a number change of an actuated object are adopted as parameters indicating the change of the acted object in consideration of a general object function.

ここで、「色変化」は、学習対象物体が操作されることによって変化が生じる被作用物の、その変化の前後における輝度ヒストグラムの相関である。「相関」は、変化の前後における特徴ベクトルの変化の度合いである。「輪郭変化」は、学習対象物体の操作前後における被作用物の輪郭の周波数成分の相関である。輪郭の周波数成分は、既述したように輪郭の画像をフーリエ記述子を用いた周波数変換して得られる。「位置変化」は、被作用物の位置の移動距離である。「個数変化」は、被作用物の個数の変化である。   Here, the “color change” is a correlation of luminance histograms before and after the change of the subject that changes when the learning target object is operated. “Correlation” is the degree of change of the feature vector before and after the change. “Contour change” is the correlation between the frequency components of the contour of the object before and after the operation of the learning target object. As described above, the contour frequency component is obtained by frequency-transforming the contour image using a Fourier descriptor. “Position change” is the movement distance of the position of the object. “Number change” is a change in the number of objects.

以下に、機能特徴量抽出ユニット13が、観測結果から学習対象物体の機能特徴量を抽出する方法の例を説明する。機能特徴量抽出ユニット13は、上記の色変化、輪郭変化、位置変化及び個数変化の4つのパラメータを成分とする機能の特徴ベクトルを機能特徴量として抽出する。   Hereinafter, an example of a method in which the functional feature amount extraction unit 13 extracts the functional feature amount of the learning target object from the observation result will be described. The function feature amount extraction unit 13 extracts a feature vector of functions having the above four parameters of color change, contour change, position change and number change as function feature amounts.

具体的には、機能特徴量抽出ユニット13が有する被作用物領域抽出モジュール131が、学習対象物体の操作によって変化が生じる被作用物について、その変化の前後の画像データを比較して、背景差分法等を用いて被作用物の色変化、輪郭変化、位置変化及び個数変化の4つのパラメータを抽出する。そして、機能特徴量抽出ユニット13が有する機能特徴量算出モジュール132が、抽出された4つのパラメータを成分とする機能の特徴ベクトルを機能特徴量として算出する。算出された機能特徴量は、機能特徴量記憶領域304に格納される。   Specifically, the object feature region extraction module 131 included in the functional feature quantity extraction unit 13 compares the image data before and after the change for the subject that changes due to the operation of the learning target object, and determines the background difference. Using a method or the like, four parameters of color change, contour change, position change, and number change of the object are extracted. Then, the function feature quantity calculation module 132 included in the function feature quantity extraction unit 13 calculates a function feature vector having the extracted four parameters as components as a function feature quantity. The calculated function feature amount is stored in the function feature amount storage area 304.

次に、機能学習ユニット14が、機能特徴量を用いて学習対象物体の機能を学習する方法を説明する。機能学習ユニット14は、機能特徴量を解析して、学習対象物体の操作によって変化が生じる被作用物について、その変化の前後における被作用物の特定の変化のパターンをモデル化した機能モデルを生成する。   Next, a method in which the function learning unit 14 learns the function of the learning target object using the function feature amount will be described. The function learning unit 14 analyzes the function feature amount, and generates a function model that models a specific change pattern of the object before and after the change for the object that is changed by the operation of the learning target object. To do.

具体的には、機能特徴量について例えば混合ガウス分布を仮定し、変分ベイズ法等の統計学習手法を用いて機能特徴量の分布毎に平均値と分散が算出される。ここで、機能特徴量の分布毎に算出される平均値と分散を「機能モデル」とする。つまり、機能学習ユニット14によって生成される「機能モデル」は、機能特徴量を分布によってクラス分けしながら、機能特徴量の分布毎に平均値と分散を算出したものであり、機能特徴量の分布状態を表す。機能学習ユニット14は、機能特徴量の各分布が、それぞれ1つの機能であると推定する。   Specifically, for example, a mixed Gaussian distribution is assumed for the functional feature quantity, and an average value and a variance are calculated for each functional feature quantity distribution using a statistical learning method such as a variational Bayes method. Here, the average value and the variance calculated for each distribution of functional feature values are referred to as “functional model”. In other words, the “function model” generated by the function learning unit 14 is a function feature quantity is classified according to distribution, and an average value and variance are calculated for each function feature quantity distribution. Represents a state. The function learning unit 14 estimates that each distribution of the function feature amount is one function.

例えば、2つの成分x、yを被作用物の変化を示すパラメータとして有する特徴ベクトルが、図3に白丸(○)で表示した特徴ベクトルが含まれるクラスC1と黒丸(●)で表示した特徴ベクトルが含まれるクラスC2とに分かれて分布した場合、観測により抽出された機能特徴量は2種類の機能の特徴を含んでいることになる。そして、クラスC1とクラスC2それぞれについて平均値と分散を機能学習ユニット14が算出することによって、クラスC1に含まれる機能特徴量とクラスC2に含まれる機能特徴量によってそれぞれ表される2つの機能が学習され、2つの機能モデルが生成される。   For example, a feature vector having two components x and y as parameters indicating the change in the object is a feature vector displayed with a class C1 and a black circle (●) including the feature vector displayed with a white circle (◯) in FIG. When the function features are divided and distributed to the class C2 including the function feature amount extracted by observation, the feature features of two types are included. Then, the function learning unit 14 calculates the average value and the variance for each of the class C1 and the class C2, so that the two functions represented by the function feature amount included in the class C1 and the function feature amount included in the class C2 are obtained. Learning and two functional models are generated.

生成された機能モデルは、機能モデル記憶領域305に格納される。更に、生成された機能モデルが機能モデルデータベース50に格納される。その結果、機能モデルデータベース50が格納する機能モデルの種類を増やすことができる。機能モデルデータベース50は、クラス分けされた機能特徴量の分布毎に、平均値と分散からなる機能モデルを複数格納する。   The generated function model is stored in the function model storage area 305. Further, the generated function model is stored in the function model database 50. As a result, the types of function models stored in the function model database 50 can be increased. The function model database 50 stores a plurality of function models each consisting of an average value and a variance for each distribution of functional feature quantities classified into classes.

被作用物について複数の機能を示す変化が観測された場合は、図3に示したように機能特徴量は複数の分布を示し、それぞれの分布について機能モデルが生成される。つまり、機能学習ユニット14は、複数の物体の観測結果から、機能特徴量を分布に応じてクラス分けしながら、それぞれの分布について機能特徴量の平均値と分散を算出する。説明を分かりやすくするために図3では特徴ベクトルの成分が2つである場合を例示的に説明したが、特徴ベクトルの成分が3つ以上の場合も、同様にベクトル空間における特徴ベクトルの分布をクラス分けしながら、機能モデルが生成される。   When a change indicating a plurality of functions is observed for the object, the function feature amount indicates a plurality of distributions as shown in FIG. 3, and a function model is generated for each distribution. In other words, the function learning unit 14 classifies the function feature values according to the distribution from the observation results of the plurality of objects, and calculates the average value and variance of the function feature values for each distribution. For ease of explanation, FIG. 3 exemplifies the case where there are two feature vector components. However, when there are three or more feature vector components, the distribution of the feature vectors in the vector space is similarly shown. A functional model is generated while classifying.

上記で変分ベイズ法を使用する理由は、モデル数、即ち機能の数の推定が行えることや、パラメータを点推定ではなく確率分布として推定するため、パラメータ毎に変化の重みを考慮することができること等である。ここで「パラメータを確率分布として推定する」とは、平均や分散にも信頼度を持たせて機能を推定することである。例えば、学習対象物体がペンである場合、色変化のばらつきは大きいが、位置変化のばらつきは小さいことが予測される。変分ベイズ法によれば、パラメータ毎の変化の重要度も含めて学習対象物体の機能を学習することができる。   The reason why the variational Bayes method is used above is that the number of models, that is, the number of functions can be estimated, and the parameters are estimated not as point estimates but as probability distributions. It can be done. Here, “estimating a parameter as a probability distribution” means estimating a function by giving reliability to an average and a variance. For example, when the learning target object is a pen, it is predicted that the variation in color change is large, but the variation in position change is small. According to the variational Bayes method, it is possible to learn the function of the learning target object including the importance of the change for each parameter.

図1に示した物体認識システム1によって物体の機能を学習する例を、図4(a)及び図4(b)に示した物体群を使用して行った実験を例に用いて説明する。図4(a)及び図4(b)に示した物体群は5種類の物体を含み、図4(a)に示したAセットは、はさみa11〜a17、ペンa21〜28、ペンチa31〜a32、ピンセットa41〜a43、及びカッターa51〜a53からなる合計23個の物体を含む。図4(b)に示したBセットは、はさみb11〜b13、ペンb21〜b23、ペンチb31〜b32、ピンセットb41〜b42、及びカッターb51〜b52からなる合計12個の物体を含む。はさみの機能は被作用物の切断であり、被作用物の個数変化として観測される。ペンの機能は被作用物への記入であり、被作用物の色変化として観測される。ペンチの機能は被作用物の変形であり、被作用物の輪郭変化として観測される。ピンセットの機能は被作用物の移動であり、被作用物の位置変化として観測される。カッターの機能は被作用物の切断であり、被作用物の個数変化として観測される。   An example of learning the function of an object by the object recognition system 1 shown in FIG. 1 will be described using an experiment conducted using the object group shown in FIGS. 4A and 4B as an example. The object group shown in FIGS. 4A and 4B includes five types of objects, and the A set shown in FIG. 4A includes scissors a11 to a17, pens a21 to 28, and pliers a31 to a32. , A total of 23 objects including tweezers a41 to a43 and cutters a51 to a53. The set B shown in FIG. 4B includes a total of 12 objects including scissors b11 to b13, pens b21 to b23, pliers b31 to b32, tweezers b41 to b42, and cutters b51 to b52. The function of the scissors is to cut the object, which is observed as a change in the number of objects. The function of the pen is to fill in the object and is observed as a color change of the object. The function of the pliers is deformation of the object, and is observed as a change in the contour of the object. The function of tweezers is the movement of the object, which is observed as a change in the position of the object. The function of the cutter is to cut the object, which is observed as a change in the number of objects.

以下に、物体認識システム1が、図4(a)及び図4(b)に示した物体群の機能を学習する方法を、図5に示したフローチャートを用いて説明する。   Hereinafter, a method in which the object recognition system 1 learns the functions of the object group shown in FIGS. 4A and 4B will be described with reference to the flowchart shown in FIG.

(イ)ステップS10において、図1に示した画像データ取得装置20が、ユーザ等によって操作された学習対象物体が被作用物に影響を及ぼす様子を観測し、学習対象物体の操作前後の被作用物の画像データをそれぞれ取得する。ここで、図4(a)に示したAセットと図4(b)に示したBセットを合わせた合計35個の学習対象物体が、それぞれ10回ずつ操作される。取得された画像データは、入力データ記憶領域301に格納される。   (A) In step S10, the image data acquisition apparatus 20 shown in FIG. 1 observes the influence of the learning target object operated by the user or the like on the object, and the effect before and after the operation of the learning target object. Obtain image data of each object. Here, a total of 35 learning target objects including the A set shown in FIG. 4A and the B set shown in FIG. 4B are each operated 10 times. The acquired image data is stored in the input data storage area 301.

(ロ)ステップS20において、機能特徴量抽出ユニット13が、入力データ記憶領域301から学習対象物体の操作による影響が及ぶ前後の被作用物の画像データをそれぞれ読み出し、既に説明した方法を用いて、被作用物の画像データから学習対象物体の機能特徴量を抽出する。つまり、被作用物の画像データから、学習対象物体の操作の前後における被作用物の変化のパターンを示すパラメータを成分とする特徴ベクトルを機能特徴量として抽出する。抽出された機能特徴量は、機能特徴量記憶領域304に格納される。   (B) In step S20, the functional feature amount extraction unit 13 reads out the image data of the object before and after the influence of the operation of the learning target object from the input data storage area 301, and uses the method described above. The functional feature amount of the learning target object is extracted from the image data of the object. In other words, a feature vector whose component is a parameter indicating a pattern of change of the object before and after the operation of the learning target object is extracted from the image data of the object as a functional feature amount. The extracted function feature amount is stored in the function feature amount storage area 304.

(ハ)ステップS30において、機能学習ユニット14が、機能特徴量記憶領域304から機能特徴量を読み出し、機能特徴量を統計処理して学習対象物体の機能を学習する。具体的には、既に説明したように、変分ベイズ法等により学習対象物体の機能特徴量の分布毎に平均値と分散を算出して、分布毎の機能モデルを生成する。生成された機能モデルは、機能モデル記憶領域305に格納される。   (C) In step S30, the function learning unit 14 reads the function feature amount from the function feature amount storage area 304, and statistically processes the function feature amount to learn the function of the learning target object. Specifically, as already described, an average value and a variance are calculated for each distribution of functional feature quantities of the learning target object by a variational Bayes method or the like, and a functional model for each distribution is generated. The generated function model is stored in the function model storage area 305.

図6に、物体認識システム1が図4(a)及び図4(b)に示した物体群を用いて物体の機能を学習した学習実験例の結果を、物体認識システム1のユーザが評価した表を示す。図6は、機能の学習結果がどのように分類されたかを示している。図6に示した表において、「機能0」〜「機能3」は、画像データから取得された学習対象物体の機能特徴量を用いて推定された機能の種類である。   In FIG. 6, the user of the object recognition system 1 evaluated the result of the learning experiment example in which the object recognition system 1 learned the function of the object using the object group shown in FIGS. 4 (a) and 4 (b). A table is shown. FIG. 6 shows how the function learning results are classified. In the table illustrated in FIG. 6, “function 0” to “function 3” are types of functions estimated using the function feature amount of the learning target object acquired from the image data.

図6から、物体認識システム1が、図4(a)及び図4(b)に示した物体群の観測から、学習対象物体群の機能を4つの機能として識別したことがわかる。図6に示した「機能0」が「個数変化」、「機能1」が「輪郭変化」、「機能2」が「色変化」、「機能3」が「位置変化」にそれぞれ対応すると推定される。図6に示したように、「個数変化」として観測されるべき被作用物の変化が「機能0」ではなく「機能2」と分類されたケースが6例、「輪郭変化」として観測されるべき被作用物の変化が「機能1」ではなく「機能2」と分類されたケースが1例、「色変化」として観測されるべき被作用物の変化が「機能2」ではなく「機能1」と分類されたケースが3例あるが、その他の大部分のケースでは、被作用物の変化が正しい機能に分類されている。図6に示した学習実験結果では、正しく学習されたケースが340例、誤って学習されたケースが10例であり、正答率は97.1%である。誤って分類される原因としては、画像データに発生したノイズ等が考えられる。   From FIG. 6, it can be seen that the object recognition system 1 has identified the functions of the learning target object group as four functions from the observation of the object group shown in FIGS. 4 (a) and 4 (b). It is estimated that “function 0” shown in FIG. 6 corresponds to “number change”, “function 1” corresponds to “contour change”, “function 2” corresponds to “color change”, and “function 3” corresponds to “position change”. The As shown in FIG. 6, six cases in which the change in the object to be observed as “number change” is classified as “function 2” instead of “function 0” are observed as “contour change”. In one example, the change in the subject to be observed is classified as “function 2” instead of “function 1”, and the change in the subject to be observed as “color change” is not “function 2” but “function 1”. There are three cases classified as "", but in most of the other cases, the change in the object is classified as the correct function. In the learning experiment results shown in FIG. 6, there are 340 correctly learned cases, 10 wrongly learned cases, and the correct answer rate is 97.1%. As a cause of erroneous classification, noise generated in image data can be considered.

図7に、図4(a)及び図4(b)に示した物体群の観測により、変分ベイズ法によって機能モデルを生成する際に推定された機能モデル数の例を示す。図7の横軸は機能数、縦軸は自由エネルギーである。ここで、「自由エネルギー」は、モデルに対して機能の数が妥当か否かを示す数値である。図7に示すように、機能数が4の場合に自由エネルギーが最大であるため、学習対象物体の機能数が4つであると推定される。   FIG. 7 shows an example of the number of functional models estimated when the functional models are generated by the variational Bayes method by observing the object group shown in FIGS. 4 (a) and 4 (b). The horizontal axis in FIG. 7 is the number of functions, and the vertical axis is free energy. Here, “free energy” is a numerical value indicating whether or not the number of functions is appropriate for the model. As shown in FIG. 7, when the number of functions is 4, the free energy is the maximum, so it is estimated that the number of functions of the learning target object is 4.

図1に示した物体概念学習ユニット15が、算出された形状特徴量及び機能特徴量を用いて学習対象物体を学習する方法を、以下に説明する。   A method in which the object concept learning unit 15 shown in FIG. 1 learns a learning target object using the calculated shape feature amount and functional feature amount will be described below.

物体概念学習ユニット15の有する形状認識モジュール151は、形状特徴量を用いて学習対象物体の形状認識を行う。ここで、「形状認識」は、学習済みの物体の形状のコードベクトル群からなるコードブックを用いて、形状特徴量をベクトル量子化することである。つまり、物体の形状モデルを学習済みの形状モデルに当てはめることで、物体の形状が認識される。具体的には、形状認識モジュール151が、形状モデルデータベース40に格納されたコードベクトル群をコードブックとして学習対象物体の形状特徴量をベクトル量子化することで学習対象物体の形状を認識し、図2(b)に示した形状Sに関する情報を取得する。   The shape recognition module 151 included in the object concept learning unit 15 performs shape recognition of the learning target object using the shape feature amount. Here, “shape recognition” is vector quantization of shape feature quantities using a code book made up of code vector groups of learned object shapes. That is, the shape of the object is recognized by applying the shape model of the object to the learned shape model. Specifically, the shape recognition module 151 recognizes the shape of the learning target object by vector quantization of the shape feature amount of the learning target object using the code vector group stored in the shape model database 40 as a code book. Information on the shape S shown in 2 (b) is acquired.

物体概念学習ユニット15の有する機能認識モジュール152は、機能特徴量を用いて学習対象物体の機能認識を行う。「機能認識」は、物体の機能特徴量の分布と学習済みのクラス分けされた機能特徴量の分布とを比較して、物体の属するクラスを推定することである。具体的には、機能認識モジュール152が、学習対象物体の機能特徴量を分布に応じてクラス分けしながらそれぞれの分布について機能特徴量の平均値と分散を算出することで機能モデルを生成する。そして、機能認識モジュール152は、機能モデルデータベース50に格納された複数の機能モデルの中から、生成した機能モデルを最尤推定手法等により決定し、学習対象物体の機能を認識する。つまり、物体の機能モデルを学習済みの機能モデルに当てはめることで、物体の機能がどのクラスに属するかが判定され、学習対象物体の機能が認識される。その結果、図2(b)に示した機能Fに関する情報が取得される。   The function recognition module 152 included in the object concept learning unit 15 performs function recognition of the learning target object using the function feature amount. “Function recognition” refers to estimating the class to which an object belongs by comparing the distribution of the functional feature amount of the object with the learned distribution of the functional feature amount classified into classes. Specifically, the function recognition module 152 generates a function model by calculating the average value and the variance of the function feature amount for each distribution while classifying the function feature amount of the learning target object according to the distribution. Then, the function recognition module 152 determines a generated function model from among a plurality of function models stored in the function model database 50 by a maximum likelihood estimation method or the like, and recognizes the function of the learning target object. That is, by applying the function model of the object to the learned function model, it is determined which class the function of the object belongs to, and the function of the learning target object is recognized. As a result, information on the function F shown in FIG. 2B is acquired.

物体概念学習ユニット15の物体概念モデル生成モジュール153は、形状S及び機能Fに関する情報を用いて、図2(b)に示したベイジアンネットワークの条件付確率を推定して、学習対象物体の物体概念モデルを生成する。生成された物体概念モデルは、物体概念モデル記憶領域306に格納される。更に、生成された物体概念モデルが物体概念モデルデータベース60に格納される。その結果、物体概念モデルデータベース60が格納する物体概念モデルの種類を増やすことができる。   The object concept model generation module 153 of the object concept learning unit 15 estimates the conditional probability of the Bayesian network shown in FIG. Generate a model. The generated object concept model is stored in the object concept model storage area 306. Further, the generated object concept model is stored in the object concept model database 60. As a result, the types of object concept models stored in the object concept model database 60 can be increased.

ベイジアンネットワークの条件付確率の推定には、例えばエクスペクテイション・マキシミゼイション(EM)アルゴリズム等の統計学習手法が採用可能である。EMアルゴリズムは、不完全データから最尤推定値を数値的に求めるアルゴリズムであり、未観測情報を含む場合においてベイジアンネットワークの条件付確率の推定に有効な手法である。物体概念Oを隠れ変数としてEMアルゴリズムを適用することにより、条件付確率が推定される。また、条件付確率の推定に変分ベイズ法を採用してもよい。   For the estimation of the conditional probability of the Bayesian network, for example, a statistical learning method such as an extraction / maximization (EM) algorithm can be employed. The EM algorithm is an algorithm for numerically obtaining a maximum likelihood estimate from incomplete data, and is an effective technique for estimating a conditional probability of a Bayesian network when unobserved information is included. By applying the EM algorithm with the object concept O as a hidden variable, the conditional probability is estimated. Moreover, you may employ | adopt a variational Bayes method for estimation of conditional probability.

以下に、図1に示した物体認識システム1が、図4(a)及び図4(b)に示した物体群の物体概念を学習する方法を、図8に示したフローチャートを用いて説明する。   Hereinafter, a method in which the object recognition system 1 shown in FIG. 1 learns the object concept of the object group shown in FIGS. 4A and 4B will be described with reference to the flowchart shown in FIG. .

(イ)ステップS100において、図1に示した画像データ取得装置20が、ユーザ等が学習対象物体を操作することによって被作用物に影響が及ぶ様子を観測し、学習対象物体の操作前及び操作後それぞれの学習対象物体及び被作用物の画像データを取得する。ここで、図4(a)に示したAセットと図4(b)に示したBセットを合わせた合計35個の学習対象物体が、それぞれ10回ずつ物体認識システム1のユーザ等によって操作される。取得された画像データは、入力データ記憶領域301に格納される。   (A) In step S100, the image data acquisition apparatus 20 shown in FIG. 1 observes how the user or the like affects the object by operating the learning target object, and before and after operating the learning target object. Thereafter, image data of each learning target object and the subject is acquired. Here, a total of 35 learning target objects including the A set shown in FIG. 4A and the B set shown in FIG. 4B are operated by the user of the object recognition system 1 10 times each. The The acquired image data is stored in the input data storage area 301.

(ロ)ステップS110において、形状特徴量抽出ユニット11が、入力データ記憶領域301から操作前或いは操作後の学習対象物体の画像データを読み出す。形状特徴量抽出ユニット11は、既に説明したように学習対象物体の画像データをフーリエ記述子を用いて周波数変換する等して、形状特徴量を抽出する。抽出された形状特徴量は、形状特徴量記憶領域302に格納される。   (B) In step S110, the shape feature quantity extraction unit 11 reads the image data of the learning target object before or after the operation from the input data storage area 301. The shape feature quantity extraction unit 11 extracts the shape feature quantity by frequency-converting the image data of the learning target object using a Fourier descriptor, as already described. The extracted shape feature amount is stored in the shape feature amount storage area 302.

(ハ)ステップS120において、機能特徴量抽出ユニット13が、入力データ記憶領域301から学習対象物体の操作前後の被作用物の画像データを読み出す。機能特徴量抽出ユニット13は、既に説明した方法を用いて、被作用物の画像データから学習対象物体の機能特徴量を抽出する。抽出された機能特徴量は、機能特徴量記憶領域304に格納される。   (C) In step S <b> 120, the functional feature quantity extraction unit 13 reads out image data of the object before and after the operation of the learning target object from the input data storage area 301. The functional feature amount extraction unit 13 extracts the functional feature amount of the learning target object from the image data of the object using the method described above. The extracted function feature amount is stored in the function feature amount storage area 304.

(ニ)ステップS130において、物体概念学習ユニット15が、形状特徴量及び機能特徴量を、形状特徴量記憶領域302及び機能特徴量記憶領域304からそれぞれ読み出す。物体概念学習ユニット15は、既に説明したように、形状特徴量及び機能特徴量を用いて学習対象物体の物体概念モデルを作成することによって物体概念を学習する。具体的には、物体概念学習ユニット15は、形状特徴量をベクトル量子化することで学習対象物体の形状を認識し、図2(b)に示した形状Sに関する情報を取得する。更に、物体概念学習ユニット15は、学習対象物体の機能特徴量を分布に応じてクラス分けしながらそれぞれの分布について機能特徴量の平均値と分散を算出することで機能モデルを生成して、学習対象物体の機能を認識し、図2(b)に示した機能Fに関する情報を取得する。そして、物体概念学習ユニット15は、EMアルゴリズム等の統計学習手法を用いて学習対象物体の物体概念を学習して、物体概念モデルを生成する。生成された物体概念モデルは、物体概念モデル記憶領域306に格納される。   (D) In step S130, the object concept learning unit 15 reads the shape feature value and the function feature value from the shape feature value storage area 302 and the function feature value storage area 304, respectively. As described above, the object concept learning unit 15 learns the object concept by creating an object concept model of the learning target object using the shape feature quantity and the function feature quantity. Specifically, the object concept learning unit 15 recognizes the shape of the learning target object by vector quantization of the shape feature amount, and acquires information on the shape S shown in FIG. Further, the object concept learning unit 15 classifies the functional feature values of the learning target object according to the distribution, generates a functional model by calculating the average value and variance of the functional feature values for each distribution, and learns The function of the target object is recognized, and information related to the function F shown in FIG. Then, the object concept learning unit 15 learns the object concept of the learning target object using a statistical learning method such as an EM algorithm, and generates an object concept model. The generated object concept model is stored in the object concept model storage area 306.

図9に、物体認識システム1が図4(a)及び図4(b)に示した物体群を用いて物体概念を学習した学習実験例の結果を、ユーザが評価した表を示す。図9は、物体認識システム1による学習結果がどのように分類されたかを示している。図9に示した表において、「インデックス1」〜「インデックス5」は、物体認識システム1によって分類された物体のカテゴリーである。図9から、物体認識システム1が、図4(a)及び図4(b)に示した5種類の物体を5つのカテゴリーとして識別していることがわかる。   FIG. 9 shows a table in which the user has evaluated the results of a learning experiment example in which the object recognition system 1 has learned the object concept using the object group shown in FIGS. 4 (a) and 4 (b). FIG. 9 shows how learning results from the object recognition system 1 are classified. In the table shown in FIG. 9, “index 1” to “index 5” are object categories classified by the object recognition system 1. From FIG. 9, it can be seen that the object recognition system 1 identifies five types of objects shown in FIGS. 4A and 4B as five categories.

条件付確率が推定された後等に、観測された形状及び機能に基づき、物体概念モデルに物体概念Oとして名称を与えて物体の概念が構築される。例えば、分類された物体のカテゴリーに「はさみ」、「ペン」等の名称をつけることにより、図2(b)に示した物体の概念が学習される。図9に示した表では、「インデックス1」を「はさみ」、「インデックス2」を「ピンセット」、「インデックス3」を「ペン」、「インデックス4」を「ペンチ」、「インデックス5」を「カッター」としている。図9に示したように、「はさみ」として学習されるべき学習対象物体が「インデックス1」ではなく「インデックス5」と分類されたケースが5つある等、誤って学習されたケースがあるが、大部分の学習対象物体は正しく学習されている。図9に示した学習実験結果では、正しく学習されたケースが340例、誤って学習されたケースが10例であり、正答率は97.1%である。   For example, after the conditional probability is estimated, the object concept is constructed by giving the object concept model a name as the object concept O based on the observed shape and function. For example, by assigning names such as “scissors” and “pen” to the category of the classified object, the concept of the object shown in FIG. 2B is learned. In the table shown in FIG. 9, “index 1” is “scissors”, “index 2” is “tweezers”, “index 3” is “pen”, “index 4” is “pliers”, and “index 5” is “index”. "Cutter". As shown in FIG. 9, there are cases where the learning target object to be learned as “scissors” is erroneously learned, for example, there are five cases that are classified as “index 5” instead of “index 1”. Most of the objects to be learned are learned correctly. In the learning experiment results shown in FIG. 9, there are 340 correctly learned cases, 10 wrongly learned cases, and the correct answer rate is 97.1%.

次に、図1に示した物体認識システム1が、物体を認識する方法を説明する。物体認識システム1は、図2(b)に示した物体概念モデルと観測等により取得された情報を用いて、未観測の情報を含む未完全なデータから完全データを推定し、物体を認識する。具体的には、ベイズの定理に基づき、取得された情報から未観測の条件付確率を推定することにより、認識する対象の物体(以下において「認識対象物体」という。)を認識する。ベイズの定理を式(1)に示す:

P(a|b)={P(b|a)P(a)}/P(b) ・・・(1)

式(1)において、P(a)、P(b)は図2(b)に示したベイジアンネットワークのノードの条件付確率である(a、b=O、S、F)。また、P(a|b)、P(b|a)は、ノード間の条件付確率であり、例えば条件付確率P(a|b)は、ノードbが観測された場合におけるノードaの確率を示す。
Next, a method for recognizing an object by the object recognition system 1 shown in FIG. 1 will be described. The object recognition system 1 recognizes an object by estimating complete data from incomplete data including unobserved information using the object conceptual model shown in FIG. 2B and information acquired by observation or the like. . Specifically, an object to be recognized (hereinafter referred to as “recognition target object”) is recognized by estimating an unobserved conditional probability from the acquired information based on Bayes' theorem. Bayes' theorem is shown in equation (1):

P (a | b) = {P (b | a) P (a)} / P (b) (1)

In Equation (1), P (a) and P (b) are conditional probabilities of the nodes of the Bayesian network shown in FIG. 2B (a, b = O, S, F). P (a | b) and P (b | a) are conditional probabilities between nodes. For example, the conditional probability P (a | b) is the probability of the node a when the node b is observed. Indicates.

図1に示した物体認識ユニット16の有する形状認識モジュール161は、形状特徴量を用いて認識対象物体の形状認識を行う。具体的には、形状認識モジュール161が、学習済みの形状モデルのコードベクトルをコードブックとして認識対象物体の形状特徴量をベクトル量子化することで、認識対象物体の形状モデルを学習済みの形状モデルに当てはめて、認識対象物体の形状を認識し、形状に関する情報を取得する。   The shape recognition module 161 included in the object recognition unit 16 illustrated in FIG. 1 performs shape recognition of the recognition target object using the shape feature amount. Specifically, the shape recognition module 161 vector-quantizes the shape feature amount of the recognition target object using the code vector of the learned shape model as a code book, so that the shape model of the recognition target object is learned. Is applied to recognize the shape of the object to be recognized, and information about the shape is acquired.

物体認識ユニット16の有する機能認識モジュール162は、機能特徴量を用いて認識対象物体の機能認識を行う。具体的には、機能認識モジュール162が、認識対象物体の機能特徴量について平均値と分散を算出して機能モデルを推定する。そして、推定された認識対象物体の機能モデルと学習済みのクラス分けされた機能モデル群とを比較して、最尤推定手法等により認識対象物体の機能モデルが学習済みの機能モデル群のどのクラスに属するかを判定する。その結果、認識対象物体の機能が認識され、機能に関する情報が取得される。   The function recognition module 162 included in the object recognition unit 16 performs function recognition of the recognition target object using the function feature amount. Specifically, the function recognition module 162 estimates an average value and variance for the function feature amount of the recognition target object to estimate a function model. Then, compare the estimated function model of the recognition target object with the learned class model function group, and determine which class of the function model group the function model of the recognition target object has been learned by the maximum likelihood estimation method etc. It is determined whether it belongs to. As a result, the function of the recognition target object is recognized, and information regarding the function is acquired.

物体認識ユニット16の有する推定モジュール163は、観測等によって取得された認識対象物体の情報を用いて学習済みの物体概念モデルから認識対象物体の未観測ノードの条件付確率を推定することにより、認識対象物体の未観測ノードを認識する。   The estimation module 163 of the object recognition unit 16 recognizes by estimating the conditional probability of the unobserved node of the recognition target object from the learned object concept model using the information of the recognition target object acquired by observation or the like. Recognize unobserved nodes of the target object.

例えば、推定モジュール163は、形状認識モジュール161及び機能認識モジュール162によって取得された認識対象物体の形状及び機能に関する情報を用いて、認識対象物体の物体概念モデルから物体を認識する。また、推定モジュール163は、形状認識モジュール161によって取得された認識対象物体の形状に関する情報を用いて、認識対象物体の機能を推定する。更に、推定モジュール163は、入力された認識対象物体の機能に関する情報を用いて、認識対象物体の形状を推定する。   For example, the estimation module 163 recognizes an object from the object conceptual model of the recognition target object using information on the shape and function of the recognition target object acquired by the shape recognition module 161 and the function recognition module 162. In addition, the estimation module 163 estimates the function of the recognition target object using information regarding the shape of the recognition target object acquired by the shape recognition module 161. Further, the estimation module 163 estimates the shape of the recognition target object using the input information regarding the function of the recognition target object.

以下に、図1に示した物体認識システム1が、形状及び機能を観察して認識対象物体を認識する方法を、図10に示したフローチャートを用いて説明する。   Hereinafter, a method in which the object recognition system 1 shown in FIG. 1 recognizes a recognition target object by observing the shape and function will be described with reference to the flowchart shown in FIG.

(イ)ステップS200において、画像データ取得装置20が、ユーザ等が認識対象物体を操作することによって被作用物に影響が及ぶ様子を観測し、認識対象物体の操作前及び操作後それぞれの認識対象物体及び被作用物の画像データを取得する。取得された画像データは、入力データ記憶領域301に格納される。   (A) In step S200, the image data acquisition device 20 observes how the user or the like operates on the object to be recognized, and affects the object to be recognized. Obtain image data of the object and the object. The acquired image data is stored in the input data storage area 301.

(ロ)ステップS210において、形状特徴量抽出ユニット11が、入力データ記憶領域301から操作前或いは操作後の認識対象物体の画像データを読み出す。形状特徴量抽出ユニット11は、既に説明したように、認識対象物体の画像データをフーリエ記述子を用いて周波数変換する等して、形状特徴量を抽出する。抽出された認識対象物体の形状特徴量は、形状特徴量記憶領域302に格納される。   (B) In step S210, the shape feature quantity extraction unit 11 reads the image data of the recognition target object before or after the operation from the input data storage area 301. As described above, the shape feature quantity extraction unit 11 extracts the shape feature quantity by frequency-converting the image data of the recognition target object using a Fourier descriptor. The extracted shape feature amount of the recognition target object is stored in the shape feature amount storage area 302.

(ハ)ステップS220において、機能特徴量抽出ユニット13が、認識対象物体の操作前及び操作後の被作用物の画像データを入力データ記憶領域301から読み出す。機能特徴量抽出ユニット13は、既に説明した方法を用いて、被作用物の画像データから認識対象物体の機能特徴量を抽出する。抽出された機能特徴量は、機能特徴量記憶領域304に格納される。   (C) In step S220, the functional feature quantity extraction unit 13 reads the image data of the object before and after the operation of the recognition target object from the input data storage area 301. The functional feature amount extraction unit 13 extracts the functional feature amount of the recognition target object from the image data of the object using the method described above. The extracted function feature amount is stored in the function feature amount storage area 304.

(ニ)ステップS230において、物体認識ユニット16が、認識対象物体の形状特徴量及び機能特徴量を、形状特徴量記憶領域302及び機能特徴量記憶領域304からそれぞれ読み出す。そして、物体認識ユニット16は、認識対象物体の形状特徴量及び機能特徴量から認識対象物体を認識する。具体的には、ステップS231において、物体認識ユニット16の形状認識モジュール161が、形状モデルデータベース40に格納されたコードベクトル群をコードブックとして認識対象物体の形状特徴量をベクトル量子化して、認識対象物体の形状を認識する。また、ステップS232において、機能認識モジュール162が、機能モデルデータベース50に格納された機能モデル群と比較することによって、認識対象物体の機能特徴量から機能モデルを推定し、認識対象物体の機能を認識する。そして、ステップS233において、推定モジュール163が、認識された形状及び機能を用いて、式(1)に示したベイズの定理等の統計的手法によって認識対象物体の未観測の条件付確率を推定することにより、物体概念モデルデータベース60に格納された学習済みの物体概念モデルを用いて、認識対象物体が認識される。認識対象物体の認識結果、即ち認識対象物体の推定された物体概念モデル等は、認識結果記憶領域307に格納される。物体認識システム1のユーザは、出力装置80を介して認識結果記憶領域307に格納された認識結果を確認できる。   (D) In step S230, the object recognition unit 16 reads the shape feature value and the function feature value of the recognition target object from the shape feature value storage area 302 and the function feature value storage area 304, respectively. Then, the object recognition unit 16 recognizes the recognition target object from the shape feature amount and the functional feature amount of the recognition target object. Specifically, in step S231, the shape recognition module 161 of the object recognition unit 16 vector-quantizes the shape feature amount of the recognition target object using the code vector group stored in the shape model database 40 as a code book, and the recognition target Recognize the shape of an object. In step S232, the function recognition module 162 estimates the function model from the function feature amount of the recognition target object by comparing with the function model group stored in the function model database 50, and recognizes the function of the recognition target object. To do. In step S233, the estimation module 163 estimates the unobserved conditional probability of the recognition target object by a statistical method such as Bayes' theorem shown in Expression (1) using the recognized shape and function. As a result, the recognition target object is recognized using the learned object concept model stored in the object concept model database 60. The recognition result of the recognition target object, that is, the estimated object conceptual model of the recognition target object is stored in the recognition result storage area 307. The user of the object recognition system 1 can check the recognition result stored in the recognition result storage area 307 via the output device 80.

以上に説明したように、物体認識システム1は、認識対象物体を観測して取得された画像データから、機能特徴量及び形状特徴量を抽出する。そして、抽出された機能特徴量及び形状特徴量と物体概念モデルを用いて未観測の条件付確率を推定することにより、認識対象物体を認識する。   As described above, the object recognition system 1 extracts the functional feature amount and the shape feature amount from the image data acquired by observing the recognition target object. Then, the recognition target object is recognized by estimating an unobserved conditional probability using the extracted functional feature amount and shape feature amount and the object conceptual model.

上記では、形状と機能の観測結果を用いて物体概念モデルの条件付確率を推定することにより、認識対象物体を認識する例を説明した。以下に、物体認識システム1が、形状を観察して認識対象物体の機能を認識する方法を、図4(a)及び図4(b)に示した物体群を使用して行った実験を例に用いて説明する。以下では、図4(a)に示したAセットに含まれる物体群を学習した結果を用いて、図4(b)Bセットに含まれる物体群を認識する例を、図11に示したフローチャートを用いて説明する。つまり、Aセットに含まれる合計23個の物体が学習対象物体として学習され、Bセットに含まれる合計12個の物体が認識対象物体として認識される。   In the above description, the example in which the recognition target object is recognized by estimating the conditional probability of the object conceptual model using the observation result of the shape and the function has been described. Hereinafter, an example in which the object recognition system 1 observes the shape and recognizes the function of the recognition target object by using the object group shown in FIGS. 4A and 4B will be described as an example. It explains using. In the following, an example of recognizing the object group included in the B set in FIG. 4B using the result of learning the object group included in the A set illustrated in FIG. Will be described. That is, a total of 23 objects included in the A set are learned as learning target objects, and a total of 12 objects included in the B set are recognized as recognition target objects.

(イ)ステップS300において、図8に示したフローチャートを参照して説明した方法を用いて学習対象物体の概念モデルが生成され、学習対象物体が学習される。具体的には、図1に示した画像データ取得装置20が、学習対象物体が操作されて被作用物に影響が及ぶ様子を観測し、学習対象物体の操作前及び操作後それぞれの学習対象物体及び被作用物の画像データを取得する。ここで、図4(a)に示したAセットに含まれる合計23個の学習対象物体が、それぞれ10回ずつユーザ等によって操作される。取得された学習対象物体の画像データから、形状特徴量抽出ユニット11が学習対象物体の形状特徴量を抽出し、機能特徴量抽出ユニット13が学習対象物体の形状特徴量を抽出する。形状学習ユニット12が抽出された学習対象物体の形状特徴量から形状モデルを生成し、生成された形状モデルは形状モデル記憶領域303に格納される。機能学習ユニット14が抽出された学習対象物体の機能特徴量から機能モデルを生成し、生成された形状モデルは機能モデル記憶領域305に格納される。そして、物体概念学習ユニット15が、抽出された形状特徴量及び機能特徴量を用いて学習対象物体の物体概念を学習して、物体概念モデルを生成する。生成された物体概念モデルは、物体概念モデル記憶領域306に格納される。   (A) In step S300, a conceptual model of the learning target object is generated using the method described with reference to the flowchart shown in FIG. 8, and the learning target object is learned. Specifically, the image data acquisition device 20 shown in FIG. 1 observes how the learning target object is manipulated and affects the actuated object, and each learning target object before and after the operation of the learning target object is observed. And image data of the object to be processed. Here, a total of 23 learning target objects included in the A set shown in FIG. 4A are each operated 10 times by the user or the like. From the acquired image data of the learning target object, the shape feature quantity extraction unit 11 extracts the shape feature quantity of the learning target object, and the function feature quantity extraction unit 13 extracts the shape feature quantity of the learning target object. The shape learning unit 12 generates a shape model from the extracted shape feature amount of the learning target object, and the generated shape model is stored in the shape model storage area 303. The function learning unit 14 generates a function model from the function feature amount of the extracted learning target object, and the generated shape model is stored in the function model storage area 305. Then, the object concept learning unit 15 learns the object concept of the learning target object using the extracted shape feature quantity and functional feature quantity, and generates an object concept model. The generated object concept model is stored in the object concept model storage area 306.

(ロ)ステップS310において、画像データ取得装置20が、認識対象物体である図4(b)に示したBセットに含まれる物体群を観測して、画像データを取得する。取得された認識対象物体の画像データは、入力データ記憶領域301に格納される。   (B) In step S310, the image data acquisition apparatus 20 observes an object group included in the B set shown in FIG. 4B, which is a recognition target object, and acquires image data. The acquired image data of the recognition target object is stored in the input data storage area 301.

(ハ)ステップS320において、形状特徴量抽出ユニット11が、入力データ記憶領域301から認識対象物体の画像データを読み出す。形状特徴量抽出ユニット11は、既に説明したように、認識対象物体の画像データをフーリエ記述子を用いて周波数変換する等して、形状特徴量を抽出する。抽出された認識対象物体の形状特徴量は、形状特徴量記憶領域302に格納される。   (C) In step S320, the shape feature quantity extraction unit 11 reads the image data of the recognition target object from the input data storage area 301. As described above, the shape feature quantity extraction unit 11 extracts the shape feature quantity by frequency-converting the image data of the recognition target object using a Fourier descriptor. The extracted shape feature amount of the recognition target object is stored in the shape feature amount storage area 302.

(ニ)ステップS330において、物体認識ユニット16が、認識対象物体の形状特徴量を形状特徴量記憶領域302から読み出す。物体認識ユニット16は、認識対象物体の形状特徴量を用いて、認識対象物体の機能を認識する。具体的には、ステップS331において、物体認識ユニット16の形状認識モジュール161が、形状モデル記憶領域303に格納されたAセットに含まれる物体群のコードベクトル群をコードブックとして認識対象物体の形状特徴量をベクトル量子化して、認識対象物体の形状を認識する。そして、ステップS332において、物体認識ユニット16の推定モジュール163が、学習対象物体の機能モデル及び物体概念モデルを、機能モデル記憶領域305及び物体概念モデル記憶領域306からそれぞれ読み出す。推定モジュール163は、ベイズの定理等の統計的手法を物体概念モデルに適用して、認識対象物体の形状の情報を用いて学習対象物体の機能モデルから機能の条件付確率を推定し、認識対象物体の機能を認識する。認識された認識対象物体の機能は、認識結果記憶領域307に格納される。   (D) In step S330, the object recognition unit 16 reads the shape feature value of the recognition target object from the shape feature value storage area 302. The object recognition unit 16 recognizes the function of the recognition target object using the shape feature amount of the recognition target object. Specifically, in step S331, the shape recognition module 161 of the object recognition unit 16 uses the code vector group of the object group included in the A set stored in the shape model storage area 303 as a code book, and the shape feature of the recognition target object. The quantity of the vector is quantized to recognize the shape of the recognition target object. In step S332, the estimation module 163 of the object recognition unit 16 reads the functional model and the object concept model of the learning target object from the function model storage area 305 and the object concept model storage area 306, respectively. The estimation module 163 applies a statistical method such as Bayes' theorem to the object conceptual model, estimates the conditional probability of the function from the functional model of the learning target object using the information on the shape of the recognition target object, and recognizes the recognition target Recognize the function of an object. The recognized function of the recognition target object is stored in the recognition result storage area 307.

図12に、上記に説明した図4(a)及び図4(b)に示した物体群を用いた物体の機能を認識する認識実験例の結果の表を示す。図12は、Aセットに含まれる物体群を学習した結果を用いて、Bセットに含まれる物体群の形状の観測結果から、Bセットに含まれる物体群がどのような機能に分類されたかを示している。図12に示した表は、Aセットに含まれる物体群を10回ずつ操作する様子を観測して学習した後、Bセットに含まれる物体群の形状を観測することによって機能を認識する実験を3回行った例である。   FIG. 12 shows a table of results of a recognition experiment example for recognizing the function of an object using the object group shown in FIGS. 4A and 4B described above. FIG. 12 shows the functions of the object groups included in the B set classified according to the observation results of the shapes of the object groups included in the B set using the learning results of the object groups included in the A set. Show. The table shown in FIG. 12 shows an experiment for recognizing a function by observing the operation of the object group included in the A set 10 times each and then observing the shape of the object group included in the B set. This is an example performed three times.

図12から、物体認識システム1が、Aセットに含まれる物体群の機能を4つの機能として学習し、Bセットに含まれる物体群を学習された4つの機能に分類したことがわかる。図12において、「機能0」〜「機能3」は、Bセットに含まれる物体群機能の観測結果を用いて推定された機能の種類であり、図6に示した「機能0」〜「機能3」に対応する。つまり、「機能0」が「個数変化」、「機能1」が「輪郭変化」、「機能2」が「色変化」、「機能3」が「位置変化」にそれぞれ対応する。   From FIG. 12, it can be seen that the object recognition system 1 learns the functions of the object group included in the A set as four functions and classifies the object group included in the B set into the learned four functions. In FIG. 12, “function 0” to “function 3” are types of functions estimated using observation results of object group functions included in the B set, and “function 0” to “function” shown in FIG. 3 ". That is, “function 0” corresponds to “number change”, “function 1” corresponds to “contour change”, “function 2” corresponds to “color change”, and “function 3” corresponds to “position change”.

図12に示したように、「機能0」として認識されるべきカッターb52の機能が「機能2」であると誤って認識されたケースがあるが、大部分の認識対象物体は正しく認識されている。図12に示した認識実験結果では、正しく認識されたケースが33例、誤って認識されたケースが3例であり、正答率は91.7%である。   As shown in FIG. 12, there is a case where the function of the cutter b52 to be recognized as “function 0” is erroneously recognized as “function 2”, but most of the recognition target objects are recognized correctly. Yes. In the recognition experiment results shown in FIG. 12, 33 cases were correctly recognized, 3 cases were erroneously recognized, and the correct answer rate was 91.7%.

上記では、Aセットに含まれる物体群の学習結果を用いて、Bセットに含まれる物体群を認識する例を示した。Aセットに含まれる物体群の学習結果だけではなく、以前に学習され、物体概念モデルデータベース60に格納された物体概念モデルを用いてBセットに含まれる物体群を認識してもよいのは勿論である。   In the above, the example which recognizes the object group contained in B set using the learning result of the object group contained in A set was shown. Of course, the object group included in the B set may be recognized using not only the learning result of the object group included in the A set but also the object concept model previously learned and stored in the object concept model database 60. It is.

以上に説明したように、物体認識システム1は、形状の情報から、物体概念モデルを利用して未観測の条件付確率を推定することにより、未学習物体の機能を推定できる。   As described above, the object recognition system 1 can estimate the function of an unlearned object by estimating an unobserved conditional probability from shape information using an object concept model.

次に、物体認識システム1が、認識対象物体の機能を用いて、認識対象物体の形状を認識する例を、図13に示したフローチャートを用いて説明する。   Next, an example in which the object recognition system 1 recognizes the shape of the recognition target object using the function of the recognition target object will be described using the flowchart shown in FIG.

(イ)ステップS400において、入力装置70を介して、ユーザが指定する機能の情報が入力される。入力された機能の情報は、認識対象物体の機能の情報として入力データ記憶領域301に格納される。ここで、機能の情報としては、例えば図6に示した「機能0」〜「機能3」等の、物体認識システム1が学習済みの機能であるとする。   (A) In step S400, information on the function designated by the user is input via the input device 70. The input function information is stored in the input data storage area 301 as the function information of the recognition target object. Here, it is assumed that the function information is a function that the object recognition system 1 has learned, such as “function 0” to “function 3” illustrated in FIG.

(ロ)ステップS410において、物体認識ユニット16が、認識対象物体の機能の情報を入力データ記憶領域301から読み出す。物体認識ユニット16は、認識対象物体の機能の情報を用いて、認識対象物体の形状を推定する。具体的には、物体認識ユニット16の推定モジュール163が、学習対象物体の形状モデル及び物体概念モデルを、形状モデルデータベース40及び物体概念モデルデータベース60からそれぞれ読み出す。推定モジュール163は、ベイズの定理等の統計的手法を物体概念モデルに適用して、認識対象物体の機能の情報を用いて学習済みの形状モデルから形状の条件付確率を推定し、認識対象物体の形状を認識する。認識された認識対象物体の形状は、認識結果記憶領域307に格納される。   (B) In step S410, the object recognition unit 16 reads out information on the function of the recognition target object from the input data storage area 301. The object recognition unit 16 estimates the shape of the recognition target object using information on the function of the recognition target object. Specifically, the estimation module 163 of the object recognition unit 16 reads the shape model and the object concept model of the learning target object from the shape model database 40 and the object concept model database 60, respectively. The estimation module 163 applies a statistical method such as Bayes' theorem to the object conceptual model, estimates the conditional probability of the shape from the learned shape model using the function information of the recognition target object, and recognizes the recognition target object. Recognize the shape. The shape of the recognized recognition target object is stored in the recognition result storage area 307.

上記では、入力される機能の情報が、図6に示した「機能0」〜「機能3」等の既に学習済みの機能である例を説明したが、より一般的な物体の機能を入力して、物体認識ユニット16が、機能モデルデータベース50に格納された学習済みの機能モデルを参照して、入力された機能を学習済みの機能モデルに変換してもよい。例えば、入力された「切る」という情報から、ユーザが指定する機能に必要な機能を、機能特徴量を抽出される際に「個数変化」を被作用物の変化のパラメータとして学習された機能に変換する。   In the above description, an example is described in which the function information to be input is a function that has already been learned, such as “function 0” to “function 3” illustrated in FIG. 6, but a more general object function is input. Then, the object recognition unit 16 may convert the input function into a learned function model with reference to the learned function model stored in the function model database 50. For example, the function necessary for the function specified by the user from the input information “cut” is changed to the function learned using “number change” as the parameter of change of the object when the function feature amount is extracted. Convert.

以上に説明したように、物体認識システム1は、入力された機能の情報から、物体概念モデルを利用して未観測の条件付確率を推定することにより、未学習物体の形状を推定する。つまり、どのような形状の物体が、指定された機能を実行可能か推定できる。   As described above, the object recognition system 1 estimates the shape of the unlearned object by estimating the unobserved conditional probability from the input function information using the object concept model. That is, it is possible to estimate what shape of the object can execute the designated function.

図5、図8に示した一連の物体学習操作、及び図10、図11、図13に示した一連の物体認識操作は、これらの図と等価なアルゴリズムのプログラムにより、図1に示した物体認識システム1を制御して実行できる。このプログラムは、図1に示した物体認識システム1を構成する記憶装置30に記憶させればよい。又、このプログラムは、コンピュータ読み取り可能な記録媒体に保存し、この記録媒体を図1に示した記憶装置30に読み込ませることにより、本発明の一連の物体学習操作及び物体認識操作を実行することができる。   The series of object learning operations shown in FIGS. 5 and 8 and the series of object recognition operations shown in FIGS. 10, 11, and 13 are performed by the algorithm program equivalent to these figures, and the objects shown in FIG. The recognition system 1 can be controlled and executed. This program may be stored in the storage device 30 constituting the object recognition system 1 shown in FIG. The program is stored in a computer-readable recording medium, and the recording medium is read into the storage device 30 shown in FIG. 1 to execute a series of object learning operations and object recognition operations of the present invention. Can do.

本発明の実施の形態に係る物体認識システム1によれば、観測により取得される学習対象物体の形状及び被作用物の形状の情報を用いて、学習対象物体の物体の概念が学習される。つまり、図1に示した物体認識システム1では、学習対象物体の形状以外に、被作用物の形状の変化を用いて抽出される学習対象物体の機能の情報をベイジアンネットワークのノードに適用可能な特徴量として抽出する。そして、ベイジアンネットワークとして物体概念モデルを生成し、物体を学習する。そのため、学習対象物体の形状の画像データのみを用いる物体の学習方法と異なり、画像データのノイズの影響等による物体の誤認識が低減され、且つ学習対象物体の機能が考慮された精度の高い物体の学習が可能である。又、図1に示した物体認識システム1では、ベイジアンネットワークの物体概念モデルを使用するため、ベイズの定理等の統計的手法によって、観測により取得される認識対象物体の情報から、未学習の認識対象物体の情報を高い精度で推定できる。   According to the object recognition system 1 according to the embodiment of the present invention, the concept of the object of the learning target object is learned using the information on the shape of the learning target object and the shape of the object to be acquired obtained by observation. That is, in the object recognition system 1 shown in FIG. 1, in addition to the shape of the learning target object, information on the function of the learning target object extracted using the change in the shape of the object can be applied to the nodes of the Bayesian network. Extracted as feature quantity. Then, an object concept model is generated as a Bayesian network, and the object is learned. Therefore, unlike the object learning method that uses only the image data of the shape of the learning target object, it is possible to reduce the erroneous recognition of the object due to the influence of noise in the image data, etc., and the highly accurate object considering the function of the learning target object Learning is possible. In addition, since the object recognition system 1 shown in FIG. 1 uses the Bayesian network object conceptual model, unrecognized recognition is performed from the information of the recognition target object obtained by observation by a statistical method such as Bayesian theorem. Information on the target object can be estimated with high accuracy.

<変形例>
図1に示した物体認識システム1を、家庭用、工業用、或いはエンタテイメント用のロボット等に実装することが可能である。物体認識システム1を実装したロボットには、ユーザからの指令を受信するマイク、センサ等の受信部が入力装置70として実装される。また、画像データ取得装置20として、ロボットの周囲にある物体の画像データを取得するために、画像データを撮影する範囲を変更できる可動式のカメラ等を実装可能である。更に、学習対象物体、或いは認識対象物体に接近するための車輪や、認識した物体を掴み、ユーザに渡すアーム等を有してもよい。
<Modification>
The object recognition system 1 shown in FIG. 1 can be mounted on a home, industrial, or entertainment robot. In the robot equipped with the object recognition system 1, a receiving unit such as a microphone and a sensor that receives a command from a user is mounted as the input device 70. Further, as the image data acquisition device 20, in order to acquire image data of an object around the robot, it is possible to mount a movable camera or the like that can change the range in which the image data is captured. Furthermore, it may have a wheel for approaching the learning target object or the recognition target object, an arm for grasping the recognized object and handing it to the user.

物体認識システム1を実装したロボットは、ユーザから明示的に指示されていなくても、ロボットの周囲の観測可能な領域で物体が操作された場合に操作された物体を自動的に学習するように設定できる。そのため、予め物体学習用にプログラムしておく必要がなく、ロボットは家庭内や工場内で自律的に物体を学習できる。   A robot equipped with the object recognition system 1 automatically learns an operated object when the object is operated in an observable area around the robot, even if not explicitly instructed by the user. Can be set. Therefore, it is not necessary to program for object learning in advance, and the robot can learn objects autonomously at home or in a factory.

また、ロボットに物体認識システム1を実装することにより、ロボットとコミュニケーションを取りながら物体を認識することができる。例えば、物体認識システム1の有する、物体の機能の情報から形状を認識する機能を用いてユーザの指定する機能を有する物体をロボットが推定し、ユーザに通知すること等が可能である。その場合、ユーザが必要とする機能の情報をロボットに入力すると、図13に示したフローチャートを参照して説明した方法を用いて、ロボットはユーザが必要とする機能を実行する形状を推定する。そして、ロボットは周囲を観測して、ロボットの周囲の物体の中に推定された形状の物体を認識すると、入力された機能を実行する物体の位置をユーザに通知する。または、認識した物体のある場所までユーザを案内したり、物体のある場所まで移動してアーム等を用いて認識した物体を取得し、ユーザに手渡ししたりするようにしてもよい。或いは、ロボットが周囲の物体の形状からそれぞれの機能を認識し、ユーザが指定する機能を実行すると認識された物体の所在をユーザに通知してもよい。   Further, by mounting the object recognition system 1 on the robot, the object can be recognized while communicating with the robot. For example, the robot can estimate an object having a function designated by the user by using the function of recognizing the shape from information on the function of the object included in the object recognition system 1 and notify the user of the object. In this case, when information on a function required by the user is input to the robot, the robot estimates a shape for executing the function required by the user using the method described with reference to the flowchart shown in FIG. Then, when the robot observes the surroundings and recognizes an estimated shape object among the surrounding objects of the robot, the robot notifies the user of the position of the object that performs the input function. Alternatively, the user may be guided to a location where the recognized object is located, or the user may be moved to the location where the object is located, acquire the recognized object using an arm or the like, and hand it to the user. Alternatively, the robot may recognize each function from the shape of surrounding objects and notify the user of the location of the recognized object when executing the function designated by the user.

また、形状と機能の関係性を表すベイジアンネットワークを学習することによって物体のアフォーダンスをロボットが認識することにより、例えばユーザが被作用物を切断するためにはさみを指定した場合に、カッターによってユーザの指定する機能に準ずる機能を実現できることをロボットが推定できる。或いは、被作用物を掴むためにユーザが箸を指定した場合に、ペンを2本使うことでユーザの指定する機能に準ずる機能を実現できる等の、形状に依存する機能の推定や使用方法をロボットが推定できる。   In addition, the robot recognizes the affordance of the object by learning the Bayesian network that represents the relationship between the shape and the function.For example, when the user specifies scissors to cut the object, the cutter The robot can estimate that the function according to the specified function can be realized. Or, when the user designates chopsticks to grab the object, the function that depends on the shape can be realized and used by using two pens. The robot can be estimated.

(その他の実施の形態)
上記のように、本発明は実施の形態によって記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As described above, the present invention has been described according to the embodiment. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

既に述べた実施の形態の説明においては、機能モデルデータベース50や形状モデルデータベース40に格納された、過去に学習された形状モデルや機能モデルを用いて学習対象物体を学習する例を示した。しかし、過去に学習した形状モデルや機能モデルがない場合等に、学習対象物体を観測して得られた情報から生成される形状モデルや機能モデルを用いて学習対象物体を学習し、物体概念モデルを生成してもよい。例えば、形状特徴量抽出ユニット11が複数の学習対象物体の形状特徴量を抽出した場合、形状特徴量をk平均法等でクラスタリングすることにより、観測結果からベクトル量子化の際に使用されるコードブックが生成される。   In the description of the embodiment described above, an example in which a learning target object is learned using a shape model or function model learned in the past stored in the function model database 50 or the shape model database 40 has been described. However, when there is no shape model or function model learned in the past, the object concept model is learned using the shape model or function model generated from the information obtained by observing the learning target object. May be generated. For example, when the shape feature quantity extraction unit 11 extracts shape feature quantities of a plurality of learning target objects, the codes used for vector quantization from the observation results are obtained by clustering the shape feature quantities by the k-average method or the like. A book is generated.

このように、本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。したがって、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   As described above, the present invention naturally includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

本発明の実施の形態に係る物体認識システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムに適用される物体の概念を説明するための模式図であり、図2(a)は物体認識システムによる物体の認識を表す模式図であり、図2(b)は図2(a)に示す模式図に対応する物体概念モデルを示す模式図である。FIG. 2 is a schematic diagram for explaining the concept of an object applied to the object recognition system according to the embodiment of the present invention, and FIG. 2A is a schematic diagram showing object recognition by the object recognition system; FIG. 3B is a schematic diagram illustrating an object conceptual model corresponding to the schematic diagram illustrated in FIG. 本発明の実施の形態に係る物体認識システムが解析する特徴ベクトルの分布を示すグラフである。It is a graph which shows distribution of the feature vector which the object recognition system concerning an embodiment of the invention analyzes. 本発明の実施の形態に係る物体認識システムが学習する物体の例である。It is an example of the object which the object recognition system which concerns on embodiment of this invention learns. 本発明の実施の形態に係る物体認識システムによって物体の機能を学習する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of learning the function of an object by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによる物体の機能の学習結果の例を示す表である。It is a table | surface which shows the example of the learning result of the function of the object by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによって推定された機能モデル数の例を示すグラフである。It is a graph which shows the example of the number of functional models estimated by the object recognition system concerning an embodiment of the invention. 本発明の実施の形態に係る物体認識システムによって物体概念を学習する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of learning an object concept with the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによる物体概念の学習結果の例を示す表である。It is a table | surface which shows the example of the learning result of the object concept by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによって物体を認識する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of recognizing an object by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによって物体の機能を認識する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of recognizing the function of an object by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによる物体の機能の認識結果の例を示す表である。It is a table | surface which shows the example of the recognition result of the function of the object by the object recognition system which concerns on embodiment of this invention. 本発明の実施の形態に係る物体認識システムによって物体の形状を認識する方法を説明するためのフローチャートである。It is a flowchart for demonstrating the method of recognizing the shape of an object by the object recognition system which concerns on embodiment of this invention.

符号の説明Explanation of symbols

1…物体認識システム
10…処理装置
11…形状特徴量抽出ユニット
12…形状学習ユニット
13…機能特徴量抽出ユニット
14…機能学習ユニット
15…物体概念学習ユニット
16…物体認識ユニット
20…画像データ取得装置
30…記憶装置
40…形状モデルデータベース
50…機能モデルデータベース
60…物体概念モデルデータベース
111…学習物体領域抽出モジュール
112…形状特徴量算出モジュール
131…被作用物領域抽出モジュール
132…機能特徴量算出モジュール
151…形状認識モジュール
152…機能認識モジュール
153…物体概念モデル生成モジュール
161…形状認識モジュール
162…機能認識モジュール
163…推定モジュール
DESCRIPTION OF SYMBOLS 1 ... Object recognition system 10 ... Processing apparatus 11 ... Shape feature-value extraction unit 12 ... Shape learning unit 13 ... Functional feature-value extraction unit 14 ... Function learning unit 15 ... Object concept learning unit 16 ... Object recognition unit 20 ... Image data acquisition apparatus DESCRIPTION OF SYMBOLS 30 ... Memory | storage device 40 ... Shape model database 50 ... Functional model database 60 ... Object concept model database 111 ... Learning object area | region extraction module 112 ... Shape feature-value calculation module 131 ... Operate object area | region extraction module 132 ... Functional feature-value calculation module 151 ... shape recognition module 152 ... function recognition module 153 ... object concept model generation module 161 ... shape recognition module 162 ... function recognition module 163 ... estimation module

Claims (15)

物体の画像データ、及び該物体が操作されることにより影響を受ける被作用物の前記物体の操作前後における画像データをそれぞれ取得する画像データ取得装置と、
前記物体の画像データから前記物体の形状特徴量を抽出する形状特徴量抽出ユニットと、
前記操作前後の画像データから前記被作用物の変化を前記物体の機能特徴量として抽出する機能特徴量抽出ユニットと、
機能、形状及び物体概念を要素とし、該要素間の依存関係を条件付確率で表す物体概念モデルに、前記形状特徴量を用いて認識される前記物体の形状と前記機能特徴量を用いて認識される前記物体の機能とを適用して統計的に処理し、前記物体の物体概念を推定して前記物体を学習する物体概念学習ユニットと、
認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を前記学習された物体の物体概念モデルに適用して統計的に処理し、前記認識対象物体の未観測情報を推定して前記認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識する物体認識ユニット
とを備えることを特徴とする物体認識システム。
An image data acquisition device for acquiring image data of an object and image data before and after the operation of the object of an object affected by the operation of the object;
A shape feature amount extraction unit for extracting the shape feature amount of the object from the image data of the object;
A functional feature amount extraction unit that extracts changes in the object as functional feature amounts of the object from image data before and after the operation;
Recognize using the shape of the object and the feature feature amount of the object that is recognized using the shape feature amount in an object concept model that uses the function, shape, and object concept as elements and represents the dependency relationship between the elements with conditional probabilities. An object concept learning unit that applies the function of the object to be statistically processed, estimates the object concept of the object, and learns the object;
Information obtained by observing at least one of the shape or function of a recognition target object is applied to the learned object conceptual model and statistically processed, and unrecognized information of the recognition target object is estimated to perform the recognition. An object recognition system comprising: an object recognition unit that recognizes at least one of an object concept, a shape, and a function of a target object.
前記物体概念学習ユニットが、物体形状のコードブックを用いて前記形状特徴量をベクトル量子化して前記物体の形状を認識する形状認識モジュールを備えることを特徴とする請求項1に記載の物体認識システム。   2. The object recognition system according to claim 1, wherein the object concept learning unit includes a shape recognition module that recognizes the shape of the object by vector quantization of the shape feature amount using a codebook of the object shape. . 前記物体概念学習ユニットが、前記機能特徴量の分布をクラス分けされた分布と比較して、前記機能特徴量の分布の属するクラスを決定して前記物体の機能を認識する機能認識モジュールを備えることを特徴とする請求項1又は2に記載の物体認識システム。   The object concept learning unit includes a function recognition module that compares the functional feature quantity distribution with a classified distribution, determines a class to which the functional feature quantity distribution belongs, and recognizes the function of the object. The object recognition system according to claim 1 or 2. 前記機能認識モジュールが、前記機能特徴量の分布の平均値と分散を算出することを特徴とする請求項3に記載の物体認識システム。   The object recognition system according to claim 3, wherein the function recognition module calculates an average value and a variance of the distribution of the function feature amount. 前記物体認識ユニットが、ベイズの定理を用いて前記未観測情報を推定することを特徴とする請求項1乃至4のいずれか1項に記載の物体認識システム。   The object recognition system according to any one of claims 1 to 4, wherein the object recognition unit estimates the unobserved information using Bayes' theorem. 前記物体概念モデルがベイジアンネットワークであることを特徴とする請求項1乃至5のいずれか1項に記載の物体認識システム。   The object recognition system according to claim 1, wherein the object conceptual model is a Bayesian network. 前記被作用物の変化が、前記被作用物の色変化、輪郭変化、位置変化及び個数変化の少なくともいずれかを含むことを特徴とする請求項1乃至6のいずれか1項に記載の物体認識システム。   The object recognition according to any one of claims 1 to 6, wherein the change of the object includes at least one of a color change, a contour change, a position change, and a number change of the object. system. 物体の画像データ、及び該物体が操作されることにより影響を受ける被作用物の前記物体の操作前後における画像データをそれぞれ取得するステップと、
前記物体の画像データから前記物体の形状特徴量を抽出するステップと、
前記操作前後の画像データから前記被作用物の変化を前記物体の機能特徴量として抽出するステップと、
機能、形状及び物体概念を要素とし、該要素間の依存関係を条件付確率で表す物体概念モデルに、前記形状特徴量を用いて認識される前記物体の形状と前記機能特徴量を用いて認識される前記物体の機能とを適用して統計的に処理し、前記物体の物体概念を推定して前記物体を学習するステップと、
認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を前記学習された物体の物体概念モデルに適用して統計的に処理し、前記認識対象物体の未観測情報を推定して前記認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識するステップ
とを含むことを特徴とする物体認識方法。
Obtaining image data of an object and image data before and after the operation of the object affected by the operation of the object;
Extracting the shape feature amount of the object from the image data of the object;
Extracting a change in the object from the image data before and after the operation as a functional feature of the object;
Recognize using the shape of the object and the feature feature amount of the object that is recognized using the shape feature amount in an object concept model that uses the function, shape, and object concept as elements and represents the dependency relationship between the elements with conditional probabilities. Applying the function of the object to be statistically processed, estimating the object concept of the object, and learning the object;
Information obtained by observing at least one of the shape or function of a recognition target object is applied to the learned object conceptual model and statistically processed, and unrecognized information of the recognition target object is estimated to perform the recognition. Recognizing at least one of an object concept, a shape, and a function of a target object.
物体形状のコードブックを用いて前記形状特徴量をベクトル量子化して、前記物体の形状を認識することを特徴とする請求項8に記載の物体認識方法。   9. The object recognition method according to claim 8, wherein the shape feature quantity is vector-quantized using an object shape codebook to recognize the shape of the object. 前記機能特徴量の分布をクラス分けされた複数の分布と比較して、前記機能特徴量の分布の属するクラスを決定して前記物体の機能を認識することを特徴とする請求項8又は9に記載の物体認識方法。   10. The function of the object is recognized by comparing the distribution of the functional feature quantity with a plurality of classified distributions to determine a class to which the distribution of the functional feature quantity belongs. The object recognition method described. 前記機能特徴量の分布の平均値と分散を算出して、前記物体の機能を認識することを特徴とする請求項10に記載の物体認識方法。   The object recognition method according to claim 10, wherein the function of the object is recognized by calculating an average value and a variance of the distribution of the functional feature amount. ベイズの定理を用いて前記未観測情報を推定することを特徴とする請求項8乃至11のいずれか1項に記載の物体認識方法。   The object recognition method according to claim 8, wherein the unobserved information is estimated using Bayes' theorem. 前記物体概念モデルがベイジアンネットワークであることを特徴とする請求項8乃至12のいずれか1項に記載の物体認識方法。   The object recognition method according to claim 8, wherein the object conceptual model is a Bayesian network. 前記被作用物の変化が、前記被作用物の色変化、輪郭変化、位置変化及び個数変化の少なくともいずれかを含むことを特徴とする請求項8乃至13のいずれか1項に記載の物体認識方法。   The object recognition according to any one of claims 8 to 13, wherein the change in the object includes at least one of a color change, a contour change, a position change, and a number change of the object. Method. 物体の画像データ、及び該物体が操作されることにより影響を受ける被作用物の前記物体の操作前後における画像データをそれぞれ取得するカメラと、
前記物体の画像データから前記物体の形状特徴量を抽出する形状特徴量抽出ユニットと、
前記操作前後の画像データから前記被作用物の変化を前記物体の機能特徴量として抽出する機能特徴量抽出ユニットと、
機能、形状及び物体概念を要素とし、該要素間の依存関係を条件付確率で表す物体概念モデルに、前記形状特徴量を用いて認識される前記物体の形状と前記機能特徴量を用いて認識される前記物体の機能とを適用して統計的に処理し、前記物体の物体概念を推定して前記物体を学習する物体概念学習ユニットと、
認識対象物体の形状、或いは機能の少なくとも一つが観測された情報を前記学習された物体の物体概念モデルに適用して統計的に処理し、前記認識対象物体の未観測情報を推定して前記認識対象物体の物体概念、形状及び機能の少なくともいずれかを認識する物体認識ユニット
とを備え、前記物体認識ユニットがベイズの定理を用いて前記未観測情報を推定し、前記物体概念モデルがベイジアンネットワークであることを特徴とする物体認識ロボット。
A camera that respectively obtains image data of an object and image data before and after operation of the object affected by the operation of the object;
A shape feature amount extraction unit for extracting the shape feature amount of the object from the image data of the object;
A functional feature amount extraction unit that extracts changes in the object as functional feature amounts of the object from image data before and after the operation;
Recognize using the shape of the object and the feature feature amount of the object that is recognized using the shape feature amount in an object concept model that uses the function, shape, and object concept as elements and represents the dependency relationship between the elements with conditional probabilities. An object concept learning unit that applies the function of the object to be statistically processed, estimates the object concept of the object, and learns the object;
Information obtained by observing at least one of the shape or function of a recognition target object is applied to the learned object conceptual model and statistically processed, and unrecognized information of the recognition target object is estimated to perform the recognition. An object recognition unit that recognizes at least one of the object concept, shape, and function of the target object, the object recognition unit estimates the unobserved information using Bayes' theorem, and the object concept model is a Bayesian network. An object recognition robot characterized by being.
JP2006308237A 2006-11-14 2006-11-14 Object recognition system, object recognition method, and object recognition robot Active JP4771543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006308237A JP4771543B2 (en) 2006-11-14 2006-11-14 Object recognition system, object recognition method, and object recognition robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006308237A JP4771543B2 (en) 2006-11-14 2006-11-14 Object recognition system, object recognition method, and object recognition robot

Publications (2)

Publication Number Publication Date
JP2008123365A true JP2008123365A (en) 2008-05-29
JP4771543B2 JP4771543B2 (en) 2011-09-14

Family

ID=39508040

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006308237A Active JP4771543B2 (en) 2006-11-14 2006-11-14 Object recognition system, object recognition method, and object recognition robot

Country Status (1)

Country Link
JP (1) JP4771543B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305853A (en) * 1995-04-28 1996-11-22 Mitsubishi Electric Corp Method and device for object recognition and decision making based upon recognition
JP2001014465A (en) * 1999-06-29 2001-01-19 Matsushita Electric Ind Co Ltd Method and device for recognizing object
JP2005250712A (en) * 2004-03-03 2005-09-15 Univ Waseda Figure attribute identification method and its system
WO2005104010A2 (en) * 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08305853A (en) * 1995-04-28 1996-11-22 Mitsubishi Electric Corp Method and device for object recognition and decision making based upon recognition
JP2001014465A (en) * 1999-06-29 2001-01-19 Matsushita Electric Ind Co Ltd Method and device for recognizing object
JP2005250712A (en) * 2004-03-03 2005-09-15 Univ Waseda Figure attribute identification method and its system
WO2005104010A2 (en) * 2004-04-15 2005-11-03 Gesture Tek, Inc. Tracking bimanual movements

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114315A (en) * 2011-11-25 2013-06-10 Sony Corp Image processing device, program, image processing method, and terminal
US9760265B2 (en) 2011-11-25 2017-09-12 Sony Corporation Information processing device and an information processing method

Also Published As

Publication number Publication date
JP4771543B2 (en) 2011-09-14

Similar Documents

Publication Publication Date Title
CN111737458B (en) Attention mechanism-based intention recognition method, device, equipment and storage medium
CN110069129B (en) Determination system and determination method
Wu et al. Pixel-attentive policy gradient for multi-fingered grasping in cluttered scenes
JP2004054956A (en) Face detection method and system using pattern sorter learned by face/analogous face image
KR102548732B1 (en) Apparatus and Method for learning a neural network
JP2007122218A (en) Image analyzing device
CN110929802A (en) Information entropy-based subdivision identification model training and image identification method and device
Sagayam et al. A probabilistic model for state sequence analysis in hidden Markov model for hand gesture recognition
JP2019049604A (en) Instruction statement estimation system and instruction statement estimation method
CN110146080B (en) SLAM loop detection method and device based on mobile robot
JP7031685B2 (en) Model learning device, model learning method and computer program
Reed et al. Spatiotemporal recursive hyperspheric classification with an application to dynamic gesture recognition
Yang et al. Recent advances of deep robotic affordance learning: a reinforcement learning perspective
JP2021021978A (en) Information processing apparatus and program
WO2021095509A1 (en) Inference system, inference device, and inference method
Zrihem et al. Visualizing dynamics: from t-sne to semi-mdps
JP4771543B2 (en) Object recognition system, object recognition method, and object recognition robot
CN112364912A (en) Information classification method, device, equipment and storage medium
Ziaeetabar et al. Prediction of manipulation action classes using semantic spatial reasoning
JP6623366B1 (en) Route recognition method, route recognition device, route recognition program, and route recognition program recording medium
CN115620095A (en) Hand information labeling method, device, equipment and storage medium
KR102413588B1 (en) Object recognition model recommendation method, system and computer program according to training data
Ho et al. Document classification in a non-stationary environment: A one-class svm approach
Farouk Principal component pyramids using image blurring for nonlinearity reduction in hand shape recognition
CN110765809A (en) Facial expression classification method and device and emotion intelligent robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091029

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110620

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4771543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350