JP6032930B2 - 情報処理装置、情報処理方法 - Google Patents

情報処理装置、情報処理方法 Download PDF

Info

Publication number
JP6032930B2
JP6032930B2 JP2012096036A JP2012096036A JP6032930B2 JP 6032930 B2 JP6032930 B2 JP 6032930B2 JP 2012096036 A JP2012096036 A JP 2012096036A JP 2012096036 A JP2012096036 A JP 2012096036A JP 6032930 B2 JP6032930 B2 JP 6032930B2
Authority
JP
Japan
Prior art keywords
image
node
partial
information processing
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012096036A
Other languages
English (en)
Other versions
JP2013225175A5 (ja
JP2013225175A (ja
Inventor
裕一郎 飯尾
裕一郎 飯尾
裕輔 御手洗
裕輔 御手洗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012096036A priority Critical patent/JP6032930B2/ja
Priority to US13/861,060 priority patent/US9098776B2/en
Publication of JP2013225175A publication Critical patent/JP2013225175A/ja
Publication of JP2013225175A5 publication Critical patent/JP2013225175A5/ja
Application granted granted Critical
Publication of JP6032930B2 publication Critical patent/JP6032930B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/803Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、予め学習されたパターンに基づき新規パターンを解析する為の技術に関するものである。
従来から、学習パターンを用いて新規パターンを解析する機械学習の技術がある。その中でも、分類木、決定木と呼ばれるパターン認識手法(非特許文献1)が提案され、多くのシステムで用いられてきた。この手法は、木構造(ツリー構造とも呼ばれる)を用いて高速にパターンを解析できるという性質を持っており、計算機の能力の貧弱な時代にはその能力を発揮してきた。
なお、パターン認識問題をパターン識別問題として捉えたとき、識別するべきパターンの種類を“クラス”と呼び、以下説明で“クラス”という言葉はこの意味で用いるものとする。
ここで、非特許文献1にあるような古典的な分類木、決定木の欠点として、認識性能があまり高くないということが挙げられる。この欠点を克服する技術として、例えば、特許文献1にあるような分類木の集合(アンサンブル)を用いた手法が提案されている。これは、分類木をL個(Lは2以上の定数であり、通常は10〜100の範囲)作成し、それら全部を用いることによって、より高い認識性能を実現する技術である。
この分類木の集合(アンサンブル)を用いた手法をコンピュータビジョンに応用した例としては非特許文献2に開示されているようなものがある。この論文の中で筆者は、(32ピクセル×32ピクセル)の画像を対象とし、その輝度値を元に分類木を作成している。より具体的には、分類木の各ノードにおいてランダムに(32ピクセル×32ピクセル)の画像上の2点を選び、その輝度値を比較することによって枝の分岐を実現している。この処理は非常に高速にでき、かつ、認識精度も十分高いという報告が論文の中でなされている。
また、一般に、複数の手法によって取得したデータを利用することで、単一のデータから認識を行うよりも高い精度で識別を行えることが知られている。例えば、非特許文献3では、Joint特徴を用いた動画像からの物体検出において識別対象を異なる解像度で撮像した画像や輝度画像と時空間情報、距離情報などを組み合わせることで、人や車両の検出精度が向上することが示されている。
米国特許第6,009,199号明細書
Leo Breiman, Jerome Friedman, Charles J. Stone, and R.A. Olshen, "Classification and Regression Trees", Chapman & Hall/CRC (1984) Vincent Lepetit and Pascal Fua, "Keypoint Recognition Using Randomized Trees", IEEE Transactions on Pattern Analysis and Machine Intelligence (2006) pp.1465−pp.1479 局所特徴量の関連性に着目したJoint特徴による物体検出 信学技報,vol.108,no.484,PRMU2008−247,pp.43−54,2009年3月
しかし、複数の取得方法によるデータを用いる識別を分類木を用いた識別に適用する場合、全ての取得部で得られた画像を網羅する分類木の作成は、サイズが膨大になるため現実的ではない。例えば、2段の二分木を作成する際に輝度画像のみで認識する場合に作成される1つの分類木に対して、輝度画像と距離画像を併用して認識を行う場合、2の3乗=8パターンの分類木が作成されることになる。
本発明はこのような問題に鑑みてなされたものであり、分岐パターンの爆発によるサイズの増加を防止し、単一の取得形態で取得したデータを用いた場合に近い実行速度を実現すると共に、より高精度な分類が可能とする為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は、輝度画像と距離画像の画像セットを複数セット取得する取得手段と、
前記画像セットに含まれている輝度画像及び距離画像から対応する部分画像を抽出し、該輝度画像から抽出した部分画像及び該距離画像から抽出した部分画像のセットを生成する生成手段と、
前記生成手段で生成された部分画像のセットを木構造のルートノードに割り当てる第1割り当て手段と、
前記木構造における各ノードにおいて、該ノードに割り当てられている部分画像の各セットに対して2つの画素の位置を設定し、それぞれのセット中の距離画像の部分画像における該2つの画素の何れかの画素値が0であるか否かを判断する判断手段と、
前記2つの画素の何れかの画素値が0であれば輝度画像の部分画像を選択し、前記2つの画素の何れの画素値も0でない場合は距離画像の部分画像を選択する選択手段と、
前記各ノードにおいて、前記割り当てられている部分画像の各セットについて、前記選択手段が選択した輝度画像若しくは距離画像の部分画像における前記設定された位置の画素値に基づいて、該セットを下位のノードのいずれかに割り当てる第2割り当て手段と、
前記木構造の末端ノードに割り当てられているセットに関する情報を出力する出力手段と
を備えることを特徴とする。
本発明の構成によれば、分岐パターンの爆発によるサイズの増加を防止し、単一の取得形態で取得したデータを用いた場合に近い実行速度を実現することができると共に、より高精度な分類が可能となる。
情報処理装置の機能構成例を示すブロック図。 学習過程の処理のフローチャート。 ステップS206における処理の詳細を示すフローチャート。 学習データの一例を示す図。 ステップS202の処理を示す模式図 木構造の一例を示す図。 図2Bの処理を示す模式図。 ステップS214における処理の詳細を示すフローチャート。 チャネル選択の例を示す図。 識別過程の処理のフローチャート。 ステップS904における処理の詳細を示すフローチャート。 チャネル決定ルーチンのフローチャート。 fern構造の処理を説明する図。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。
[第1の実施形態]
本実施形態では、複数の取得手法により取得した認識対象を含む入力画像を効率よく用いて認識対象を識別することを目的とする。複数の取得手法により取得した入力画像とは、例えば、一般的な光学装置によって得られる輝度画像や既存の距離計測手法によって得られる距離画像等が挙げられる。また、複数の取得手法により取得した入力画像とは、例えばそれぞれ異なる照明パターンで撮影された各々の輝度画像等も含まれる。
以下の説明では、画像取得手法や画像取得状況をチャネルと称する。そして本実施形態では、輝度画像および距離画像の2チャネルの画像を用いた場合について説明する。
先ず、本実施形態に係る情報処理装置のハードウェア構成例について、図1のブロック図を用いて説明する。図1に示した構成は一例であり、以下に説明する各処理を実行可能な構成であれば、如何なる構成を採用しても良い。
CPU102は、メモリ103に格納されているコンピュータプログラムやデータを用いて情報処理装置全体の動作制御を行うと共に、情報処理装置が行うものとして後述する各処理を実行する。
メモリ103は、RAMやROM等により構成されており、外部記憶装置101からロードされたコンピュータプログラムやデータを一時的に記憶する為のエリアや、入出力装置104を介して入力された各種のデータを一時的に記憶する為のエリアを有する。また、メモリ103は、CPU102が各種の処理を実行する際に用いるワークエリアを有する。即ち、メモリ103は、各種のエリアを適宜提供することができる。
外部記憶装置101は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置101には、OS(オペレーティングシステム)や、情報処理装置が行うものとして後述する各処理をCPU102に実行させるためのコンピュータプログラムやデータが保存されている。また、外部記憶装置101には、入出力装置104を介して入力された各種のデータを保存することもできる。外部記憶装置101に保存されているコンピュータプログラムやデータは、CPU102による制御に従ってメモリ103にロードされ、CPU102による処理対象となる。
入出力装置104は、情報処理装置におけるデータの入出力インターフェースとして機能する。例えば、入出力装置104は、認識対象を撮像するための撮像装置であっても良いし、認識対象を撮像した画像を保持するメモリから該画像を情報処理装置に入力する装置であっても良い。また、ユーザが各種の指示を情報処理装置(CPU102)に対して入力するための操作部であっても良い。また、入出力装置104は、情報処理装置が生成した様々なデータ(認識結果を示すデータや、木構造のデータなど)を外部に送信する装置であっても良い。もちろん、入出力装置104は、これらの装置の1以上の集合であっても良い。
また、以下に説明する各処理を実現するコンピュータプログラムの実行のトリガーを、この入出力装置104を介してユーザが出す場合もある。また、ユーザが結果を見たり、コンピュータプログラムのパラメータ制御をこの入出力装置104を介して行うこともある。また、結果の出力先としては、人間(ユーザ)ではなく、例えばロボットを制御する装置などのマシンの場合も有り得る。
次に、学習過程において情報処理装置(CPU102)が行う処理について、同処理のフローチャートを示す図2Aを用いて説明する。学習過程では、図2Aの処理の中で図2Bの処理を再帰的に呼び出すことで、後述する学習パターンの集合を再帰的に分割して木構造の生成を行う。
先ず、ステップS201では、入出力装置104や外部記憶装置101から、学習データをメモリ103に読み出す。学習データとは、チャネル毎に用意された画像群(学習画像)を指す。即ち、認識対象をそれぞれ異なるチャネルで撮像することで得られる画像セット(学習画像のセット)を、複数セット取得する。
学習データの一例を図3を用いて説明する。学習データ300は輝度チャネル301と距離チャネル302の2チャネルから成っている。輝度チャネル301には認識対象を含む輝度画像(学習輝度画像)から成る学習輝度画像群303が、距離チャネル302には認識対象を含む距離画像(学習距離画像)から成る学習距離画像群304が存在する。学習画像がNパターンの異なる視点から撮影された画像であるとすると、学習データは学習輝度画像N枚および学習距離画像N枚から成り、合計(2×N)枚となる。
ここで図3の場合、輝度チャネル301の画像として示されている画像のうち左端の画像と、距離チャネル302の画像として示されている画像のうち左端の画像と、は画像の種類は異なるものの、同じ認識対象を輝度画像、距離画像として撮像したものである。これは、左から2番目以降の画像についても同じである。即ち、学習データには、認識対象をそれぞれ異なるチャネルで撮像することで得られる画像の各セットが、複数セット含まれていることになる。
学習過程では、チャネル毎に存在する学習画像にクラス(パターンの種類)名称が付加されているいわゆる「教師付き学習」が行われる。また、学習輝度画像には、照明変動等の影響を軽減するためにエッジ抽出などの前処理を施してもよい。
図2Aに戻って、次に、ステップS202では、入力された学習データから学習パターンの生成を行う。ステップS202における処理の詳細について、図4の模式図を用いて説明する。
本実施形態では、学習パターンは、各学習輝度画像、各学習距離画像から、M枚の部分画像を抽出することで生成される。なお、部分画像は、各チャネルの学習画像において同一位置の領域が抽出されるものとし、部分画像同士は重なりがあるように網羅的に元の画像から抽出されることが望ましい。図4に学習画像として示したN枚の画像の一枚一枚が図3における各チャネルの画像(輝度画像と距離画像)から構成されていると考えることができる。すなわち各チャネルは最終的な部分画像群として、同じクラス(学習画像)の部分画像がそれぞれM枚ずつ、M×N枚の部分画像をもつことになる。
換言すれば、認識対象をそれぞれ異なるチャネルで撮像することで得られる画像セット(Nセット分)ごとに、該画像セットに含まれているそれぞれのチャネルの画像(2画像分)中の部分領域(M個分)内の画像を部分画像として取得する。これにより、それぞれのチャネルの部分画像のセットがNセット分得られる。
学習過程ではこれらのM×N枚の部分画像を学習パターンとして登録して分類する分類木を生成していく。すべてのチャネルのすべての部分画像(2チャネルの場合は(2×N×M)枚)を分類するのではなく、分類木の各ノードにおいて部分画像のセットごとに分岐の判定に用いるチャネルを選択する。これにより、チャネル数が増加しても木構造の本数を増加させることなく学習パターンの分類を行える。なお、精度よく分類を行うためにここで学習データに対してチャネルごとに異なる前処理を施してもよい。
そして、ステップS203〜S207のループにおいて、ステップS202で作成した学習パターンを分類するL本の木構造を生成する。Lは2以上の任意の定数であり、10〜100程度の数であることが望ましい。Lを大きくすると辞書サイズが大きくなるが、認識率は向上する。一方、Lを小さくすると辞書はコンパクトになるが、認識率は低下する。作成する木構造の一例を図5に示す。学習パターンはルートノード501から順に下位のノードへたどっていくことで分類される。
先ず、ステップS204では、木構造のルートノード(図5ではルートノード501)に全ての学習パターンを割り当てる(格納する)。図4の例では、N枚の学習輝度画像、N枚の学習距離画像、のそれぞれから抽出したM枚の部分画像の集合((2×M×N)枚の部分画像)を木構造のルートノードに割り当てる。
なお、以下の説明において「ノードに割り当てる」とは、ノードに関連付けることである。なお、ノードAに対して割り当てられていたものをノードBに割り当てる場合、ノードAとの関連づけは削除し、ノードBとの関連付けを行う。
次に、ステップS205では、ルートノードをカレントノードに設定する。カレントノードとは、学習過程および認識過程において現在処理しているノードを意味する。
ステップS206では、カレントノードに割り当てられている学習パターン集合の分割を行う。ステップS206では、図2Bに示したフローチャートに従った処理を実行し(カレントノードを展開するサブルーチンを呼んで)、このサブルーチンから返ってきたら木構造の作成は終了となる。図5においては501から509の番号順にカレントノードは移動することとなる。この処理をL回繰り返し実行(複数回動作)して、L本の木構造を作成し、学習過程は終了する。
ここで、ステップS206における処理の詳細を、同処理のフローチャートを示す図2Bを用いて説明する。図2Bに示したフローチャートは、ノードを展開するサブルーチンを説明したフローチャートである。
先ず、ステップS211では、カレントノードがnullノード、leafノードの何れか、若しくは何れでもないのかを判断する。この判断の結果、カレントノードが、nullノード、leafノードの何れかであった場合は、処理はステップS207に進み、次の木構造を作成すべく、処理をステップS204に進める。
ここで、カレントノードに1つも学習パターンが割り当てられていない場合、このカレントノードはnullノードとする。また、カレントノードに割り当てられている学習パターンの集合がある一定条件を満たした場合、このカレントノードをleafノードとする。ここでいうある一定条件とは、例えば、“カレントノードに存在するクラスがK種類(例えばK=10)以下だった場合(カレントノードに割り当てられている学習パターンの数がK個以下)”という条件などが考えられる。この条件でK=1に設定した場合は、“カレントノードが純粋に1つのクラスしか含まない”という条件となる。
図5の例では、ノード503、505、506、509がleafノードであり、508がnullノードとなる。図2Bのフローチャートでいうと、カレントノードにノード503、505、506、508、509が設定された場合、ステップS211における判断では「yes」となり、サブルーチンが終了する。nullノードおよびleafノードは、ターミナルノードとも呼ばれ、残った学習パターンの情報が割り当てられる。例えば、パターン認識の目的がクラス判定の場合、ターミナルノードには各クラスの存在確率が割り当てられる。なお、前述した通り、leafノードの条件が“カレントノードに純粋に1つのクラスしか含まれない”であった場合、その残ったクラスの番号を情報として割り当てても良い。一方、パターン認識の目的がいわゆる回帰の場合、ターミナルノードにはある推定値、もしくは推定ベクトルが割り当てられる。
一方、カレントノードが、nullノード、leafノードの何れでもない場合は、処理はステップS212に進む。ステップS212以降では、サブルーチンの処理が続き、カレントノードに格納された学習パターンを複数の子ノードへ分割する。その処理はステップS212〜S218のステップで行う。この中でステップS217で図2Bのサブルーチンを再帰的に呼び出すため、学習パターンの集合が再帰的に分割されることとなる。処理の流れを図6の模式図に示す。図6(a)は、カレントノードがターミナルノードではない場合の初期状態を示している。この場合、カレントノードには、複数の部分画像セット(学習輝度画像の部分画像と、該学習輝度画像と同セットの学習距離画像において該部分画像と同位置の部分画像と、から成るセット)が割り当てられている。以下では、カレントノードに割り当てられているそれぞれの部分画像セット中の学習距離画像の部分画像をカレントパターンと呼称する。
ステップS212では、カレントノードの展開に先立ちクエリを実行するためのクエリ点の選択を行う。“クエリ”とは、あるパターンがどの枝に属するのかを判断する問い合わせのことである。このカレントノードのクエリは、カレントノードに割り当てられているカレントパターンの集合(カレントパターン集合)を用いて作成される。
本実施形態では、クエリは、後述するステップS214で選択されるチャネルcの学習パターン中の任意の2点(クエリ点)の画素値の大小を比較するものとする。すなわち,チャネルcの学習パターン中のクエリ点A,Bの画素値をそれぞれq(A,c),q(B,c)とすると、クエリ処理Qは以下の式で表される。
if q(A,c)−q(B,c)>0 i→left node
Q(i,c)=
else i→right node
i∈P | P:カレントパターン集合
この場合、ステップS212で実施するクエリ点の選択とは、カレントパターン中の任意の2点を選択する動作に該当する。図6(b)に示すように、クエリ点はノードごとに決定され、あるノードに割り当てられているカレントパターンはすべて同一のクエリ点を用いてクエリを行う。クエリ点の位置は、ノードごとにランダムに決めても良いし、ノードごとに予め定められた方法で決めても良い。
クエリ手法は、上記の式を用いた方法以外にも様々な手法が考え得る。例えば、2点の画素値の差がある値以上か未満かで、i→left node(以上)とするか、i→right node(未満)とするか、を決めても良い。また、2点ではなくn(n≧3)点を選択し、その画素値の総和がある値以上か未満かで、i→left node(以上)とするか、i→right node(未満)とするか、を決めても良い。
より一般的には、複数の点を選択し、その複数の点の画素値(ベクトル)を入力とするある関数の値が、ある値以上か未満かで分岐することができる。更に、画素値ではなく入力画像に所定の変換を加えて得られる特徴量(ベクトル)の中のn次元の値を比較してもよい。
次に、ステップS213〜S216のループで、カレントパターンごとにクエリを行うチャネルを決定し、クエリに従って分割する。即ち、カレントノードに割り当てられているP個のカレントパターンのうち第i番目のカレントパターン(i=1,2,…,P)についてクエリを行うチャネルを決定し、クエリに従って分割する処理を、i=1〜Pについて行う。
ステップS214で行うチャネルの決定処理では、本実施形態では、カレントパターンにおいてステップS212で選択されたクエリ点の画素値を参照して判定する。クエリに用いるチャネルの決定処理は図7に示すサブルーチンによって実行される。
図7のサブルーチン(チャネル決定ルーチン)では、有効なクエリが行えるクエリ点の組み合わせをとるようなチャネルを選択する必要がある。本実施形態では、輝度チャネルと距離チャネルを用いて識別を行っている。ここで、距離チャネルの場合、例えば、空間コード化法によって距離撮像を行った場合には、外乱光によるノイズやテカリ・黒潰れ等の要因によってパターン縞が映らずに距離計測に失敗する領域が発生しうる。このような領域上の点は極力クエリに利用すべきではない。より一般的には、次のような処理を行う。即ち、優先的に選択するチャネルを決定しておき、そのチャネルにおけるクエリ点の値が正確な値でない場合(本実施形態の場合は距離計測に失敗した場合)には次に優先するチャネルのクエリ点の値を調べる、という過程を繰り返すことでチャネル決定を行う。
先ず、ステップS701では、第i(i=1,2,…,P)番目のカレントパターン(カレントパターンi)におけるクエリ点の画素値を参照する。そして、それぞれのクエリ点のうち、参照した画素値が0(本実施形態では、計測失敗領域の画素値を0と設定する)であるクエリ点があったか否かを判断する。この判断の結果、あった場合は、処理はステップS702に進み、無かった場合は、処理はステップS703に進む。
ステップS702では、輝度チャネルをクエリに用いるチャネルとして選択する。一方、ステップS703では、クエリに用いるチャネルとして距離チャネルを選択する。クエリに応じたチャネル選択の例を図8に示す。
距離画像811における点812及び点813(輝度画像801における点802及び点803に対応している)がクエリ点として選択された場合、点812及び点813の何れも画素値は0ではない。この場合は、距離チャネルをクエリを行うチャネルとして選択する。
一方、距離画像811における点812及び点814(輝度画像801における点802及び点804に対応している)がクエリ点として選択された場合、点814の画素値が0である(点814が計測失敗領域からとられた点である)。この場合は、輝度チャネルをクエリを行うチャネルとして選択する。
なお、クエリ点は、輝度画像上に設定しても良く、その場合、設定した点に対応する距離画像上の点の画素値を用いて同様にチャネル選択を行えば良い。
このように、カレントノードにおけるそれぞれのカレントパターンについて上記のようなチャネル選択を行うことで、図6(c)に示す如く、各カレントパターンには、選択したチャネルが対応づけられることになる。
次に、ステップS215では、カレントパターンiを含む部分画像セットiにおいて、ステップS214で選択したチャネルcの学習パターンについて上記の式を用いて計算を行い、Q(i,c)を求める。このとき、iにleft nodeが設定されていれば、カレントノードより下位(1つ下位)のノードのうち、左側のノード(left node)を選択し、該選択したノードに部分画像セットiを割り当てる。一方、iにright nodeが設定されていれば、カレントノードより下位(1つ下位)のノードのうち、右側のノード(right node)を選択し、該選択したノードに部分画像セットiを割り当てる。
下位のノードへの分岐数Rは、一般的にはカレントノードによって異なっていても良いが、通常は全てのノードで同じ値を用いる。また、分割は枝とも呼ばれる。本実施形態ではクエリQによって学習パターンは2つに分割されるためR=2となり、図5のような二分木が作成される。
例えば、図8を例にとり説明すると、上記の通り、距離画像811における点812及び点813がクエリ点として選択された場合、点812及び点813の何れも画素値は0ではないため、距離チャネルをクエリを行うチャネルとして選択することになる。そこで、点812及び点813のそれぞれの画素値が上記の式により比較される。その結果、(点812における画素値)−(点813における画素値)=180−190=−10<0であるため、距離画像811及び輝度画像801を含む部分画像セットは、カレントノードより下位(1つ下位)のノードのうち右側のノードに割り当てられる。
一方、距離画像811における点812及び点814がクエリ点として選択された場合、点814の画素値が0であるため、輝度チャネルをクエリを行うチャネルとして選択することになる。そこで、点802及び点804のそれぞれの画素値が上記の式により比較される。その結果、(点802における画素値)−(点804における画素値)=255−0=255>0であるため、距離画像811及び輝度画像801を含む部分画像セットは、カレントノードより下位(1つ下位)のノードのうち左側のノードに割り当てられる。
このようにして、カレントノードにおける各部分画像セットを、left node、right node、の何れかに分割する。このような処理によれば、各ノードでカレントパターンごとにクエリするチャネルを選択することで質の高いクエリを行うことが可能となる。
ステップS217〜S220は分岐毎のループで、ステップS218で分岐jをカレントノードに設定し、ステップS219で図2Bのサブルーチンを再帰呼び出しする。前述のとおり,本実施形態ではステップS217におけるノードごとの分岐の数Rは2とする。
以上の処理により、学習過程では、学習画像の部分領域を分類する木構造を生成する。生成した木構造のデータは、メモリ103や外部記憶装置101等に格納する。もちろん、格納先についてはこれに限るものではない。
なお、上記の学習過程における処理は、以下に説明する構成の一例である。即ち、まずは、画像取得手法若しくは画像取得状況をチャネルとし、認識対象をそれぞれ異なるチャネルで撮像することで得られる画像セットを、複数セット取得する。
そして、画像セットに含まれているそれぞれのチャネルの画像中の部分領域内の画像を部分画像として取得し、該取得したそれぞれのチャネルの部分画像のセットを木構造のルートノードに割り当てる(第1割り当て)。
そして、木構造における各ノードをルートノードから末端ノードに向けて順に参照する際、現在参照しているノードに割り当てられているセットをカレントセットとする。そして、該カレントセット中の規定チャネルの部分画像中の複数画素の画素値を用いて、それぞれ異なるチャネルのうち1つを選択する。
そして、カレントセット中の部分画像のうち選択したチャネルの部分画像を対象部分画像とする。そして、現在参照しているノードより下位のノードのうち対象部分画像中の複数画素の画素値に応じたノードを選択し、該選択したノードにカレントセットを割り当てる(第2割り当て)。
そして、上記の第1割り当て及び第2割り当てによる割り当て後、木構造の末端ノードに割り当てられているセットに関する情報を該末端ノードに割り当ててから、木構造を出力する。
次に、この木構造を用いて認識対象を識別する処理について説明する。識別過程は、チャネル数分の入力画像を入力として受けとる。本実施形態では学習過程で輝度チャネルと距離チャネルについて学習を行っているため、識別過程で入力する画像は、輝度画像と距離画像の2枚の画像を入力として受け取る。
そしてこれらの入力画像から部分画像を抽出し、それぞれの部分画像(識別パターン)に対して、学習過程で作成した複数の木構造を用いて識別を行い、最後に全ての木構造の識別結果を集計して、最終的な結果として出力する。なお、ここでいう各木構造を用いた「識別」とは、入力された識別パターンに最も類似する学習過程で学習されたクラスを選択することを指す。識別パターンを木構造にかけるときに各ノードで用いるチャネルを決定し、ノードごとに異なるチャネルの識別パターンのみを使って分岐をすすめていくことが特徴の一つとなる。
識別過程において情報処理装置(CPU102)が行う処理について、同処理のフローチャートを示す図9Aを用いて説明する。なお、識別過程の処理は、学習過程の処理を行った装置(本実施形態では図1に示した情報処理装置)以外の装置が行っても良く、その場合、図1の情報処理装置は、識別過程の処理を行う装置に対して、木構造のデータを送出する必要がある。
ステップS901〜S906のループは、識別用に入力された輝度画像及び距離画像のそれぞれから抽出する部分画像の枚数分だけ繰り返して行う。即ち、輝度画像及び距離画像のそれぞれからM枚の部分画像を抽出する場合、ステップS901〜S906のループはM回繰り返すことになる。
ステップS902では、識別用に入力された輝度画像及び距離画像のそれぞれから、上記のステップS202と同様にして1枚の部分画像を抽出し、これを識別パターンとする。識別パターンのサイズは、学習パターンのサイズと同じであり、入力画像(輝度画像及び距離画像)全体から重なりを持って抽出するものとする。入力画像から抽出される識別パターンはできるだけ密にとることが精度の面からみると望ましいが、ステップS901〜S906のループは識別パターンの枚数だけ実行されるため、実行時間とのトレードオフを考える必要がある。
ステップS903〜S905のループでは、ステップS902で抽出した識別パターンに対し、学習過程で作成したL本の木構造を順に適用し、L本の木構造のそれぞれについて、該識別パターンがたどり着くLeafノードを特定する。この処理は、ステップS904で行われる。即ち、学習過程で生成したL本の木構造においてi番目の木構造を用いたステップS904の処理を、i=1〜Lについて行う。ステップS904における処理の詳細について、同処理のフローチャートを示す図9Bを用いて説明する。
ステップS911では、i番目の木構造のルートノードをカレントノードに設定する。
ステップS912では、カレントノードがnullノード、leafノードの何れか、若しくは何れでもないのかを判断する。この判断の結果、カレントノードが、nullノード、leafノードの何れかであった場合は、処理はステップS905に進み、(i+1)番目の木構造を用いてステップS904の処理を行う。
一方、カレントノードが、nullノード、leafノードの何れでもない場合は、処理はステップS913に進む。ステップS913では、ステップS902で抽出した識別パターンのうち距離チャネルの識別パターンを用いて、図7のフローチャートに従った処理を行う。これにより、ステップS902で抽出した識別パターンのうち、何れのチャネルの識別パターンを以降で用いるのかを選択することができる。
このように、チャネルの決定を学習過程と同様に行うことで、次のような効果を奏することができる。即ち、クエリに用いるチャネルの情報が辞書に記載されていなくても、識別過程においてある学習パターンと同一のクラスに属する識別パターンが入力されたときにはその学習パターンと同様のチャネルが選択され、正しくクエリを行うことができる。
ステップS914では、ステップS902で抽出した識別パターンのうちステップS913で選択したチャネルの識別パターンを用いて、カレントノードより1つ下位のノード(左側のノード及び右側のノード)のうち一方を選択する。選択方法は、学習過程と同様の方法(上記式を用いた方法)でもって行う。
ステップS915では、ステップS914で選択したノード(子ノード)をカレントノードに設定し、ステップS912に処理を進める。これにより、図9Bに示したフローチャートでは、ルートノードからnullノードかleafノードに到達するまで木構造をたどることになる。
ステップS901〜S906のループが全て終了すると、ステップS902で抽出した識別パターンごとに、L個の識別結果(L本の木構造の個々について得た、該識別パターンがたどり着いたleafノードに割り当てられている情報)が得られる。
ステップS907では、これらの識別結果を集計することで最終的にある1つの学習画像を、入力画像に対する認識対象識別結果として出力する。集計方法は特定の方法に限るものではなく、如何なる方法を用いても良い。例えば、ステップS902で抽出した識別パターンごとに得たL個のクラスの存在確率ベクトルの相加平均、相乗平均などの計算処理を行い、その結果に最も近いクラスの学習画像を出力しても良い。また、部分画像の学習画像中での位置を記録したオフセットを用いて、学習画像の存在位置を投票によって求めることもできる。
なお、上記の識別過程における処理は、以下に説明する構成の一例である。即ち、それぞれ異なるチャネルで撮像することで得られる入力画像セットを取得し、該入力画像セットに含まれているそれぞれのチャネルの入力画像中の部分領域内の画像を入力部分画像として取得する。
そしてそれぞれのチャネルの入力部分画像のうち規定チャネルの入力部分画像中の複数画素の画素値を用いてそれぞれ異なるチャネルのうち1つを選択し、それぞれのチャネルの入力部分画像のうち該選択したチャネルの入力部分画像を対象入力部分画像とする。
そして、木構造における各ノードをルートノードから末端ノードに向けて順に参照する際、現在参照しているノードより下位のノードのうち、対象入力部分画像中の複数画素の画素値に応じたノードを、次の参照先として選択する。そして、現在参照しているノードが木構造の末端ノードである場合、該末端ノードに割り当てられている情報から、入力画像セットの識別結果を決定する。
[第2の実施形態]
本実施形態では図2Bおよび図9Bにおけるチャネル決定ルーチンの処理のみが異なり、その他については、第1の実施形態と同様である。然るに以下では、他の処理は第1の実施形態と同様であるため、ここではチャネル決定ルーチンについて図10を用いて説明する。
ステップS1001〜S1003のループは、チャネルの数Cだけ繰り返す。本実施形態でも2チャネルであるため、C=2となる。然るに、この場合、c=1,2について、ステップS1002〜S1003の処理を行うことになる。
ステップS1002では、チャネルcの部分画像におけるクエリ点の画素値を参照する。そして、参照したクエリ点の画素値から、該クエリ点に対する信頼度を算出する。ここでの信頼度とは、各チャネルにおけるカレントノードでのクエリ点がクエリに有用であるかどうかを示す指標である。信頼度の算出の仕方は任意であり、また、チャネルに応じて異なる算出手法を用いてよい。一般的には、有効にクエリが行えるクエリ点の組み合わせである時に高い値が出るように設定される。前処理としてエッジ抽出処理が行われた輝度画像の場合、画素値の差が大きい点をクエリしたときにそのクエリ点は有効であり、逆にエッジのない領域同士がクエリ点として選択されている場合はいずれの画素値も0であるため有用なクエリ点とは言えない。
そこで本実施形態では、輝度画像におけるクエリ点の画素値の差を輝度チャネルにおけるクエリの信頼度とする。また、距離画像の場合、第1の実施形態の説明で述べたように、計測に失敗した領域内の点がクエリ点に選ばれた時には、そのチャネルを用いたクエリは誤った分割をする恐れがあるため信頼度を低く設定すべきである。本実施形態ではいずれかのクエリ点の画素値が0である場合の信頼度を0とする。ただし、本実施形態でも第1の実施形態と同様に計測に失敗した領域の画素値を0としている。
また、ステレオ法や空間コード化法による距離データの取得では、急激に距離の変動が生じる物体のエッジ付近で誤差が大きくなる傾向がある。あるいは、物体同士の多重反射により空間コード化法における照射パターンが乱れ誤った距離情報が取得されてしまう場合がある。そこで、一定の範囲内で大きく距離変動が生じている領域の信頼度は低く設定した方がよい。本実施形態では、クエリ点とその周辺の領域の画素値の分散を信頼度の値とする。
処理がステップS1004に進んだ時点で、Cチャネルのそれぞれの部分画像について信頼度が求まっていることになるため、ステップS1004では、最大の信頼度を求めたチャネルを選択する。なお、あるチャネルの信頼度が閾値以上であるときにはそのチャネルを用い、閾値未満であるときには別のチャネルを使うようにしてもよい。
[第3の実施形態]
本実施形態では、木構造の代わりに、fern構造(M. Ozuysal,et al “Fast Keypoint Recognition using Random Ferns” IEEE Transactions on PAMI, Vol. 32, Nr. 3, pp. 448 − 461, 2010.)を用いた学習・識別について述べる。
入力されるデータや全体の処理の流れについては第1の実施形態あるいは公知のfern構造と同様であるため詳細な処理の流れの説明については割愛し、ここでは本実施形態に固有のfern構造(判別器)の処理について述べるものとする。
木構造による学習では各ノードでの分割結果に基づいて学習パターンを異なる子ノードへと分割していくことで学習パターンの分類を行った。また、分割の判定を行うクエリはノードごとに異なるものが用いられていた。fern構造による学習では、クエリは深さごとに決められており、学習パターンごとに各深さでのクエリの結果を記録することで、学習パターンの分類を行う。
図11を用いて本実施形態に係るfern構造の処理について説明する。なお、本実施形態では、第1の実施形態と同様に、クエリは選択されたチャネルcにおけるカレントパターン中の任意の2点(クエリ点)の画素値の大小を比較するものとする。すなわち,チャネルcの学習パターン中のクエリ点A,Bの画素値をそれぞれq(A,c),q(B,c)とすると、クエリ処理Qは以下の式で表される。
if q(A,c)−q(B,c)>0 Q(i,c)=1
else Q(i,c)=0
i∈P | P:カレントパターン集合
図11では、3段の深さを有するfern判別器1100を示している。第1の実施形態と同様に、学習パターンはまず1段目の深さ(d1)のクエリにより分類される。このとき、カレントパターンごとに各チャネルにおけるクエリ点の画素値により適切なチャネルが選択される。図11においては3種のチャネルを用いて学習を行っているが、チャネル選択は図10で示した処理と同様にチャネルに応じて定められた信頼度を比較することで行えばよい。
図11では、チャネル選択の結果、カレントパターンCP1101はチャネル1が選択され、d1のクエリにより“0”と分類されている。同様にカレントパターンCP1102はチャネル3が選択され“1”に分類され、カレントパターンCP1103はチャネル2が選択されて“1”と分類されている。以下、d2、d3のクエリでも同様に全ての学習パターンについてチャネル選択およびクエリによる分類を行い、最終的に全てのクエリでの分類をまとめたものがその学習パターンの分類結果となる。例えば図11におけるカレントパターンCP1101の分類結果は“001”となり、同様にカレントパターンCP1102は“111”、カレントパターンCP1103は“100”と分類されている。なお、簡単のためここでは3段のfern構造について説明したが、本来は10以上の深さであることが望ましい。
識別過程におけるfern構造の動作の詳細な説明は割愛するが、学習過程と同様に、識別パターン集合に対して各深さでパターンごとにチャネル選択およびクエリによる分類を行い、全てのクエリの結果をまとめたものをその識別パターンの分類結果とする。学習時に行われたチャネル選択の結果は識別時には反映されないが、同種の判断基準によってチャネル選択を行うため、ある学習パターンに類似した識別パターンが入力された時にはチャネル選択の結果も同じになる。これにより、学習過程と識別過程の双方で適切なチャネルが選択されることになる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (6)

  1. 輝度画像と距離画像の画像セットを複数セット取得する取得手段と、
    前記画像セットに含まれている輝度画像及び距離画像から対応する部分画像を抽出し、該輝度画像から抽出した部分画像及び該距離画像から抽出した部分画像のセットを生成する生成手段と、
    前記生成手段で生成された部分画像のセットを木構造のルートノードに割り当てる第1割り当て手段と、
    前記木構造における各ノードにおいて、該ノードに割り当てられている部分画像の各セットに対して2つの画素の位置を設定し、それぞれのセット中の距離画像の部分画像における該2つの画素の何れかの画素値が0であるか否かを判断する判断手段と、
    前記2つの画素の何れかの画素値が0であれば輝度画像の部分画像を選択し、前記2つの画素の何れの画素値も0でない場合は距離画像の部分画像を選択する選択手段と、
    前記各ノードにおいて、前記割り当てられている部分画像の各セットについて、前記選択手段が選択した輝度画像若しくは距離画像の部分画像における前記設定された位置の画素値に基づいて、該セットを下位のノードのいずれかに割り当てる第2割り当て手段と、
    前記木構造の末端ノードに割り当てられているセットに関する情報を出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 更に、
    前記第1割り当て手段、前記判断手段、前記選択手段、前記第2割り当て手段、の各手段を複数回動作させることで複数の木構造を生成させる手段を備えることを特徴とする請求項1に記載の情報処理装置。
  3. 更に、
    輝度画像と距離画像の入力画像セットを取得し、該入力画像セットにおける該輝度画像及び該距離画像のそれぞれの部分領域内の画像を入力部分画像として取得する手段と、
    それぞれの入力部分画像中の前記2つの画素の画素値を用いて、前記輝度画像の入力部分画像若しくは前記距離画像の入力部分画像のうち1つを選択し、該選択した入力部分画像を対象入力部分画像とする手段と、
    前記木構造における各ノードにおいて、現在参照しているノードより下位のノードのうち、前記対象入力部分画像中の前記2つの画素の画素値に応じたノードを、次の参照先として選択する手段と、
    前記現在参照しているノードが前記木構造の末端ノードである場合、該末端ノードに割り当てられている情報から、前記入力画像セットの識別結果を決定する決定手段と
    を備えることを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記2つの画素の位置は、ノードごとに異なることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  5. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の取得手段が、輝度画像と距離画像の画像セットを複数セット取得する取得工程と、
    前記情報処理装置の生成手段が、前記画像セットに含まれている輝度画像及び距離画像から対応する部分画像を抽出し、該輝度画像から抽出した部分画像及び該距離画像から抽出した部分画像のセットを生成する生成工程と、
    前記情報処理装置の第1割り当て手段が、前記生成工程で生成された部分画像のセットを木構造のルートノードに割り当てる第1割り当て工程と、
    前記情報処理装置の判断手段が、前記木構造における各ノードにおいて、該ノードに割り当てられている部分画像の各セットに対して2つの画素の位置を設定し、それぞれのセット中の距離画像の部分画像における該2つの画素の何れかの画素値が0であるか否かを判断する判断工程と、
    前記情報処理装置の選択手段が、前記2つの画素の何れかの画素値が0であれば輝度画像の部分画像を選択し、前記2つの画素の何れの画素値も0でない場合は距離画像の部分画像を選択する選択工程と、
    前記情報処理装置の第2割り当て手段が、前記各ノードにおいて、前記割り当てられている部分画像の各セットについて、前記選択工程で選択した輝度画像若しくは距離画像の部分画像における前記設定された位置の画素値に基づいて、該セットを下位のノードのいずれかに割り当てる第2割り当て工程と、
    前記情報処理装置の出力手段が、前記木構造の末端ノードに割り当てられているセットに関する情報を出力する出力工程と
    を備えることを特徴とする情報処理方法。
  6. コンピュータを、請求項1乃至の何れか1項に記載の情報処理装置の各手段として機能させるためのコンピュータプログラム。
JP2012096036A 2012-04-19 2012-04-19 情報処理装置、情報処理方法 Active JP6032930B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012096036A JP6032930B2 (ja) 2012-04-19 2012-04-19 情報処理装置、情報処理方法
US13/861,060 US9098776B2 (en) 2012-04-19 2013-04-11 Information processing apparatus and information processing method that determine whether any one of a plurality of pixels in an obtained partial image has an invalid value to select an appropriate acquisition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096036A JP6032930B2 (ja) 2012-04-19 2012-04-19 情報処理装置、情報処理方法

Publications (3)

Publication Number Publication Date
JP2013225175A JP2013225175A (ja) 2013-10-31
JP2013225175A5 JP2013225175A5 (ja) 2015-06-11
JP6032930B2 true JP6032930B2 (ja) 2016-11-30

Family

ID=49380177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096036A Active JP6032930B2 (ja) 2012-04-19 2012-04-19 情報処理装置、情報処理方法

Country Status (2)

Country Link
US (1) US9098776B2 (ja)
JP (1) JP6032930B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11741718B2 (en) 2021-05-18 2023-08-29 Hitachi Astemo, Ltd. Light interference detection during vehicle navigation

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5930392A (en) 1996-07-12 1999-07-27 Lucent Technologies Inc. Classification technique using random decision forests
US6351561B1 (en) * 1999-03-26 2002-02-26 International Business Machines Corporation Generating decision-tree classifiers with oblique hyperplanes
US20100266179A1 (en) * 2005-05-25 2010-10-21 Ramsay Thomas E System and method for texture visualization and image analysis to differentiate between malignant and benign lesions
US8577130B2 (en) * 2009-03-16 2013-11-05 Siemens Medical Solutions Usa, Inc. Hierarchical deformable model for image segmentation
JP5588165B2 (ja) * 2009-12-24 2014-09-10 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9053393B2 (en) * 2010-03-19 2015-06-09 Canon Kabushiki Kaisha Learning method and apparatus for pattern recognition
US8768944B2 (en) * 2010-08-18 2014-07-01 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium

Also Published As

Publication number Publication date
US9098776B2 (en) 2015-08-04
JP2013225175A (ja) 2013-10-31
US20130279814A1 (en) 2013-10-24

Similar Documents

Publication Publication Date Title
US10467526B1 (en) Artificial intelligence system for image similarity analysis using optimized image pair selection and multi-scale convolutional neural networks
Zhao et al. Deep hough transform for semantic line detection
JP6041923B2 (ja) 情報処理方法及び情報処理装置
Rukhovich et al. Iterdet: iterative scheme for object detection in crowded environments
US8675974B2 (en) Image processing apparatus and image processing method
Zhao et al. Hi-Fi: Hierarchical feature integration for skeleton detection
KR101581112B1 (ko) 계층적 패턴 구조에 기반한 기술자 생성 방법 및 이를 이용한 객체 인식 방법과 장치
US9563822B2 (en) Learning apparatus, density measuring apparatus, learning method, computer program product, and density measuring system
JP5706647B2 (ja) 情報処理装置、およびその処理方法
GB2489272A (en) Segmentation of images into superpixels
KR101934325B1 (ko) 객체 분류 방법 및 그 장치
US8768944B2 (en) Information processing apparatus, information processing method, and storage medium
KR102592551B1 (ko) Ar장치를 위한 객체 인식 처리 장치 및 방법
US10614312B2 (en) Method and apparatus for determining signature actor and identifying video based on probability of appearance of signature actor
JP6128910B2 (ja) 学習装置、学習方法及びプログラム
Jemilda et al. Moving object detection and tracking using genetic algorithm enabled extreme learning machine
CN115048969A (zh) 用于评估、理解和改进深度神经网络的视觉分析系统
JP6032930B2 (ja) 情報処理装置、情報処理方法
KR101991186B1 (ko) 철근 검출 방법 및 그 장치
JP6659120B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN114492366A (zh) 二进制文件的分类方法、计算设备及存储介质
US8930286B2 (en) Information processing apparatus, processing method therefor, and non-transitory computer-readable storage medium
WO2013154062A1 (ja) 画像識別システム、画像識別方法、およびプログラム
JP2017004052A (ja) 学習装置、方法及びプログラム
Gominski et al. Benchmarking individual tree mapping with sub-meter imagery

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150420

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150420

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160926

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R151 Written notification of patent or utility model registration

Ref document number: 6032930

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151