JP3796997B2 - 物体認識方法及び物体認識装置 - Google Patents

物体認識方法及び物体認識装置 Download PDF

Info

Publication number
JP3796997B2
JP3796997B2 JP03953999A JP3953999A JP3796997B2 JP 3796997 B2 JP3796997 B2 JP 3796997B2 JP 03953999 A JP03953999 A JP 03953999A JP 3953999 A JP3953999 A JP 3953999A JP 3796997 B2 JP3796997 B2 JP 3796997B2
Authority
JP
Japan
Prior art keywords
class
image
feature
object recognition
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP03953999A
Other languages
English (en)
Other versions
JP2000242784A (ja
Inventor
美保子 國井
健司 長尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP03953999A priority Critical patent/JP3796997B2/ja
Priority to US09/506,483 priority patent/US6647139B1/en
Publication of JP2000242784A publication Critical patent/JP2000242784A/ja
Priority to US10/656,390 priority patent/US7120292B2/en
Application granted granted Critical
Publication of JP3796997B2 publication Critical patent/JP3796997B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、画像から物体の検出と認識、及び距離推定を行う物体認識方法及び物体認識装置に関するものである。
【0002】
【従来の技術】
従来のよく知られた物体認識方法は、Karhunen-Loeve展開を用いて特徴抽出を行うものやこれに準じたものである。例えば、文献(H. Murase, S. K. Nayer, “Visual Learning and Recognition of 3-D Objects from Appearance”, International Journal of Computer Vision, 14, 1995.)に記載されたものが知られている。
【0003】
図8は、従来の物体認識装置の構造を示しており、画像を入力する画像入力部11と、抽出対象物の局所モデルを予め格納しているモデル記憶部13と、入力画像の特徴ベクトルを抽出する特徴ベクトル抽出部12と、モデルの特徴ベクトルを記憶する特徴ベクトル記憶部14と、入力画像の特徴ベクトルについて各モデルの特徴ベクトルとのマッチングを行うマッチング処理部15と、入力画像内での対象物体のタイプを判別して出力する物体タイプ推定部16から構成されている。ここで、タイプとは個体や種類等を指す。
【0004】
【発明が解決しようとする課題】
前記のように従来の物体認識装置は、学習画像をクラス分類する概念は含まれていない。従って、クラス内をよくまとめ、クラス間を分離するような特徴ベクトルを抽出することは考慮していない。また、入力画像は各々の学習画像とマッチさせるため、予め用意している学習画像と等しい物体の認識は可能であるが、学習していない物体について認識することが難しいという課題を有していた。
【0005】
本発明は、画像をタイプや距離の違いによってクラスに分類することで、学習していない物体でも高精度で認識することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するために、本発明では、学習画像を物体の位置とタイプの対で表すクラスに分類し、予めクラス内が最もまとまり且つクラス間が最も分離できるような特徴抽出を行う。そのため、本発明では、学習ウィンドウデータベースと、予めクラス内が最もまとまり且つクラス間が最も分離できるような特徴抽出行列を算出する特徴抽出行列算出手段と、学習ウィンドウ特徴ベクトルデータベースとを有する学習手段を備えたものである。
【0007】
これにより、分類したクラス内が最もまとまり且つクラス間が最も分離され、同一クラス内でのパターンの小さな変動を無視でき未学習の物体にも対応できるという効果を奏するものである。
【0008】
【発明の実施の形態】
本発明の請求項1に記載の発明は、予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、さらにクラス毎に分類した部分画像から前記特徴抽出行列を用いて求めた特徴量データとを蓄えておき、入力した画像の1つまたは1つ以上の部分画像から前記特徴抽出行列を用いて特徴量を算出し、前記特徴量データと前記入力画像部分の特徴量との類似度を求め、前記類似度から入力画像中の対象物体を推定するもので、クラス内のパターンの小さな変動を無視できるため未学習の物体への対応も可能にし、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0009】
請求項2に記載の発明は、請求項1記載の物体認識方法において、入力画像の部分画像を取り出す領域を限定するもので、領域を限定することにより入力した画像から取り出す部分画像数を削減できるため対象物体を探索して認識するまでの時間の短縮を可能にし、探索の不必要な領域を取り除くため認識率を上げるという作用を有する。
【0010】
請求項3に記載の発明は、請求項1または請求項2記載の物体認識方法において、特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列とから求めるもので、クラス内が最もまとまり且つクラス間が最も分離されるような特徴抽出行列を算出することで高精度な認識を可能にするという作用を有する。
【0011】
請求項4に記載の発明は、請求項3記載の物体認識方法において、特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列からクラス間分散ができるだけ大きく、クラス内分散ができるだけ小さくなるように、その分散比が最大となるように求めるもので、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0012】
請求項5に記載の物体認識方法は、請求項1乃至4のいずれかに記載の物体認識方法において、クラスは、物体の位置と種類の対で分類するもので、クラス内のパターンの小さな変動を無視できるため未学習の物体への対応も可能にし、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0013】
請求項6に記載の発明は、請求項1乃至4のいずれかに記載の物体認識方法
において、クラスは、物体のある経路に沿った距離と種類の対で分類するもので、各クラスを特徴空間上にマップする場合、同タイプで距離の異なるクラスの間にマップされた入力部分画像の特徴ベクトルをその座標値から推定される距離値の補完を可能にするという作用を有する。
【0014】
請求項7に記載の発明は、予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、前記クラス毎に分類した部分画像から前記特徴抽出行列を用いて部分画像の特徴量データをそれぞれ抽出し、前記特徴量データの全てまたは一部またはそれらより求まる代表値を蓄積する学習手段と、入力した画像を1つまたは1つ以上の部分画像に分割する画像分割手段と、前記特徴抽出行列を用いて前記分割された部分画像から特徴量を抽出する特徴量抽出手段と、前記部分画像の特徴量と前記学習手段で蓄積した部分画像のクラス毎の特徴量データから類似度を計算する入力分割画像判別手段と、前記類似度から入力画像中の対象物体を推定する判定手段とを備えるもので、クラス内のパターンの小さな変動を無視できるため未学習の物体への対応も可能にし、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0015】
請求項8に記載の発明は、請求項7記載の物体認識装置において、入力した画像に対して探索する領域を限定する領域限定手段を有するもので、領域を限定することにより入力した画像から取り出す部分画像数を削減できるため対象物体を探索して認識するまでの時間の短縮を可能にし、探索の不必要な領域を取り除くため認識率を上げるという作用を有する。
【0016】
請求項9に記載の発明は、請求項7記載の物体認識装置において、学習手段の特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列とから求めるもので、クラス内が最もまとまり且つクラス間が最も分離されるような特徴抽出行列を算出することで高精度な認識を可能にするという作用を有する。
【0017】
請求項10記載の発明は、請求項7記載の物体認識装置において、学習手段の特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列からクラス間分散ができるだけ大きく、クラス内分散ができるだけ小さくなるように、その分散比が最大となるように求めるもので、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0018】
請求項11に記載の発明は、請求項7または8に記載の物体認識装置において、クラスは、物体の位置と種類の対で分類するもので、クラス内のパターンの小さな変動を無視できるため未学習の物体への対応も可能にし、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0019】
請求項12に記載の発明は、請求項7または8に記載の物体認識装置において、クラスは、物体のある経路に沿った距離と種類の対で分類するもので、各クラスを特徴空間上にマップする場合、同タイプで距離の異なるクラスの間にマップされた入力部分画像の特徴ベクトルをその座標値から推定される距離値の補完を可能にするという作用を有する。
【0020】
請求項13に記載の発明は、コンピュータにより物体認識を行うプログラムであって、予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、さらにクラス毎に分類した部分画像から前記特徴抽出行列を用いて求めた特徴量データとを蓄えておき、入力した画像の1つまたは1つ以上の部分画像から前記特徴抽出行列を用いて特徴量を算出し、前記特徴量データと前記入力画像部分の特徴量との類似度を求め、前記類似度から入力画像中の対象物体を推定する物体認識プログラムを記録した記録媒体から、コンピュータに読み込み実行することにより、クラス内のパターンの小さな変動を無視できるため未学習の物体への対応も可能にし、他クラスとの違いを顕著にするため高精度な認識を可能にするという作用を有する。
【0021】
以下、本発明の実施の形態について、図1から図7を用いて説明する。
【0022】
(実施の形態1)
図1は、本発明の実施の形態1における物体認識装置のブロック構成図を示している。図1において、1は認識したい対象物の画像を入力する画像入力部、2は画像入力部1で入力した画像を前処理する画像前処理部、3は画像前処理部2で前処理した画像をウィンドウ(部分画像)に分割して出力する画像分割部、4は認識したい物体のモデルを予め作成する学習手段、41は各物体のモデルを含む学習画像を、画像分割部3で作成するウィンドウと同じサイズのウィンドウに分割して、物体の位置とタイプの対でクラスに分類し、学習ウィンドウとして格納している学習ウインドウデータベース、42は学習ウインドウデータベース41に格納されている各学習ウィンドウから、クラス内が最もまとまり且つクラス間が最も分離されるような特徴抽出行列を算出する特徴抽出行列算出手段、43は特徴抽出行列算出手段42で求めた特徴抽出行列を用いて計算する学習ウインドウ特徴ベクトルのクラス毎の平均を格納している学習ウインドウ特徴ベクトルデータベース、5は画像分割部3で分割した各入力ウィンドウに対して学習手段4で算出した特徴抽出行列を用いて特徴ベクトルを抽出する特徴ベクトル抽出手段、6は特徴ベクトル抽出手段5で抽出した特徴ベクトルと、学習ウィンドウ特徴ベクトルデータベース43の特徴ベクトルとを比較して類似度を計算する入力分割画像判別手段、7は入力分割画像判別手段6の判別結果を受けて入力画像中の対象物体の位置とタイプを推定する判定手段、71は入力分割画像判別手段6から入力した類似度のうち最も高い値である入力分割画像とクラスを判定する入力画像判定部、72は入力画像判定部71が選択したクラスの分類である物体の位置とタイプを入力画像の物体の位置とタイプであるとみなす物体位置・タイプ判定部である。8は判定結果を出力する結果出力部である。
【0023】
また、図2はコンピュータにより物体認識装置を実現した場合のブロック構成図であり、201は物体の画像を撮影するためのビデオカメラ、202は大規模な画像情報を保存する画像データベース(2次記憶装置:光磁気ディスクなど)、203、204はビデオカメラ201、画像データベース202からの画像を格納する画像メモリ、205はプログラムの格納やワーク用のメモリ、206はCPU、207は画像パターンを記憶するパターンメモリ、208は特徴抽出の実行によって計算された特徴ベクトルを記憶する特徴ベクトルメモリ、209はキーボード及びディスプレイ、210は種々の物体のモデルを含む学習画像をウィンドウ(部分画像))に分割して学習ウィンドウとして格納している学習ウィンドウデータベース、211は特徴抽出行列メモリ、212は学習ウィンドウの特徴ベクトルを格納している学習ウィンドウ特徴ベクトルデータベース、213はCPUバス、214は得られた認識結果を出力する出力端子、215〜218はI/Fユニット、219はコンピュータシステムで構成されている。
【0024】
以上のように構成された物体認識装置について、その対象物体の位置とタイプを学習ウィンドウデータベースに登録されているクラスのうち、どれに一番類似しているかを認識するもので、その処理は、特徴抽出行列の計算と学習ウィンドウデータベースの構築を行うオフライン処理と、入力された画像が最も類似する学習ウィンドウ特徴ベクトルデータベースの特徴ベクトルからクラス判定を行うオンライン処理とに大別される。
【0025】
ここで、クラスとは種類や形、大きさ、位置、色など物体を表わす様々な項目によって分けることができ、大きくまたは細かく分類した階層構造のことを指している。以後ウィンドウと呼ぶが、これは画像の部分画像を指し、以下の文章では長方形と仮定して説明をするが、その形は問わない。また、各ウィンドウの位置関係は連続、不連続、重なりの有無を問わない。更に、ウィンドウは画像から1つまたは複数抽出し、各画像によりその選択は自由にできるものとする。各ウィンドウの座標等で表される画像内の位置、形は計算を進める際には分かるようにしておく。また、特徴量の表現方法は問わないが、以降、便利のため特徴ベクトルと仮定して説明する。
【0026】
以下、まず最初にオフライン処理について、図3のオフライン処理の動作フローチャートを用いて説明する。オフライン処理の目的は、特徴抽出行列の計算と学習ウィンドウデータベースの構築にある。
【0027】
まず、ビデオカメラ201から得られた物体の画像信号がI/F215を介してデジタル変換された画像メモリ203に蓄積される。または、画像データベース202から取り出された物体の画像は画像メモリ204に蓄積される(301)。
【0028】
画像メモリ204に学習画像として一旦蓄えられた画像中の物体部分から一定サイズに切り出したウィンドウ(部分画像)を1つあるいは複数選択する(302)。物体の部分の占める位置によってウィンドウに番号をつけておく。これら各学習画像から得られた学習ウィンドウを物体の位置とタイプ毎にクラスに分類する(303)。このタイプの中には、ウィンドウの番号も含まれる。クラス毎に分類された多数の学習ウィンドウは学習ウインドウのセットとして、例えば学習ウィンドウは1次元のデータ列としたパターンに変換し、各クラス毎にパターンのセットとしてパターンメモリ207に保持する。
【0029】
判別方法として例えば、文献(Fisher.R.A., "The use of multiple measurements in taxonomic problems", Ann. Eugenics. 7. Part II,pp.179-188, 1936.) に記載されたものが知られている。特徴抽出行列は、このFisherの判別関数の考えに従って、以下の手順で計算される。同一クラスに分類される各パターンのセットからクラス内共分散行列CWが、クラス毎に(数1)に従って計算される(304)。
【0030】
【数1】
Figure 0003796997
【0031】
クラス間共分散行列CBが、各パターンのセットから(数2)に従って計算される。
【0032】
【数2】
Figure 0003796997
【0033】
また、クラス全共分散行列CTが、(数3)に従って計算される(305)。
【0034】
【数3】
Figure 0003796997
【0035】
ここで、判別評価基準としてクラス間分散をできるだけ大きく、同時にクラス内分散をできるだけ小さくなるように、その分散比(数4)を最大にするような変換aを求める。
【0036】
【数4】
Figure 0003796997
【0037】
これは、固有値問題(数5)を解くことに等しく、求めた特徴抽出行列A を特徴抽出行列メモリ211に記憶する(306)。
【0038】
【数5】
Figure 0003796997
【0039】
学習に用いた、学習ウィンドウを学習ウィンドウデータベースに登録する。また、特徴抽出行列を用いて計算される各学習ウィンドウ特徴ベクトルのクラス毎の平均値を求め学習ウィンドウ特徴ベクトルデータベースに登録する(307)。
【0040】
以上がオフラインで実行されるプロセスである。
【0041】
次に、オンライン処理について、オンライン処理の動作フローチャートを図4に示し、説明する。オンライン処理目的は、入力された画像が最も類似する登録済み学習ウィンドウデータベースのクラス判定である。
【0042】
ビデオカメラ201から認識対象となる画像が入力され、画像メモリ203に記憶される(401)。入力画像から画像前処理部2によりエッジ情報を取り出すことも可能である。画像分割部3は、画像メモリ203に記憶された入力画像から一定サイズのウィンドウ(部分画像)を順次抽出して、入力ウィンドウとしてウィンドウの中心点の座標とともにパターンメモリ207に蓄積する(402)。
【0043】
オフライン時に求めた特徴抽出行列Aを用いて(数6)に従って入力ウィンドウの特徴ベクトルfaを計算し、特徴ベクトルメモリ208に蓄積する(403)。
【0044】
【数6】
Figure 0003796997
【0045】
次は、最適マッチ処理で、入力ウィンドウの特徴ベクトルfaに最も類似した特徴ベクトルを学習ウィンドウ特徴ベクトルデータベース212から選び出し、最も類似度の高いクラスを認識結果として判定する(404)。各ウィンドウの類似度を比較する(405)。入力画像に対して1つ以上の判定結果を、その対応する入力ウィンドウの座標とともに、I/Fユニット218を介して出力端子214に出力するものである(406)。
【0046】
入力及び学習の画像、ウィンドウ、特徴ベクトルの相互関係は図7に示す。入力および学習の画像、ウィンドウ、特徴ベクトルのデータの作られ方の例を示している。例えば、入力画像Aから入力ウィンドウA01,A02,A03・・・が作成され、各々の入力ウィンドウから入力ウィンドウ特徴ベクトルa01,a02,a03・・・が作成される。また、一方学習画像Tから、学習ウインドウを作成し、クラスに分類され、学習ウインドウベクトルt01,t02,t03・・・を求め、さらに特徴抽出行列が求められる。学習ウィンドウ特徴ベクトルt01,t02,t03・・・から、クラス毎の代表学習ウィンドウ特徴ベクトルs01,s02,s03・・・が作成され登録される。
【0047】
(実施の形態2)
実施の形態1と等しいが、これに入力した画像の部分を取り出す領域を限定する手段が加わる。
【0048】
図5は、本発明の実施の形態2における物体認識装置のブロック構成図を示している。図5において、図1とほぼ等しいが、9は画像入力部1で入力した画像から領域を限定する領域限定手段である。その他の部分は、実施の形態1と同様である。
【0049】
領域限定手段9を追加することで、その入力画像の中で、物体を見つける領域を限定するもので、例えば、道路画像(入力画像)中の車両(物体)を認識したい場合、入力画像の中で道路の領域のみを限定して車を見つけることができます。これは、固定したカメラであれば、その入力画像中のどの領域が道路であるか決まっているために容易に実現できます。
【0050】
そのことによって、物体を探し出す処理時間を短縮することにもなり、また物体がないとわかっている領域を除くことによって誤認識を避けることもできる。
【0051】
(実施の形態3)
実施の形態3は、実施の形態1と等しいが、クラスを物体のある経路に沿った距離と種類の対で分類することを特徴とする。
【0052】
図1は、本発明の実施の形態3における物体認識装置のブロック構成図を示している。図1において、実施の形態1と異なる構成について以下に説明するもので、7は入力分割画像判別手段6の判別結果を受けて入力画像中の対象物体の位置とタイプを推定する判定手段、71は入力分割画像判別手段6から入力した類似度のうち最も高い値である入力分割画像とクラスを判定する入力画像判定部、72は入力画像判定部71が選択したクラスの分類である物体のタイプとみなし、同時に特徴空間上での座標から、クラス間の距離値も補完して物体の経路に沿った距離を推定する物体位置・タイプ判定部である。例えば、50mと70mのクラスがある場合、50mから70mの間の距離である60mや65mも特徴空間座標で補完して推定するというものである。
【0053】
次に動作について説明するが、オフライン処理は実施の形態1と同様であるので省略する。
【0054】
次に、オンライン処理について、オンライン処理の動作フローチャートを図6に示す。図4とほぼ等しいが、605の部分が異なり、異なる部分を中心に説明する。
【0055】
学習ウィンドウ特徴ベクトルデータベースに蓄積された特徴ベクトルのうち、同タイプで異なる距離のクラスのものを特徴空間上に表示することができる。入力ウィンドウの特徴ベクトルがこの学習ウィンドウ特徴ベクトルデータベースの特徴ベクトルの間の値に類似している場合、その距離を補完することが可能である。例えば、各距離値50mと70mのクラスの特徴ベクトルの間を均等分割して、55m、60m、65mの距離を補完し、入力ウィンドウの特徴ベクトルが最も類似する距離を判定し、対象物体のある経路に沿った距離とタイプを判定する。次に、各ウィンドウの類似度を比較する(605)。その他の部分は、実施の形態1と同様である。
【0056】
【発明の効果】
以上のように本発明によれば、単眼画像のみの使用においても、入力画像中の対象物体を認識でき、かつ物体の種類や位置を推定することができる。
【0057】
また、学習画像をクラス分類し、最もクラス内がまとまりクラス間が分離されるような特徴抽出を行うことにより、未登録の物体に対しても入力画像中の対象物体を認識でき、かつ物体の種類や位置を推定することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1における物体認識装置のブロック構成図
【図2】本発明の実施の形態1におけるコンピュータによる物体認識装置のブロック構成図
【図3】本発明の実施の形態1におけるオフライン処理の流れを示すフローチャート
【図4】本発明の実施の形態1におけるオンライン処理の流れを示すフローチャート
【図5】本発明の実施の形態2における物体認識装置のブロック構成図
【図6】本発明の実施の形態3におけるオンライン処理の流れを示すフローチャート
【図7】入力および学習の画像、ウィンドウ、特徴ベクトルの相互関係を説明する図
【図8】従来の物体認識装置の一例を示すブロック図
【符号の説明】
1 画像入力部
2 画像前処理部
3 画像分割部
4 学習手段
5 特徴ベクトル抽出手段
6 入力分割画像判別手段
7 判定手段
8 結果出力部
9 領域限定手段
41 学習ウィンドウデータベース
42 特徴抽出行列算出手段
43 学習ウィンドウ特徴ベクトルデータベース
71 入力画像判定部
72 物体位置・タイプ判定部
81 画像メモリ
82 画像メモリ
83 学習ウィンドウデータベース
84 学習ウィンドウ特徴ベクトルデータベース
201 ビデオカメラ
202 画像データベース
203〜204 画像メモリ
205 メモリ
206 CPU
207 パターンメモリ
208 特徴ベクトルメモリ
209 キーボード/ディスプレイ
210 学習ウィンドウデータベース
211 特徴抽出行列
212 学習ウィンドウ特徴ベクトルデータベース
213 CPUバス
214 出力端子
215〜218 I/Fユニット
219 コンピュータ

Claims (13)

  1. 予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、さらにクラス毎に分類した部分画像から前記特徴抽出行列を用いて求めた特徴量データとを蓄えておき、入力した画像の1つまたは1つ以上の部分画像から前記特徴抽出行列を用いて特徴量を算出し、前記特徴量データと前記入力画像部分の特徴量との類似度を求め、前記類似度から入力画像中の対象物体を推定することを特徴とする物体認識方法。
  2. 入力画像の部分画像を取り出す領域を限定することを特徴とする請求項1記載の物体認識方法。
  3. 特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列とから求めることを特徴とする請求項1または請求項2記載の物体認識方法。
  4. 特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列からクラス間分散ができるだけ大きく、クラス内分散ができるだけ小さくなるように、その分散比が最大となるように求めることを特徴とする請求項3記載の物体認識方法。
  5. クラスは、物体の位置と種類の対で分類することを特徴とする請求項1乃至4のいずれかに記載の物体認識方法。
  6. クラスは、物体のある経路に沿った距離と種類の対で分類することを特徴とする請求項1乃至4のいずれかに記載の物体認識方法。
  7. 予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、前記クラス毎に分類した部分画像から前記特徴抽出行列を用いて部分画像の特徴量データをそれぞれ抽出し、前記特徴量データの全てまたは一部またはそれらより求まる代表値を蓄積する学習手段と、入力した画像を1つまたは1つ以上の部分画像に分割する画像分割手段と、前記特徴抽出行列を用いて前記分割された部分画像から特徴量を抽出する特徴量抽出手段と、前記部分画像の特徴量と前記学習手段で蓄積した部分画像のクラス毎の特徴量データから類似度を計算する入力分割画像判別手段と、前記類似度から入力画像中の対象物体を推定する判定手段とを備えることを特徴とする物体認識装置。
  8. 入力した画像の部分画像を取り出す領域を限定する領域限定手段を有することを特徴とする請求項7記載の物体認識装置。
  9. 学習手段の特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列とから求めることを特徴とする請求項1または請求項7記載の物体認識装置。
  10. 学習手段の特徴抽出行列は、前記部分画像から求めたクラス内の共分散行列とクラス間の共分散行列からクラス間分散ができるだけ大きく、クラス内分散ができるだけ小さくなるように、その分散比が最大となるように求めることを特徴とする請求項7記載の物体認識方法。
  11. クラスは、物体の位置と種類の対で分類することを特徴とする請求項7または8に記載の物体認識装置。
  12. クラスは、物体のある経路に沿った距離と種類の対で分類することを特徴とする請求項7または8に記載の物体認識装置。
  13. コンピュータにより物体認識を行うプログラムであって、予め多くの画像から1つまたは1つ以上の部分画像を取り出し、クラスに分類し、前記部分画像から求めた特徴抽出行列と、さらにクラス毎に分類した部分画像から前記特徴抽出行列を用いて求めた特徴量データとを蓄えておき、入力した画像の1つまたは1つ以上の部分画像から前記特徴抽出行列を用いて特徴量を算出し、前記特徴量データと前記入力画像部分の特徴量との類似度を求め、前記類似度から入力画像中の対象物体を推定する物体認識プログラムを記録した記録媒体。
JP03953999A 1999-02-18 1999-02-18 物体認識方法及び物体認識装置 Expired - Lifetime JP3796997B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP03953999A JP3796997B2 (ja) 1999-02-18 1999-02-18 物体認識方法及び物体認識装置
US09/506,483 US6647139B1 (en) 1999-02-18 2000-02-17 Method of object recognition, apparatus of the same and recording medium therefor
US10/656,390 US7120292B2 (en) 1999-02-18 2003-09-05 Method of object recognition, apparatus of the same and recording medium therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP03953999A JP3796997B2 (ja) 1999-02-18 1999-02-18 物体認識方法及び物体認識装置

Publications (2)

Publication Number Publication Date
JP2000242784A JP2000242784A (ja) 2000-09-08
JP3796997B2 true JP3796997B2 (ja) 2006-07-12

Family

ID=12555867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP03953999A Expired - Lifetime JP3796997B2 (ja) 1999-02-18 1999-02-18 物体認識方法及び物体認識装置

Country Status (1)

Country Link
JP (1) JP3796997B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103003814A (zh) * 2010-05-14 2013-03-27 数据逻辑Adc公司 使用大型数据库进行对象识别的系统及方法
US11443233B2 (en) 2017-02-21 2022-09-13 Nec Corporation Classification apparatus, classification method, and program
JP7529592B2 (ja) 2021-03-03 2024-08-06 株式会社日立ハイテク 画像診断支援装置、画像診断支援方法、遠隔診断支援システム、ネット受託サービスシステム

Also Published As

Publication number Publication date
JP2000242784A (ja) 2000-09-08

Similar Documents

Publication Publication Date Title
US6647139B1 (en) Method of object recognition, apparatus of the same and recording medium therefor
JP7167397B2 (ja) 点群データを処理するための方法及び装置
JP6395481B2 (ja) 画像認識装置、方法及びプログラム
JP5823270B2 (ja) 画像認識装置及び方法
JP4332649B2 (ja) 手の形状と姿勢の認識装置および手の形状と姿勢の認識方法並びに当該方法を実施するプログラムを記録した記録媒体
JP4166253B2 (ja) 物体検出装置、物体検出方法、および物体検出用プログラム
JP2940317B2 (ja) 画像処理装置
CN111444767B (zh) 一种基于激光雷达的行人检测和追踪方法
JP6621445B2 (ja) 特徴抽出装置、物体検出装置、方法、及びプログラム
JP3938872B2 (ja) データ分類装置および物体認識装置
CN112825192B (zh) 基于机器学习的对象辨识系统及其方法
CN108268838A (zh) 人脸表情识别方法及人脸表情识别系统
US8027978B2 (en) Image search method, apparatus, and program
CN109146918B (zh) 一种基于分块的自适应相关目标定位方法
JP2016099835A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2013117792A (ja) 情報処理方法、情報処理装置、および記憶媒体
CN112381047B (zh) 一种人脸表情图像的增强识别方法
KR20170108339A (ko) 영상에서 다수의 객체를 인식하는 방법
Fritz et al. Building detection from mobile imagery using informative SIFT descriptors
JP3796997B2 (ja) 物体認識方法及び物体認識装置
CN112712066B (zh) 图像识别方法、装置、计算机设备和存储介质
JP2004178569A (ja) データ分類装置、物体認識装置、データ分類方法及び物体認識方法
JP2001014465A (ja) 物体認識方法及び物体認識装置
JP2002032766A (ja) 画像認識装置及びその方法
JP2017084006A (ja) 画像処理装置およびその方法

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20050629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060410

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120428

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130428

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140428

Year of fee payment: 8

EXPY Cancellation because of completion of term