JPH0689344A - パターン認識装置 - Google Patents

パターン認識装置

Info

Publication number
JPH0689344A
JPH0689344A JP4265506A JP26550692A JPH0689344A JP H0689344 A JPH0689344 A JP H0689344A JP 4265506 A JP4265506 A JP 4265506A JP 26550692 A JP26550692 A JP 26550692A JP H0689344 A JPH0689344 A JP H0689344A
Authority
JP
Japan
Prior art keywords
pattern
basic
unit
input
deformation amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4265506A
Other languages
English (en)
Other versions
JP3252381B2 (ja
Inventor
Masahiro Fujita
雅博 藤田
Shigeru Arisawa
繁 有沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP26550692A priority Critical patent/JP3252381B2/ja
Priority to DE69332397T priority patent/DE69332397T2/de
Priority to EP93306750A priority patent/EP0587349B1/en
Priority to KR1019930017497A priority patent/KR100320063B1/ko
Priority to US08/117,494 priority patent/US5469512A/en
Publication of JPH0689344A publication Critical patent/JPH0689344A/ja
Application granted granted Critical
Publication of JP3252381B2 publication Critical patent/JP3252381B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Stored Programmes (AREA)
  • Character Discrimination (AREA)

Abstract

(57)【要約】 【目的】 認識率を向上させる。 【構成】 前処理部3において、ビデオカメラ1により
取り込まれた画像から入力パターンPが作成される。そ
して、比較処理部4において、この入力パターンPと、
関数学習記憶部5に記憶されている基本パターンFi
比較され、基本パターンFiに対する入力パターンPの
変形量Mが算出される。そして、変形量分析部6におい
て、この変形量Mが分析され、その分析結果に基づい
て、人物情報学習記憶部7においてそこに記憶されてい
る標準パターンが更新される。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、例えば画像を認識する
場合などに用いて好適なパターン認識装置に関する。
【0002】
【従来の技術】図8は、従来の画像認識装置の一例の構
成を示すブロック図である。例えばビデオカメラ(図示
せず)などで撮影された画像データとしての、例えば人
物の顔の画像などのxy平面上の輝度レベルI(x,
y)が、前処理部21に入力されると、そこで、画像デ
ータI(x,y)の特徴量としての、例えば画像のエッ
ジP(x,y)が検出され、分析部22に出力される。
【0003】分析部22は、前処理部21より出力され
た人物の画像の特徴量P(x,y)に対して、例えば主
成分分析を施し、関数記憶部23にあらかじめ記憶され
ている、例えばr個の関数Fi(x,y)(i=1,
2,・・・,r)それぞれに対する人物の画像の特徴量
P(x,y)の寄与度Xiを算出してパターン分類部2
4に出力する。
【0004】パターン分類部24は、装置のモードが学
習モードである場合、分析部22より出力された人物の
画像の特徴量P(x,y)の寄与度Xiを、認識結果と
しての、例えば人物に付けられた番号t(t=1,2,
・・・,T:Tは人物の顔の数)の関数である人物情報
K(t)と対応付けて(例えば、同じ人物tの画像にお
ける、複数の寄与度Xi,Xi',Xi'',Xi''',・・・
の平均値などを、その人物情報K(t)として)、その
内蔵するメモリ(図示せず)に記憶する。
【0005】さらに、パターン分類部24は、装置のモ
ードが認識モードである場合、分析部22より出力され
た人物の画像の特徴量P(x,y)の寄与度Xiと、そ
の内蔵するメモリにあらかじめ記憶されている各人物情
報K(t)との、例えばユークリッド距離をそれぞれ算
出し、その距離を最も短くする人物情報K(t)におけ
る番号tを認識結果として出力する。
【0006】以上のようにして、画像としての人物の顔
の認識が行われる。
【0007】また、人物の顔を認識する方法としては、
例えばモデルベーストコーディング(Model-Based Codi
ng)と呼ばれる画像圧縮方法を用いたものがある。この
モデルベーストコーディングでは、符号化側において、
例えば図9に示すような、いわゆるワイヤーフレームを
用いたモデルと、入力された人物の顔とが対応付けら
れ、その差異(モデルに対する人物の顔の特徴)情報が
取り出されて送信される。そして、復号化側において、
符号化側で用いたモデルと同一のものが差異情報にした
がって変形され、人物の顔が再現されるようになってい
る。
【0008】従って、このモデルベーストコーディング
を用いて人物の顔の認識が行われる場合には、まずモデ
ル(図10(b))に対する、入力された人物の顔画像
(図10(a))の差異情報が取り出される。
【0009】即ち、ビデオカメラなどで撮影された人物
の顔画像(図10(a))が、例えばコンピュータに取
り込まれ、CRTに表示される。そして、モデルとして
のワイヤーフレーム(図10(b))にあらかじめ設定
された所定の位置としての、例えば目や口の両端など
(図10(b)において、×印で示す)に対応する、C
RTに表示された人物の顔画像の位置(図10(c)に
おいて、×印で示す)が、例えばマウスなどでクリック
されることにより指定される。すると、この人物の顔画
像に対して指定された位置(図10(c))と、モデル
としてのワイヤーフレームにあらかじめ設定された所定
の位置(図10(b))とが重なるように、モデルとし
てのワイヤーフレームが、図10(d)に示すように変
形され、このときの変形量が差異情報として取り出され
る。
【0010】以上のようにして取り出された差異情報
は、人物情報と対応付けられ、コンピュータの内蔵する
メモリに認識情報として記憶される。
【0011】そして、人物の顔を認識する場合には、入
力された人物の顔画像に対する差異情報と最も類似する
認識情報が検出され、その認識情報と対応付けられた人
物情報が認識結果として出力される。
【0012】
【発明が解決しようとする課題】ところで、上述したよ
うな画像認識においては、人物の顔がビデオカメラなど
で撮影されるので、その画像には、画面上、左右、もし
くは上下のずれや、傾きが生じ、さらにその大きさが異
なる場合があった。
【0013】従って、この場合、例えば図8の分析部2
2においては、人物の顔画像に関する情報だけでなく、
画面における人物の顔画像の上下もしくは左右のずれ、
回転による位置ずれ、またはビデオカメラの拡大縮小率
による大きさのずれに関する情報、即ち不要な情報も主
成分分析されることになり、認識率が劣化する課題があ
った。
【0014】さらに、図10(b)に示すようなモデル
は、認識対象に基づいて用意しなけらばならなかった。
即ち、例えば人物の顔を認識する場合には、人物の顔の
モデルを用意し、また人物の手を認識する場合には、人
物の手のモデルを用意しなければならなかった。また、
例えば、これらのモデルすべてを用意してメモリに記憶
させておく場合には、多くのメモリが必要になり、装置
が大型化する課題があった。
【0015】一方、上述したモデルベーストコーディン
グを用いた人物の顔の認識においては、例えばコンピュ
ータの操作者が、CRTに表示された人物の顔画像の位
置(図10(c)において、×印で示す)を、マウスで
クリックしなければならず、不便であった。
【0016】本発明は、このような状況に鑑みてなされ
たものであり、装置を小型に構成するとともに、認識率
を向上させるものである。
【0017】
【課題を解決するための手段】請求項1に記載のパター
ン認識装置は、例えば関数Fiなどの基本パターンを記
憶している基本パターン記憶手段としての関数学習記憶
部5と、入力された、例えば画像データI(x,y)な
どの情報から入力パターンP(x,y)を作成する作成
手段としての前処理部3と、前処理部3により作成され
た入力パターンP(x,y)と、関数学習記憶部5に記
憶されている基本パターンFi(x,y)を比較し、基
本パターンFi(x,y)に対する入力パターンP
(x,y)の変形量M(x,y)を算出する比較手段と
しての比較処理部4と、比較処理部4より出力された変
形量M(x,y)にしたがって、関数学習記憶部5に記
憶されている基本パターンFi(x,y)、または前処
理部3により作成された入力パターンP(x,y)をそ
れぞれ変形する変形手段としてのプログラムの処理ステ
ップS14と、プログラムの処理ステップS14により
変形された基本パターンFi(x,y)および入力パタ
ーンP(x,y)に基づいて、関数学習記憶部5に記憶
されている基本パターンFi(x,y)を更新する基本
パターン更新手段としてのプログラムの処理ステップS
15とを備えることを特徴とする。
【0018】請求項2に記載のパターン認識装置は、例
えば関数Fi(x,y)などの基本パターンを記憶して
いる基本パターン記憶手段としての関数学習記憶部5
と、標準パターンを記憶している標準パターン記憶手段
としての人物情報学習記憶部7と、入力された、例えば
画像データI(x,y)などの情報から入力パターンP
(x,y)を作成する作成手段としての前処理部3と、
前処理部3により作成された入力パターンP(x,y)
と、関数学習記憶部5に記憶されている基本パターンF
i(x,y)を比較し、基本パターンFi(x,y)に対
する入力パターンP(x,y)の変形量M(x,y)、
および、例えば寄与率Xiなどの相関量のうち、少なく
とも変形量M(x,y)を算出する比較手段としての比
較処理部4と、比較処理部4により算出された変形量M
(x,y)を分析する分析手段としての変形量分析部6
と、変形量分析部6の分析結果Mtdr(x,y)、お
よび比較処理部4により算出された寄与率Xiのうち、
少なくとも変形量分析部6の分析結果Mtdr(x,
y)に基づいて、人物情報学習記憶部7に記憶されてい
る標準パターンを更新する標準パターン更新手段として
のプログラムの処理ステップS31乃至S35とを備え
ることを特徴とする。
【0019】請求項3に記載のパターン認識装置は、前
処理部3に、画像データI(x,y)に対してLOG
(Laplacean Of Gaussian)フィルタをかけさせ、ゼロ
クロス点を検出させた後、ローパスフィルタをかけさせ
ることを特徴とする。
【0020】請求項4に記載のパターン認識装置は、プ
ログラムの処理ステップS15に、基本パターンF
i(x,y)に対する入力パターンP(x,y)の寄与
度Xiのうち、最大寄与度XMAXを与える基本パターンF
MAX(x,y)を変形させることを特徴とする。
【0021】請求項5に記載のパターン認識装置は、比
較処理部4に、入力パターンP(x,y)と、基本パタ
ーンFi(x,y)とを、ブロックごとにマッチングさ
せ、ブロックの移動量を変形量M(x,y)として算出
させることを特徴とする。
【0022】請求項6に記載のパターン認識装置は、人
物情報学習記憶部7は、ニューラルネットワークにより
構成されていることを特徴とする。
【0023】請求項7に記載のパターン認識装置は、プ
ログラムの処理ステップS31乃至S35に、人物情報
学習記憶部7におけるニューラルネットワークの重み係
数を誤差逆伝播法にしたがって更新させることを特徴と
する。
【0024】請求項8に記載のパターン認識装置は、前
処理部3に、顔画像から入力パターンI(x,y)を作
成させることを特徴とする。
【0025】
【作用】本発明のパターン認識装置においては、画像デ
ータI(x,y)から入力パターンP(x,y)を作成
し、この入力パターンP(x,y)と、関数学習記憶部
5に記憶されている基本パターンFi(x,y)を比較
して、基本パターンFi(x,y)に対する入力パター
ンP(x,y)の変形量M(x,y)を算出する。そし
て、この変形量M(x,y)にしたがって、関数学習記
憶部5に記憶されている基本パターンFi(x,y)、
または前処理部3により作成された入力パターンP
(x,y)をそれぞれ変形し、変形された基本パターン
i(x,y)および入力パターンP(x,y)に基づ
いて、関数学習記憶部5に記憶されている基本パターン
i(x,y)を更新する。従って、基本パターンF
i(x,y)が、入力パターンP(x,y)に類似する
ように更新されるため、認識対象に基づいて基本パター
ンFi(x,y)を用意する必要がないので、それを記
憶している関数学習記憶部5の記憶容量を少なくするこ
とができ、装置を小型に構成することができる。さら
に、認識率を向上させることができる。
【0026】また、本発明のパターン認識装置において
は、入力パターンP(x,y)と、関数学習記憶部5に
記憶されている基本パターンFi(x,y)を比較し、
基本パターンFi(x,y)に対する入力パターンP
(x,y)の変形量M(x,y)を算出する。そして、
この変形量M(x,y)を分析して、変形量M(x,
y)に含まれる入力パターンP(x,y)の、例えば平
行移動成分、回転移動成分、拡大縮小成分を取り除き、
いわば新たな変形量Mtdr(x,y)に基づいて、人
物情報学習記憶部7に記憶されている標準パターンを更
新する。従って、認識率を向上させることができる。
【0027】
【実施例】図1は、本発明のパターン認識装置を応用し
た画像認識装置の一実施例の構成を示すブロック図であ
る。ビデオカメラ1は、CCDを有し、例えば人物の顔
などを撮影した光を電気信号としての顔画像信号に変換
する。メモリ部2は、RAMおよびA/Dコンバータ
(いずれも図示せず)より構成され、A/Dコンバータ
により、ビデオカメラ1から出力される顔画像信号を、
例えば8ビットで量子化し、ディジタル信号(顔画像デ
ータ)としての、例えばxy平面上の2次元輝度情報I
(x,y)を、例えば1フレーム分ずつRAMに一時記
憶する。
【0028】前処理部3は、メモリ部2に記憶された顔
画像データI(x,y)に対して、例えばエッジの検出
などを行うことにより、顔画像(顔画像データI(x,
y))の特徴量としての入力パターンP(x,y)を取
り出し、比較処理部4に出力する。
【0029】比較処理部4は、関数学習記憶部5に記憶
されている、顔画像データI(x,y)の特徴量P
(x,y)の基本モデルとなる、例えばr個の関数Fi
(x,y)(i=1,2,・・・,r)それぞれに対す
る、前処理部3より出力された顔画像データI(x,
y)の入力パターンP(x,y)の相関量としての、例
えば寄与度Xiを算出し、そのうちの最大値としての最
大寄与度XMAXを検出するとともに、この最大寄与度X
MAXを与える関数FMAX(x,y)(MAXは、1乃至r
のいずれかの値)と、入力パターンP(x,y)との差
異情報としての変形量M(x,y)を算出し、関数学習
記憶部5および変形量分析部6に供給する。
【0030】関数学習記憶部5は、例えばニューラルネ
ットワークにより構成されており、顔画像データI
(x,y)の特徴量P(x,y)の基本モデルとなる、
例えばr個の関数Fi(x,y)(i=1,2,・・
・,r)をあらかじめ記憶している。
【0031】さらに、関数学習記憶部5は、比較処理部
4で算出された変形量M(x,y)を用いて、同じく比
較処理部4で検出された最大寄与度XMAXを与える関数
MAX(x,y)、または入力パターンP(x,y)を
変形し、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)を更
新する。
【0032】変形量分析部6は、比較処理部4により算
出された変形量M(x,y)を分析し、この変形量M
(x,y)に含まれる、入力パターンP(x,y)とし
ての、ビデオカメラ1で取り込んだ人物の顔画像の、画
面における上下もしくは左右のずれ、回転による位置ず
れ、またはビデオカメラ1の拡大縮小率などによる大き
さの違いに関する成分を取り除き、あらたな変形量Mt
dr(x,y)を人物情報学習記憶部7に出力する。
【0033】人物情報学習記憶部7は、装置のモードが
学習モードである場合、変形量分析部6より出力される
新たな変形量Mtdr(x,y)を、認識結果として
の、例えば人物(顔)に付けられた番号t(t=1,
2,・・・,T:Tは人物の顔の数)の関数である人物
情報K(t)と対応付けて(例えば、同じ人物tの顔画
像における、複数の変形量Mtdr(x,y),Mtd
r'(x,y),Mtdr''(x,y),Mtdr'''
(x,y),・・・の平均値などを、その人物情報K
(t)として)、その内蔵するメモリ(図示せず)に記
憶する。
【0034】即ち、人物情報学習記憶部7は、装置のモ
ードが学習モードである場合、変形量分析部6より出力
される、人物tの変形量Mtdr(x,y)そのものを
人物情報として記憶し、同一人物tの変形量Mtdr
(x,y)が、さらにそこに入力されるたびに、その変
形量Mtdr(x,y)に基づいて、人物情報K(t)
を更新する。
【0035】さらに、人物情報学習記憶部7は、装置の
モードが認識モードである場合、変形量分析部6より出
力された変形量Mtdr(x,y)と、その内蔵するメ
モリにあらかじめ記憶されている各人物情報K(t)と
の、例えばユークリッド距離をそれぞれ算出し、その距
離を最も短くする人物情報K(t)における番号tを認
識結果として出力する。
【0036】次に、その動作について説明する。装置の
モードが学習モードの場合、ビデオカメラ1において、
例えば人物の顔などを撮影した光が電気信号としての顔
画像信号に変換され、メモリ部2に出力される。メモリ
部2では、その内蔵するA/Dコンバータにおいて、ビ
デオカメラ1から出力された顔画像信号(アナログ信
号)が、例えば8ビットで量子化され、ディジタル信号
(顔画像データ)としてのxy平面上の2次元輝度情報
I(x,y)が、1フレーム分ずつ、内蔵するRAMに
一時記憶される。
【0037】そして、前処理部3において、メモリ部2
に記憶された顔画像データI(x,y)が読み出され、
エッジの検出などが行われ、顔画像(顔画像データI
(x,y))の特徴量としての入力パターンP(x,
y)が取り出される。
【0038】即ち、前処理部3では、例えば図2のフロ
ーチャートに示すように、まずステップS1において、
顔画像データI(x,y)に、例えばLOG(Laplacea
n OfGaussian)フィルタがかけられ、顔画像のエッジ部
分を取り出したエッジ信号IE(x,y)が算出される
(エッジの検出が行われる)。
【0039】なお、ステップS1での処理は、顔画像デ
ータI(x,y)の周波数特性と、LOGフィルタの周
波数特性とを乗算し、エッジ信号IE(x,y)を求め
るようにしても良いが、本実施例では、顔画像データI
(x,y)と、式(1-1)に示すLOGフィルタのインパ
ルス応答FLOG(x,y)との2次元畳込みを行い、エ
ッジ信号IE(x,y)を求めるようにしている。
【0040】
【数1】
【0041】なお、σはLOGフィルタの大きさに対応
して設定される所定の定数である。
【0042】そして、ステップS2に進み、ビデオカメ
ラ1より出力された顔画像の画面の範囲、即ちxy平面
上におけるX0≦xi≦X1,Y0≦yj≦Y1の範囲で
の、点(xi,yj)におけるエッジ信号IE(xi
j)と、その点(xi,yj)からx軸方向に1画素分
だけ移動した点(xi+1,yj)におけるエッジ信号IE
(xi +1,yj)との積が、負であるか否かが判定され
る。
【0043】ここで、説明を簡単にするために、以下、
ビデオカメラ1からメモリ部2を介して前処理部3に出
力された顔画像は、縦横ともN個の画素から構成される
ものとする。さらに、xy平面上における点(X0,Y
0)を原点(0,0)とし、従ってX1=Y1=N−1
とする。
【0044】ステップS2において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
であると判定された場合、即ち点(xi,yj)における
エッジ信号IE(xi,yj)の符号と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)の符号とが異
なる場合、ステップS7に進み、点(xi,yj)から点
(xi+1,yj)にかけてゼロクロスが生じているものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていることを示す、例えば1がセットされ、ス
テップS5に進む。
【0045】ステップS2において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
でないと判定された場合、ステップS3に進み、点(x
i,yj)におけるエッジ信号IE(xi,yj)と、その
点(xi,yj)からy軸方向に1画素分だけ移動した点
(xi,yj+1)におけるエッジ信号IE(xi,yj+1
との積が、負であるか否かが判定される。
【0046】ステップS3において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負であると判定された場合、即ち点(xi,yj)におけ
るエッジ信号IE(xi,yj)の符号と、その点(xi
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)の符号とが
異なる場合、ステップS7に進み、上述したようにゼロ
クロス関数PC(xi,yj)に1がセットされ、ステッ
プS5に進む。
【0047】ステップS3において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負でないと判定された場合、ステップS4に進み、点
(xi,yj)から点(xi+1,yj)または点(xi,yj
+1)にかけてそれぞれゼロクロスが生じていないものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていないことを示す、例えば0がセットされ、
ステップS5に進む。
【0048】なお、ステップS2乃至S4およびS7の
処理は、xy平面上における顔画像画面の範囲の画素に
対応する点(0≦xi≦N−1,0≦yj≦N−1の範囲
の点(xi,yj))すべてに対して行われる。
【0049】以上のようにして、顔画像のエッジのゼロ
クロス点を示す関数PC(xi,yj)を算出することに
より、即ち顔画像のエッジのゼロクロス点を検出するこ
とにより、ビデオカメラ1で顔画像を撮影したときの、
例えば照明などの影響を取り除くことができる。
【0050】そして、ステップS5に進み、ゼロクロス
関数PC(x,y)に、例えばガウスフィルタなどのロ
ーパスフィルタがかけられ、ゼロクロス関数PC(x,
y)で表現された顔画像パターンが、いわばぼけた顔画
像パターンに変換され、ビデオカメラ1で撮影された顔
画像の特徴量としての入力パターンP(x,y)が算出
される。
【0051】なお、ステップS5での処理は、ゼロクロ
ス関数PC(x,y)の周波数特性と、ガウスフィルタ
の周波数特性とを乗算し、ビデオカメラ1で撮影された
顔画像の特徴量としての入力パターンP(x,y)を求
めるようにしても良いが、本実施例では、ゼロクロス関
数PC(x,y)と、式(1-2)に示すガウスフィルタのイ
ンパルス応答FG(x,y)との2次元畳込みを行い、
入力パターンP(x,y)を求めるようにしている。
【0052】
【数2】
【0053】なお、σは上述したステップS1でのLO
Gフィルタにおける場合と同様に、ガウスフィルタの大
きさに対応して設定される所定の定数である。
【0054】ステップS5の処理により、後述する比較
処理部4で検出される、関数学習記憶部5に記憶された
関数Fi(x,y)それぞれに対する、入力パターンP
(x,y)の寄与度Xiの変化がなだらかになり、従っ
て最大寄与度XMAXを与える関数FMAX(x,y)を容易
に検出することができるようになる。
【0055】ステップS5で算出された入力パターンP
(x,y)は、ステップS6において比較処理部4に出
力され、処理を終了する。
【0056】以上のようにして、前処理部3では、顔画
像データI(x,y)から、その顔画像の特徴量として
の入力パターンP(x,y)が作成される。
【0057】そして、比較処理部4において、まず関数
学習記憶部5に記憶されている基本パターンとしての関
数Fi(x,y)(i=1,2,・・・,r:rは所定
の数)それぞれに対する、前処理部3で作成された入力
パターンP(x,y)の相関量としての、例えば寄与度
iが算出され、そのうちの最大値としての最大寄与度
MAXが検出される。
【0058】ここで、関数Fi(x,y)に対する、入
力パターンP(x,y)の寄与度Xiとは、関数F
i(x,y)への、入力パターンP(x,y)の正射影
であり、式(2-1)にしたがって計算される関数Fi(x,
y)と、入力パターンP(x,y)との内積を意味す
る。
【0059】
【数3】
【0060】なお、Nは、前述したように、ビデオカメ
ラ1よりメモリ部2を介して前処理部3に出力された顔
画像の画面の縦および横の画素数である。
【0061】さらに、比較処理部4において、前処理部
3より出力された入力パターンP(x,y)と、最大寄
与度XMAXを与える関数FMAX(x,y)(MAXは、1
乃至rのいずれかの値)とがブロックマッチングされ、
入力パターンP(x,y)を関数FMAX(x,y)と
(関数FMAX(x,y)を入力パターンP(x,y)
と)、いわば最も類似させる場合の、入力パターンP
(x,y)(関数FMAX(x,y))の変形量M(x,
y)(M'(x,y))が算出される。
【0062】即ち、比較処理部4において、まず関数F
MAX(x,y)が、縦横ともb個の画素からなるB個の
ブロックFBk(xk,yk)(k=0,1,・・・,B
−1)に分割される(図3(a))。なお、点(xk
k)は、ブロックFBk(xk,yk)の中心の座標点を
示す。
【0063】そして、入力パターンP(x,y)上に、
縦横とも、同じくb個の画素からなる、中心の座標が点
(xi,yj)であるブロックPB(xi,yj)を考え、
ブロックFBk(xk,yk)が、入力パターンP(x,
y)における、点(xk,yk)を中心とした位置から、
x軸またはy軸方向に±S画素分の範囲で移動され(図
3(b))、ブロックFBk(xk,yk)が、入力パタ
ーンP(x,y)上におけるブロックPB(xi,yj
と最も類似する場合の、ブロックFBk(xk,yk)の
移動量(mxk,myk)が検出される。
【0064】つまり、比較処理部4では、式(2-2)に示
す、各ブロックFBk(xk,yk)に対する、ブロック
PB(xk+mxk,yk+myk)の寄与率XMAX(k)そ
れぞれが、極大値、あるいは最大値となる移動量
(mxk,myk)としての変形量M(x,y)が算出(検
出)されることになる。
【0065】
【数4】
【0066】なお、以下点(xk,yk)を中心とするブ
ロックFBk(xk,yk)が、入力パターンP(x,
y)上におけるブロックPB(xi,yj)と最も類似す
る場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)を、変形量M(xk,yk)と表し、変形
量M(xk,yk)の集合を、変形量M(x,y)と表
す。
【0067】以上のようにして比較処理部4で算出され
た変形量M(x,y)は、関数学習記憶部5および変形
量分析部6に供給される。
【0068】関数学習記憶部5において、比較処理部4
で算出された変形量M(x,y)を用いて、同じく比較
処理部4で検出された最大寄与度XMAXを与える関数F
MAX(x,y)、または入力パターンP(x,y)が変
形され、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)が更
新される。
【0069】即ち、関数学習記憶部5では、図4のフロ
ーチャートに示すように、まずステップS11におい
て、ブロックFBk(xk,yk)が、入力パターンP
(x,y)上におけるブロックPB(xi,yj)と最も
類似する場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)の集合としての変形量M(x,y)(M
(xk,yk)(=(mxk,myk))の集合)が、比較処
理部4より入力されると、ステップS12において、入
力パターンP(x,y)上におけるブロックPB
(xi,yj)を、ブロックFBk(xk,yk)と最も類
似させる場合の、ブロックPB(xi,yj)(=PB
(xk+mxk,yk+myk))の移動量(−mxk,−
yk)が算出され、移動量(−mxk,−myk)を示す変
数M'(xk+mxk,yk+myk)にセットされる。
【0070】そして、ステップS13に進み、入力パタ
ーンP(x,y)、または関数FMA X(x,y)を変形
する変形作用素MP(xk,yk)の集合MP(x,y)、
またはMF(xk+mxk,yk+myk)の集合MF(x,
y)が、それぞれ次式にしたがって算出され、ステップ
S14に進む。 MP(xk,yk)=A×M(xk,yk) MF(xk+mxk,yk+myk) =(1−A)×M'(xk+mxk,yk+myk) 但し、Aは、0≦A≦1の範囲の定数で、関数学習記憶
部5での関数Fiの学習が進むにしたがって小さい値か
ら大きい値へ更新される。
【0071】ステップS14において、変形作用素MP
(x,y)、またはMF(x,y)をそれぞれ MP(x,y)=(d1x,d1y)、または MF(x,y)=(d2x,d2y) とすると、入力パターンP(x,y)、または関数F
MAX(x,y)が、式 P'(x,y)=P(x+d1x,y+d1y)、また
は FMAX'(x,y)=FMAX(x+d2x,y+d2y) にしたがって変形され、即ち変形された入力パターン
P'(x,y)(図5(a))、または変形された関数
MAX'(x,y)(図5(b))が算出されてステップ
S15に進む。
【0072】ステップS15において、新たな入力パタ
ーンP'(x,y)と、新たな関数FMAX'(x,y)と
から、式(2-3)にしたがって学習が行われた関数F
MAX(x,y)としての新たな関数Fi(x,y)が算出
され、関数FMAX(x,y)に代わって関数学習記憶部
5に記憶されて処理を終了する。
【0073】
【数5】
【0074】一方、比較処理部4より変形量分析部6に
入力された変形量M(x,y)は、そこで分析され、こ
の変形量M(x,y)に含まれる、入力パターンP
(x,y)としての、ビデオカメラ1で取り込んだ人物
の顔画像の、画面における上下もしくは左右のずれ(平
行移動成分)、回転による位置ずれ(回転移動成分)
(傾き成分)、またはビデオカメラ1の拡大縮小率など
による大きさの違いに関する成分が取り除かれ、あらた
な変形量Mtdr(x,y)が人物情報学習記憶部7に
出力される。
【0075】即ち、変形量分析部6では、図6のフロー
チャートに示すように、まずステップS21において、
入力パターンP(x,y)に含まれる平行移動成分T
が、式
【数6】 にしたがって算出され、ステップS22に進み、変形量
M(x,y)から、平行移動成分Tが取り除かれた変形
量Mt(x,y)が次式にしたがって求められてステッ
プS23に進む。 Mt(x,y)=M(x,y)−T (3-2)
【0076】ステップS23において、入力パターンP
(x,y)に含まれる大きさの違いに関する成分(拡大
縮小率に関する成分)Dが、式
【数7】 にしたがって算出され、ステップS24に進み、変形量
Mt(x,y)から、拡大縮小率に関する成分Dが取り
除かれた変形量Mtd(x,y)が次式にしたがって求
められてステップS25に進む。 Mtd(x,y)=Mt(x,y)+δMd(x,y) (3-4)
【0077】但し、δMd(x,y)は次式で定義され
るものである。
【0078】
【数8】
【0079】なお、δMd(x,y)は、これが、式 δMd(x,y)=αr(x,y) (αは、0≦α≦1の範囲の数) と表すことのできるものとして、拡大縮小率に関する成
分Dが0になるように、式(3-3)のM(x,y)を、M
(x,y)+δMd(x,y)に代えるとともに、拡大
縮小率に関する成分Dを0に代え、δMd(x,y)に
ついて解いたものである。
【0080】ステップS25において、入力パターンP
(x,y)に含まれる回転移動成分(傾き成分)Rが、
【数9】 にしたがって算出され、ステップS26に進み、変形量
Mtd(x,y)から、回転移動成分Rが取り除かれた
変形量Mtdr(x,y)が次式にしたがって求められ
てステップS27に進む。 Mtdr(x,y) =Mtd(x,y)+δMr(x,y) (3-6)
【0081】但し、δMr(x,y)は次式で定義され
るものである。
【0082】
【数10】
【0083】なお、δMr(x,y)は、これが、式 δMr(x,y)=αs(x,y) で表すことのできるものとして、回転移動成分Rが0に
なるように、式(3-5)のM(x,y)を、M(x,y)
+δMr(x,y)に代えるとともに、回転移動成分R
を0に代え、δMr(x,y)について解いたものであ
る。
【0084】以上のようにして、平行移動成分T、拡大
縮小率に関する成分D、および回転移動成分Rが取り除
かれた、新たな変形量Mtdr(x,y)は、ステップ
S27において人物情報学習記憶部7に出力され、処理
を終了する。
【0085】なお、以上の処理は、変形量M(x,y)
の構成要素としての、比較処理部4でB個に分割された
関数Fi(x,y)(FMAX(x,y))の各ブロックに
対する変形量M(xk,yk)(k=0,1,・・・,B
−1)すべてに対して行われる。
【0086】従って、変形量分析部6においては、比較
処理部4でB個に分割された関数Fi(x,y)(FMAX
(x,y))の各ブロックk(k=0,1,・・・,B
−1)における変形量M(xk,yk)に対する新たな変
形量Mtdr(xk,yk)がそれぞれ算出されることに
なる。
【0087】つまり、本明細書中では、比較処理部4で
B個に分割された関数Fi(x,y)(FMAX(x,
y))の各ブロックkにおける変形量M(xk,yk)に
対する新たな変形量Mtdr(xk,yk)の集合を、新
たな変形量Mtdr(x,y)と記載してある。
【0088】また、変形量Mtdr(xk,yk)は2次
元のベクトルであるから、その集合である新たな変形量
Mtdr(x,y)は、2B次元のベクトルとみなすこ
とができる。
【0089】変形量分析部6の処理が終了すると、人物
情報学習記憶部7において、変形量分析部6により算出
された新たな変形量Mtdr(x,y)が、認識結果と
しての人物(顔)に付けられた番号t(t=1,2,・
・・,T:Tは人物の顔の数)の関数である人物情報
(標準パターン)K(t)と対応付けられ、その内蔵す
るメモリに記憶される。
【0090】即ち、人物情報学習記憶部7では、図7の
フローチャートに示すように、まずステップS31にお
いて、人物(顔)に付けられた番号tが入力されると、
ステップS32において、人物情報学習記憶部7の内蔵
するメモリから、標準パターンとしての人物情報K
(t)が読み出され、ステップS33に進む。
【0091】ステップS33において、変形量分析部6
から人物情報学習部7に変形量Mtdr(x,y)が入
力されると、ステップS34において、変形量Mtdr
(x,y)により、次式にしたがって人物情報K(t)
が更新される。 K(t:2k)= K(t:2k)+a×Mtdrx(xk,yk) K(t:2k+1)= K(t:2k+1)+a×Mtdry(xk,yk) 但し、k=0,1,・・・,B−1。
【0092】ここで、Mtdrx(xk,yk)、または
Mtdry(xk,yk)は、点(xk,yk)を中心とす
る関数Fi(x,y)のブロック(図3(a))におけ
る新たな変形量Mtdr(xk,yk)の、xy平面上に
おけるx成分、またはy成分をそれぞれ示す。
【0093】さらに、新たな変形量Mtdr(x,y)
は、上述したように2B次元のベクトルであるから、人
物情報K(t)も同様に2B次元のベクトルであり、K
(t:2k)、またはK(t:2k+1)は、人物情報
K(t)の第2k次元、または第2k+1次元の要素を
それぞれ示す。
【0094】また、aは、0<a<1の範囲の所定の数
である。
【0095】そして、ステップS35に進み、ステップ
S34で更新されたK(t)が人物情報学習記憶部7の
内蔵するメモリに記憶され、処理を終了する。
【0096】次に、装置のモードが認識モードである場
合、ビデオカメラ1、メモリ部2、前処理部3、比較処
理部4、関数学習記憶部5、または変形量分析部6にお
いて、上述した場合と同様の処理が行われ、人物情報学
習記憶部7に新たな変形量Mtdr(x,y)が入力さ
れる。すると、人物情報学習記憶部7において、この変
形量Mtdr(x,y)と、その内蔵するメモリに記憶
された各人物情報K(t)とのユークリッド距離がそれ
ぞれ算出され、その距離を最も短くする人物情報K
(t)における番号tが認識結果として出力される。
【0097】なお、本実施例においては、前処理部3で
画像データにLOGフィルタをかけて画像のエッジを検
出するようにしたが、画像のエッジを検出方法はこれに
限定されるものではない。さらに、前処理部3では、画
像のエッジを検出するのではなく、他の特徴量を取り出
すようにすることができる。また、画像の対応点問題
は、比較処理部4で解決されるので、前処処理部3にお
いて、画像データに対してフィルタリングを行わず比較
処理部4に出力するようにすることができる。
【0098】さらに、比較処理部4では、ブロックマッ
チングして変形量M(x,y)を算出するようにした
が、例えば特願平3−150520号に開示されている
ような、動画像の動き検出に一般的に用いられているオ
プティカルフローによる方法で、変形量M(x,y)を
算出するようにすることができる。
【0099】また、関数学習記憶部5においては、最大
寄与度XMAXを与える関数FMAX(x,y)のみ変形(学
習)させるようにしたが、2番目に大きい寄与度や3番
目に大きい寄与度を与える関数も変形(学習)させるよ
うにすることができる。
【0100】さらに、人物情報学習記憶部7を関数学習
記憶部5と同様に、ニューラルネットワークにより構成
し、比較処理部4で算出される寄与度Xiを人物情報学
習記憶部7に入力するようにして(図1において、点線
で示す)、変形量Mtdr(x,y)とともに、寄与度
iを用いて、いわゆる誤差逆伝播法などにより人物情
報K(t)の学習を行うように、即ちニューラルネット
ワークの重み係数を更新するようにすることができる。
また、変形量分析部6で算出される平行移動成分T、拡
大縮小率に関する成分D、または回転移動成分Rを人物
情報学習記憶部7に入力するようにして、人物情報K
(t)の学習を行うようにすることもできる。このよう
にすれば、認識しようとする物体(画像)の位置、大き
さ、または傾きを判定することができるようになる。
【0101】さらに、人物情報学習記憶部7では、いわ
ゆる主成分分析法により学習を行うようにすることがで
きる。
【0102】また、関数学習記憶部5、または人物情報
学習記憶部7においては、例えばいわゆるボルツマンマ
シンの学習方法や、シミュレーティッドアニーリングに
よる学習方法などを用いるようにしても良い。
【0103】
【発明の効果】以上のように、本発明のパターン認識装
置によれば、入力された、例えば画像などの情報から入
力パターンを作成し、この入力パターンと、基本パター
ン記憶手段に記憶されている基本パターンを比較して、
基本パターンに対する入力パターンの変形量を算出す
る。そして、この変形量にしたがって、基本パターン記
憶手段に記憶されている基本パターン、または作成手段
により作成された入力パターンをそれぞれ変形し、変形
された基本パターンおよび入力パターンに基づいて、基
本パターン記憶手段に記憶されている基本パターンを更
新する。従って、基本パターンが、入力パターンに類似
するように更新されるため、認識対象に基づいて基本パ
ターンを用意する必要がないので、それを記憶している
基本パターン記憶手段の記憶容量を少なくすることがで
き、装置を小型に構成することができる。さらに、認識
率を向上させることができる。
【0104】また、本発明のパターン認識装置によれ
ば、入力パターンと、基本パターン記憶手段に記憶され
ている基本パターンを比較し、基本パターンに対する入
力パターンの変形量を算出する。そして、この変形量を
分析し、その分析結果に基づいて、標準パターン記憶手
段に記憶されている標準パターンを更新する。従って、
認識率を向上させるように、自動的に標準パターンの更
新(学習)を行うことができる。
【図面の簡単な説明】
【図1】本発明のパターン認識装置を応用した画像認識
装置の一実施例の構成を示すブロック図である。
【図2】図1の実施例の前処理部3の動作を説明するた
めのフローチャートである。
【図3】図1の実施例の比較処理部4での変形量M
(x,y)の算出方法を説明するための図である。
【図4】図1の実施例の関数学習記憶部5の動作を説明
するためのフローチャートである。
【図5】図1の実施例の関数学習記憶部5で変形された
入力パターンP(x,y)と、関数Fi(x,y)を示
す図である。
【図6】図1の実施例の変形量分析部6の動作を説明す
るためのフローチャートである。
【図7】図1の実施例の人物情報学習記憶部7の動作を
説明するためのフローチャートである。
【図8】従来の画像認識装置の一例の構成を示すブロッ
ク図である。
【図9】ワイヤーフレームを用いたモデルを示す図であ
る。
【図10】モデルベーストコーディングによる人物の顔
の認識方法を説明するための図である。
【符号の説明】
1 ビデオカメラ 2 メモリ部 3 前処理部 4 比較処理部 5 関数学習記憶部 6 変形量分析部 7 人物情報学習記憶部 21 前処理部 22 分析部 23 関数記憶部 24 パターン分類部

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 基本パターンを記憶している基本パター
    ン記憶手段と、 入力された情報から入力パターンを作成する作成手段
    と、 前記作成手段により作成された入力パターンと、前記基
    本パターン記憶手段に記憶されている基本パターンを比
    較し、前記基本パターンに対する前記入力パターンの変
    形量を算出する比較手段と、 前記比較手段より出力された前記変形量にしたがって、
    前記基本パターン記憶手段に記憶されている基本パター
    ン、または前記作成手段により作成された入力パターン
    をそれぞれ変形する変形手段と、 前記変形手段により変形された前記基本パターンおよび
    入力パターンに基づいて、前記基本パターン記憶手段に
    記憶されている基本パターンを更新する基本パターン更
    新手段とを備えることを特徴とするパターン認識装置。
  2. 【請求項2】 基本パターンを記憶している基本パター
    ン記憶手段と、 標準パターンを記憶している標準パターン記憶手段と、 入力された情報から入力パターンを作成する作成手段
    と、 前記作成手段により作成された入力パターンと、前記基
    本パターン記憶手段に記憶されている基本パターンを比
    較し、前記基本パターンに対する前記入力パターンの変
    形量、および相関量のうち、少なくとも前記変形量を算
    出する比較手段と、 前記比較手段により算出された前記変形量を分析する分
    析手段と、 前記分析手段の分析結果、および前記比較手段により算
    出された前記相関量のうち、少なくとも前記分析手段の
    分析結果に基づいて、前記標準パターン記憶手段に記憶
    されている標準パターンを更新する標準パターン更新手
    段とを備えることを特徴とするパターン認識装置。
  3. 【請求項3】 前記作成手段は、入力された情報に対し
    てLOGフィルタをかけ、ゼロクロス点を検出した後、
    ローパスフィルタをかけることを特徴とする請求項1ま
    たは2のいずれかに記載のパターン認識装置。
  4. 【請求項4】 前記基本パターン更新手段は、前記基本
    パターンに対する前記入力パターンの寄与度のうち、最
    大寄与度を与える前記基本パターンを更新することを特
    徴とする請求項1に記載のパターン認識装置。
  5. 【請求項5】 前記比較手段は、前記入力パターンと、
    前記基本パターンとを、ブロックごとにマッチングし、
    前記ブロックの移動量を前記変形量として算出すること
    を特徴とする請求項1または2のいずれかに記載のパタ
    ーン認識装置。
  6. 【請求項6】 前記標準パターン記憶手段は、ニューラ
    ルネットワークにより構成されていることを特徴とする
    請求項2に記載のパターン認識装置。
  7. 【請求項7】 前記標準パターン更新手段は、前記標準
    パターン記憶手段における前記ニューラルネットワーク
    の重み係数を誤差逆伝播法にしたがって更新することを
    特徴とする請求項6に記載のパターン認識装置。
  8. 【請求項8】 前記作成手段は、顔画像から前記入力パ
    ターンを作成することを特徴とする請求項1または2の
    いずれかに記載のパターン認識装置。
JP26550692A 1992-09-08 1992-09-08 パターン認識装置 Expired - Fee Related JP3252381B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP26550692A JP3252381B2 (ja) 1992-09-08 1992-09-08 パターン認識装置
DE69332397T DE69332397T2 (de) 1992-09-08 1993-08-25 Mustererkennungsgerät
EP93306750A EP0587349B1 (en) 1992-09-08 1993-08-25 Pattern recognition device
KR1019930017497A KR100320063B1 (ko) 1992-09-08 1993-09-02 패턴인식장치
US08/117,494 US5469512A (en) 1992-09-08 1993-09-07 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26550692A JP3252381B2 (ja) 1992-09-08 1992-09-08 パターン認識装置

Publications (2)

Publication Number Publication Date
JPH0689344A true JPH0689344A (ja) 1994-03-29
JP3252381B2 JP3252381B2 (ja) 2002-02-04

Family

ID=17418115

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26550692A Expired - Fee Related JP3252381B2 (ja) 1992-09-08 1992-09-08 パターン認識装置

Country Status (5)

Country Link
US (1) US5469512A (ja)
EP (1) EP0587349B1 (ja)
JP (1) JP3252381B2 (ja)
KR (1) KR100320063B1 (ja)
DE (1) DE69332397T2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304899A (ja) * 2006-05-12 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> 識別辞書生成装置及び識別辞書生成方法
US10755164B2 (en) 2014-09-30 2020-08-25 International Business Machines Corporation Apparatus and method for learning a model corresponding to time-series input data

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE502658C2 (sv) * 1994-02-28 1995-12-04 Non Stop Info Ab Förfarande och kontrollanordning för avläsning av identitets -och värdehandlingar.
JPH11502344A (ja) * 1995-03-20 1999-02-23 ロー テクノロジーズ 画像を識別するための装置及び方法
US5706364A (en) * 1995-04-28 1998-01-06 Xerox Corporation Method of producing character templates using unsegmented samples
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
US5850470A (en) * 1995-08-30 1998-12-15 Siemens Corporate Research, Inc. Neural network for locating and recognizing a deformable object
JPH1013312A (ja) * 1996-06-20 1998-01-16 Sony Corp データ処理装置および方法、並びに、送受信装置および方法
US6535681B2 (en) * 2001-06-19 2003-03-18 Lucent Technologies Inc. Fiber-optic cable routing and bend limiting device and system
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
US6526156B1 (en) 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
US6751526B2 (en) 1997-08-22 2004-06-15 Sony Corporation Method for describing robot structure and part of robot
US6006186A (en) * 1997-10-16 1999-12-21 Sony Corporation Method and apparatus for a parameter sharing speech recognition system
US6185316B1 (en) 1997-11-12 2001-02-06 Unisys Corporation Self-authentication apparatus and method
US6606398B2 (en) * 1998-09-30 2003-08-12 Intel Corporation Automatic cataloging of people in digital photographs
US6445834B1 (en) 1998-10-19 2002-09-03 Sony Corporation Modular image query system
US6256409B1 (en) 1998-10-19 2001-07-03 Sony Corporation Method for determining a correlation between images using multi-element image descriptors
US6266642B1 (en) 1999-01-29 2001-07-24 Sony Corporation Method and portable apparatus for performing spoken language translation
US6223150B1 (en) 1999-01-29 2001-04-24 Sony Corporation Method and apparatus for parsing in a spoken language translation system
US6356865B1 (en) 1999-01-29 2002-03-12 Sony Corporation Method and apparatus for performing spoken language translation
US6243669B1 (en) 1999-01-29 2001-06-05 Sony Corporation Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation
US6278968B1 (en) 1999-01-29 2001-08-21 Sony Corporation Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system
US6442524B1 (en) 1999-01-29 2002-08-27 Sony Corporation Analyzing inflectional morphology in a spoken language translation system
US6282507B1 (en) 1999-01-29 2001-08-28 Sony Corporation Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection
US6374224B1 (en) 1999-03-10 2002-04-16 Sony Corporation Method and apparatus for style control in natural language generation
US6674915B1 (en) 1999-10-07 2004-01-06 Sony Corporation Descriptors adjustment when using steerable pyramid to extract features for content based search
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
US6975750B2 (en) * 2000-12-01 2005-12-13 Microsoft Corp. System and method for face recognition using synthesized training images
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US6785419B1 (en) * 2000-12-22 2004-08-31 Microsoft Corporation System and method to facilitate pattern recognition by deformable matching
KR100436294B1 (ko) * 2001-07-30 2004-06-16 에이티아이 주식회사 머신 비젼에서의 패턴 블록 검출 방법
JP3979136B2 (ja) * 2002-03-20 2007-09-19 富士ゼロックス株式会社 認識装置および方法
US7382277B2 (en) 2003-02-12 2008-06-03 Edward D. Ioli Trust System for tracking suspicious vehicular activity
JP2005128956A (ja) * 2003-10-27 2005-05-19 Pentax Corp 被写体判定プログラム及びデジタルカメラ
US8275204B1 (en) 2003-11-05 2012-09-25 Shahar Kovalsky Estimation of joint radiometric and geometric image deformations
WO2005045358A2 (en) * 2003-11-05 2005-05-19 Francos Joseph M Parametric estimation of multi-dimensional homeomorphic transformations
US20060088225A1 (en) 2004-10-26 2006-04-27 The Secretary Of State For The Home Department Comparison
US20090060348A1 (en) * 2007-08-28 2009-03-05 Donald Martin Monro Determination of Image Similarity
TW201006230A (en) * 2008-07-24 2010-02-01 Novatek Microelectronics Corp Static image presentation method
GB0819069D0 (en) 2008-10-17 2008-11-26 Forensic Science Service Ltd Improvements in and relating to methods and apparatus for comparison
KR100921495B1 (ko) * 2009-03-24 2009-10-13 삼성탈레스 주식회사 파티클 필터링을 이용한 가우시안 혼합 모델링 업데이트 방법
US9323984B2 (en) * 2014-06-06 2016-04-26 Wipro Limited System and methods of adaptive sampling for emotional state determination

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3333248A (en) * 1963-12-20 1967-07-25 Ibm Self-adaptive systems
SE365325B (ja) * 1971-11-04 1974-03-18 Rothfjell R
JPS5819109B2 (ja) * 1978-11-10 1983-04-16 肇産業株式会社 パタ−ン判別方法
JPS58129684A (ja) * 1982-01-29 1983-08-02 Toshiba Corp パタ−ン認識装置
GB8528143D0 (en) * 1985-11-14 1985-12-18 British Telecomm Image encoding & synthesis
JPH0259883A (ja) * 1988-08-25 1990-02-28 Nec Corp パタン認識装置
GB8910749D0 (en) * 1989-05-10 1989-06-28 Sherman Robin L Methods and apparatus for obtaining information for characterising a person or animal
EP0539439B1 (en) * 1990-07-17 1999-06-16 BRITISH TELECOMMUNICATIONS public limited company Method and apparatus for processing an image
JPH04106674A (ja) * 1990-08-27 1992-04-08 N T T Data Tsushin Kk パターン認識方法
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
JPH04213172A (ja) * 1990-12-06 1992-08-04 Nippon Telegr & Teleph Corp <Ntt> パターン認識装置
US5163094A (en) * 1991-03-20 1992-11-10 Francine J. Prokoski Method for identifying individuals from analysis of elemental shapes derived from biosensor data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304899A (ja) * 2006-05-12 2007-11-22 Nippon Telegr & Teleph Corp <Ntt> 識別辞書生成装置及び識別辞書生成方法
US10755164B2 (en) 2014-09-30 2020-08-25 International Business Machines Corporation Apparatus and method for learning a model corresponding to time-series input data

Also Published As

Publication number Publication date
JP3252381B2 (ja) 2002-02-04
EP0587349A3 (en) 1994-12-21
EP0587349B1 (en) 2002-10-16
DE69332397T2 (de) 2003-06-05
US5469512A (en) 1995-11-21
KR100320063B1 (ko) 2002-03-20
DE69332397D1 (de) 2002-11-21
EP0587349A2 (en) 1994-03-16
KR940008423A (ko) 1994-04-29

Similar Documents

Publication Publication Date Title
JP3252381B2 (ja) パターン認識装置
US11153476B2 (en) Photographing apparatus, method and medium using image recognition
CN111741211B (zh) 图像显示方法和设备
CN108230383B (zh) 手部三维数据确定方法、装置及电子设备
KR100730500B1 (ko) 화상 처리 장치와 화상 처리 방법 및 기록 매체
JPS62125478A (ja) 移動物体像を抽出する方法
US20050243350A1 (en) Image processing method, apparatus, and program
CN111401324A (zh) 图像质量评估方法、装置、存储介质及电子设备
US20050180612A1 (en) Method of correcting deviation of detection position for human face, correction system, and correction program
CN111784658B (zh) 一种用于人脸图像的质量分析方法和系统
CN111080699A (zh) 基于深度学习的单目视觉里程计方法及系统
CN115035581A (zh) 面部表情识别方法、终端设备及存储介质
JP2007025902A (ja) 画像処理装置、画像処理方法
CN117496019B (zh) 一种驱动静态图像的图像动画处理方法及系统
JP2002342758A (ja) 視覚認識システム
CN115331153B (zh) 一种用于辅助前庭康复训练的姿态监测方法
CN115829975A (zh) 掌静脉图像质量检测方法、系统、介质及电子设备
JP7386630B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP4298283B2 (ja) パターン認識装置、パターン認識方法、及びプログラム
JP2004240909A (ja) 画像処理装置及び画像処理方法
CN111199204A (zh) 一种基于OpenGL人脸图像处理方法及装置
CN111275183A (zh) 视觉任务的处理方法、装置和电子系统
JP7338182B2 (ja) 行動認識装置、行動認識方法及びプログラム
US20220092357A1 (en) Information processing apparatus, information processing method, and storage medium
JP2007316812A (ja) 画像検索装置、画像検索方法、画像検索プログラム及び記録媒体

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20011022

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071122

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081122

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091122

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees