JP3252381B2 - パターン認識装置 - Google Patents
パターン認識装置Info
- Publication number
- JP3252381B2 JP3252381B2 JP26550692A JP26550692A JP3252381B2 JP 3252381 B2 JP3252381 B2 JP 3252381B2 JP 26550692 A JP26550692 A JP 26550692A JP 26550692 A JP26550692 A JP 26550692A JP 3252381 B2 JP3252381 B2 JP 3252381B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- input
- basic
- input pattern
- amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Stored Programmes (AREA)
- Image Processing (AREA)
- Character Discrimination (AREA)
Description
【0001】
【産業上の利用分野】本発明は、例えば画像を認識する
場合などに用いて好適なパターン認識装置に関する。
場合などに用いて好適なパターン認識装置に関する。
【0002】
【従来の技術】図8は、従来の画像認識装置の一例の構
成を示すブロック図である。例えばビデオカメラ(図示
せず)などで撮影された画像データとしての、例えば人
物の顔の画像などのxy平面上の輝度レベルI(x,
y)が、前処理部21に入力されると、そこで、画像デ
ータI(x,y)の特徴量としての、例えば画像のエッ
ジP(x,y)が検出され、分析部22に出力される。
成を示すブロック図である。例えばビデオカメラ(図示
せず)などで撮影された画像データとしての、例えば人
物の顔の画像などのxy平面上の輝度レベルI(x,
y)が、前処理部21に入力されると、そこで、画像デ
ータI(x,y)の特徴量としての、例えば画像のエッ
ジP(x,y)が検出され、分析部22に出力される。
【0003】分析部22は、前処理部21より出力され
た人物の画像の特徴量P(x,y)に対して、例えば主
成分分析を施し、関数記憶部23にあらかじめ記憶され
ている、例えばr個の関数Fi(x,y)(i=1,
2,・・・,r)それぞれに対する人物の画像の特徴量
P(x,y)の寄与度Xiを算出してパターン分類部2
4に出力する。
た人物の画像の特徴量P(x,y)に対して、例えば主
成分分析を施し、関数記憶部23にあらかじめ記憶され
ている、例えばr個の関数Fi(x,y)(i=1,
2,・・・,r)それぞれに対する人物の画像の特徴量
P(x,y)の寄与度Xiを算出してパターン分類部2
4に出力する。
【0004】パターン分類部24は、装置のモードが学
習モードである場合、分析部22より出力された人物の
画像の特徴量P(x,y)の寄与度Xiを、認識結果と
しての、例えば人物に付けられた番号t(t=1,2,
・・・,T:Tは人物の顔の数)の関数である人物情報
K(t)と対応付けて(例えば、同じ人物tの画像にお
ける、複数の寄与度Xi,Xi',Xi'',Xi''',・・・
の平均値などを、その人物情報K(t)として)、その
内蔵するメモリ(図示せず)に記憶する。
習モードである場合、分析部22より出力された人物の
画像の特徴量P(x,y)の寄与度Xiを、認識結果と
しての、例えば人物に付けられた番号t(t=1,2,
・・・,T:Tは人物の顔の数)の関数である人物情報
K(t)と対応付けて(例えば、同じ人物tの画像にお
ける、複数の寄与度Xi,Xi',Xi'',Xi''',・・・
の平均値などを、その人物情報K(t)として)、その
内蔵するメモリ(図示せず)に記憶する。
【0005】さらに、パターン分類部24は、装置のモ
ードが認識モードである場合、分析部22より出力され
た人物の画像の特徴量P(x,y)の寄与度Xiと、そ
の内蔵するメモリにあらかじめ記憶されている各人物情
報K(t)との、例えばユークリッド距離をそれぞれ算
出し、その距離を最も短くする人物情報K(t)におけ
る番号tを認識結果として出力する。
ードが認識モードである場合、分析部22より出力され
た人物の画像の特徴量P(x,y)の寄与度Xiと、そ
の内蔵するメモリにあらかじめ記憶されている各人物情
報K(t)との、例えばユークリッド距離をそれぞれ算
出し、その距離を最も短くする人物情報K(t)におけ
る番号tを認識結果として出力する。
【0006】以上のようにして、画像としての人物の顔
の認識が行われる。
の認識が行われる。
【0007】また、人物の顔を認識する方法としては、
例えばモデルベーストコーディング(Model-Based Codi
ng)と呼ばれる画像圧縮方法を用いたものがある。この
モデルベーストコーディングでは、符号化側において、
例えば図9に示すような、いわゆるワイヤーフレームを
用いたモデルと、入力された人物の顔とが対応付けら
れ、その差異(モデルに対する人物の顔の特徴)情報が
取り出されて送信される。そして、復号化側において、
符号化側で用いたモデルと同一のものが差異情報にした
がって変形され、人物の顔が再現されるようになってい
る。
例えばモデルベーストコーディング(Model-Based Codi
ng)と呼ばれる画像圧縮方法を用いたものがある。この
モデルベーストコーディングでは、符号化側において、
例えば図9に示すような、いわゆるワイヤーフレームを
用いたモデルと、入力された人物の顔とが対応付けら
れ、その差異(モデルに対する人物の顔の特徴)情報が
取り出されて送信される。そして、復号化側において、
符号化側で用いたモデルと同一のものが差異情報にした
がって変形され、人物の顔が再現されるようになってい
る。
【0008】従って、このモデルベーストコーディング
を用いて人物の顔の認識が行われる場合には、まずモデ
ル(図10(b))に対する、入力された人物の顔画像
(図10(a))の差異情報が取り出される。
を用いて人物の顔の認識が行われる場合には、まずモデ
ル(図10(b))に対する、入力された人物の顔画像
(図10(a))の差異情報が取り出される。
【0009】即ち、ビデオカメラなどで撮影された人物
の顔画像(図10(a))が、例えばコンピュータに取
り込まれ、CRTに表示される。そして、モデルとして
のワイヤーフレーム(図10(b))にあらかじめ設定
された所定の位置としての、例えば目や口の両端など
(図10(b)において、×印で示す)に対応する、C
RTに表示された人物の顔画像の位置(図10(c)に
おいて、×印で示す)が、例えばマウスなどでクリック
されることにより指定される。すると、この人物の顔画
像に対して指定された位置(図10(c))と、モデル
としてのワイヤーフレームにあらかじめ設定された所定
の位置(図10(b))とが重なるように、モデルとし
てのワイヤーフレームが、図10(d)に示すように変
形され、このときの変形量が差異情報として取り出され
る。
の顔画像(図10(a))が、例えばコンピュータに取
り込まれ、CRTに表示される。そして、モデルとして
のワイヤーフレーム(図10(b))にあらかじめ設定
された所定の位置としての、例えば目や口の両端など
(図10(b)において、×印で示す)に対応する、C
RTに表示された人物の顔画像の位置(図10(c)に
おいて、×印で示す)が、例えばマウスなどでクリック
されることにより指定される。すると、この人物の顔画
像に対して指定された位置(図10(c))と、モデル
としてのワイヤーフレームにあらかじめ設定された所定
の位置(図10(b))とが重なるように、モデルとし
てのワイヤーフレームが、図10(d)に示すように変
形され、このときの変形量が差異情報として取り出され
る。
【0010】以上のようにして取り出された差異情報
は、人物情報と対応付けられ、コンピュータの内蔵する
メモリに認識情報として記憶される。
は、人物情報と対応付けられ、コンピュータの内蔵する
メモリに認識情報として記憶される。
【0011】そして、人物の顔を認識する場合には、入
力された人物の顔画像に対する差異情報と最も類似する
認識情報が検出され、その認識情報と対応付けられた人
物情報が認識結果として出力される。
力された人物の顔画像に対する差異情報と最も類似する
認識情報が検出され、その認識情報と対応付けられた人
物情報が認識結果として出力される。
【0012】
【発明が解決しようとする課題】ところで、上述したよ
うな画像認識においては、人物の顔がビデオカメラなど
で撮影されるので、その画像には、画面上、左右、もし
くは上下のずれや、傾きが生じ、さらにその大きさが異
なる場合があった。
うな画像認識においては、人物の顔がビデオカメラなど
で撮影されるので、その画像には、画面上、左右、もし
くは上下のずれや、傾きが生じ、さらにその大きさが異
なる場合があった。
【0013】従って、この場合、例えば図8の分析部2
2においては、人物の顔画像に関する情報だけでなく、
画面における人物の顔画像の上下もしくは左右のずれ、
回転による位置ずれ、またはビデオカメラの拡大縮小率
による大きさのずれに関する情報、即ち不要な情報も主
成分分析されることになり、認識率が劣化する課題があ
った。
2においては、人物の顔画像に関する情報だけでなく、
画面における人物の顔画像の上下もしくは左右のずれ、
回転による位置ずれ、またはビデオカメラの拡大縮小率
による大きさのずれに関する情報、即ち不要な情報も主
成分分析されることになり、認識率が劣化する課題があ
った。
【0014】さらに、図10(b)に示すようなモデル
は、認識対象に基づいて用意しなけらばならなかった。
即ち、例えば人物の顔を認識する場合には、人物の顔の
モデルを用意し、また人物の手を認識する場合には、人
物の手のモデルを用意しなければならなかった。また、
例えば、これらのモデルすべてを用意してメモリに記憶
させておく場合には、多くのメモリが必要になり、装置
が大型化する課題があった。
は、認識対象に基づいて用意しなけらばならなかった。
即ち、例えば人物の顔を認識する場合には、人物の顔の
モデルを用意し、また人物の手を認識する場合には、人
物の手のモデルを用意しなければならなかった。また、
例えば、これらのモデルすべてを用意してメモリに記憶
させておく場合には、多くのメモリが必要になり、装置
が大型化する課題があった。
【0015】一方、上述したモデルベーストコーディン
グを用いた人物の顔の認識においては、例えばコンピュ
ータの操作者が、CRTに表示された人物の顔画像の位
置(図10(c)において、×印で示す)を、マウスで
クリックしなければならず、不便であった。
グを用いた人物の顔の認識においては、例えばコンピュ
ータの操作者が、CRTに表示された人物の顔画像の位
置(図10(c)において、×印で示す)を、マウスで
クリックしなければならず、不便であった。
【0016】本発明は、このような状況に鑑みてなされ
たものであり、装置を小型に構成するとともに、認識率
を向上させるものである。
たものであり、装置を小型に構成するとともに、認識率
を向上させるものである。
【0017】
【課題を解決するための手段】請求項1に記載のパター
ン認識装置は、任意の関数で表される複数の基本パター
ンを記憶している基本パターン記憶手段と、入力された
情報から入力パターンを作成する入力パターン作成手段
と、入力パターン作成手段により作成された入力パター
ンと、基本パターン記憶手段に記憶されている基本パタ
ーンを比較し、相関が最も高い相関最大基本パターンを
算出する第1の算出手段と、基本パターンと入力パター
ンとを最も類似させる変形量を算出する第2の算出手段
と、第2の算出手段により算出された変形量にしたがっ
て、第1の算出手段により算出された相関最大基本パタ
ーン、および、入力パターン作成手段により作成された
入力パターンをそれぞれ変形する変形手段と、変形手段
により変形された相関最大基本パターンおよび入力パタ
ーンに基づいて、基本パターン記憶手段に記憶されてい
る基本パターンを更新する基本パターン更新手段とを備
えることを特徴とする。
ン認識装置は、任意の関数で表される複数の基本パター
ンを記憶している基本パターン記憶手段と、入力された
情報から入力パターンを作成する入力パターン作成手段
と、入力パターン作成手段により作成された入力パター
ンと、基本パターン記憶手段に記憶されている基本パタ
ーンを比較し、相関が最も高い相関最大基本パターンを
算出する第1の算出手段と、基本パターンと入力パター
ンとを最も類似させる変形量を算出する第2の算出手段
と、第2の算出手段により算出された変形量にしたがっ
て、第1の算出手段により算出された相関最大基本パタ
ーン、および、入力パターン作成手段により作成された
入力パターンをそれぞれ変形する変形手段と、変形手段
により変形された相関最大基本パターンおよび入力パタ
ーンに基づいて、基本パターン記憶手段に記憶されてい
る基本パターンを更新する基本パターン更新手段とを備
えることを特徴とする。
【0018】請求項2に記載のパターン認識装置は、任
意の関数で表される複数の基本パターンを記憶している
基本パターン記憶手段と、入力された情報から入力パタ
ーンを作成する入力パターン作成手段と、入力パターン
作成手段により作成された入力パターンと、基本パター
ン記憶手段に記憶されている基本パターンを比較し、相
関が最も高い相関最大基本パターンを算出する第1の算
出手段と、基本パターンと入力パターンとを最も類似さ
せる変形量を算出する第2の算出手段と、第2の算出手
段により算出された変形量を、標準パターンとして記憶
する標準パターン記憶手段と、標準パターン記憶手段に
より記憶されている標準パターンを用いて、入力パター
ン作成手段により作成された入力パターンの識別を行う
識別手段とを備えることを特徴とする。
意の関数で表される複数の基本パターンを記憶している
基本パターン記憶手段と、入力された情報から入力パタ
ーンを作成する入力パターン作成手段と、入力パターン
作成手段により作成された入力パターンと、基本パター
ン記憶手段に記憶されている基本パターンを比較し、相
関が最も高い相関最大基本パターンを算出する第1の算
出手段と、基本パターンと入力パターンとを最も類似さ
せる変形量を算出する第2の算出手段と、第2の算出手
段により算出された変形量を、標準パターンとして記憶
する標準パターン記憶手段と、標準パターン記憶手段に
より記憶されている標準パターンを用いて、入力パター
ン作成手段により作成された入力パターンの識別を行う
識別手段とを備えることを特徴とする。
【0019】入力パターン作成手段には、入力された情
報に対してLOGフィルタをかけさせ、ゼロクロス点を
検出した後、ローパスフィルタをかけさせるようにする
ことができる。
報に対してLOGフィルタをかけさせ、ゼロクロス点を
検出した後、ローパスフィルタをかけさせるようにする
ことができる。
【0020】第2の算出手段により算出された変形量
は、人物情報と関連付けられた標準パターンとして、標
準パターン記憶手段により記憶されるものとすることが
でき、識別手段には、人物情報と関連付けられた標準パ
ターンを用いて、入力パターンに対する人物識別を行わ
せるようにすることができる。
は、人物情報と関連付けられた標準パターンとして、標
準パターン記憶手段により記憶されるものとすることが
でき、識別手段には、人物情報と関連付けられた標準パ
ターンを用いて、入力パターンに対する人物識別を行わ
せるようにすることができる。
【0021】第2の算出手段には、入力パターンと、基
本パターンとを、ブロックごとにマッチングさせて、ブ
ロックの移動量を変形量として算出させるようにするこ
とができる。
本パターンとを、ブロックごとにマッチングさせて、ブ
ロックの移動量を変形量として算出させるようにするこ
とができる。
【0022】標準パターン記憶手段は、ニューラルネッ
トワークにより構成されているものとすることができ
る。
トワークにより構成されているものとすることができ
る。
【0023】標準パターン記憶手段により記憶されてい
る標準パターンを更新する標準パターン更新手段を更に
備えさせるようにすることができ、標準パターン更新手
段には、標準パターン記憶手段におけるニューラルネッ
トワークの重み係数を誤差逆伝播法にしたがって更新さ
せるようにすることができる。
る標準パターンを更新する標準パターン更新手段を更に
備えさせるようにすることができ、標準パターン更新手
段には、標準パターン記憶手段におけるニューラルネッ
トワークの重み係数を誤差逆伝播法にしたがって更新さ
せるようにすることができる。
【0024】入力パターン作成手段には、入力された顔
画像から入力パターンを作成させるようにすることがで
きる。
画像から入力パターンを作成させるようにすることがで
きる。
【0025】
【作用】本発明の第1のパターン認識装置においては、
任意の関数で表される複数の基本パターンが記憶され、
入力された情報から入力パターンが作成され、作成され
た入力パターンと、記憶されている基本パターンが比較
されて、相関が最も高い相関最大基本パターンが算出さ
れ、基本パターンと入力パターンとを最も類似させる変
形量が算出され、算出された変形量にしたがって、相関
最大基本パターン、および、入力パターンがそれぞれ変
形され、変形された相関最大基本パターンおよび入力パ
ターンに基づいて、記憶されている基本パターンが更新
される。
任意の関数で表される複数の基本パターンが記憶され、
入力された情報から入力パターンが作成され、作成され
た入力パターンと、記憶されている基本パターンが比較
されて、相関が最も高い相関最大基本パターンが算出さ
れ、基本パターンと入力パターンとを最も類似させる変
形量が算出され、算出された変形量にしたがって、相関
最大基本パターン、および、入力パターンがそれぞれ変
形され、変形された相関最大基本パターンおよび入力パ
ターンに基づいて、記憶されている基本パターンが更新
される。
【0026】本発明の第2のパターン認識装置において
は、任意の関数で表される複数の基本パターンが記憶さ
れ、入力された情報から入力パターンが作成され、作成
された入力パターンと、記憶されている基本パターンと
が比較されて、相関が最も高い相関最大基本パターンが
算出され、基本パターンと入力パターンとを最も類似さ
せる変形量が算出され、算出された変形量が、標準パタ
ーンとして記憶され、記憶されている標準パターンを用
いて、作成された入力パターンの識別が行われる。
は、任意の関数で表される複数の基本パターンが記憶さ
れ、入力された情報から入力パターンが作成され、作成
された入力パターンと、記憶されている基本パターンと
が比較されて、相関が最も高い相関最大基本パターンが
算出され、基本パターンと入力パターンとを最も類似さ
せる変形量が算出され、算出された変形量が、標準パタ
ーンとして記憶され、記憶されている標準パターンを用
いて、作成された入力パターンの識別が行われる。
【0027】
【実施例】図1は、本発明のパターン認識装置を応用し
た画像認識装置の一実施例の構成を示すブロック図であ
る。ビデオカメラ1は、CCDを有し、例えば人物の顔
などを撮影した光を電気信号としての顔画像信号に変換
する。メモリ部2は、RAMおよびA/Dコンバータ
(いずれも図示せず)より構成され、A/Dコンバータ
により、ビデオカメラ1から出力される顔画像信号を、
例えば8ビットで量子化し、ディジタル信号(顔画像デ
ータ)としての、例えばxy平面上の2次元輝度情報I
(x,y)を、例えば1フレーム分ずつRAMに一時記
憶する。
た画像認識装置の一実施例の構成を示すブロック図であ
る。ビデオカメラ1は、CCDを有し、例えば人物の顔
などを撮影した光を電気信号としての顔画像信号に変換
する。メモリ部2は、RAMおよびA/Dコンバータ
(いずれも図示せず)より構成され、A/Dコンバータ
により、ビデオカメラ1から出力される顔画像信号を、
例えば8ビットで量子化し、ディジタル信号(顔画像デ
ータ)としての、例えばxy平面上の2次元輝度情報I
(x,y)を、例えば1フレーム分ずつRAMに一時記
憶する。
【0028】前処理部3は、メモリ部2に記憶された顔
画像データI(x,y)に対して、例えばエッジの検出
などを行うことにより、顔画像(顔画像データI(x,
y))の特徴量としての入力パターンP(x,y)を取
り出し、比較処理部4に出力する。
画像データI(x,y)に対して、例えばエッジの検出
などを行うことにより、顔画像(顔画像データI(x,
y))の特徴量としての入力パターンP(x,y)を取
り出し、比較処理部4に出力する。
【0029】比較処理部4は、関数学習記憶部5に記憶
されている、顔画像データI(x,y)の特徴量P
(x,y)の基本モデルとなる、例えばr個の関数Fi
(x,y)(i=1,2,・・・,r)それぞれに対す
る、前処理部3より出力された顔画像データI(x,
y)の入力パターンP(x,y)の相関量としての、例
えば寄与度Xiを算出し、そのうちの最大値としての最
大寄与度XMAXを検出するとともに、この最大寄与度X
MAXを与える関数FMAX(x,y)(MAXは、1乃至r
のいずれかの値)と、入力パターンP(x,y)との差
異情報としての変形量M(x,y)を算出し、関数学習
記憶部5および変形量分析部6に供給する。
されている、顔画像データI(x,y)の特徴量P
(x,y)の基本モデルとなる、例えばr個の関数Fi
(x,y)(i=1,2,・・・,r)それぞれに対す
る、前処理部3より出力された顔画像データI(x,
y)の入力パターンP(x,y)の相関量としての、例
えば寄与度Xiを算出し、そのうちの最大値としての最
大寄与度XMAXを検出するとともに、この最大寄与度X
MAXを与える関数FMAX(x,y)(MAXは、1乃至r
のいずれかの値)と、入力パターンP(x,y)との差
異情報としての変形量M(x,y)を算出し、関数学習
記憶部5および変形量分析部6に供給する。
【0030】関数学習記憶部5は、例えばニューラルネ
ットワークにより構成されており、顔画像データI
(x,y)の特徴量P(x,y)の基本モデルとなる、
例えばr個の関数Fi(x,y)(i=1,2,・・
・,r)をあらかじめ記憶している。
ットワークにより構成されており、顔画像データI
(x,y)の特徴量P(x,y)の基本モデルとなる、
例えばr個の関数Fi(x,y)(i=1,2,・・
・,r)をあらかじめ記憶している。
【0031】さらに、関数学習記憶部5は、比較処理部
4で算出された変形量M(x,y)を用いて、同じく比
較処理部4で検出された最大寄与度XMAXを与える関数
FMAX(x,y)、または入力パターンP(x,y)を
変形し、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)を更
新する。
4で算出された変形量M(x,y)を用いて、同じく比
較処理部4で検出された最大寄与度XMAXを与える関数
FMAX(x,y)、または入力パターンP(x,y)を
変形し、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)を更
新する。
【0032】変形量分析部6は、比較処理部4により算
出された変形量M(x,y)を分析し、この変形量M
(x,y)に含まれる、入力パターンP(x,y)とし
ての、ビデオカメラ1で取り込んだ人物の顔画像の、画
面における上下もしくは左右のずれ、回転による位置ず
れ、またはビデオカメラ1の拡大縮小率などによる大き
さの違いに関する成分を取り除き、あらたな変形量Mt
dr(x,y)を人物情報学習記憶部7に出力する。
出された変形量M(x,y)を分析し、この変形量M
(x,y)に含まれる、入力パターンP(x,y)とし
ての、ビデオカメラ1で取り込んだ人物の顔画像の、画
面における上下もしくは左右のずれ、回転による位置ず
れ、またはビデオカメラ1の拡大縮小率などによる大き
さの違いに関する成分を取り除き、あらたな変形量Mt
dr(x,y)を人物情報学習記憶部7に出力する。
【0033】人物情報学習記憶部7は、装置のモードが
学習モードである場合、変形量分析部6より出力される
新たな変形量Mtdr(x,y)を、認識結果として
の、例えば人物(顔)に付けられた番号t(t=1,
2,・・・,T:Tは人物の顔の数)の関数である人物
情報K(t)と対応付けて(例えば、同じ人物tの顔画
像における、複数の変形量Mtdr(x,y),Mtd
r'(x,y),Mtdr''(x,y),Mtdr'''
(x,y),・・・の平均値などを、その人物情報K
(t)として)、その内蔵するメモリ(図示せず)に記
憶する。
学習モードである場合、変形量分析部6より出力される
新たな変形量Mtdr(x,y)を、認識結果として
の、例えば人物(顔)に付けられた番号t(t=1,
2,・・・,T:Tは人物の顔の数)の関数である人物
情報K(t)と対応付けて(例えば、同じ人物tの顔画
像における、複数の変形量Mtdr(x,y),Mtd
r'(x,y),Mtdr''(x,y),Mtdr'''
(x,y),・・・の平均値などを、その人物情報K
(t)として)、その内蔵するメモリ(図示せず)に記
憶する。
【0034】即ち、人物情報学習記憶部7は、装置のモ
ードが学習モードである場合、変形量分析部6より出力
される、人物tの変形量Mtdr(x,y)そのものを
人物情報として記憶し、同一人物tの変形量Mtdr
(x,y)が、さらにそこに入力されるたびに、その変
形量Mtdr(x,y)に基づいて、人物情報K(t)
を更新する。
ードが学習モードである場合、変形量分析部6より出力
される、人物tの変形量Mtdr(x,y)そのものを
人物情報として記憶し、同一人物tの変形量Mtdr
(x,y)が、さらにそこに入力されるたびに、その変
形量Mtdr(x,y)に基づいて、人物情報K(t)
を更新する。
【0035】さらに、人物情報学習記憶部7は、装置の
モードが認識モードである場合、変形量分析部6より出
力された変形量Mtdr(x,y)と、その内蔵するメ
モリにあらかじめ記憶されている各人物情報K(t)と
の、例えばユークリッド距離をそれぞれ算出し、その距
離を最も短くする人物情報K(t)における番号tを認
識結果として出力する。
モードが認識モードである場合、変形量分析部6より出
力された変形量Mtdr(x,y)と、その内蔵するメ
モリにあらかじめ記憶されている各人物情報K(t)と
の、例えばユークリッド距離をそれぞれ算出し、その距
離を最も短くする人物情報K(t)における番号tを認
識結果として出力する。
【0036】次に、その動作について説明する。装置の
モードが学習モードの場合、ビデオカメラ1において、
例えば人物の顔などを撮影した光が電気信号としての顔
画像信号に変換され、メモリ部2に出力される。メモリ
部2では、その内蔵するA/Dコンバータにおいて、ビ
デオカメラ1から出力された顔画像信号(アナログ信
号)が、例えば8ビットで量子化され、ディジタル信号
(顔画像データ)としてのxy平面上の2次元輝度情報
I(x,y)が、1フレーム分ずつ、内蔵するRAMに
一時記憶される。
モードが学習モードの場合、ビデオカメラ1において、
例えば人物の顔などを撮影した光が電気信号としての顔
画像信号に変換され、メモリ部2に出力される。メモリ
部2では、その内蔵するA/Dコンバータにおいて、ビ
デオカメラ1から出力された顔画像信号(アナログ信
号)が、例えば8ビットで量子化され、ディジタル信号
(顔画像データ)としてのxy平面上の2次元輝度情報
I(x,y)が、1フレーム分ずつ、内蔵するRAMに
一時記憶される。
【0037】そして、前処理部3において、メモリ部2
に記憶された顔画像データI(x,y)が読み出され、
エッジの検出などが行われ、顔画像(顔画像データI
(x,y))の特徴量としての入力パターンP(x,
y)が取り出される。
に記憶された顔画像データI(x,y)が読み出され、
エッジの検出などが行われ、顔画像(顔画像データI
(x,y))の特徴量としての入力パターンP(x,
y)が取り出される。
【0038】即ち、前処理部3では、例えば図2のフロ
ーチャートに示すように、まずステップS1において、
顔画像データI(x,y)に、例えばLOG(Laplacea
n OfGaussian)フィルタがかけられ、顔画像のエッジ部
分を取り出したエッジ信号IE(x,y)が算出される
(エッジの検出が行われる)。
ーチャートに示すように、まずステップS1において、
顔画像データI(x,y)に、例えばLOG(Laplacea
n OfGaussian)フィルタがかけられ、顔画像のエッジ部
分を取り出したエッジ信号IE(x,y)が算出される
(エッジの検出が行われる)。
【0039】なお、ステップS1での処理は、顔画像デ
ータI(x,y)の周波数特性と、LOGフィルタの周
波数特性とを乗算し、エッジ信号IE(x,y)を求め
るようにしても良いが、本実施例では、顔画像データI
(x,y)と、式(1-1)に示すLOGフィルタのインパ
ルス応答FLOG(x,y)との2次元畳込みを行い、エ
ッジ信号IE(x,y)を求めるようにしている。
ータI(x,y)の周波数特性と、LOGフィルタの周
波数特性とを乗算し、エッジ信号IE(x,y)を求め
るようにしても良いが、本実施例では、顔画像データI
(x,y)と、式(1-1)に示すLOGフィルタのインパ
ルス応答FLOG(x,y)との2次元畳込みを行い、エ
ッジ信号IE(x,y)を求めるようにしている。
【0040】
【数1】
【0041】なお、σはLOGフィルタの大きさに対応
して設定される所定の定数である。
して設定される所定の定数である。
【0042】そして、ステップS2に進み、ビデオカメ
ラ1より出力された顔画像の画面の範囲、即ちxy平面
上におけるX0≦xi≦X1,Y0≦yj≦Y1の範囲で
の、点(xi,yj)におけるエッジ信号IE(xi,
yj)と、その点(xi,yj)からx軸方向に1画素分
だけ移動した点(xi+1,yj)におけるエッジ信号IE
(xi +1,yj)との積が、負であるか否かが判定され
る。
ラ1より出力された顔画像の画面の範囲、即ちxy平面
上におけるX0≦xi≦X1,Y0≦yj≦Y1の範囲で
の、点(xi,yj)におけるエッジ信号IE(xi,
yj)と、その点(xi,yj)からx軸方向に1画素分
だけ移動した点(xi+1,yj)におけるエッジ信号IE
(xi +1,yj)との積が、負であるか否かが判定され
る。
【0043】ここで、説明を簡単にするために、以下、
ビデオカメラ1からメモリ部2を介して前処理部3に出
力された顔画像は、縦横ともN個の画素から構成される
ものとする。さらに、xy平面上における点(X0,Y
0)を原点(0,0)とし、従ってX1=Y1=N−1
とする。
ビデオカメラ1からメモリ部2を介して前処理部3に出
力された顔画像は、縦横ともN個の画素から構成される
ものとする。さらに、xy平面上における点(X0,Y
0)を原点(0,0)とし、従ってX1=Y1=N−1
とする。
【0044】ステップS2において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
であると判定された場合、即ち点(xi,yj)における
エッジ信号IE(xi,yj)の符号と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)の符号とが異
なる場合、ステップS7に進み、点(xi,yj)から点
(xi+1,yj)にかけてゼロクロスが生じているものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていることを示す、例えば1がセットされ、ス
テップS5に進む。
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
であると判定された場合、即ち点(xi,yj)における
エッジ信号IE(xi,yj)の符号と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)の符号とが異
なる場合、ステップS7に進み、点(xi,yj)から点
(xi+1,yj)にかけてゼロクロスが生じているものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていることを示す、例えば1がセットされ、ス
テップS5に進む。
【0045】ステップS2において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
でないと判定された場合、ステップS3に進み、点(x
i,yj)におけるエッジ信号IE(xi,yj)と、その
点(xi,yj)からy軸方向に1画素分だけ移動した点
(xi,yj+1)におけるエッジ信号IE(xi,yj+1)
との積が、負であるか否かが判定される。
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からx軸方向に1画素分だけ移動した点(xi+1,y
j)におけるエッジ信号IE(xi+1,yj)との積が、負
でないと判定された場合、ステップS3に進み、点(x
i,yj)におけるエッジ信号IE(xi,yj)と、その
点(xi,yj)からy軸方向に1画素分だけ移動した点
(xi,yj+1)におけるエッジ信号IE(xi,yj+1)
との積が、負であるか否かが判定される。
【0046】ステップS3において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負であると判定された場合、即ち点(xi,yj)におけ
るエッジ信号IE(xi,yj)の符号と、その点(xi,
yj)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)の符号とが
異なる場合、ステップS7に進み、上述したようにゼロ
クロス関数PC(xi,yj)に1がセットされ、ステッ
プS5に進む。
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負であると判定された場合、即ち点(xi,yj)におけ
るエッジ信号IE(xi,yj)の符号と、その点(xi,
yj)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)の符号とが
異なる場合、ステップS7に進み、上述したようにゼロ
クロス関数PC(xi,yj)に1がセットされ、ステッ
プS5に進む。
【0047】ステップS3において、点(xi,yj)に
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負でないと判定された場合、ステップS4に進み、点
(xi,yj)から点(xi+1,yj)または点(xi,yj
+1)にかけてそれぞれゼロクロスが生じていないものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていないことを示す、例えば0がセットされ、
ステップS5に進む。
おけるエッジ信号IE(xi,yj)と、その点(xi,y
j)からy軸方向に1画素分だけ移動した点(xi,y
j+1)におけるエッジ信号IE(xi,yj+1)との積が、
負でないと判定された場合、ステップS4に進み、点
(xi,yj)から点(xi+1,yj)または点(xi,yj
+1)にかけてそれぞれゼロクロスが生じていないものと
みなし、ゼロクロス関数PC(xi,yj)に、ゼロクロ
スが生じていないことを示す、例えば0がセットされ、
ステップS5に進む。
【0048】なお、ステップS2乃至S4およびS7の
処理は、xy平面上における顔画像画面の範囲の画素に
対応する点(0≦xi≦N−1,0≦yj≦N−1の範囲
の点(xi,yj))すべてに対して行われる。
処理は、xy平面上における顔画像画面の範囲の画素に
対応する点(0≦xi≦N−1,0≦yj≦N−1の範囲
の点(xi,yj))すべてに対して行われる。
【0049】以上のようにして、顔画像のエッジのゼロ
クロス点を示す関数PC(xi,yj)を算出することに
より、即ち顔画像のエッジのゼロクロス点を検出するこ
とにより、ビデオカメラ1で顔画像を撮影したときの、
例えば照明などの影響を取り除くことができる。
クロス点を示す関数PC(xi,yj)を算出することに
より、即ち顔画像のエッジのゼロクロス点を検出するこ
とにより、ビデオカメラ1で顔画像を撮影したときの、
例えば照明などの影響を取り除くことができる。
【0050】そして、ステップS5に進み、ゼロクロス
関数PC(x,y)に、例えばガウスフィルタなどのロ
ーパスフィルタがかけられ、ゼロクロス関数PC(x,
y)で表現された顔画像パターンが、いわばぼけた顔画
像パターンに変換され、ビデオカメラ1で撮影された顔
画像の特徴量としての入力パターンP(x,y)が算出
される。
関数PC(x,y)に、例えばガウスフィルタなどのロ
ーパスフィルタがかけられ、ゼロクロス関数PC(x,
y)で表現された顔画像パターンが、いわばぼけた顔画
像パターンに変換され、ビデオカメラ1で撮影された顔
画像の特徴量としての入力パターンP(x,y)が算出
される。
【0051】なお、ステップS5での処理は、ゼロクロ
ス関数PC(x,y)の周波数特性と、ガウスフィルタ
の周波数特性とを乗算し、ビデオカメラ1で撮影された
顔画像の特徴量としての入力パターンP(x,y)を求
めるようにしても良いが、本実施例では、ゼロクロス関
数PC(x,y)と、式(1-2)に示すガウスフィルタのイ
ンパルス応答FG(x,y)との2次元畳込みを行い、
入力パターンP(x,y)を求めるようにしている。
ス関数PC(x,y)の周波数特性と、ガウスフィルタ
の周波数特性とを乗算し、ビデオカメラ1で撮影された
顔画像の特徴量としての入力パターンP(x,y)を求
めるようにしても良いが、本実施例では、ゼロクロス関
数PC(x,y)と、式(1-2)に示すガウスフィルタのイ
ンパルス応答FG(x,y)との2次元畳込みを行い、
入力パターンP(x,y)を求めるようにしている。
【0052】
【数2】
【0053】なお、σは上述したステップS1でのLO
Gフィルタにおける場合と同様に、ガウスフィルタの大
きさに対応して設定される所定の定数である。
Gフィルタにおける場合と同様に、ガウスフィルタの大
きさに対応して設定される所定の定数である。
【0054】ステップS5の処理により、後述する比較
処理部4で検出される、関数学習記憶部5に記憶された
関数Fi(x,y)それぞれに対する、入力パターンP
(x,y)の寄与度Xiの変化がなだらかになり、従っ
て最大寄与度XMAXを与える関数FMAX(x,y)を容易
に検出することができるようになる。
処理部4で検出される、関数学習記憶部5に記憶された
関数Fi(x,y)それぞれに対する、入力パターンP
(x,y)の寄与度Xiの変化がなだらかになり、従っ
て最大寄与度XMAXを与える関数FMAX(x,y)を容易
に検出することができるようになる。
【0055】ステップS5で算出された入力パターンP
(x,y)は、ステップS6において比較処理部4に出
力され、処理を終了する。
(x,y)は、ステップS6において比較処理部4に出
力され、処理を終了する。
【0056】以上のようにして、前処理部3では、顔画
像データI(x,y)から、その顔画像の特徴量として
の入力パターンP(x,y)が作成される。
像データI(x,y)から、その顔画像の特徴量として
の入力パターンP(x,y)が作成される。
【0057】そして、比較処理部4において、まず関数
学習記憶部5に記憶されている基本パターンとしての関
数Fi(x,y)(i=1,2,・・・,r:rは所定
の数)それぞれに対する、前処理部3で作成された入力
パターンP(x,y)の相関量としての、例えば寄与度
Xiが算出され、そのうちの最大値としての最大寄与度
XMAXが検出される。
学習記憶部5に記憶されている基本パターンとしての関
数Fi(x,y)(i=1,2,・・・,r:rは所定
の数)それぞれに対する、前処理部3で作成された入力
パターンP(x,y)の相関量としての、例えば寄与度
Xiが算出され、そのうちの最大値としての最大寄与度
XMAXが検出される。
【0058】ここで、関数Fi(x,y)に対する、入
力パターンP(x,y)の寄与度Xiとは、関数F
i(x,y)への、入力パターンP(x,y)の正射影
であり、式(2-1)にしたがって計算される関数Fi(x,
y)と、入力パターンP(x,y)との内積を意味す
る。
力パターンP(x,y)の寄与度Xiとは、関数F
i(x,y)への、入力パターンP(x,y)の正射影
であり、式(2-1)にしたがって計算される関数Fi(x,
y)と、入力パターンP(x,y)との内積を意味す
る。
【0059】
【数3】
【0060】なお、Nは、前述したように、ビデオカメ
ラ1よりメモリ部2を介して前処理部3に出力された顔
画像の画面の縦および横の画素数である。
ラ1よりメモリ部2を介して前処理部3に出力された顔
画像の画面の縦および横の画素数である。
【0061】さらに、比較処理部4において、前処理部
3より出力された入力パターンP(x,y)と、最大寄
与度XMAXを与える関数FMAX(x,y)(MAXは、1
乃至rのいずれかの値)とがブロックマッチングされ、
入力パターンP(x,y)を関数FMAX(x,y)と
(関数FMAX(x,y)を入力パターンP(x,y)
と)、いわば最も類似させる場合の、入力パターンP
(x,y)(関数FMAX(x,y))の変形量M(x,
y)(M'(x,y))が算出される。
3より出力された入力パターンP(x,y)と、最大寄
与度XMAXを与える関数FMAX(x,y)(MAXは、1
乃至rのいずれかの値)とがブロックマッチングされ、
入力パターンP(x,y)を関数FMAX(x,y)と
(関数FMAX(x,y)を入力パターンP(x,y)
と)、いわば最も類似させる場合の、入力パターンP
(x,y)(関数FMAX(x,y))の変形量M(x,
y)(M'(x,y))が算出される。
【0062】即ち、比較処理部4において、まず関数F
MAX(x,y)が、縦横ともb個の画素からなるB個の
ブロックFBk(xk,yk)(k=0,1,・・・,B
−1)に分割される(図3(a))。なお、点(xk,
yk)は、ブロックFBk(xk,yk)の中心の座標点を
示す。
MAX(x,y)が、縦横ともb個の画素からなるB個の
ブロックFBk(xk,yk)(k=0,1,・・・,B
−1)に分割される(図3(a))。なお、点(xk,
yk)は、ブロックFBk(xk,yk)の中心の座標点を
示す。
【0063】そして、入力パターンP(x,y)上に、
縦横とも、同じくb個の画素からなる、中心の座標が点
(xi,yj)であるブロックPB(xi,yj)を考え、
ブロックFBk(xk,yk)が、入力パターンP(x,
y)における、点(xk,yk)を中心とした位置から、
x軸またはy軸方向に±S画素分の範囲で移動され(図
3(b))、ブロックFBk(xk,yk)が、入力パタ
ーンP(x,y)上におけるブロックPB(xi,yj)
と最も類似する場合の、ブロックFBk(xk,yk)の
移動量(mxk,myk)が検出される。
縦横とも、同じくb個の画素からなる、中心の座標が点
(xi,yj)であるブロックPB(xi,yj)を考え、
ブロックFBk(xk,yk)が、入力パターンP(x,
y)における、点(xk,yk)を中心とした位置から、
x軸またはy軸方向に±S画素分の範囲で移動され(図
3(b))、ブロックFBk(xk,yk)が、入力パタ
ーンP(x,y)上におけるブロックPB(xi,yj)
と最も類似する場合の、ブロックFBk(xk,yk)の
移動量(mxk,myk)が検出される。
【0064】つまり、比較処理部4では、式(2-2)に示
す、各ブロックFBk(xk,yk)に対する、ブロック
PB(xk+mxk,yk+myk)の寄与率XMAX(k)そ
れぞれが、極大値、あるいは最大値となる移動量
(mxk,myk)としての変形量M(x,y)が算出(検
出)されることになる。
す、各ブロックFBk(xk,yk)に対する、ブロック
PB(xk+mxk,yk+myk)の寄与率XMAX(k)そ
れぞれが、極大値、あるいは最大値となる移動量
(mxk,myk)としての変形量M(x,y)が算出(検
出)されることになる。
【0065】
【数4】
【0066】なお、以下点(xk,yk)を中心とするブ
ロックFBk(xk,yk)が、入力パターンP(x,
y)上におけるブロックPB(xi,yj)と最も類似す
る場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)を、変形量M(xk,yk)と表し、変形
量M(xk,yk)の集合を、変形量M(x,y)と表
す。
ロックFBk(xk,yk)が、入力パターンP(x,
y)上におけるブロックPB(xi,yj)と最も類似す
る場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)を、変形量M(xk,yk)と表し、変形
量M(xk,yk)の集合を、変形量M(x,y)と表
す。
【0067】以上のようにして比較処理部4で算出され
た変形量M(x,y)は、関数学習記憶部5および変形
量分析部6に供給される。
た変形量M(x,y)は、関数学習記憶部5および変形
量分析部6に供給される。
【0068】関数学習記憶部5において、比較処理部4
で算出された変形量M(x,y)を用いて、同じく比較
処理部4で検出された最大寄与度XMAXを与える関数F
MAX(x,y)、または入力パターンP(x,y)が変
形され、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)が更
新される。
で算出された変形量M(x,y)を用いて、同じく比較
処理部4で検出された最大寄与度XMAXを与える関数F
MAX(x,y)、または入力パターンP(x,y)が変
形され、xy平面上における、変形した関数FMAX'
(x,y)と、変形した入力パターンP'(x,y)と
から、そこに記憶されている関数FMAX(x,y)が更
新される。
【0069】即ち、関数学習記憶部5では、図4のフロ
ーチャートに示すように、まずステップS11におい
て、ブロックFBk(xk,yk)が、入力パターンP
(x,y)上におけるブロックPB(xi,yj)と最も
類似する場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)の集合としての変形量M(x,y)(M
(xk,yk)(=(mxk,myk))の集合)が、比較処
理部4より入力されると、ステップS12において、入
力パターンP(x,y)上におけるブロックPB
(xi,yj)を、ブロックFBk(xk,yk)と最も類
似させる場合の、ブロックPB(xi,yj)(=PB
(xk+mxk,yk+myk))の移動量(−mxk,−
myk)が算出され、移動量(−mxk,−myk)を示す変
数M'(xk+mxk,yk+myk)にセットされる。
ーチャートに示すように、まずステップS11におい
て、ブロックFBk(xk,yk)が、入力パターンP
(x,y)上におけるブロックPB(xi,yj)と最も
類似する場合の、ブロックFBk(xk,yk)の移動量
(mxk,myk)の集合としての変形量M(x,y)(M
(xk,yk)(=(mxk,myk))の集合)が、比較処
理部4より入力されると、ステップS12において、入
力パターンP(x,y)上におけるブロックPB
(xi,yj)を、ブロックFBk(xk,yk)と最も類
似させる場合の、ブロックPB(xi,yj)(=PB
(xk+mxk,yk+myk))の移動量(−mxk,−
myk)が算出され、移動量(−mxk,−myk)を示す変
数M'(xk+mxk,yk+myk)にセットされる。
【0070】そして、ステップS13に進み、入力パタ
ーンP(x,y)、または関数FMA X(x,y)を変形
する変形作用素MP(xk,yk)の集合MP(x,y)、
またはMF(xk+mxk,yk+myk)の集合MF(x,
y)が、それぞれ次式にしたがって算出され、ステップ
S14に進む。 MP(xk,yk)=A×M(xk,yk) MF(xk+mxk,yk+myk) =(1−A)×M'(xk+mxk,yk+myk) 但し、Aは、0≦A≦1の範囲の定数で、関数学習記憶
部5での関数Fiの学習が進むにしたがって小さい値か
ら大きい値へ更新される。
ーンP(x,y)、または関数FMA X(x,y)を変形
する変形作用素MP(xk,yk)の集合MP(x,y)、
またはMF(xk+mxk,yk+myk)の集合MF(x,
y)が、それぞれ次式にしたがって算出され、ステップ
S14に進む。 MP(xk,yk)=A×M(xk,yk) MF(xk+mxk,yk+myk) =(1−A)×M'(xk+mxk,yk+myk) 但し、Aは、0≦A≦1の範囲の定数で、関数学習記憶
部5での関数Fiの学習が進むにしたがって小さい値か
ら大きい値へ更新される。
【0071】ステップS14において、変形作用素MP
(x,y)、またはMF(x,y)をそれぞれ MP(x,y)=(d1x,d1y)、または MF(x,y)=(d2x,d2y) とすると、入力パターンP(x,y)、または関数F
MAX(x,y)が、式 P'(x,y)=P(x+d1x,y+d1y)、また
は FMAX'(x,y)=FMAX(x+d2x,y+d2y) にしたがって変形され、即ち変形された入力パターン
P'(x,y)(図5(a))、または変形された関数
FMAX'(x,y)(図5(b))が算出されてステップ
S15に進む。
(x,y)、またはMF(x,y)をそれぞれ MP(x,y)=(d1x,d1y)、または MF(x,y)=(d2x,d2y) とすると、入力パターンP(x,y)、または関数F
MAX(x,y)が、式 P'(x,y)=P(x+d1x,y+d1y)、また
は FMAX'(x,y)=FMAX(x+d2x,y+d2y) にしたがって変形され、即ち変形された入力パターン
P'(x,y)(図5(a))、または変形された関数
FMAX'(x,y)(図5(b))が算出されてステップ
S15に進む。
【0072】ステップS15において、新たな入力パタ
ーンP'(x,y)と、新たな関数FMAX'(x,y)と
から、式(2-3)にしたがって学習が行われた関数F
MAX(x,y)としての新たな関数Fi(x,y)が算出
され、関数FMAX(x,y)に代わって関数学習記憶部
5に記憶されて処理を終了する。
ーンP'(x,y)と、新たな関数FMAX'(x,y)と
から、式(2-3)にしたがって学習が行われた関数F
MAX(x,y)としての新たな関数Fi(x,y)が算出
され、関数FMAX(x,y)に代わって関数学習記憶部
5に記憶されて処理を終了する。
【0073】
【数5】
【0074】一方、比較処理部4より変形量分析部6に
入力された変形量M(x,y)は、そこで分析され、こ
の変形量M(x,y)に含まれる、入力パターンP
(x,y)としての、ビデオカメラ1で取り込んだ人物
の顔画像の、画面における上下もしくは左右のずれ(平
行移動成分)、回転による位置ずれ(回転移動成分)
(傾き成分)、またはビデオカメラ1の拡大縮小率など
による大きさの違いに関する成分が取り除かれ、あらた
な変形量Mtdr(x,y)が人物情報学習記憶部7に
出力される。
入力された変形量M(x,y)は、そこで分析され、こ
の変形量M(x,y)に含まれる、入力パターンP
(x,y)としての、ビデオカメラ1で取り込んだ人物
の顔画像の、画面における上下もしくは左右のずれ(平
行移動成分)、回転による位置ずれ(回転移動成分)
(傾き成分)、またはビデオカメラ1の拡大縮小率など
による大きさの違いに関する成分が取り除かれ、あらた
な変形量Mtdr(x,y)が人物情報学習記憶部7に
出力される。
【0075】即ち、変形量分析部6では、図6のフロー
チャートに示すように、まずステップS21において、
入力パターンP(x,y)に含まれる平行移動成分T
が、式
チャートに示すように、まずステップS21において、
入力パターンP(x,y)に含まれる平行移動成分T
が、式
【数6】 にしたがって算出され、ステップS22に進み、変形量
M(x,y)から、平行移動成分Tが取り除かれた変形
量Mt(x,y)が次式にしたがって求められてステッ
プS23に進む。 Mt(x,y)=M(x,y)−T (3-2)
M(x,y)から、平行移動成分Tが取り除かれた変形
量Mt(x,y)が次式にしたがって求められてステッ
プS23に進む。 Mt(x,y)=M(x,y)−T (3-2)
【0076】ステップS23において、入力パターンP
(x,y)に含まれる大きさの違いに関する成分(拡大
縮小率に関する成分)Dが、式
(x,y)に含まれる大きさの違いに関する成分(拡大
縮小率に関する成分)Dが、式
【数7】 にしたがって算出され、ステップS24に進み、変形量
Mt(x,y)から、拡大縮小率に関する成分Dが取り
除かれた変形量Mtd(x,y)が次式にしたがって求
められてステップS25に進む。 Mtd(x,y)=Mt(x,y)+δMd(x,y) (3-4)
Mt(x,y)から、拡大縮小率に関する成分Dが取り
除かれた変形量Mtd(x,y)が次式にしたがって求
められてステップS25に進む。 Mtd(x,y)=Mt(x,y)+δMd(x,y) (3-4)
【0077】但し、δMd(x,y)は次式で定義され
るものである。
るものである。
【0078】
【数8】
【0079】なお、δMd(x,y)は、これが、式 δMd(x,y)=αr(x,y) (αは、0≦α≦1の範囲の数) と表すことのできるものとして、拡大縮小率に関する成
分Dが0になるように、式(3-3)のM(x,y)を、M
(x,y)+δMd(x,y)に代えるとともに、拡大
縮小率に関する成分Dを0に代え、δMd(x,y)に
ついて解いたものである。
分Dが0になるように、式(3-3)のM(x,y)を、M
(x,y)+δMd(x,y)に代えるとともに、拡大
縮小率に関する成分Dを0に代え、δMd(x,y)に
ついて解いたものである。
【0080】ステップS25において、入力パターンP
(x,y)に含まれる回転移動成分(傾き成分)Rが、
式
(x,y)に含まれる回転移動成分(傾き成分)Rが、
式
【数9】 にしたがって算出され、ステップS26に進み、変形量
Mtd(x,y)から、回転移動成分Rが取り除かれた
変形量Mtdr(x,y)が次式にしたがって求められ
てステップS27に進む。 Mtdr(x,y) =Mtd(x,y)+δMr(x,y) (3-6)
Mtd(x,y)から、回転移動成分Rが取り除かれた
変形量Mtdr(x,y)が次式にしたがって求められ
てステップS27に進む。 Mtdr(x,y) =Mtd(x,y)+δMr(x,y) (3-6)
【0081】但し、δMr(x,y)は次式で定義され
るものである。
るものである。
【0082】
【数10】
【0083】なお、δMr(x,y)は、これが、式 δMr(x,y)=αs(x,y) で表すことのできるものとして、回転移動成分Rが0に
なるように、式(3-5)のM(x,y)を、M(x,y)
+δMr(x,y)に代えるとともに、回転移動成分R
を0に代え、δMr(x,y)について解いたものであ
る。
なるように、式(3-5)のM(x,y)を、M(x,y)
+δMr(x,y)に代えるとともに、回転移動成分R
を0に代え、δMr(x,y)について解いたものであ
る。
【0084】以上のようにして、平行移動成分T、拡大
縮小率に関する成分D、および回転移動成分Rが取り除
かれた、新たな変形量Mtdr(x,y)は、ステップ
S27において人物情報学習記憶部7に出力され、処理
を終了する。
縮小率に関する成分D、および回転移動成分Rが取り除
かれた、新たな変形量Mtdr(x,y)は、ステップ
S27において人物情報学習記憶部7に出力され、処理
を終了する。
【0085】なお、以上の処理は、変形量M(x,y)
の構成要素としての、比較処理部4でB個に分割された
関数Fi(x,y)(FMAX(x,y))の各ブロックに
対する変形量M(xk,yk)(k=0,1,・・・,B
−1)すべてに対して行われる。
の構成要素としての、比較処理部4でB個に分割された
関数Fi(x,y)(FMAX(x,y))の各ブロックに
対する変形量M(xk,yk)(k=0,1,・・・,B
−1)すべてに対して行われる。
【0086】従って、変形量分析部6においては、比較
処理部4でB個に分割された関数Fi(x,y)(FMAX
(x,y))の各ブロックk(k=0,1,・・・,B
−1)における変形量M(xk,yk)に対する新たな変
形量Mtdr(xk,yk)がそれぞれ算出されることに
なる。
処理部4でB個に分割された関数Fi(x,y)(FMAX
(x,y))の各ブロックk(k=0,1,・・・,B
−1)における変形量M(xk,yk)に対する新たな変
形量Mtdr(xk,yk)がそれぞれ算出されることに
なる。
【0087】つまり、本明細書中では、比較処理部4で
B個に分割された関数Fi(x,y)(FMAX(x,
y))の各ブロックkにおける変形量M(xk,yk)に
対する新たな変形量Mtdr(xk,yk)の集合を、新
たな変形量Mtdr(x,y)と記載してある。
B個に分割された関数Fi(x,y)(FMAX(x,
y))の各ブロックkにおける変形量M(xk,yk)に
対する新たな変形量Mtdr(xk,yk)の集合を、新
たな変形量Mtdr(x,y)と記載してある。
【0088】また、変形量Mtdr(xk,yk)は2次
元のベクトルであるから、その集合である新たな変形量
Mtdr(x,y)は、2B次元のベクトルとみなすこ
とができる。
元のベクトルであるから、その集合である新たな変形量
Mtdr(x,y)は、2B次元のベクトルとみなすこ
とができる。
【0089】変形量分析部6の処理が終了すると、人物
情報学習記憶部7において、変形量分析部6により算出
された新たな変形量Mtdr(x,y)が、認識結果と
しての人物(顔)に付けられた番号t(t=1,2,・
・・,T:Tは人物の顔の数)の関数である人物情報
(標準パターン)K(t)と対応付けられ、その内蔵す
るメモリに記憶される。
情報学習記憶部7において、変形量分析部6により算出
された新たな変形量Mtdr(x,y)が、認識結果と
しての人物(顔)に付けられた番号t(t=1,2,・
・・,T:Tは人物の顔の数)の関数である人物情報
(標準パターン)K(t)と対応付けられ、その内蔵す
るメモリに記憶される。
【0090】即ち、人物情報学習記憶部7では、図7の
フローチャートに示すように、まずステップS31にお
いて、人物(顔)に付けられた番号tが入力されると、
ステップS32において、人物情報学習記憶部7の内蔵
するメモリから、標準パターンとしての人物情報K
(t)が読み出され、ステップS33に進む。
フローチャートに示すように、まずステップS31にお
いて、人物(顔)に付けられた番号tが入力されると、
ステップS32において、人物情報学習記憶部7の内蔵
するメモリから、標準パターンとしての人物情報K
(t)が読み出され、ステップS33に進む。
【0091】ステップS33において、変形量分析部6
から人物情報学習部7に変形量Mtdr(x,y)が入
力されると、ステップS34において、変形量Mtdr
(x,y)により、次式にしたがって人物情報K(t)
が更新される。 K(t:2k)= K(t:2k)+a×Mtdrx(xk,yk) K(t:2k+1)= K(t:2k+1)+a×Mtdry(xk,yk) 但し、k=0,1,・・・,B−1。
から人物情報学習部7に変形量Mtdr(x,y)が入
力されると、ステップS34において、変形量Mtdr
(x,y)により、次式にしたがって人物情報K(t)
が更新される。 K(t:2k)= K(t:2k)+a×Mtdrx(xk,yk) K(t:2k+1)= K(t:2k+1)+a×Mtdry(xk,yk) 但し、k=0,1,・・・,B−1。
【0092】ここで、Mtdrx(xk,yk)、または
Mtdry(xk,yk)は、点(xk,yk)を中心とす
る関数Fi(x,y)のブロック(図3(a))におけ
る新たな変形量Mtdr(xk,yk)の、xy平面上に
おけるx成分、またはy成分をそれぞれ示す。
Mtdry(xk,yk)は、点(xk,yk)を中心とす
る関数Fi(x,y)のブロック(図3(a))におけ
る新たな変形量Mtdr(xk,yk)の、xy平面上に
おけるx成分、またはy成分をそれぞれ示す。
【0093】さらに、新たな変形量Mtdr(x,y)
は、上述したように2B次元のベクトルであるから、人
物情報K(t)も同様に2B次元のベクトルであり、K
(t:2k)、またはK(t:2k+1)は、人物情報
K(t)の第2k次元、または第2k+1次元の要素を
それぞれ示す。
は、上述したように2B次元のベクトルであるから、人
物情報K(t)も同様に2B次元のベクトルであり、K
(t:2k)、またはK(t:2k+1)は、人物情報
K(t)の第2k次元、または第2k+1次元の要素を
それぞれ示す。
【0094】また、aは、0<a<1の範囲の所定の数
である。
である。
【0095】そして、ステップS35に進み、ステップ
S34で更新されたK(t)が人物情報学習記憶部7の
内蔵するメモリに記憶され、処理を終了する。
S34で更新されたK(t)が人物情報学習記憶部7の
内蔵するメモリに記憶され、処理を終了する。
【0096】次に、装置のモードが認識モードである場
合、ビデオカメラ1、メモリ部2、前処理部3、比較処
理部4、関数学習記憶部5、または変形量分析部6にお
いて、上述した場合と同様の処理が行われ、人物情報学
習記憶部7に新たな変形量Mtdr(x,y)が入力さ
れる。すると、人物情報学習記憶部7において、この変
形量Mtdr(x,y)と、その内蔵するメモリに記憶
された各人物情報K(t)とのユークリッド距離がそれ
ぞれ算出され、その距離を最も短くする人物情報K
(t)における番号tが認識結果として出力される。
合、ビデオカメラ1、メモリ部2、前処理部3、比較処
理部4、関数学習記憶部5、または変形量分析部6にお
いて、上述した場合と同様の処理が行われ、人物情報学
習記憶部7に新たな変形量Mtdr(x,y)が入力さ
れる。すると、人物情報学習記憶部7において、この変
形量Mtdr(x,y)と、その内蔵するメモリに記憶
された各人物情報K(t)とのユークリッド距離がそれ
ぞれ算出され、その距離を最も短くする人物情報K
(t)における番号tが認識結果として出力される。
【0097】なお、本実施例においては、前処理部3で
画像データにLOGフィルタをかけて画像のエッジを検
出するようにしたが、画像のエッジを検出方法はこれに
限定されるものではない。さらに、前処理部3では、画
像のエッジを検出するのではなく、他の特徴量を取り出
すようにすることができる。また、画像の対応点問題
は、比較処理部4で解決されるので、前処処理部3にお
いて、画像データに対してフィルタリングを行わず比較
処理部4に出力するようにすることができる。
画像データにLOGフィルタをかけて画像のエッジを検
出するようにしたが、画像のエッジを検出方法はこれに
限定されるものではない。さらに、前処理部3では、画
像のエッジを検出するのではなく、他の特徴量を取り出
すようにすることができる。また、画像の対応点問題
は、比較処理部4で解決されるので、前処処理部3にお
いて、画像データに対してフィルタリングを行わず比較
処理部4に出力するようにすることができる。
【0098】さらに、比較処理部4では、ブロックマッ
チングして変形量M(x,y)を算出するようにした
が、例えば特願平3−150520号に開示されている
ような、動画像の動き検出に一般的に用いられているオ
プティカルフローによる方法で、変形量M(x,y)を
算出するようにすることができる。
チングして変形量M(x,y)を算出するようにした
が、例えば特願平3−150520号に開示されている
ような、動画像の動き検出に一般的に用いられているオ
プティカルフローによる方法で、変形量M(x,y)を
算出するようにすることができる。
【0099】また、関数学習記憶部5においては、最大
寄与度XMAXを与える関数FMAX(x,y)のみ変形(学
習)させるようにしたが、2番目に大きい寄与度や3番
目に大きい寄与度を与える関数も変形(学習)させるよ
うにすることができる。
寄与度XMAXを与える関数FMAX(x,y)のみ変形(学
習)させるようにしたが、2番目に大きい寄与度や3番
目に大きい寄与度を与える関数も変形(学習)させるよ
うにすることができる。
【0100】さらに、人物情報学習記憶部7を関数学習
記憶部5と同様に、ニューラルネットワークにより構成
し、比較処理部4で算出される寄与度Xiを人物情報学
習記憶部7に入力するようにして(図1において、点線
で示す)、変形量Mtdr(x,y)とともに、寄与度
Xiを用いて、いわゆる誤差逆伝播法などにより人物情
報K(t)の学習を行うように、即ちニューラルネット
ワークの重み係数を更新するようにすることができる。
また、変形量分析部6で算出される平行移動成分T、拡
大縮小率に関する成分D、または回転移動成分Rを人物
情報学習記憶部7に入力するようにして、人物情報K
(t)の学習を行うようにすることもできる。このよう
にすれば、認識しようとする物体(画像)の位置、大き
さ、または傾きを判定することができるようになる。
記憶部5と同様に、ニューラルネットワークにより構成
し、比較処理部4で算出される寄与度Xiを人物情報学
習記憶部7に入力するようにして(図1において、点線
で示す)、変形量Mtdr(x,y)とともに、寄与度
Xiを用いて、いわゆる誤差逆伝播法などにより人物情
報K(t)の学習を行うように、即ちニューラルネット
ワークの重み係数を更新するようにすることができる。
また、変形量分析部6で算出される平行移動成分T、拡
大縮小率に関する成分D、または回転移動成分Rを人物
情報学習記憶部7に入力するようにして、人物情報K
(t)の学習を行うようにすることもできる。このよう
にすれば、認識しようとする物体(画像)の位置、大き
さ、または傾きを判定することができるようになる。
【0101】さらに、人物情報学習記憶部7では、いわ
ゆる主成分分析法により学習を行うようにすることがで
きる。
ゆる主成分分析法により学習を行うようにすることがで
きる。
【0102】また、関数学習記憶部5、または人物情報
学習記憶部7においては、例えばいわゆるボルツマンマ
シンの学習方法や、シミュレーティッドアニーリングに
よる学習方法などを用いるようにしても良い。
学習記憶部7においては、例えばいわゆるボルツマンマ
シンの学習方法や、シミュレーティッドアニーリングに
よる学習方法などを用いるようにしても良い。
【0103】
【発明の効果】本発明の第1のパターン認識装置によれ
ば、任意の関数で表される複数の基本パターンを記憶
し、入力された情報から入力パターンを作成し、作成さ
れた入力パターンと、記憶されている基本パターンを比
較して、相関が最も高い相関最大基本パターンを算出
し、基本パターンと入力パターンとを最も類似させる変
形量を算出し、算出された変形量にしたがって、相関最
大基本パターン、および、入力パターンをそれぞれ変形
し、変形された相関最大基本パターンおよび入力パター
ンに基づいて、記憶されている基本パターンを更新する
ようにしたので、基本パターンが、入力パターンに類似
するように更新されるため、認識対象に基づいて基本パ
ターンを用意する必要がないので、それを記憶している
基本パターン記憶手段の記憶容量を少なくすることがで
き、装置を小型に構成することができる。さらに、認識
率を向上させることができる。
ば、任意の関数で表される複数の基本パターンを記憶
し、入力された情報から入力パターンを作成し、作成さ
れた入力パターンと、記憶されている基本パターンを比
較して、相関が最も高い相関最大基本パターンを算出
し、基本パターンと入力パターンとを最も類似させる変
形量を算出し、算出された変形量にしたがって、相関最
大基本パターン、および、入力パターンをそれぞれ変形
し、変形された相関最大基本パターンおよび入力パター
ンに基づいて、記憶されている基本パターンを更新する
ようにしたので、基本パターンが、入力パターンに類似
するように更新されるため、認識対象に基づいて基本パ
ターンを用意する必要がないので、それを記憶している
基本パターン記憶手段の記憶容量を少なくすることがで
き、装置を小型に構成することができる。さらに、認識
率を向上させることができる。
【0104】本発明の第2のパターン認識装置によれ
ば、任意の関数で表される複数の基本パターンを記憶
し、入力された情報から入力パターンを作成し、作成さ
れた入力パターンと、記憶されている基本パターンとを
比較して、相関が最も高い相関最大基本パターンを算出
し、基本パターンと入力パターンとを最も類似させる変
形量を算出し、算出された変形量を、標準パターンとし
て記憶し、記憶されている標準パターンを用いて、作成
された入力パターンの識別を行うようにしたので、認識
率を向上させることができる。
ば、任意の関数で表される複数の基本パターンを記憶
し、入力された情報から入力パターンを作成し、作成さ
れた入力パターンと、記憶されている基本パターンとを
比較して、相関が最も高い相関最大基本パターンを算出
し、基本パターンと入力パターンとを最も類似させる変
形量を算出し、算出された変形量を、標準パターンとし
て記憶し、記憶されている標準パターンを用いて、作成
された入力パターンの識別を行うようにしたので、認識
率を向上させることができる。
【図1】本発明のパターン認識装置を応用した画像認識
装置の一実施例の構成を示すブロック図である。
装置の一実施例の構成を示すブロック図である。
【図2】図1の実施例の前処理部3の動作を説明するた
めのフローチャートである。
めのフローチャートである。
【図3】図1の実施例の比較処理部4での変形量M
(x,y)の算出方法を説明するための図である。
(x,y)の算出方法を説明するための図である。
【図4】図1の実施例の関数学習記憶部5の動作を説明
するためのフローチャートである。
するためのフローチャートである。
【図5】図1の実施例の関数学習記憶部5で変形された
入力パターンP(x,y)と、関数Fi(x,y)を示
す図である。
入力パターンP(x,y)と、関数Fi(x,y)を示
す図である。
【図6】図1の実施例の変形量分析部6の動作を説明す
るためのフローチャートである。
るためのフローチャートである。
【図7】図1の実施例の人物情報学習記憶部7の動作を
説明するためのフローチャートである。
説明するためのフローチャートである。
【図8】従来の画像認識装置の一例の構成を示すブロッ
ク図である。
ク図である。
【図9】ワイヤーフレームを用いたモデルを示す図であ
る。
る。
【図10】モデルベーストコーディングによる人物の顔
の認識方法を説明するための図である。
の認識方法を説明するための図である。
1 ビデオカメラ 2 メモリ部 3 前処理部 4 比較処理部 5 関数学習記憶部 6 変形量分析部 7 人物情報学習記憶部 21 前処理部 22 分析部 23 関数記憶部 24 パターン分類部
フロントページの続き (56)参考文献 特開 平3−90975(JP,A) 特開 平2−291600(JP,A) 特開 平2−207380(JP,A) 特開 平4−75639(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60
Claims (8)
- 【請求項1】 任意の関数で表される複数の基本パター
ンを記憶している基本パターン記憶手段と、 入力された情報から入力パターンを作成する入力パター
ン作成手段と、 前記入力パターン作成手段により作成された前記入力パ
ターンと、前記基本パターン記憶手段に記憶されている
前記基本パターンを比較し、相関が最も高い相関最大基
本パターンを算出する第1の算出手段と、 前記基本パターンと前記入力パターンとを最も類似させ
る変形量を算出する第2の算出手段と、 前記第2の算出手段により算出された 前記変形量にした
がって、前記第1の算出手段により算出された前記相関
最大基本パターン、および、前記入力パターン作成手段
により作成された前記入力パターンをそれぞれ変形する
変形手段と、 前記変形手段により変形された前記相関最大基本パター
ンおよび前記入力パターンに基づいて、前記基本パター
ン記憶手段に記憶されている前記基本パターンを更新す
る基本パターン更新手段とを備えることを特徴とするパ
ターン認識装置。 - 【請求項2】 任意の関数で表される複数の基本パター
ンを記憶している基本パターン記憶手段と、 入力された情報から入力パターンを作成する入力パター
ン作成手段と、 前記入力パターン作成手段により作成された前記入力パ
ターンと、前記基本パターン記憶手段に記憶されている
前記基本パターンを比較し、相関が最も高い相関最大基
本パターンを算出する第1の算出手段と、 前記基本パターンと前記入力パターンとを最も類似させ
る変形量を算出する第2の算出手段と、 前記第2の算出手段により算出された前記変形量を、標
準パターンとして記憶する標準パターン記憶手段と、 前記標準パターン記憶手段により記憶されている前記標
準パターンを用いて、前記入力パターン作成手段により
作成された前記入力パターンの識別を行う識別手段と を
備えることを特徴とするパターン認識装置。 - 【請求項3】 前記入力パターン作成手段は、入力され
た情報に対してLOGフィルタをかけ、ゼロクロス点を
検出した後、ローパスフィルタをかけることを特徴とす
る請求項1または2のいずれかに記載のパターン認識装
置。 - 【請求項4】 前記第2の算出手段により算出された前
記変形量は、人物情報と関連付けられた標準パターンと
して、前記標準パターン記憶手段により記憶され、 前記識別手段は、前記人物情報と関連付けられた標準パ
ターンを用いて、前記入力パターンに対する人物識別を
行うことを特徴とする請求項2に記載のパターン認識装
置。 - 【請求項5】 前記第2の算出手段は、前記入力パター
ンと、前記基本パターンとを、ブロックごとにマッチン
グし、前記ブロックの移動量を前記変形量として算出す
ることを特徴とする請求項1または2のいずれかに記載
のパターン認識装置。 - 【請求項6】 前記標準パターン記憶手段は、ニューラ
ルネットワークにより構成されていることを特徴とする
請求項2に記載のパターン認識装置。 - 【請求項7】 前記標準パターン記憶手段により記憶さ
れている前記標準パターンを更新する標準パターン更新
手段を更に備え、 前記標準パターン更新手段は、前記標準パターン記憶手
段における前記ニューラルネットワークの重み係数を誤
差逆伝播法にしたがって更新することを特徴とする請求
項6に記載のパターン認識装置。 - 【請求項8】 前記入力パターン作成手段は、入力され
た顔画像から前記入力パターンを作成することを特徴と
する請求項1または2のいずれかに記載のパターン認識
装置。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26550692A JP3252381B2 (ja) | 1992-09-08 | 1992-09-08 | パターン認識装置 |
DE69332397T DE69332397T2 (de) | 1992-09-08 | 1993-08-25 | Mustererkennungsgerät |
EP93306750A EP0587349B1 (en) | 1992-09-08 | 1993-08-25 | Pattern recognition device |
KR1019930017497A KR100320063B1 (ko) | 1992-09-08 | 1993-09-02 | 패턴인식장치 |
US08/117,494 US5469512A (en) | 1992-09-08 | 1993-09-07 | Pattern recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP26550692A JP3252381B2 (ja) | 1992-09-08 | 1992-09-08 | パターン認識装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0689344A JPH0689344A (ja) | 1994-03-29 |
JP3252381B2 true JP3252381B2 (ja) | 2002-02-04 |
Family
ID=17418115
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP26550692A Expired - Fee Related JP3252381B2 (ja) | 1992-09-08 | 1992-09-08 | パターン認識装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5469512A (ja) |
EP (1) | EP0587349B1 (ja) |
JP (1) | JP3252381B2 (ja) |
KR (1) | KR100320063B1 (ja) |
DE (1) | DE69332397T2 (ja) |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE502658C2 (sv) * | 1994-02-28 | 1995-12-04 | Non Stop Info Ab | Förfarande och kontrollanordning för avläsning av identitets -och värdehandlingar. |
CN1184542A (zh) * | 1995-03-20 | 1998-06-10 | Lau技术公司 | 识别图象的系统和方法 |
US5706364A (en) * | 1995-04-28 | 1998-01-06 | Xerox Corporation | Method of producing character templates using unsegmented samples |
US5912700A (en) * | 1996-01-10 | 1999-06-15 | Fox Sports Productions, Inc. | System for enhancing the television presentation of an object at a sporting event |
US5850470A (en) * | 1995-08-30 | 1998-12-15 | Siemens Corporate Research, Inc. | Neural network for locating and recognizing a deformable object |
JPH1013312A (ja) * | 1996-06-20 | 1998-01-16 | Sony Corp | データ処理装置および方法、並びに、送受信装置および方法 |
US6535681B2 (en) * | 2001-06-19 | 2003-03-18 | Lucent Technologies Inc. | Fiber-optic cable routing and bend limiting device and system |
US5917553A (en) * | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
US6526156B1 (en) | 1997-01-10 | 2003-02-25 | Xerox Corporation | Apparatus and method for identifying and tracking objects with view-based representations |
US5953077A (en) * | 1997-01-17 | 1999-09-14 | Fox Sports Productions, Inc. | System for displaying an object that is not visible to a camera |
TW384249B (en) | 1997-08-22 | 2000-03-11 | Sony Corp | Structure describing method for robot, robot device, and constituting component for robot |
US6006186A (en) * | 1997-10-16 | 1999-12-21 | Sony Corporation | Method and apparatus for a parameter sharing speech recognition system |
US6185316B1 (en) | 1997-11-12 | 2001-02-06 | Unisys Corporation | Self-authentication apparatus and method |
US6606398B2 (en) * | 1998-09-30 | 2003-08-12 | Intel Corporation | Automatic cataloging of people in digital photographs |
US6256409B1 (en) | 1998-10-19 | 2001-07-03 | Sony Corporation | Method for determining a correlation between images using multi-element image descriptors |
US6445834B1 (en) | 1998-10-19 | 2002-09-03 | Sony Corporation | Modular image query system |
US6282507B1 (en) | 1999-01-29 | 2001-08-28 | Sony Corporation | Method and apparatus for interactive source language expression recognition and alternative hypothesis presentation and selection |
US6278968B1 (en) | 1999-01-29 | 2001-08-21 | Sony Corporation | Method and apparatus for adaptive speech recognition hypothesis construction and selection in a spoken language translation system |
US6442524B1 (en) | 1999-01-29 | 2002-08-27 | Sony Corporation | Analyzing inflectional morphology in a spoken language translation system |
US6266642B1 (en) | 1999-01-29 | 2001-07-24 | Sony Corporation | Method and portable apparatus for performing spoken language translation |
US6356865B1 (en) * | 1999-01-29 | 2002-03-12 | Sony Corporation | Method and apparatus for performing spoken language translation |
US6243669B1 (en) | 1999-01-29 | 2001-06-05 | Sony Corporation | Method and apparatus for providing syntactic analysis and data structure for translation knowledge in example-based language translation |
US6223150B1 (en) | 1999-01-29 | 2001-04-24 | Sony Corporation | Method and apparatus for parsing in a spoken language translation system |
US6374224B1 (en) | 1999-03-10 | 2002-04-16 | Sony Corporation | Method and apparatus for style control in natural language generation |
US6674915B1 (en) * | 1999-10-07 | 2004-01-06 | Sony Corporation | Descriptors adjustment when using steerable pyramid to extract features for content based search |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
US6975750B2 (en) * | 2000-12-01 | 2005-12-13 | Microsoft Corp. | System and method for face recognition using synthesized training images |
US7020305B2 (en) * | 2000-12-06 | 2006-03-28 | Microsoft Corporation | System and method providing improved head motion estimations for animation |
US6785419B1 (en) * | 2000-12-22 | 2004-08-31 | Microsoft Corporation | System and method to facilitate pattern recognition by deformable matching |
KR100436294B1 (ko) * | 2001-07-30 | 2004-06-16 | 에이티아이 주식회사 | 머신 비젼에서의 패턴 블록 검출 방법 |
JP3979136B2 (ja) * | 2002-03-20 | 2007-09-19 | 富士ゼロックス株式会社 | 認識装置および方法 |
US7382277B2 (en) | 2003-02-12 | 2008-06-03 | Edward D. Ioli Trust | System for tracking suspicious vehicular activity |
JP2005128956A (ja) * | 2003-10-27 | 2005-05-19 | Pentax Corp | 被写体判定プログラム及びデジタルカメラ |
US8275204B1 (en) | 2003-11-05 | 2012-09-25 | Shahar Kovalsky | Estimation of joint radiometric and geometric image deformations |
WO2005045358A2 (en) * | 2003-11-05 | 2005-05-19 | Francos Joseph M | Parametric estimation of multi-dimensional homeomorphic transformations |
US20060088225A1 (en) * | 2004-10-26 | 2006-04-27 | The Secretary Of State For The Home Department | Comparison |
JP2007304899A (ja) * | 2006-05-12 | 2007-11-22 | Nippon Telegr & Teleph Corp <Ntt> | 識別辞書生成装置及び識別辞書生成方法 |
US20090060348A1 (en) * | 2007-08-28 | 2009-03-05 | Donald Martin Monro | Determination of Image Similarity |
TW201006230A (en) * | 2008-07-24 | 2010-02-01 | Novatek Microelectronics Corp | Static image presentation method |
GB0819069D0 (en) | 2008-10-17 | 2008-11-26 | Forensic Science Service Ltd | Improvements in and relating to methods and apparatus for comparison |
KR100921495B1 (ko) * | 2009-03-24 | 2009-10-13 | 삼성탈레스 주식회사 | 파티클 필터링을 이용한 가우시안 혼합 모델링 업데이트 방법 |
US9323984B2 (en) * | 2014-06-06 | 2016-04-26 | Wipro Limited | System and methods of adaptive sampling for emotional state determination |
JP5943358B2 (ja) | 2014-09-30 | 2016-07-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3333248A (en) * | 1963-12-20 | 1967-07-25 | Ibm | Self-adaptive systems |
SE365325B (ja) * | 1971-11-04 | 1974-03-18 | Rothfjell R | |
JPS5819109B2 (ja) * | 1978-11-10 | 1983-04-16 | 肇産業株式会社 | パタ−ン判別方法 |
JPS58129684A (ja) * | 1982-01-29 | 1983-08-02 | Toshiba Corp | パタ−ン認識装置 |
GB8528143D0 (en) * | 1985-11-14 | 1985-12-18 | British Telecomm | Image encoding & synthesis |
JPH0259883A (ja) * | 1988-08-25 | 1990-02-28 | Nec Corp | パタン認識装置 |
GB8910749D0 (en) * | 1989-05-10 | 1989-06-28 | Sherman Robin L | Methods and apparatus for obtaining information for characterising a person or animal |
DE69131350T2 (de) * | 1990-07-17 | 1999-12-30 | British Telecommunications P.L.C., London | Verfahren und vorrichtung zur bildverarbeitung |
JPH04106674A (ja) * | 1990-08-27 | 1992-04-08 | N T T Data Tsushin Kk | パターン認識方法 |
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
JPH04213172A (ja) * | 1990-12-06 | 1992-08-04 | Nippon Telegr & Teleph Corp <Ntt> | パターン認識装置 |
US5163094A (en) * | 1991-03-20 | 1992-11-10 | Francine J. Prokoski | Method for identifying individuals from analysis of elemental shapes derived from biosensor data |
-
1992
- 1992-09-08 JP JP26550692A patent/JP3252381B2/ja not_active Expired - Fee Related
-
1993
- 1993-08-25 DE DE69332397T patent/DE69332397T2/de not_active Expired - Lifetime
- 1993-08-25 EP EP93306750A patent/EP0587349B1/en not_active Expired - Lifetime
- 1993-09-02 KR KR1019930017497A patent/KR100320063B1/ko not_active IP Right Cessation
- 1993-09-07 US US08/117,494 patent/US5469512A/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
KR940008423A (ko) | 1994-04-29 |
DE69332397T2 (de) | 2003-06-05 |
EP0587349A2 (en) | 1994-03-16 |
JPH0689344A (ja) | 1994-03-29 |
DE69332397D1 (de) | 2002-11-21 |
KR100320063B1 (ko) | 2002-03-20 |
EP0587349B1 (en) | 2002-10-16 |
EP0587349A3 (en) | 1994-12-21 |
US5469512A (en) | 1995-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3252381B2 (ja) | パターン認識装置 | |
CN111741211B (zh) | 图像显示方法和设备 | |
US7369687B2 (en) | Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position | |
US8126206B2 (en) | Image processing apparatus, image processing method, and program | |
KR100730500B1 (ko) | 화상 처리 장치와 화상 처리 방법 및 기록 매체 | |
US5805745A (en) | Method for locating a subject's lips in a facial image | |
US20130170759A1 (en) | Method and System of Person Identification by Facial Image | |
MX2012010602A (es) | Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara. | |
JP2008152789A (ja) | 顔映像の類似度の算出方法及び装置とこれを利用した顔映像の検索方法及び装置、並びに顔合成方法 | |
US20050180612A1 (en) | Method of correcting deviation of detection position for human face, correction system, and correction program | |
CN116912783B (zh) | 核酸检测平台的状态监控方法及系统 | |
CN111784658B (zh) | 一种用于人脸图像的质量分析方法和系统 | |
CN116977674A (zh) | 图像匹配方法、相关设备、存储介质及程序产品 | |
CN117496019B (zh) | 一种驱动静态图像的图像动画处理方法及系统 | |
US20220157077A1 (en) | Method for verifying the identity of a user by identifying an object within an image that has a biometric characteristic of the user and separating a portion of the image comprising the biometric characteristic from other portions of the image | |
JP2002342758A (ja) | 視覚認識システム | |
CN115331153B (zh) | 一种用于辅助前庭康复训练的姿态监测方法 | |
CN111696090A (zh) | 一种无约束环境下人脸图像质量评估方法 | |
JP2000090191A (ja) | 顔認識装置及び方法 | |
CN114463379A (zh) | 一种视频关键点的动态捕捉方法及装置 | |
JP4298283B2 (ja) | パターン認識装置、パターン認識方法、及びプログラム | |
JP2021009493A (ja) | 画像処理装置、画像処理装置の制御方法及びプログラム | |
CN111783683A (zh) | 一种基于特征平衡和关系增强的人体检测方法 | |
CN111275183A (zh) | 视觉任务的处理方法、装置和电子系统 | |
JPH05314391A (ja) | 一連のディジタル影像中の影像の登録方法と登録装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20011022 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20071122 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20081122 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091122 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |