JPH05282457A - 被写体認識方法 - Google Patents

被写体認識方法

Info

Publication number
JPH05282457A
JPH05282457A JP4186717A JP18671792A JPH05282457A JP H05282457 A JPH05282457 A JP H05282457A JP 4186717 A JP4186717 A JP 4186717A JP 18671792 A JP18671792 A JP 18671792A JP H05282457 A JPH05282457 A JP H05282457A
Authority
JP
Japan
Prior art keywords
subject
predetermined subject
candidate
characteristic
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP4186717A
Other languages
English (en)
Inventor
Satoru Osawa
哲 大沢
Shuji Ono
修司 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to EP92115725A priority Critical patent/EP0532053A2/en
Publication of JPH05282457A publication Critical patent/JPH05282457A/ja
Priority to US08/294,865 priority patent/US5740274A/en
Priority to US08/947,633 priority patent/US6208758B1/en
Priority to US09/438,145 priority patent/US6728404B1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【目的】 与えられた所定被写体の候補が所定被写体で
あるか否かを判定する被写体認識方法において、抽出さ
れた所定被写体候補が所定被写体であるか否かの判定を
精度良く行い、さらに、与えられた候補の位置ずれや角
度の変化等にも対応できる認識を行う。 【構成】 例えば顔などの所定被写体の、例えば目や口
などの複数の特徴部分について複数の特徴パターンをニ
ューラルネットワークに学習させ、所定被写体候補と特
徴部分が、学習された複数の特徴パターンに含まれるか
否かを判定し、所定被写体候補の特徴部分の位置関係が
所定被写体の特徴部分の位置関係と一致するか否かを判
定することにより、所定被写体候補が所定被写体である
か否かを判定する。ニューラルネットワークの学習には
コホーネンの自己組織化を用い、また判定にはネオコグ
ニトロンを用いるのがよい。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、画像情報処理の際に、
画像から抽出された所定被写体候補が、所定被写体であ
るか否かを判定する被写体認識方法に関するものであ
る。
【0002】
【従来の技術】画像処理における被写体の認識方法とし
ては、マッチングによる手法が広く行われている。そこ
では、被写体のモデルの集合(テンプレート)と認識対
象の被写体とをマッチング(テンプレートマッチング)
させ、判定を行う手法が多く用いられている。しかし、
被写体のモデルが固定されているため、被写体のさまざ
まな変化(大きさ、方向、形の変化)に対して対応でき
ないなど、多くの問題点がある(高木、下田、画像解析
ハンドブック、pp172-205 、1991、東京大学出版会)。
そこで、これらの問題点に対してロバストな認識を実現
するため、KL展開、ハフ変換などを用いて、画像にお
ける被写体の特徴がより扱い易い特徴空間へと画像を投
影し、認識を行う方法が提案されている(赤松他3名、
KL展開によるパターン記述法の顔画像識別への応用の
評価、NTTヒューマンインターフェース研究所、信技
報、PR090-152 )、(長谷川、志水、Hough変換を
用いた顔画像処理の一方法、大阪市大、信技報、PR090-
153 )。しかし、被写体のさまざまな変化に対応するこ
とは難しく、条件を限定して行われている段階である。
【0003】このような問題点を解決するための手法と
して、最近、人間の脳の情報処理を模擬したニューラル
ネットワークによる手法が提案されている。このニュー
ラルネットワークは、適当な神経回路のモデルを、正理
学的に知られる事実や研究成果を十分に考慮して構成
し、その動作および性能を調べ、実際の人間の脳と比較
することで、脳の情報原理を解明していこうという構成
的方法と呼ばれる情報処理の一つの研究手法であり、視
覚モデル、学習モデル、連想記憶モデルなど多くの研究
が行われている。
【0004】例えば、認識対象物の大きさや位置のずれ
に強いニューラルネットワークの認識モデルとして、ネ
オコグニトロンがある。(福島:位置ずれに影響されな
いパターン認識機構の神経回路モデル−ネオコグニトロ
ン、電子通信学会論文誌A,J62-A(10),pp658-665,Oct.19
79)ネオコグニトロンは、パターンマッチングを対象物
体の微小部分に対して行ない、その位置ずれを階層構造
に依って、何段かに分けて吸収しながら行なうという原
理によるものである。
【0005】このように、特徴の位置ずれを少しずつ何
段階にも分けて許容していくという操作が、ネオコグニ
トロンにおいて、入力パターンの位置ずれの影響を取り
除くのみならず、変形に強いパターン認識を行ううえに
も重要な役割をはたしている。すなわち、入力パターン
の拡大や縮小をはじめとする種々の変形にともなう局所
的特徴の相対的な位置ずれの影響は、特徴の統合の過程
で少しずつ吸収され、最終的には入力パターンのかなり
の変形に対しても影響されない出力を得ることができ
る。
【0006】また、学習モデルとして、コホーネンの自
己組織化マッピング(T.Kohonen Self-Organization and
Associative Memory,Spriger-Verlag 1984)が挙げられ
る。コホーネンの自己組織化マッピングとはトポロジカ
ルなマッピングを自己組織化で学習するモデルである。
ここでトポロジカルなマッピングとは、例えば、人間が
外界から受け取った信号、すなわち、あるパターンを、
その序列を反映しながらある種の規則に従って、皮質上
の神経細胞に割り当てていることを意味している。
【0007】このコホーネンの自己組織化を利用したシ
ステムとしては、例えば、この自己組織化を発展させ
た、学習ベクトル量子化法(LVQ)により音声を学習
させ判別する試みがある(T.Kohonen The Self-Organizi
on Map Proceedings Of The IEEE Vol.78 No.9 1990
9)。これは、ベクトルの量子化をこのマッピングで行い
音声の認識を行っている方法である。また、文字認識の
際の、前処理でのおおまかな分類にコホーネンの自己組
織化を利用している試みもある(當麻 岩田 他2名
Comb NETによるJIS 第1.2水準印刷文字の識別 名工
大 1990 電子情報通信学会秋期予稿集)。さらに、ハ
ードシステムで2値の画像を学習させている試みも報告
されている(Taiwei Lu etc. Self-organizing optical
neural network for unsupervised learning,Optical E
ngineering Vol.29 No.9 1990)。
【0008】
【発明が解決しようとする課題】前述したようにパター
ン認識のための様々な手法が提案されているが、パター
ン認識を行う対象である被写体の多様な変化(例えば、
位置ずれ、角度の変化等、また被写体が顔である場合に
は、表情の変化、個人々々の顔の違い等)に対応するこ
とは難しく、被写体が中心に写された正面画像等に限定
して検討が行われている段階である。
【0009】本発明は上記事情に鑑み、与えられた所定
被写体候補が所定被写体であるか否かの判定を行うこと
ができ、しかも、与えられた所定被写体候補の画像の位
置ずれや角度の変化等に対応でき、さらに所定被写体候
補が顔の場合は、顔の表情の変化にも対応でき、異なる
人の顔も顔であると判断することのできる被写体認識方
法を提供することを目的とするものである。
【0010】
【課題を解決するための手段】本発明による第1の被写
体認識方法は、与えられた所定被写体候補が、所定被写
体であるか否かを判定する方法であって、該所定被写体
候補の特徴部分と、該所定被写体候補内における前記特
徴部分の位置とに基づいて前記所定被写体の候補が所定
被写体であるか否かを判定することを特徴とするもので
ある。
【0011】また、本発明による第2の被写体認識方法
は、本発明による第1の被写体認識方法において、前記
判定を、ニューラルネットワークを用いて行うことを特
徴とするものである。
【0012】本発明による第3の被写体認識方法は、与
えられた所定被写体候補が、所定被写体であるか否かを
判定する被写体認識方法において、前記所定被写体の複
数の特徴部分それぞれについての複数の特徴パターンを
学習手段に学習させ、前記所定被写体候補の特徴部分
が、前記学習手段に学習させた前記所定被写体の複数の
特徴部分それぞれについての複数の特徴パターンに含ま
れるか否かを判定し、前記所定被写体候補の特徴部分の
位置関係が、前記所定被写体の特徴部分の位置関係と一
致するか否かを判定することにより前記所定被写体候補
が前記所定被写体であるか否かの判定を行うことを特徴
とするものである。
【0013】また、本発明による第4の被写体認識方法
は、上述した本発明による第3の被写体認識方法におい
て、前記学習手段にニューラルネットワークを用いたこ
とを特徴とするものである。
【0014】さらに、本発明による第5の被写体認識方
法は、上述した本発明による第4の被写体認識方法にお
いて、前記ニューラルネットワークの学習にコホーネン
の自己組織化を用いたことを特徴とするものである。
【0015】また、本発明による第6の被写体認識方法
は、上述した本発明による第3,第4または第5の被写
体認識方法において、前記所定被写体候補の特徴部分が
前記複数の特徴パターンに含まれるか否かの判定および
/または前記所定被写体候補の特徴部分の位置関係が前
記所定被写体の特徴部分の位置関係と一致するか否かの
判定をニューラルネットワークを用いて行うことを特徴
とするものである。
【0016】さらに、本発明による第7の被写体認識方
法は、上述した本発明による第6の被写体認識方法にお
いて、前記判定用のニューラルネットワークによる判定
にネオコグニトロンを用いたことを特徴とするものであ
る。
【0017】また、本発明による第8の被写体認識方法
は、上述した本発明による第3から第7のいずれか1つ
の被写体認識方法において、前記所定被写体が顔であ
り、前記複数の特徴部分が右目,左目および口であるこ
とを特徴とするものである。
【0018】
【作用】本発明による第1の被写体認識方法は、上述し
たように、所定被写体候補が所定被写体であるか否かの
判定を、所定被写体の特徴部分と、この所定被写体内に
おける特徴部分の位置とに基づいて行うようにしたもの
である。このため抽出した所定被写体候補が所定被写体
であるか否かを適切に判定することができ、本発明の被
写体認識方法を用いたシステムの能力を向上させること
が可能となる。
【0019】さらに、ニューラルネットワークを用い
て、所定被写体の判定に適した学習をさせて被写体の認
識を行うようにすれば、精度良く所定被写体候補が所定
被写体であるか否かの判定を行うことができ、本発明の
被写体認識方法を用いたシステムの能力をさらに向上さ
せることが可能となる。
【0020】また、本発明による第3の被写体認識方法
は、所定被写体の複数の特徴部分それぞれについての特
徴パターンを学習手段に学習させ、所定被写体候補の特
徴部分がこの学習手段に学習させた複数の特徴パターン
に含まれるか否かを判定し、この所定被写体候補の特徴
部分の位置関係が所定被写体の位置関係と一致するか否
かを判定することにより、この所定被写体候補が所定被
写体であるか否かを判定するようにした。このため、判
定を行おうとする所定被写体候補の特徴部分が多様に変
化しても、学習手段に学習させた複数の特徴パターンに
より、正確に所定被写体候補が所定被写体であるか否か
の判定を行うことができる。
【0021】また、学習手段にニューラルネットワー
ク、とくにコホーネンの自己組織化を用いて学習をさせ
れば、複数の特徴パターンがトポロジカルなマッピング
により自己組織化されるため、効率良く複数の特徴パタ
ーンを学習でき、所定被写体の特徴部分が所定被写体候
補の特徴部分に含まれるか否かの判定を被写体の角度の
変化、個々の違いにかかわらずより効率良く行うことが
できる。
【0022】さらに、所定被写体候補の特徴部分が複数
の特徴パターンに含まれるか否かの判定および/または
所定被写体候補の特徴部分の位置関係が所定被写体の特
徴部分の位置関係と一致するか否かの判定をニューラル
ネットワーク、とくにネオコグニトロンを用いて行うよ
うにすれば、所定被写体候補の位置ずれに対応でき、本
発明による被写体認識方法を用いたシステムの能力をさ
らに向上させることが可能となる。
【0023】さらに、所定被写体候補を顔として、また
学習に用いる複数の特徴部分を右目,左目および口とす
れば、顔の表情の変化や位置ずれ等に関係なく、顔の候
補が顔であるか否かの判定を行うことができ、さらに
は、学習に用いた顔とは異なる人の顔の候補も顔である
と判断することが可能となる。
【0024】
【実施例】以下、本発明の実施例について、図面を参照
して説明する。
【0025】図1は、本発明による被写体認識方法の一
実施例を用いたシステムの概略の構成を表わす図であ
る。なお、本実施例においては、所定被写体候補の特徴
部分と、この所定被写体候補内における特徴部分の位置
とに基づいて、所定被写体候補が所定被写体であるか否
かを判定するものであり、所定被写体として人間の顔
を、所定被写体の複数の特徴部分として、右目,左目お
よび口を用いた。また、この特徴部分である右目,左目
および口は、コホーネンの自己組織化を用いて学習を行
い、システム全体の構造はニューラルネットワークを用
いており、とくに位置ずれに強いネオコグニトロンを用
いている。
【0026】本実施例におけるネオコグニトロンは3層
構造をなしておりUS1層13、UC1層14および最終出力層
であるUS2層16からなり、US1層の前には、a1 マスク
12がある。本実施例ではa1 マスク12に顔の特徴部分で
ある右目9、口10および左目11についてコホーネンの自
己組織化により多数のパターンを学習させており、様々
な顔の判定を行うことが可能である。また、US2層16の
前にはa2 マスク15があり、このa2 マスク15により、
与えられた顔の候補8の特徴部分である右目9、口10お
よび左目11の位置を調べて顔の候補8が顔であるか否か
を判定する。
【0027】ここで、a1 マスク12におけるコホーネン
の自己組織化による学習について説明する。なお、ここ
では簡単のため右目のうち、閉じた目,開いた目のみを
提示して学習させる場合についてのみ説明する。
【0028】まず、図2に示すような閉じた目20,開い
た目21を1つずつ順番に提示すると、a1 マスク12内の
素子(細胞)のうちで、最適マッチングしている素子
(細胞)を見つける。次いでこの素子(細胞)とトポロ
ジカルな隣接素子(細胞)のマッチング度を増加させ
る。このようして、閉じた目20,開いた目21は、トポロ
ジカルな関係で細胞に割り当てられる。ところが、この
ように閉じた目20と開いた目21の割り当てを行うと、閉
じた目20と開いた目21を割り当てられた細胞と細胞の間
にある細胞は、図3に示すように閉じた目20と開いた目
21との重ね合せの目22を学習してしまう。そこで、学習
の際に、閉じた目20および開いた目21と最適マッチング
している素子を見つけ、トポロジカルな隣接素子のマッ
チング度を増加させる際に、図4に示すように前述した
重ね合せの目22を学習している細胞に、閉じた目20と開
いた目21の中間のパターン、すなわち半開きの目23を割
り当てるようにする。
【0029】このように学習を行えば、閉じた目20およ
び開いた目21を入力として提示することにより、半開き
の目23をトポロジカルな関係を保ちながら学習すること
ができる。また、口および左目についても同様に学習す
ることができ、さらに、学習の際に提示する画像の選び
方により、顔の表情の変化や角度の変化等に対応した学
習を行うことができる。例えば、表情の変化は、代表的
な目、口を呈示することにより、角度の変化は、正面の
顔、横向きの顔を呈示することにより、違う人の顔は、
代表的な顔を呈示することにより学習できる(但し、代
表的な特徴パターンの選び方を、検討しなければいけな
い)。このように自己組織化させることにより、学習の
段階で判別に使用する特徴パターンに柔軟性を持たせる
ことができるのである。
【0030】次に、本実施例におけるネオコグニトロン
の各層の機能について説明する。まず、右目9が、与え
られた所定被写体候補である顔の候補8に存在するか否
かを、a1 マスク12の右目について学習した部分12Aで
コンボリューション(コホーネンの自己組織化により学
習したパターンとマッチング)する。右目について学習
した部分12Aには、右目のうち閉じた目、開いた目、半
分閉じた目等の様々なパターンが学習されている。同様
にa1 マスク12の口10について学習した部分12Bおよび
左目11について学習した部分12Cには様々なパターンの
口10および左目11が学習されており、様々な顔の判定を
行う。このようなa1 マスク12によって顔の候補8をコ
ンボリューションした結果、顔の候補8に右目9が存在
することがわかると、US1層13の右目9に対応する細胞
13Aの右目に対応する部分13a が反応する。同様に口10
および左目11が顔の候補8に存在することがわかると、
S1層13の口10に対応する細胞13Bの口に対応する部分
13b および左目11に対応する細胞13Cの左目に対応する
部分13c が反応する。このようにして、US1層13の各細
胞13A〜13Cの部分13a 〜13c が反応することによっ
て、それぞれ右目、口、および左目が存在することを表
わす反応出力がUS1層13からUC1層14へ出力される。
【0031】UC1層14において、右目9、口10および左
目11のそれぞれに対応する細胞14A〜14Cは、US1層13
の各細胞13A〜13Cの部分13a 〜13c 内に1個でも反応
している細胞があれば、細胞14A〜14Cも出力を出すよ
うなシナプス結合となっている。右目について考えると
入力層であるUS1層13の細胞13Aの部分13a 内に右目が
あるときにUC1層14の右目に対応する細胞14Aは反応出
力を出す。また、この反応出力はUS1層13の細胞13Aの
右目の部分13a の範囲よりも広い範囲14a で反応出力を
出すようになっている。口、左目についても右目の場合
と同様に反応出力を出す。つまり、入力パターンの位置
ずれにあまり影響されずに反応出力を出すのである。
【0032】UC1層14の反応出力は次いで最終出力層で
あるUS2層16に入力されるが、US2層16の前にはa2
スク15があり、右目用マスク15A、口用マスク15Bおよ
び左目用マスク15Cが右目、口、左目の位置関係を合わ
せながらそれぞれ対応するUC1層14をコンボリューショ
ンする。このa2 マスク15によってUC1層14とUS2層16
は人間の顔の右目、口および左目が、人間の顔と同じ位
置に存在するときにだけ、US2層16が反応するようなシ
ナプス結合がなされている。またa2 マスク15はUC1
14に右目、口および左目があるという条件を観測してい
るだけでなく、それ以外の特徴物がUC1層14に存在しな
いという条件も同時に確認している。よって、UC1層14
に右目、口および左目が所定の位置に存在する場合のみ
S2層16は反応し、このUS2層16が反応することによっ
て、顔の候補8が人間の顔であるという判定がなされ
る。逆に、UC1層14に右目、口および左目が存在しない
かまたは、右目、口および左目が所定位置に存在しない
場合は、US2層16は反応しないため、顔の候補8は人間
の顔でないという判定がなされる。
【0033】上記実施例においては、所定被写体候補が
所定被写体であるか否かの判定にネオコグニトロンを用
いて所定被写体候補の特徴部分と、特徴部分の位置とに
基づいて判定を行うようにしているが、とくにネオコグ
ニトロンに限定されるものではなく、コグニトロンやパ
ーセプトロンを用いるようにしてもよい。また、判定に
はとくにニューラルネットワークを用いる必要はなく、
いかなる方法を用いてもよいことはもちろんである。
【0034】また、上記実施例においては、ニューラル
ネットワークとしてコホーネンの自己組織化を用いて特
徴パターンについての学習を行っているが、学習はとく
にコホーネンの自己組織化に限定されるものではなく、
いかなるニューラルネットワークを用いてもよい。さら
にこの学習手段はとくにニューラルネットワークに限定
されるものではなく、いかなる学習手段を用いてもよい
ことはもちろんである。
【0035】また、上記実施例においては、本発明の被
写体認識方法を人の顔の認識のために用いているが、認
識は人の顔に限定されるものではなく、いかなる所定被
写体の認識にも用いることができる。この場合、判定に
ニューラルネットワークを用いて認識を行う被写体に適
した構成で学習を行えば、人の顔の認識と同じように効
率的に所定被写体候補が所定被写体であるか否かの認識
を行うことができる。
【0036】
【発明の効果】以上詳細に説明したように、本発明によ
る被写体認識方法は、与えられた所定被写体候補が所定
被写体であるか否かの判定を精度良く行うことができる
ため、本発明を用いたシステムの判定能力を向上させる
ことが可能となる。
【0037】また、所定被写体候補の特徴部分の特徴パ
ターンを学習手段に学習させ、この学習結果を用いて、
所定被写体候補の特徴部分が所定被写体の特徴パターン
に含まれるか否かを判定し、所定被写体候補の特徴部分
の位置関係が所定被写体の位置関係と一致するか否かを
判定するようにすれば、所定被写体候補の特徴部分が多
様に変化しても正確に所定被写体候補が所定被写体であ
るか否かの判定を行うことができる。
【0038】さらに、学習にニューラルネットワーク
(とくにコホーネンの自己組織化)を用い、また、判定
にもニューラルネットワーク(とくにネオコグニトロ
ン)を用いれば、本発明による被写体認識方法を用いた
システムの認識能力をさらに向上させることが可能とな
る。
【図面の簡単な説明】
【図1】本発明による被写体認識方法である所定被写体
候補が所定被写体であるか否かの判定を行うニューラル
ネットワークの一実施例を表わす図
【図2】閉じた目および開いた目を表す図
【図3】コホーネンの自己組織化により重ね合せの目を
学習した結果を表わす図
【図4】コホーネンの自己組織化により半開きの目を学
習した結果を表わす図
【符号の説明】
8 所定被写体候補 9 右目 10 口 11 左目 12 a1 マスク 13 US1層 14 UC1層 15 a2 マスク 16 US2層 20 閉じた目 21 開いた目 22 重ね合せの目 23 半開きの目

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 与えられた所定被写体候補が、所定被写
    体であるか否かを判定する方法であって、該所定被写体
    候補の特徴部分と、該所定被写体候補内における前記特
    徴部分の位置とに基づいて前記所定被写体の候補が所定
    被写体であるか否かを判定することを特徴とする被写体
    認識方法。
  2. 【請求項2】 前記判定を、ニューラルネットワークを
    用いて行うことを特徴とする請求項1記載の被写体認識
    方法。
  3. 【請求項3】 与えられた所定被写体候補が、所定被写
    体であるか否かを判定する被写体認識方法において、 前記所定被写体の複数の特徴部分それぞれについての複
    数の特徴パターンを学習手段に学習させ、 前記所定被写体候補の特徴部分が、前記学習手段に学習
    させた前記所定被写体の複数の特徴部分それぞれについ
    ての複数の特徴パターンに含まれるか否かを判定し、 前記所定被写体候補の特徴部分の位置関係が、前記所定
    被写体の特徴部分の位置関係と一致するか否かを判定す
    ることにより前記所定被写体候補が前記所定被写体であ
    るか否かの判定を行うことを特徴とする被写体認識方
    法。
  4. 【請求項4】 前記学習手段にニューラルネットワーク
    を用いたことを特徴とする請求項3記載の被写体認識方
    法。
  5. 【請求項5】 前記ニューラルネットワークの学習にコ
    ホーネンの自己組織化を用いたことを特徴とする請求項
    4記載の被写体認識方法。
  6. 【請求項6】 前記所定被写体候補の特徴部分が前記複
    数の特徴パターンに含まれるか否かの判定および/また
    は前記所定被写体候補の特徴部分の位置関係が前記所定
    被写体の特徴部分の位置関係と一致するか否かの判定を
    ニューラルネットワークを用いて行うことを特徴とする
    請求項3,4または5記載の被写体認識方法。
  7. 【請求項7】 前記判定用のニューラルネットワークに
    よる判定にネオコグニトロンを用いたことを特徴とする
    請求項6記載の被写体認識方法。
  8. 【請求項8】 前記所定被写体が顔であり、前記複数の
    特徴部分が右目,左目および口であることを特徴とする
    請求項3から7のいずれか1項記載の被写体認識方法。
JP4186717A 1991-09-12 1992-07-14 被写体認識方法 Withdrawn JPH05282457A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP92115725A EP0532053A2 (en) 1991-09-12 1992-09-14 Method for recognizing object images and learning method for neural networks
US08/294,865 US5740274A (en) 1991-09-12 1994-08-29 Method for recognizing object images and learning method for neural networks
US08/947,633 US6208758B1 (en) 1991-09-12 1997-10-09 Method for learning by a neural network including extracting a target object image for which learning operations are to be carried out
US09/438,145 US6728404B1 (en) 1991-09-12 1999-11-10 Method for recognizing object images and learning method for neural networks

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP23321391 1991-09-12
JP24747891 1991-09-26
JP3-247478 1991-12-06
JP3-233213 1992-01-28

Publications (1)

Publication Number Publication Date
JPH05282457A true JPH05282457A (ja) 1993-10-29

Family

ID=26530914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4186717A Withdrawn JPH05282457A (ja) 1991-09-12 1992-07-14 被写体認識方法

Country Status (1)

Country Link
JP (1) JPH05282457A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309457A (ja) * 1993-04-26 1994-11-04 Fuji Photo Film Co Ltd 画像判別方法
JP2005108196A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
US7957567B2 (en) 2006-02-23 2011-06-07 Fujifilm Corporation Method, apparatus, and program for judging faces facing specific directions
KR20160015583A (ko) * 2014-07-31 2016-02-15 한국과학기술연구원 이미지 처리 장치 및 방법

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309457A (ja) * 1993-04-26 1994-11-04 Fuji Photo Film Co Ltd 画像判別方法
JP2005108196A (ja) * 2003-09-09 2005-04-21 Fuji Photo Film Co Ltd 対象物識別装置および方法並びにプログラム
US7835549B2 (en) 2005-03-07 2010-11-16 Fujifilm Corporation Learning method of face classification apparatus, face classification method, apparatus and program
US7957567B2 (en) 2006-02-23 2011-06-07 Fujifilm Corporation Method, apparatus, and program for judging faces facing specific directions
KR20160015583A (ko) * 2014-07-31 2016-02-15 한국과학기술연구원 이미지 처리 장치 및 방법

Similar Documents

Publication Publication Date Title
CN111401257B (zh) 一种基于余弦损失在非约束条件下的人脸识别方法
KR100442835B1 (ko) 인공 신경망을 이용한 얼굴 인식 방법 및 장치
Lu et al. A method of face recognition based on fuzzy c-means clustering and associated sub-NNs
Tivive et al. A gender recognition system using shunting inhibitory convolutional neural networks
CN111414862A (zh) 基于神经网络融合关键点角度变化的表情识别方法
JPH02306387A (ja) パターン認識方式
CN111222589A (zh) 图像文本识别方法、装置、设备及计算机存储介质
KR100729273B1 (ko) Pca와 역전파 알고리즘을 이용한 얼굴인식 방법
Kabisha et al. Face and Hand Gesture Recognition Based Person Identification System using Convolutional Neural Network
Bhanu et al. Computational algorithms for fingerprint recognition
CN110633689B (zh) 基于半监督注意力网络的人脸识别模型
Ahammad et al. Recognizing Bengali sign language gestures for digits in real time using convolutional neural network
Toh Fingerprint and speaker verification decisions fusion
JPH05282457A (ja) 被写体認識方法
EP1480167A1 (en) Pattern feature selection method, classification method, judgment method, program, and device
Zhang et al. A novel face recognition system using hybrid neural and dual eigenspaces methods
Altun et al. Genetic algorithm based feature selection level fusion using fingerprint and iris biometrics
CN111898400A (zh) 一种基于多模态特征融合的指纹活性检测方法
Bartunek et al. Neural network based minutiae extraction from skeletonized fingerprints
Taur et al. A new neuro-fuzzy classifier with application to on-line face detection and recognition
Gooya et al. Robust and discriminating face recognition system based on a neural network and correlation techniques
KR20060074410A (ko) 학습에 기반을 둔 적응형 실시간 얼굴검출방법
Mohammad et al. An Offline Writer-independent Signature Verification System using AutoEmbedder
JPH0460865A (ja) 神経回路網学習法及び装置
Krishna et al. Offline Signature Forgery Detection using Multi-Layer Perceptron

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19991005