JPH04264985A - Image recognition system - Google Patents

Image recognition system

Info

Publication number
JPH04264985A
JPH04264985A JP3026103A JP2610391A JPH04264985A JP H04264985 A JPH04264985 A JP H04264985A JP 3026103 A JP3026103 A JP 3026103A JP 2610391 A JP2610391 A JP 2610391A JP H04264985 A JPH04264985 A JP H04264985A
Authority
JP
Japan
Prior art keywords
image
image data
subject
recognition
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3026103A
Other languages
Japanese (ja)
Inventor
Masaaki Hanashima
正昭 花嶋
Takehiro Kurono
剛弘 黒野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hamamatsu Photonics KK
Original Assignee
Hamamatsu Photonics KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hamamatsu Photonics KK filed Critical Hamamatsu Photonics KK
Priority to JP3026103A priority Critical patent/JPH04264985A/en
Publication of JPH04264985A publication Critical patent/JPH04264985A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE:To recognize a subject consisting of the whole and its constitutional part such as a face at high speed and with high accuracy by recognizing the subject by inputting the feature part of the subject to an individual neural network. CONSTITUTION:The face of a person 1 to be inspected is image-picked up by directing a telecamera 2, and the image of the person 1 to be inspected is displayed on a display monitoring device 3. The person 1 to be inspected freezes the image and sends an instruction for input definition by a key operation from a keyboard input device 4, and also, announcing display whether or not the posture of the face of the person 1 to be inspected is correct is performed by, for example, a tone. Image data is extracted by a mask which extracts the whole and part of the subject, and it is supplied to the neural network at every extracted image data, thereby, learning and recognition are performed. Also, parallel processing is performed by constructing each neural network with different processors.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、銀行の預金引出し時に
おける自動認識や入退室自動管理などのセキュリティ管
理システムに適用することのできる画像認識システムに
関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image recognition system that can be applied to a security management system such as automatic recognition when withdrawing money from a bank and automatic entry/exit management.

【0002】0002

【従来の技術】従来、人の顔について画像認識を行う場
合には、(1)エッジ検出を行う手法、(2)パターン
マッチングによる手法、(3)積分変換による手法、(
4)ニューラルネットワークによる手法が知られている
。このうち、(4)ニューラルネットワークによる方法
は、認識の精度を高める手法として近年注目されてきて
おり、その一つとして例えば、「ニューラルネットワー
クを用いた顔画像識別の一検討(テレビジョン学会技術
報告1990年9月26日)」がある。
[Background Art] Conventionally, when performing image recognition on a human face, (1) a method of edge detection, (2) a method of pattern matching, (3) a method of integral transformation, (
4) A method using neural networks is known. Among these, (4) the method using neural networks has attracted attention in recent years as a method to improve recognition accuracy. September 26, 1990).

【0003】0003

【発明が解決しようとする課題】しかし、ニューラルネ
ットワークを用いた場合には、入力層に入力されるデー
タ量が多くなり、認識するパターンが増えるにつれてニ
ューラルネットワークの規模が大きくなり、例えば、バ
ックプロパケーション学習による学習時間が長くなり、
実用に堪えられない問題がある。また、従来は撮像した
顔の全体画像を用いて個人同定を行うようになっていた
ため、ヒゲや眼や髪型が変わると適確に認識を行い得な
い問題点があった。更に、同一の被写体(人物の顔)を
撮像して画像データを得た場合でも、画像の姿勢が異な
ると正しい認識がなされず、場合によっては異なる被写
体であると判断されることがある。
[Problems to be Solved by the Invention] However, when using a neural network, the amount of data input to the input layer increases, and as the number of patterns to be recognized increases, the scale of the neural network increases. learning time becomes longer due to application learning,
There are problems that make it impractical. Furthermore, in the past, individual identification was performed using the captured entire image of the face, which caused the problem that accurate recognition could not be performed if the beard, eyes, or hairstyle changed. Furthermore, even if image data is obtained by capturing images of the same subject (person's face), if the pose of the image is different, correct recognition may not be possible, and in some cases it may be determined that the subject is a different subject.

【0004】そこで、本発明は、学習時間を短縮できる
とともに、ヒゲや眼や髪型が変わっても的確に認識を行
い得るとともに、画像の姿勢を的確に正しくして撮像す
ることのできる画像認識システムを提供することを目的
とする。
[0004] Therefore, the present invention provides an image recognition system that can shorten the learning time, accurately recognize even if the beard, eyes, or hairstyle changes, and that can capture images with the correct posture. The purpose is to provide

【0005】[0005]

【課題を解決するための手段】本発明に係る画像認識シ
ステムは、被写体の画像データの入力を行う画像データ
入力手段と、入力された画像データから被写体の全体と
所定部分との画像データを抽出する抽出手段と、抽出さ
れた画像データを用いて学習・認識を行うニューラルネ
ットワークからなる学習・認識手段とを備えていること
を特徴とする。
[Means for Solving the Problems] An image recognition system according to the present invention includes an image data input means for inputting image data of a subject, and extracts image data of the entire subject and a predetermined part from the input image data. and a learning/recognition means comprising a neural network that performs learning/recognition using the extracted image data.

【0006】更に、望ましくは本発明に係る画像認識シ
ステムは、入力された画像データに基づき被写体の姿勢
情報を得る姿勢情報検出手段、この姿勢情報検出手段の
検出結果に基づき被写体の姿勢に関するアナウンスを発
生表示するアナウンス発生表示手段とを備えている。
Preferably, the image recognition system according to the present invention includes a posture information detection means for obtaining posture information of the subject based on input image data, and an announcement regarding the posture of the subject based on the detection result of the posture information detection means. Announcement occurrence display means for displaying the occurrence of an announcement.

【0007】本発明に係る画像認識システムは、複数の
個別判定ニューラルネットワークと、1の総合判定ニュ
ーラルネットワークとを備え、全体と所定部分との抽出
画像データを前記個別判定ニューラルネットワークに与
えて、この出力を総合判定ニューラルネットワークへ与
えて学習・認識を行う。
The image recognition system according to the present invention includes a plurality of individual judgment neural networks and one comprehensive judgment neural network, and provides extracted image data of the whole and a predetermined part to the individual judgment neural network. The output is given to the comprehensive judgment neural network for learning and recognition.

【0008】[0008]

【作用】本発明は以上の通りに構成されるので、被写体
の全体を捕えた認識のみならず、被写体の部分を捕えた
認識が行われ、認識精度の向上が図られる。また、分散
処理・並列処理を行うことができ、処理の高速化を図る
ことが可能である。更に、姿勢に関するアナウンスが発
生表示され、これを基に被写体の姿勢を直して一定の姿
勢で画像取り込みを可能とする。
[Operation] Since the present invention is constructed as described above, not only recognition that captures the entire object but also recognition that captures a portion of the object is performed, thereby improving recognition accuracy. Further, distributed processing and parallel processing can be performed, and processing speed can be increased. Furthermore, an announcement regarding the posture is generated and displayed, and based on this, the posture of the subject is corrected so that the image can be captured in a fixed posture.

【0009】[0009]

【実施例】以下、添付図面を参照して本発明の一実施例
を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the accompanying drawings.

【0010】図1は本発明の一実施例に係る画像認識シ
ステムを示している。被検者1の顔に対してテレビカメ
ラ2が向けられ撮像が行われる。被検者1の顔の画像は
表示モニタ装置3に映し出される。被検者1はキーボー
ド入力装置4からのキー操作により画像の凍結、入力確
定の指示を送出する。また、スピーカ5からは、例えば
トーンにより被検者1の顔の姿勢が正しいか否かのアナ
ウンス表示がなされる。
FIG. 1 shows an image recognition system according to an embodiment of the present invention. A television camera 2 is directed toward the face of the subject 1 and an image is taken. An image of the face of the subject 1 is displayed on the display monitor device 3. The subject 1 sends instructions to freeze the image and confirm input by operating keys from the keyboard input device 4. Further, the speaker 5 makes an announcement display, for example, using a tone, as to whether or not the posture of the face of the subject 1 is correct.

【0011】図2、図3には被検者1とテレビカメラ2
、表示モニタ装置3、キーボード入力装置4のより具体
的な位置関係が示されている。この実施例では、表示モ
ニタ装置3の上に鏡6が載置され、テレビカメラ2によ
って鏡6を介して被検者1の顔を撮像し、表示モニタ装
置3の画面における画像の移動方向(左右)と被検者1
の移動方向が一致するようにしてある。被検者1は例え
ば椅子に座って表示モニタ装置3の方向を向き、椅子の
背もたれから延びる頭部固定具7に頭をうずめる。
FIGS. 2 and 3 show a subject 1 and a television camera 2.
, a more specific positional relationship between the display monitor device 3 and the keyboard input device 4 is shown. In this embodiment, a mirror 6 is placed on the display monitor device 3, the face of the subject 1 is imaged by the television camera 2 through the mirror 6, and the direction of movement of the image on the screen of the display monitor device 3 ( left and right) and subject 1
The directions of movement are made to match. For example, the subject 1 sits on a chair, faces the display monitor device 3, and buries his or her head in a head fixture 7 extending from the backrest of the chair.

【0012】図1に示すように、テレビカメラ2による
撮像によって得られた画像信号は、画像処理認識装置8
の入出力制御部9に送られディジタル化されて、画像デ
ータとされて画像メモリ10に格納される。画像メモリ
10の画像データは表示制御部11に読み出され、入出
力制御部9へ与えられてアナログ化されて画像信号とさ
れ、表示モニタ装置3へ送られる。表示制御部11は、
表示モニタ装置3の画面における縦中央に縦方向入力補
助線Vと、画面の上部から高さの1/3程度のところに
横方向入力補助線Hとを発生させるように、画像メモリ
10に画像データを書き込んでおく。また、縦方向入力
補助線Vより左方の所定位置(平均的な人の両目の間隔
の1/2の位置)に、縦方向にやや短めの左目位置入力
補助線Lを発生するように、画像メモリ10に対応の画
像データを書き込んでおく。図4には、上記の各補助線
に対応する画像データとともにテレビカメラ2により得
られた画像データが、画像メモリ10から読み出され画
像信号とされて表示モニタ装置3の面に表示された画像
16が示されている。
As shown in FIG. 1, an image signal obtained by imaging with a television camera 2 is processed by an image processing recognition device 8.
The image data is sent to the input/output control section 9 of the computer, digitized, and stored in the image memory 10 as image data. The image data in the image memory 10 is read out by the display control section 11 and given to the input/output control section 9 where it is converted into an analog image signal and sent to the display monitor device 3. The display control unit 11
An image is stored in the image memory 10 so as to generate a vertical input auxiliary line V at the vertical center of the screen of the display monitor device 3 and a horizontal input auxiliary line H at about 1/3 of the height from the top of the screen. Write the data. In addition, a slightly shorter left eye position input auxiliary line L is generated in the vertical direction at a predetermined position to the left of the vertical input auxiliary line V (a position that is half the distance between the eyes of an average person). Corresponding image data is written into the image memory 10. FIG. 4 shows an image in which the image data obtained by the television camera 2 together with the image data corresponding to each of the above-mentioned auxiliary lines are read out from the image memory 10, converted into an image signal, and displayed on the surface of the display monitor device 3. 16 is shown.

【0013】被検者1は頭部固定具7に頭をうずめ、表
示モニタ装置3方向を目視してキーボード入力装置4の
フリーズボタン17(図5)を操作してテレビカメラ2
による撮像を開始させる。表示モニタ装置3の画面には
図4に示されるように被検者1の顔の画像が各入力補助
線とともに表示される。そこで、被検者1は横方向入力
補助線H上に両目の重心がのり、左目の重心を左目位置
入力補助線Lが通るように頭部を上下左右に動かせて入
力を行う。このとき、表示モニタ装置3の画像が小さく
て、顔の姿勢が上記補助線に対し所定位置となっている
か否か不明な場合には、キーボード入力装置4の拡大キ
ー18を操作することにより、図5に示されるように両
目部分の画像を拡大して表示することができる。
The subject 1 buries his or her head in the head fixture 7, looks in the direction of the display monitor 3, and operates the freeze button 17 (FIG. 5) of the keyboard input device 4 to turn on the television camera 2.
start imaging. As shown in FIG. 4, an image of the face of the subject 1 is displayed on the screen of the display monitor device 3 along with each input auxiliary line. Therefore, the subject 1 performs input by moving his head vertically and horizontally so that the center of gravity of both eyes is on the lateral direction input auxiliary line H and the left eye position input auxiliary line L passes through the center of gravity of the left eye. At this time, if the image on the display monitor device 3 is small and it is unclear whether the facial posture is at a predetermined position with respect to the above-mentioned auxiliary line, by operating the enlarge key 18 of the keyboard input device 4, As shown in FIG. 5, the image of both eyes can be enlarged and displayed.

【0014】具体的には、入出力制御部9、表示制御部
11はプロセッサ等により構成され、図6に示されるフ
ローチャートのプログラムに従って画像の表示を行う。 すなわち、キーボード入力装置14からのフリーズボタ
ン17の操作による撮像開始の入力があるかを入出力制
御部9が検出しており(S21)、当該入力があるとこ
れを取込み、画像データとして画像メモリ10へ画像デ
ータを書き込む(S22)。表示制御部11は画像メモ
リ10から各補助線を含む画像データの読み出しを行い
、入出力制御部9へ与えて画像信号として送出させ画像
の表示を行う(S23)。次に、拡大キー18の操作に
よる拡大要求が行われるかを検出する(S24)。拡大
要求が行われた場合には、画像メモリ10内の両目につ
いて予め設定されている領域(図5の19L,19Rの
領域)の画像データを読み出し、縦横に4倍(面積比)
に拡大し、原画像データの下部にスーパーインポーズし
て入出力制御部9へ与えて拡大表示する(S25)。こ
の拡大表示された左右両目の領域20L,20Rが図5
に示されている。入力制御部9は、キーボード入力装置
4の拡大キー18の再操作による拡大表示の終了要求の
検出(S26)、あるいは、フリーズボタン17の再操
作による確定(終了)入力の検出(S27)を行ってお
り、拡大表示の終了要求がなされると通常の表示を行う
(S29)。一方、確定の入力がなされると画像データ
を確定し、画像データメモリ10内の所定領域(あるい
は、図示せぬ外部メモリ)へ当該画像データを格納する
(S28)。なお上記において、拡大画像をスーパーイ
ンポーズして表示したが、スーパーインポーズを行わず
に拡大画像のみを表示してもよい。
Specifically, the input/output control section 9 and the display control section 11 are composed of a processor and the like, and display images according to a program shown in a flowchart shown in FIG. That is, the input/output control unit 9 detects whether there is an input to start imaging by operating the freeze button 17 from the keyboard input device 14 (S21), and if the input is received, it is captured and stored in the image memory as image data. 10 (S22). The display control section 11 reads out image data including each auxiliary line from the image memory 10, supplies it to the input/output control section 9, and sends it out as an image signal to display the image (S23). Next, it is detected whether an enlargement request is made by operating the enlargement key 18 (S24). When an enlargement request is made, the image data of the areas preset for both eyes in the image memory 10 (areas 19L and 19R in FIG. 5) is read out, and the image data is enlarged 4 times vertically and horizontally (area ratio).
The image data is enlarged, superimposed on the lower part of the original image data, and sent to the input/output control unit 9 for enlarged display (S25). The enlarged left and right eye areas 20L and 20R are shown in Figure 5.
is shown. The input control unit 9 detects a request to end the enlarged display by operating the enlarge key 18 of the keyboard input device 4 again (S26), or detects a confirmation (end) input by operating the freeze button 17 again (S27). When a request to end the enlarged display is made, normal display is performed (S29). On the other hand, when a confirmation input is made, the image data is confirmed and stored in a predetermined area in the image data memory 10 (or an external memory (not shown)) (S28). In the above, the enlarged image is superimposed and displayed, but only the enlarged image may be displayed without superimposing.

【0015】本実施例の一具体例に係る画像認識システ
ムでは、画像処理認識装置8に被写体の姿勢についての
アナウンス発生・表示を行うためのアナンウス送出部1
3が備えられている。キーボード入力装置4のフリーズ
ボタン17の操作により、入出力制御部9は抽出部12
に対し画像メモリ10内の両目部分の所定領域の抽出指
示を与える。抽出部12はこれに基づき、画像メモリ1
0から図7に示されるラインY+からラインY−までの
各ラインの画像データを読み出し、この画像データをア
ナウンス送出部13のバッファメモリ30(図7)に格
納する。アナウンス送出部13には、バッファメモリ3
0のほかプロセッサやトーン発生器等が含まれいる。ア
ナウンス送出部13はバッファメモリ30に画像データ
が格納されると、図7に示されるようにXプロファイル
及びYプロファイルの作成を行う。すなわち、Xプロフ
ァイルについては、バッファメモリ30のラインY+か
らラインY−までのライン毎に、バッファメモリ30の
下方に示されるような輝度をパラメータとするXプロフ
ァイルを作成する。Xプロファイルについて各ラインに
は左右の目の瞳に対応した2箇所の極小値(Min)が
現われる。この極小値のアドレスが各ラインで不一致で
ある場合には顔の姿勢が正しくない。一方、Yプロファ
イルについては、バッファメモリ30の左目領域LのX
アドレスL−からXアドレスL+までについて輝度をパ
ラメータとするYプロファイルを作成し、バッファメモ
リ30の右目領域RのXアドレスR−からXアドレスR
+までについて、輝度をパラメータとするYプロファイ
ルを作成する。これらYプロファイルについては、図7
のバッファメモリ30の右横に示されている。Yプロフ
ァイルについては、左目領域L、右目領域Rにそれぞれ
瞳に対応した極小値(Min)が現われる。この極小値
のYアドレスが各XアドレスのYプロファイルで不一致
である場合には、顔の姿勢が正しくない。
In the image recognition system according to a specific example of the present embodiment, an announcement sending unit 1 is provided for generating and displaying an announcement regarding the posture of the subject in the image processing recognition device 8.
3 are provided. By operating the freeze button 17 of the keyboard input device 4, the input/output control unit 9
An instruction to extract a predetermined area of both eyes in the image memory 10 is given to the image memory 10. Based on this, the extraction unit 12 extracts the image memory 1
The image data of each line from line Y+ to line Y- shown in FIG. The announcement sending section 13 includes a buffer memory 3.
0, a processor, a tone generator, etc. When the image data is stored in the buffer memory 30, the announcement sending unit 13 creates an X profile and a Y profile as shown in FIG. That is, regarding the X profile, an X profile is created for each line from line Y+ to line Y- of the buffer memory 30, using the brightness as shown below the buffer memory 30 as a parameter. Regarding the X profile, two minimum values (Min) appear in each line, corresponding to the pupils of the left and right eyes. If the addresses of these minimum values do not match for each line, the facial posture is incorrect. On the other hand, regarding the Y profile, the X of the left eye area L of the buffer memory 30 is
A Y profile with luminance as a parameter is created from address L- to X address L+, and from X address R- to X address R of right eye area R of the buffer memory 30.
For up to +, create a Y profile with brightness as a parameter. For these Y profiles, see Figure 7.
It is shown on the right side of the buffer memory 30. Regarding the Y profile, minimum values (Min) corresponding to the pupils appear in the left eye region L and right eye region R, respectively. If the Y address of this minimum value does not match the Y profile of each X address, the facial posture is incorrect.

【0016】上記のようなプロファイル作成の結果、姿
勢が正しくないことが検出されると、アナウンス送出部
13では、短く断続するトーンデータを発生して送出し
、入出力制御部9でトーン信号とされて、例えばピィ、
ピィ、ピィ…というようなトーンがスピーカ5から発せ
られる。このトーンを聞いて、被検者1は頭部を動かし
て正しい顔の姿勢を作ることができる。各プロファイル
で極小値のアドレスが一致すると顔の姿勢が正しいので
、アナウンス送出部13では長く連続するトーンデータ
を発生して送出し、入出力制御部9でトーン信号とされ
て、例えばピィーというトーンがスピーカ5から発生さ
れる。これを聞いて、被害検者1はキーボード入出力装
置4のフリーズボタン17を再操作し、図6のS27で
説明したように入力確定とする。
When it is detected that the posture is incorrect as a result of profile creation as described above, the announcement sending unit 13 generates and sends out short intermittent tone data, and the input/output control unit 9 converts the tone data into a tone signal. For example, pi,
A tone like beep, beep... is emitted from speaker 5. Hearing this tone, subject 1 can move his head to create the correct facial posture. If the addresses of the minimum values match in each profile, the face posture is correct, so the announcement sending unit 13 generates and sends out long continuous tone data, which is converted into a tone signal by the input/output control unit 9, and is output as a tone such as a beep. is generated from the speaker 5. Upon hearing this, the victim examiner 1 operates the freeze button 17 of the keyboard input/output device 4 again to confirm the input as described in S27 of FIG.

【0017】入力確定のキー操作があると、入出力制御
部9より抽出部12に対し、顔の全体と各部分について
の抽出指示を与える。抽出部12は、図8に示されるよ
うに画像メモリ10の顔の画像に対し、予め定められた
大きさと位置とを有する全体マスク31、眉マスク32
、目マスク33、鼻マスク34、口マスク35を備え、
このマスクに相当する画像メモリ10内の領域から画像
データの読み出し(抽出)を行う。抽出部12は抽出し
た画像データを学習・認識部14へ与える。抽出部12
には、図7を用いて説明したプロファイルを作成する機
能が備えてられており、上記抽出に先立って、プロファ
イルの作成を行い、確定入力とされた顔の画像データの
両目部分の領域についてプロファイルの作成を行う。作
成の結果、顔の姿勢が正しければ、そのまま画像データ
の抽出を行うが、作成が正しくなければ、次のようにし
て画像データの傾き修正を行う。
When a key operation confirming the input is performed, the input/output control section 9 gives an extraction instruction to the extraction section 12 for the entire face and each part. As shown in FIG. 8, the extraction unit 12 extracts a whole mask 31 and an eyebrow mask 32 having a predetermined size and position from the face image in the image memory 10.
, comprising an eye mask 33, a nose mask 34, and a mouth mask 35,
Image data is read (extracted) from the area in the image memory 10 corresponding to this mask. The extraction unit 12 provides the extracted image data to the learning/recognition unit 14. Extraction part 12
is equipped with a function to create a profile as explained using FIG. 7. Prior to the above extraction, a profile is created and a profile is created for the area of both eyes of the face image data that has been input as a final input. Create. If the facial posture is correct as a result of creation, the image data is extracted as is, but if the creation is incorrect, the tilt of the image data is corrected as follows.

【0018】すなわち、抽出部12は図9に示されるフ
ローチャートのプログラムにより作動する。Yアドレス
がY0 (図7)のとき、左目に相当する極小値のXア
ドレスが左目位置入力補助線LのXアドレスに一致する
かを判定する(S36)。不一致のときには、被検者1
の顔の画像データをX方向とY方向(プラスかマイナス
かを含めて)とに必要量だけ移動する(S37)。次に
、Y+〜Y−における左目プロファイルの極小値の各X
アドレスが、左目位置入力補助線LのXアドレスに一致
するかを判定する(S38)。不一致のときに、画像デ
ータを横方向入力補助線Hと左目位置入力補助線Lとの
交点を中心として回転させる(S39)。次に、Yプロ
ファイルの極小値のYアドレスが横方向入力補助線Hの
Yアドレスに一致するかを判定する(S40)。不一致
であれば、画像データを横方向入力補助線Hと左目入力
補助線Lとの交点を中心として回転させる(S41)。 このようにして画像データの移動を行う際には、例えば
、アフィン変換等の手法を用いてもよい。
That is, the extraction section 12 operates according to a program shown in a flowchart shown in FIG. When the Y address is Y0 (FIG. 7), it is determined whether the minimum value X address corresponding to the left eye matches the X address of the left eye position input auxiliary line L (S36). If there is a discrepancy, subject 1
The face image data of is moved by the necessary amount in the X direction and the Y direction (including whether it is positive or negative) (S37). Next, each X of the minimum value of the left eye profile from Y+ to Y-
It is determined whether the address matches the X address of the left eye position input auxiliary line L (S38). If they do not match, the image data is rotated around the intersection of the lateral direction input auxiliary line H and the left eye position input auxiliary line L (S39). Next, it is determined whether the Y address of the minimum value of the Y profile matches the Y address of the horizontal input auxiliary line H (S40). If they do not match, the image data is rotated around the intersection of the lateral input auxiliary line H and the left eye input auxiliary line L (S41). When moving image data in this manner, a technique such as affine transformation may be used, for example.

【0019】以上の傾き修正により得た画像データにつ
いて、図8に示すように全体及び各部分のマスクを用い
て抽出を行い、全体パターン(画像データ)、眉パター
ン、目パターン、鼻パターン、口パターンを得て、学習
・認識部14へ送出する。なお、人の顔には様々な特徴
があり、マスクによる抽出によっては必ずしも適切な顔
の各部位の抽出を行い得ないが、このこと自体が各人の
特徴を表わすことになる。
The image data obtained by the above tilt correction is extracted using masks for the whole and each part as shown in FIG. 8, and the whole pattern (image data), eyebrow pattern, eye pattern, nose pattern, mouth A pattern is obtained and sent to the learning/recognition section 14. Note that the human face has various characteristics, and although it is not necessarily possible to extract each part of the face appropriately by extraction using a mask, this itself represents the characteristics of each person.

【0020】以上の説明では、画像処理認識装置8を各
部に別けて説明したが、学習認識部14を除き、1つの
プロセッサと必要な回路とで構成され、顔の画像データ
についての学習を図10に示されるフローチャートのプ
ログラムで実行し、顔の画像データの認識を図14に示
されるフローチャートのプログラムで実行する。
In the above explanation, the image processing recognition device 8 has been explained separately for each part, but except for the learning recognition part 14, it is composed of one processor and necessary circuits, and is designed to perform learning on facial image data. The program shown in the flowchart shown in FIG. 10 is executed, and the recognition of facial image data is performed by the program shown in the flowchart shown in FIG.

【0021】上記のようにして、システムに登録される
被検者は次々に撮像を行い、入力処理がなされる(S4
2)。フリーズボタン17の再操作により入力画像デー
タの確定が行われ、画像データが所定メモリエリアに登
録される(S43)。そして、前述のように抽出部12
によって画像データの全体及び所定部分の抽出がなされ
(S44)、抽出された画像データが学習・認識部14
を構成するニューラルネットワークに送出される(S4
5)。学習・認識部14ではバックプロパゲーション型
のニューラルネットワークにより学習を行う(S46)
[0021] As described above, the subjects registered in the system are imaged one after another, and input processing is performed (S4
2). The input image data is confirmed by operating the freeze button 17 again, and the image data is registered in a predetermined memory area (S43). Then, as described above, the extraction unit 12
The entire image data and a predetermined portion are extracted by (S44), and the extracted image data is sent to the learning/recognition unit 14.
(S4
5). The learning/recognition unit 14 performs learning using a backpropagation neural network (S46).
.

【0022】図11にニューラルネットワークによる学
習の第1段階の説明図を示す。ニューラルネットワーク
は全体、眉、目、鼻、口の各画像データに対応した個数
だけ用意される。1つのネットワークは入力層、中間層
、出力層の3層により構成され、出力層ニューロンは、
登録する画像分(人数分)の数を有する。入力層ニュー
ロンは入力される画像分の数を有し、中間層ニューロン
は学習に必要な数だけ用意される。ただし、類似する画
像が入力される場合には、中間層ニューロンが少ないと
収束時間が多大となるため、中間層ニューロンの数を多
くしておく。
FIG. 11 shows an explanatory diagram of the first stage of learning by the neural network. Neural networks are prepared in numbers corresponding to the image data of the whole image, eyebrows, eyes, nose, and mouth. One network consists of three layers: input layer, hidden layer, and output layer, and the output layer neurons are:
It has the number of images to be registered (for the number of people). The number of input layer neurons is equal to the number of input images, and the number of intermediate layer neurons required for learning is prepared. However, when similar images are input, the number of hidden layer neurons is increased because the convergence time will be long if there are few hidden layer neurons.

【0023】図12には、上記のニューラルネットワー
クによる学習処理のフローチャートが示されている。こ
こでは、登録画像の入力が行われ(S49)、ニューラ
ルネットワークの大きさ決定及びイニシャライズが行わ
れ(S50)、抽出部12による各部位の抽出処理が行
われ(S51)、抽出された画像データにより各ニュー
ラルネットワーク(ニューロ)による学習が行われる(
S52〜S55)。そして、所定の収束条件となったか
否かを判定して、各ニューラルネットワークでの学習が
なされてゆく(図11)。
FIG. 12 shows a flowchart of the learning process by the neural network described above. Here, a registered image is input (S49), the size of the neural network is determined and initialized (S50), extraction processing for each part is performed by the extraction unit 12 (S51), and the extracted image data Learning is performed by each neural network (neuro) by
S52-S55). Then, it is determined whether a predetermined convergence condition has been met, and learning is performed in each neural network (FIG. 11).

【0024】このようにして、学習の第1段階が終了す
ると学習の第2段階へ移行する。図13には学習の第2
段階の処理が示される。ここでは、顔の全体、眉、鼻、
口の個別判定ニューラルネットワークによる認識結果を
総合判定ニューラルネットワーク60の入力層ニューロ
ンに与え、所定の収束条件により収束するまで学習を行
わせる(図12、S56,S57)。このようにして学
習された結果のウェイト(W,θV,σ)は出力され、
学習・認識部14において保持される(S58)。同様
に、画像処理認識装置8の動作を示す図10のフローチ
ャートにおいても、判定が行われ(S47)、ウェイト
の保持がなされる(S48)ことが示されている。
[0024] In this way, when the first stage of learning is completed, the process moves to the second stage of learning. Figure 13 shows the second part of learning.
Steps of processing are shown. Here, the whole face, eyebrows, nose,
The recognition results obtained by the mouth individual judgment neural network are given to the input layer neurons of the comprehensive judgment neural network 60, and learning is performed until convergence is achieved according to predetermined convergence conditions (FIG. 12, S56, S57). The resulting weights (W, θV, σ) learned in this way are output,
The information is held in the learning/recognition unit 14 (S58). Similarly, the flowchart in FIG. 10 showing the operation of the image processing recognition device 8 also shows that a determination is made (S47) and the weight is held (S48).

【0025】以上のようにして学習が行われた画像認識
システムでは、例えば入退出管理システム15(図1)
に認識結果を与えるため、実際の稼動状態に入る。すな
わち、図14に示されるように、各ネットワークに図1
2のステップS58で出力し保持してあったウェイトを
セットし(S61)、実際に到来した被検者1の顔の画
像データの入力が、学習時の登録の場合と同様にしてな
される(S62)。抽出部12において、全体及び各部
位の抽出が行われ(S63)、抽出された画像データが
個別判定用のニューラルネットワークに入力される(S
64)。図15には、画像処理認識装置8における各部
の動作が示されている。つまり、フリーズボタン17の
再操作が行われる迄の各部による入力処理(S67)と
、これに続く抽出部12による全体と各部分との抽出処
理(S68)が行われ、ステップS69〜S73におい
て、個別判定ニューラルネットワークによる認識が行わ
れる。そして、次に個別判定用ニューラルネットワーク
の出力を総合判定用ニューラルネットワーク60へ入力
して(図14、S65)、人物の同定が行われる(S6
6)。すなわち、学習・認識部14では、個別判定ニュ
ーラルネットワークの認識結果を用いて総合判定用ニュ
ーラルネットワークが判定を行い(図15、S74)、
認識結果が入退室管理システム15へ出力される(S7
5)。かくして、入退室管理システム15では、与えら
れた認識結果に基づき、例えば門の開閉制御が行われる
[0025] In the image recognition system in which learning is performed as described above, for example, the entrance/exit management system 15 (FIG. 1)
In order to give recognition results to the system, it enters the actual operating state. That is, as shown in FIG.
The weights that were output and held in step S58 of Step 2 are set (S61), and the image data of the face of subject 1 that actually arrived is input in the same manner as in the case of registration during learning ( S62). The extraction unit 12 extracts the entire body and each part (S63), and the extracted image data is input to a neural network for individual determination (S63).
64). FIG. 15 shows the operation of each part in the image processing recognition device 8. In other words, input processing by each section (S67) until the freeze button 17 is operated again, followed by extraction processing of the whole and each part by the extraction section 12 (S68), and in steps S69 to S73, Recognition is performed by an individual judgment neural network. Then, the output of the neural network for individual determination is input to the neural network for comprehensive determination 60 (FIG. 14, S65), and the person is identified (S6
6). That is, in the learning/recognition unit 14, the comprehensive judgment neural network makes a judgment using the recognition results of the individual judgment neural network (FIG. 15, S74),
The recognition result is output to the room entry/exit management system 15 (S7
5). In this manner, the entry/exit management system 15 controls the opening and closing of a gate, for example, based on the given recognition result.

【0026】本実施例のニューラルネットワークによる
学習・認識部14は、処理の高速化のため、並列処理を
行う。図16には、並列処理システムが記載されている
。このシステムで、個別判定ニューラルネットワーク8
1〜85のそれぞれに、抽出部12で抽出された顔全体
画像データ、眉画像データ、目画像データ、鼻画像デー
タ、口画像データが与えられ、これらのニューラルネッ
トワークでは並列的に学習・認識を行い、学習・認識結
果は、総合判定用ニューラルネットワーク60へ送られ
、学習・認識が行われて最終的な認識結果が出力される
The learning/recognition unit 14 using the neural network of this embodiment performs parallel processing to speed up processing. In FIG. 16, a parallel processing system is described. With this system, individual judgment neural network 8
The whole face image data, eyebrow image data, eye image data, nose image data, and mouth image data extracted by the extraction unit 12 are given to each of 1 to 85, and these neural networks perform learning and recognition in parallel. The learning and recognition results are sent to the comprehensive judgment neural network 60, where learning and recognition are performed and the final recognition results are output.

【0027】上記並列処理システムは、様々な形態でプ
ロセッサを接続して実現可能なものであるが、ここでは
2例を説明しておく。図17はテレビカメラ2による入
力を画像入力プロセッサ86で処理してディジタル化し
、抽出を行い、眉部分認識のニューラルネットワークを
構成するプロセッサ87と、鼻部分認識のニューラルネ
ットワークを構成するプロセッサ89を介して、それぞ
れ図のように接続された目部分認識のニューラルネット
ワークを構成するプロセッサ88と、口部分認識のニュ
ーラルネットワークを構成するプロセッサ90と、顔全
体認識のニューラルネットワークを構成するプロセッサ
91とへ、対応する画像データを転送し、学習・認識を
行わせるシステムを示す。学習・認識結果はプロセッサ
88,91を介して、総合判定ニューラルネットワーク
を構成するプロセッサ92へ与えられ、最終的な結果が
例えば入退室管理システム15へ送られる。
The above parallel processing system can be realized by connecting processors in various ways, but two examples will be explained here. FIG. 17 shows that an image input processor 86 processes and digitizes the input from the television camera 2, performs extraction, and then processes the input through a processor 87 that forms a neural network for eyebrow recognition and a processor 89 that forms a neural network for nose recognition. and to a processor 88 that constitutes a neural network for eye recognition, a processor 90 that constitutes a neural network for mouth recognition, and a processor 91 that constitutes a neural network for whole face recognition, which are connected as shown in the figure. This shows a system that transfers corresponding image data and performs learning and recognition. The learning/recognition results are given to the processor 92 that constitutes the comprehensive judgment neural network via the processors 88 and 91, and the final results are sent to the room entry/exit control system 15, for example.

【0028】図18には、プロセッサ86〜92が共通
バス93により接続された並列処理システムが示されて
いる。この実施例では、入力され画像入力プロセッサ8
7でディジタル化され、抽出された画像データは、対応
する部位を認識するプロセッサ87〜91へ転送され、
これらプロセッサによる学習・認識の結果は総合判定ニ
ューラルネットワークを構成するプロセッサ92へ転送
されて最終結果が得られる。
FIG. 18 shows a parallel processing system in which processors 86 to 92 are connected by a common bus 93. In this embodiment, the input image input processor 8
The image data digitized and extracted in step 7 is transferred to processors 87 to 91 that recognize the corresponding region.
The results of learning and recognition by these processors are transferred to a processor 92 that constitutes a comprehensive judgment neural network to obtain a final result.

【0029】上記のプロセッサによるニューラルネット
ワークは、判定の結果として認識が行えた場合には、最
新に入力された画像データによりバックプロパゲーショ
ン学習則を適用して再学習を行って更新が可能であり、
このため、人の顔がヒゲや眼鏡や髪型などにより変化し
ても対応が可能である。
[0029] If the neural network using the above processor is able to perform recognition as a result of the determination, it can be updated by re-learning by applying the back-propagation learning rule using the latest input image data. ,
Therefore, even if a person's face changes due to beard, glasses, hairstyle, etc., it can be handled.

【0030】[0030]

【発明の効果】以上、詳細に説明したように本発明によ
れば、被写体の特徴部位を個々のニューラルネットワー
クに入力して認識するため、全体が類似しない場合でも
個々の部位における一致により、認識精度を高めること
ができる。また、全体と部分とを認識するニューラルネ
ットワークを別々のプロセッサにより構成することがで
き、並列処理を行って高速化を図ることができる。
Effects of the Invention As described in detail above, according to the present invention, the characteristic parts of the subject are input into individual neural networks for recognition, so even if the whole part is not similar, recognition can be achieved by matching the individual parts. Accuracy can be increased. Furthermore, a neural network that recognizes the whole and parts can be constructed using separate processors, and parallel processing can be performed to increase speed.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の一実施例に係る画像認識システムのブ
ロック図である。
FIG. 1 is a block diagram of an image recognition system according to an embodiment of the present invention.

【図2】本発明の一実施例に係る画像認識システムの入
出力系の平面図である。
FIG. 2 is a plan view of an input/output system of an image recognition system according to an embodiment of the present invention.

【図3】本発明の一実施例に係る画像認識システムの入
出力系の側面図である。
FIG. 3 is a side view of an input/output system of an image recognition system according to an embodiment of the present invention.

【図4】モニタ画面の表示例を示す図である。FIG. 4 is a diagram showing a display example of a monitor screen.

【図5】目の部分を拡大したモニタ画面の表示例を示す
図である。
FIG. 5 is a diagram illustrating a display example of a monitor screen with an enlarged eye portion.

【図6】実施例の動作を説明するためのフローチャート
である。
FIG. 6 is a flowchart for explaining the operation of the embodiment.

【図7】プロファイル作成を説明するための図である。FIG. 7 is a diagram for explaining profile creation.

【図8】特徴部位抽出を説明するための図である。FIG. 8 is a diagram for explaining feature part extraction.

【図9】実施例の動作を説明するためのフローチャート
である。
FIG. 9 is a flowchart for explaining the operation of the embodiment.

【図10】実施例の動作を説明するためのフローチャー
トである。
FIG. 10 is a flowchart for explaining the operation of the embodiment.

【図11】学習の第1段階を示す図である。FIG. 11 is a diagram showing the first stage of learning.

【図12】学習時の動作を説明するためのフローチャー
トである。
FIG. 12 is a flowchart for explaining operations during learning.

【図13】学習の第2段階を示す図である。FIG. 13 is a diagram showing the second stage of learning.

【図14】認識時の動作を説明するためのフローチャー
トである。
FIG. 14 is a flowchart for explaining operations during recognition.

【図15】認識時の動作を説明するためのフローチャー
トである。
FIG. 15 is a flowchart for explaining operations during recognition.

【図16】ニューラルネットワークによる並列処理を説
明するための図である。
FIG. 16 is a diagram for explaining parallel processing by a neural network.

【図17】並列処理システムの構成例のブロック図であ
る。
FIG. 17 is a block diagram of a configuration example of a parallel processing system.

【図18】並列処理システムの構成例のブロック図であ
る。
FIG. 18 is a block diagram of a configuration example of a parallel processing system.

【符号の説明】[Explanation of symbols]

1…被検者 2…テレビカメラ 3…表示モニタ装置 4…キーボード入力装置 5…スピーカ 6…鏡 7…頭部固定具 8…画像処理認識装置 9…入出力制御部 10…画像メモリ 11…表示制御部 12…抽出部 13…アナウンス送出部 14…学習・認識部 60…ニューラルネットワーク 81〜85…ニューラルネットワーク 1... Subject 2...TV camera 3...Display monitor device 4...Keyboard input device 5...Speaker 6...Mirror 7...Head fixture 8...Image processing recognition device 9...Input/output control section 10...Image memory 11...Display control section 12...Extraction part 13...Announcement sending unit 14...Learning/recognition section 60...Neural network 81-85...Neural network

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】  被写体の画像データの入力を行う画像
データ入力手段と、この画像データ入力手段により入力
された画像データから前記被写体の全体と所定部分との
画像データを抽出する抽出手段と、この抽出手段により
抽出された画像データを用いて学習・認識を行うニュー
ラルネットワークからなる学習・認識手段とを備えたこ
とを特徴とする画像認識システム。
1. Image data input means for inputting image data of a subject; extraction means for extracting image data of the entire subject and a predetermined portion of the subject from the image data input by the image data input means; An image recognition system characterized by comprising a learning/recognition means comprising a neural network that performs learning/recognition using image data extracted by the extraction means.
【請求項2】前記学習・認識手段は、複数の個別判定ニ
ューラルネットワークと、1の総合判定ニューラルネッ
トワークとを備え、全体と所定部分との抽出画像データ
を前記各個別判定ニューラルネットワークに与え、この
出力を前記総合判定ニューラルネットワークへ与えて学
習・認識を行うことを特徴とする請求項1記載の画像認
識システム。
2. The learning/recognition means includes a plurality of individual judgment neural networks and one comprehensive judgment neural network, and provides extracted image data of the whole and a predetermined portion to each of the individual judgment neural networks. 2. The image recognition system according to claim 1, wherein the output is given to the comprehensive judgment neural network to perform learning and recognition.
【請求項3】前記複数個の個別判定ニューラルネットワ
ークシステム、前記総合判定ニューラルネットワークシ
ステムは、それぞれ異なるプロセッサにより構成され、
各プロセッサは並列処理を行うことを特徴とする請求2
記載の画像認識システム。
3. The plurality of individual judgment neural network systems and the comprehensive judgment neural network system are each configured by a different processor,
Claim 2, wherein each processor performs parallel processing.
Image recognition system described.
【請求項4】  被写体を撮像する撮像手段と、この撮
像手段により得られた画像信号から画像データを作成す
る画像データ作成手段と、この画像データ作成手段によ
り作成され入力された画像データに基づき被写体の姿勢
情報を得る姿勢情報検出手段と、この姿勢情報検出手段
の検出結果に基づき被写体の姿勢に関するアナウンスを
発生表示するアナウンス発生表示手段とを更に備えたこ
とを特徴とする請求項1ないし3のいずれか1項に記載
の画像処理認識システム。
4. Imaging means for taking an image of a subject; image data creation means for creating image data from an image signal obtained by the imaging means; 3. The camera according to claim 1, further comprising: posture information detection means for obtaining posture information of the subject; and announcement generation and display means for generating and displaying an announcement regarding the posture of the subject based on the detection result of the posture information detection means. The image processing recognition system according to any one of the items.
【請求項5】  入力された画像データに基づき被写体
の姿勢情報を得る姿勢情報検出手段と、この姿勢情報検
出手段による検出結果に基づき画像データから被写体の
全体及び所定部分の抽出を行う際の抽出領域を変更して
画像データを抽出する抽出手段とを更に備えたことを特
徴とする請求項1ないし4のいずれか1項記載の画像認
識システム。
5. Posture information detection means for obtaining posture information of a subject based on input image data, and extraction when extracting the entire subject and a predetermined portion of the subject from the image data based on the detection result by the posture information detection means. 5. The image recognition system according to claim 1, further comprising extraction means for extracting image data by changing a region.
【請求項6】  被写体を撮像する撮像手段と、この撮
像手段により撮像された被写体のモニタ表示を行うモニ
タ表示手段と、前記撮像手段により得られる画像信号に
基づくモニタ表示の制御を行うとともに、被写体の一部
を拡大して表示させ、かつこの拡大画像内に被写体の姿
勢の基準となる基線を付加して表示させる表示制御手段
とを更に備えたことを特徴とする請求項1ないし5のい
ずれか1項に記載の画像認識システム。
6. An imaging means for taking an image of a subject; a monitor display means for displaying on a monitor the subject imaged by the imaging means; controlling the monitor display based on an image signal obtained by the imaging means; 6. A display control means for enlarging and displaying a part of the image, and adding and displaying a baseline serving as a reference for the posture of the subject within the enlarged image. The image recognition system according to item 1.
JP3026103A 1991-02-20 1991-02-20 Image recognition system Pending JPH04264985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3026103A JPH04264985A (en) 1991-02-20 1991-02-20 Image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3026103A JPH04264985A (en) 1991-02-20 1991-02-20 Image recognition system

Publications (1)

Publication Number Publication Date
JPH04264985A true JPH04264985A (en) 1992-09-21

Family

ID=12184263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3026103A Pending JPH04264985A (en) 1991-02-20 1991-02-20 Image recognition system

Country Status (1)

Country Link
JP (1) JPH04264985A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06129834A (en) * 1992-10-14 1994-05-13 Takata Kogyosho:Kk Personal feature determination method
US6215891B1 (en) 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
JP2004118627A (en) * 2002-09-27 2004-04-15 Toshiba Corp Figure identification device and method
EP1413972A1 (en) * 2002-10-24 2004-04-28 ZN Vision Technologies AG Examination of images of persons
JP2007047965A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting object of digital image, and program
JP2007524919A (en) * 2003-06-30 2007-08-30 本田技研工業株式会社 System and method for training an object identity verification system based on components
JP2010108138A (en) * 2008-10-29 2010-05-13 Toyota Central R&D Labs Inc Person detection device and program
US10936912B2 (en) 2018-11-01 2021-03-02 International Business Machines Corporation Image classification using a mask image and neural networks

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5858684A (en) * 1981-10-02 1983-04-07 Nippon Denshi Kiki Kk Individual discriminating system by picture image processing of hand mark, or the like
JPS58176782A (en) * 1982-04-09 1983-10-17 Hitachi Ltd Fingerprint collating processor system
JPS6051980A (en) * 1983-08-31 1985-03-23 Toshiba Corp On-line pattern recognizing device
JPS61255638A (en) * 1985-05-07 1986-11-13 三菱電機株式会社 Finger print collimator
JPS6258380A (en) * 1985-07-17 1987-03-14 レコグニシヨン システムズ インコ−ポレ−テツド Identifier
JPS62192142A (en) * 1986-02-18 1987-08-22 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション Hand print collation apparatus
JPS631260B2 (en) * 1980-02-21 1988-01-12 Toa Gosei Chem Ind
JPH01239684A (en) * 1988-03-19 1989-09-25 Fujitsu Ltd Pattern recognizing means
JPH02210589A (en) * 1989-02-10 1990-08-21 Nec Corp Character recognizing device
JPH0331975A (en) * 1989-06-28 1991-02-12 Akira Iwata Pattern identifying device

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS631260B2 (en) * 1980-02-21 1988-01-12 Toa Gosei Chem Ind
JPS5858684A (en) * 1981-10-02 1983-04-07 Nippon Denshi Kiki Kk Individual discriminating system by picture image processing of hand mark, or the like
JPS58176782A (en) * 1982-04-09 1983-10-17 Hitachi Ltd Fingerprint collating processor system
JPS6051980A (en) * 1983-08-31 1985-03-23 Toshiba Corp On-line pattern recognizing device
JPS61255638A (en) * 1985-05-07 1986-11-13 三菱電機株式会社 Finger print collimator
JPS6258380A (en) * 1985-07-17 1987-03-14 レコグニシヨン システムズ インコ−ポレ−テツド Identifier
JPS62192142A (en) * 1986-02-18 1987-08-22 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション Hand print collation apparatus
JPH01239684A (en) * 1988-03-19 1989-09-25 Fujitsu Ltd Pattern recognizing means
JPH02210589A (en) * 1989-02-10 1990-08-21 Nec Corp Character recognizing device
JPH0331975A (en) * 1989-06-28 1991-02-12 Akira Iwata Pattern identifying device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06129834A (en) * 1992-10-14 1994-05-13 Takata Kogyosho:Kk Personal feature determination method
US6215891B1 (en) 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
US6307954B1 (en) 1997-03-26 2001-10-23 Oki Electric Industry Co., Ltd. Eye image recognition method, eye image selection method and system therefor
JP2004118627A (en) * 2002-09-27 2004-04-15 Toshiba Corp Figure identification device and method
EP1413972A1 (en) * 2002-10-24 2004-04-28 ZN Vision Technologies AG Examination of images of persons
WO2004038646A1 (en) * 2002-10-24 2004-05-06 Viisage Technology Ag Method for controlling photographs of people
US7715596B2 (en) 2002-10-24 2010-05-11 Viisage Technology Ag Method for controlling photographs of people
US7783082B2 (en) 2003-06-30 2010-08-24 Honda Motor Co., Ltd. System and method for face recognition
JP2007524919A (en) * 2003-06-30 2007-08-30 本田技研工業株式会社 System and method for training an object identity verification system based on components
JP2007047965A (en) * 2005-08-09 2007-02-22 Fujifilm Corp Method and device for detecting object of digital image, and program
JP2010108138A (en) * 2008-10-29 2010-05-13 Toyota Central R&D Labs Inc Person detection device and program
US10936912B2 (en) 2018-11-01 2021-03-02 International Business Machines Corporation Image classification using a mask image and neural networks
US11586851B2 (en) 2018-11-01 2023-02-21 International Business Machines Corporation Image classification using a mask image and neural networks

Similar Documents

Publication Publication Date Title
US7127086B2 (en) Image processing apparatus and method
Gemmell et al. Gaze awareness for video-conferencing: A software approach
KR100575472B1 (en) Image processing apparatus and method
Pantic et al. Automatic analysis of facial expressions: The state of the art
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
EP1291807A2 (en) Person recognition apparatus
US20060120571A1 (en) System and method for passive face recognition
JP2004213087A (en) Device and method for personal identification
JPH08263664A (en) Artificial visual system and image recognizing method
JP2003006645A (en) Face image collating device for identity authentication
JP2003150942A (en) Eye position tracing method
US20220318369A1 (en) Face recognition system and method capable of updating registered face templates
JP2012208610A (en) Face image authentication apparatus
JPH04264985A (en) Image recognition system
CN114894337B (en) Temperature measurement method and device for outdoor face recognition
KR20190119212A (en) System for performing virtual fitting using artificial neural network, method thereof and computer recordable medium storing program to perform the method
JP2007299070A (en) Face shape model generation apparatus and method
CN113303791A (en) Online self-service physical examination system for motor vehicle driver, mobile terminal and storage medium
KR100795360B1 (en) A Method Of Face Recognizing
JPH0981732A (en) Area extracting device and direction detecting device using same
JP2836238B2 (en) Driving car eye position detection device and state detection device
CN110524559A (en) Intelligent human-machine interaction system and method based on human behavior data
CN110175572A (en) Face image processing process and device, electronic equipment and storage medium
WO2022074787A1 (en) Image processing device, image processing method, and program