JP2002056388A - Robot device - Google Patents

Robot device

Info

Publication number
JP2002056388A
JP2002056388A JP2001158402A JP2001158402A JP2002056388A JP 2002056388 A JP2002056388 A JP 2002056388A JP 2001158402 A JP2001158402 A JP 2001158402A JP 2001158402 A JP2001158402 A JP 2001158402A JP 2002056388 A JP2002056388 A JP 2002056388A
Authority
JP
Japan
Prior art keywords
image
head
person
face
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001158402A
Other languages
Japanese (ja)
Other versions
JP3823760B2 (en
Inventor
Akira Inoue
晃 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2001158402A priority Critical patent/JP3823760B2/en
Publication of JP2002056388A publication Critical patent/JP2002056388A/en
Application granted granted Critical
Publication of JP3823760B2 publication Critical patent/JP3823760B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a robot device capable of discriminating a person even under an environment with inconstant lighting condition as domestic environment. SOLUTION: This device is provided with a person discrimination device comprising an image gaining means for gaining an image, a head detecting and tracking means for detecting a human's head from the image, a front face positioning means for gaining a front face image from the detected partial image of the head, a face characteristic extracting means for converting the front face image to characteristic quantity, a face discriminating means for discriminating the person from the characteristic quantity by the use of a discrimination dictionary and a discrimination dictionary memory means for storing the discrimination dictionary; a general control part for controlling the operation of a robot; a voice output means for generating a voice according to the instruction of the general control part; and a moving means for moving the robot according to the instruction of the general control part.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、映像中の人物を識
別する技術に関し、特に、正面顔による人物識別技術、
並びに人物を識別するロボット装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for identifying a person in an image, and more particularly to a technique for identifying a person by using a frontal face.
And a robot device for identifying a person.

【0002】[0002]

【従来の技術】顔の映像を用いて人物を識別する方式
は、従来よりいくつか提案されている。最近の顔検出、
識別技術の動向は、例えば文献(1)(赤松 茂、“コ
ンピュータによる顔の認識−サーベイ−”、電子情報通
信学会論文誌、Vol.J80-D-II,No.8,pp.2031-2046,Augus
t 1997)に記載されている。一般に、顔識別システム
は、画像中から顔を検出する処理と、顔パターンからの
特徴抽出処理と、特徴量を辞書データと比較する人物識
別処理と、を備えて構成されている。
2. Description of the Related Art Several systems for identifying a person using a facial image have been proposed. Recent face detection,
The trend of the identification technology is described in, for example, Reference (1) (Shigeru Akamatsu, “Face Recognition by Computer-Survey”, IEICE Transactions, Vol.J80-D-II, No.8, pp.2031-2046 , Augus
t 1997). In general, a face identification system is configured to include a process of detecting a face from an image, a feature extraction process from a face pattern, and a person identification process of comparing a feature value with dictionary data.

【0003】顔画像の検出方式としては、文献(2)
(小杉 信、“個人識別のための多重ピラミッドを用い
たシーン中の顔の探索・位置決め”、電子情報通信学会
論文誌、Vol.J77-D-II,No.4,pp.672-681,April 1994)
に記載されているように濃淡パターンを用いたテンプレ
ートマッチングを行うものや、文献(3)(M.Turk, A.
Pentland, “Face Recognition on Using Eigenfac
es”, Proceedings ofIEEE,CVPR91)に記載されている
ような、顔画像の固有ベクトル投影距離方式が知られて
いる。
A method for detecting a face image is described in reference (2).
(Shin Kosugi, "Search and Positioning of Faces in Scenes Using Multiple Pyramids for Individual Identification," IEICE Transactions, Vol.J77-D-II, No.4, pp.672-681, April 1994)
And template matching using a light and shade pattern as described in (3) (M. Turk, A.
Pentland, “Face Recognition on Using Eigenfac
es ", Proceedings of IEEE, CVPR91), an eigenvector projection distance method of a face image is known.

【0004】また、例えば特開平9−251534号公
報には、目、鼻、口といった造作を検出し、その位置関
係から正面顔濃淡パターンを切り出す方法も提案されて
いる。
[0004] For example, Japanese Patent Application Laid-Open No. Hei 9-251534 proposes a method of detecting features such as eyes, nose, and mouth, and extracting a front face shading pattern from the positional relationship.

【0005】顔検出の代表的な例として、M.Turkらによ
る固有ベクトル投影距離方式について説明する。
As a typical example of face detection, an eigenvector projection distance method by M. Turk will be described.

【0006】あらかじめ多くの正面顔データ(数百枚)
を用意する。それらの画素値を特徴ベクトルとして、固
有値と固有ベクトルを求める。固有値の大きい順にp個
の固有ベクトルVn(n=1,..p)を求める。
[0006] A lot of frontal face data (several hundred sheets)
Prepare An eigenvalue and an eigenvector are obtained using those pixel values as a feature vector. The p eigenvectors Vn (n = 1,... P) are obtained in descending order of the eigenvalue.

【0007】テスト画像tを固有ベクトルVnに投影す
ると、p個の投影値が得られる。これらの投影値と、固
有ベクトルVn から、テスト画像を再構成することによ
り、再構成テスト画像t’が得られる。
When the test image t is projected onto the eigenvector Vn, p projection values are obtained. By reconstructing a test image from these projection values and the eigenvector Vn, a reconstructed test image t 'is obtained.

【0008】もしもtが顔パターンに近ければ、再構成
テスト画像t’も顔パターンに近い画像が得られる。そ
こで次式(1)で与えられる距離尺度Dtによって、顔
であるかどうかを判断する。
[0008] If t is close to the face pattern, the reconstructed test image t 'can be an image close to the face pattern. Therefore, whether or not the face is a face is determined based on the distance scale Dt given by the following equation (1).

【0009】 [0009]

【0010】顔識別の特徴量としては、目、鼻、口とい
った顔造作の幾何学的特徴を用いるものと、大局的な濃
淡パターンの照合によるものとの2種類があるが、シー
ン中の顔パターンは、顔の向きや表情が変化すると造作
の位置関係も変化するため、近時、後者の大局的な濃淡
パターンを用いる方法が現在主流となっている。
There are two types of face identification features, one using geometric features of facial features such as eyes, nose, and mouth, and the other based on global shading pattern matching. As for the pattern, when the direction and expression of the face change, the positional relationship of the features also changes. Therefore, recently, the latter method of using a global shade pattern has become mainstream.

【0011】顔画像の識別、照合方法としては例えば、
上記文献(2)(小杉 信、“個人識別のための多重ピ
ラミッドを用いたシーン中の顔の探索・位置決め”、電
子情報通信学会論文誌、Vol.J77-D-II,No.4,pp.672-68
1,April 1994)では、濃淡パターンを特徴ベクトルと考
え、特徴ベクトル間の内積が大きいカテゴリを識別結果
としている。 また、上記文献(3)(M.Turk, A.Pentl
and, “Face Recognition on Using Eigenfaces”, Pro
ceedings of IEEE,CVPR91)では、顔画像の固有ベクト
ルへの投影値を特徴ベクトルとし、それらのユークリッ
ド距離の小さいカテゴリを識別結果としている。
As a method for identifying and collating a face image, for example,
Reference (2) (Shin Kosugi, "Search and Positioning of Faces in a Scene Using Multiple Pyramids for Individual Identification", Transactions of the Institute of Electronics, Information and Communication Engineers, Vol.J77-D-II, No.4, pp. .672-68
1, April 1994) considers a light and shade pattern as a feature vector, and determines a category having a large inner product between the feature vectors as an identification result. In addition, the above reference (3) (M. Turk, A. Pentl)
and, “Face Recognition on Using Eigenfaces”, Pro
In ceedings of IEEE, CVPR91), a projection value of a face image onto an eigenvector is used as a feature vector, and a category having a small Euclidean distance is used as an identification result.

【0012】また従来、画像認識機能を持ったロボット
装置としては、例えば特願平10−151591号に記
載された装置がある。このロボット装置は、画像中から
色情報を抽出し、色パターンに応じて動作を変化させる
ことができる。しかしながら、人物を認識する機能手段
は具備していない。
Conventionally, as a robot device having an image recognition function, for example, there is a device described in Japanese Patent Application No. 10-151591. This robot device can extract color information from an image and change its operation according to a color pattern. However, there is no functional means for recognizing a person.

【0013】[0013]

【発明が解決しようとする課題】上記した従来のシステ
ムは下記記載の問題点を有している。
The above-described conventional system has the following problems.

【0014】第一の問題点は、家庭環境のように照明条
件が一定でない環境では人物識別が出来ないということ
である。
The first problem is that a person cannot be identified in an environment where lighting conditions are not constant, such as a home environment.

【0015】その理由は、一般環境における顔の検出が
困難であるためである。例えばテンプレートマッチング
法は、画像中の顔パターンと辞書パターンとがほとんど
濃度値でない限り、検出することは困難であり、照明方
向が少しでもずれていたり、あるいは辞書の人物と異な
る人物の場合には、ほとんど検出不可能である。一方、
固有ベクトル投影距離方式は、テンプレートマッチング
に比べると、検出性能は高いものの、照明方向が違って
いたり、また複雑な背景を持つ画像では、同様に、検出
は失敗する。
The reason is that it is difficult to detect a face in a general environment. For example, the template matching method is difficult to detect unless the face pattern and the dictionary pattern in the image have almost the same density value, and if the lighting direction is slightly deviated or the person is different from the person in the dictionary, , Almost undetectable. on the other hand,
The eigenvector projection distance method has higher detection performance than template matching, but similarly fails to detect an image having a different illumination direction or having a complicated background.

【0016】また、照明条件が一定でない環境で人物識
別が出来ないもう一つの理由は、従来の特徴抽出方式と
識別方式が、照明変動による特徴量の変動を吸収できな
いためである。
Another reason why the person cannot be identified in an environment where the lighting conditions are not constant is that the conventional feature extraction method and the conventional identification method cannot absorb the variation in the characteristic amount due to the illumination variation.

【0017】したがって、本発明は、上記問題点に鑑み
てなされたものであって、その目的は、家庭環境のよう
な一般環境において人物を識別できるロボット装置を提
供することにある。
Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to provide a robot apparatus capable of identifying a person in a general environment such as a home environment.

【0018】したがって、本発明の他の目的は、一般環
境において安定して人物を識別できるロボット装置を提
供することにある。
Therefore, another object of the present invention is to provide a robot device capable of stably identifying a person in a general environment.

【0019】[0019]

【課題を解決するための手段】前記目的を達成する本発
明に係るロボット装置は、人物識別装置として、画像を
取得する映像取得手段と、画像中から人間の頭部を検出
する頭部検出追跡手段と、検出された頭部の部分画像中
から正面顔画像を取得する正面顔位置合わせ手段と、正
面顔画像を特徴量に変換する顔特徴抽出手段と、識別辞
書を用いて特徴量から人物を識別する顔識別手段と、識
別辞書を保存する識別辞書記憶手段とを備えたことを特
徴とする。そして頭部検出追跡手段において、1枚の画
像から頭部を検出する単眼視頭部矩形座標検出手段と、
対面距離値と頭部矩形座標値とから頭部の誤検出を取り
除く対面距離評価手段とを備え、ロボットの動作を制御
する全体制御部と、全体制御部の指示で音声を発話する
スピーカと、全体制御部の指示でロボットを移動する移
動手段と、前方の物体との距離を測定する対面距離セン
サと、タッチセンサと、マイクと、音声認識手段とを備
えたことを特徴とする。
According to the present invention, there is provided a robot apparatus as a person identification apparatus, comprising: video acquisition means for acquiring an image; and head detection tracking for detecting a human head from the image. Means, a front face alignment means for obtaining a front face image from the detected partial image of the head, a face feature extraction means for converting the front face image into a feature quantity, and a person from the feature quantity using the identification dictionary. And an identification dictionary storage unit for storing an identification dictionary. And in the head detection tracking means, a monocular head rectangular coordinate detection means for detecting a head from one image,
A general control unit for controlling the operation of the robot, comprising: a general control unit that controls the operation of the robot; and a speaker that utters a voice according to an instruction from the general control unit. It is characterized by comprising a moving means for moving the robot in accordance with an instruction of the overall control unit, a facing distance sensor for measuring a distance to a preceding object, a touch sensor, a microphone, and a voice recognition means.

【0020】本発明において、前記全体制御部は、人物
識別結果が得られたときに、人物毎に異なる音声で発話
するよう制御する。
[0020] In the present invention, the overall control unit controls so as to speak with a different voice for each person when a person identification result is obtained.

【0021】本発明において、前記全体制御部が、前記
人物識別装置から前方物体との対面距離と方向を取得す
る手段と、人物識別結果を取得する手段と、前記対面距
離がしきい値以上の場合には、前記前方物体に近づくよ
うに移動する手段と、前記対面距離がしきい値以下のと
きは、人物識別結果を人物毎に異なる音声で発話するよ
うに制御する手段と、を備える。
[0021] In the present invention, the overall control unit may acquire a facing distance and a direction to a front object from the person identifying device, a unit acquiring a person identifying result, and wherein the facing distance is not less than a threshold value. In this case, the apparatus includes means for moving so as to approach the front object, and means for controlling the person identification result to be uttered in a different voice for each person when the facing distance is equal to or less than a threshold value.

【0022】[0022]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を参照して詳細に説明する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0023】図1は、本発明に係るロボット装置で用い
られる人物識別装置の一実施の形態の構成を示す図であ
る。図1を参照すると、本発明の一実施の形態をなす人
物識別装置14は、映像取得手段2と、対面距離センサ
5と、人物検出識別手段1と、人物検出識別管理部13
と、辞書データ管理部12と、を備えている。映像取得
手段2は、右カメラ3と左カメラ4とを備え、それぞれ
のカメラ映像情報を取得する。対面距離センサ5は、カ
メラの光軸と同じ方向に設置されており、映像中の物体
との対面距離を計測する。対面距離センサ5の例とし
て、超音波センサ、赤外線センサなどがある。人物検出
識別管理部13は、人物検出識別手段1に対する動作開
始命令と動作終了命令の送信と、辞書データ管理部12
への特徴データ送信、辞書作成命令の送信を行なう。
FIG. 1 is a diagram showing the configuration of an embodiment of a person identification device used in a robot device according to the present invention. Referring to FIG. 1, a person identification device 14 according to an embodiment of the present invention includes a video acquisition unit 2, a facing distance sensor 5, a person detection and identification unit 1, and a person detection and identification management unit 13.
And a dictionary data management unit 12. The image acquisition means 2 includes a right camera 3 and a left camera 4, and acquires respective camera image information. The facing distance sensor 5 is installed in the same direction as the optical axis of the camera, and measures a facing distance with an object in an image. Examples of the facing distance sensor 5 include an ultrasonic sensor and an infrared sensor. The person detection identification management unit 13 transmits an operation start command and an operation end command to the person detection
And sends a dictionary creation command.

【0024】本発明の一実施の形態において用いられる
カメラとしては、例えばビデオカメラ、デジタルCCD
カメラ等を含み、動きのある情景を、静止画像の連続と
して出力することのできる撮影デバイスを総称してい
る。
A camera used in an embodiment of the present invention is, for example, a video camera, a digital CCD, or the like.
A photographing device including a camera or the like and capable of outputting a moving scene as a series of still images is generically called.

【0025】人物検出識別手段1は、頭部検出追跡手段
6と、正面顔位置合わせ手段7と、顔特徴抽出手段8
と、顔識別手段9と、識別辞書記憶手段10と、識別結
果補正手段11とを備えている。
The person detecting and identifying means 1 includes a head detecting and tracking means 6, a front face aligning means 7, and a facial feature extracting means 8
, A face identification unit 9, an identification dictionary storage unit 10, and an identification result correction unit 11.

【0026】人物検出識別手段1は、人物検出識別管理
部13から動作開始命令を受けると、辞書データ管理部
12から識別辞書記憶手段10に識別用辞書をロードし
た後、動作を開始する。
Upon receiving the operation start command from the person detection / identification management unit 13, the person detection / identification unit 1 loads the identification dictionary from the dictionary data management unit 12 into the identification dictionary storage unit 10, and then starts operation.

【0027】図18は、本発明の一実施の形態における
人物検出識別手段1の処理を説明するための流れ図であ
る。図1及び図18を参照して、人物検出識別手段1の
動作を説明する。
FIG. 18 is a flowchart for explaining the processing of the person detection / identification means 1 according to one embodiment of the present invention. The operation of the person detection and identification means 1 will be described with reference to FIGS.

【0028】はじめに、頭部検出追跡手段6は、映像取
得手段2からの画像情報と、対面距離センサ5の読み取
り値をもとに、現在のフレームにおける人物の頭部の数
と、頭部矩形座標を出力する(ステップS1)。
First, based on the image information from the video acquisition means 2 and the reading value of the facing distance sensor 5, the head detection and tracking means 6 calculates the number of heads of the person in the current frame and the head rectangle. The coordinates are output (step S1).

【0029】次に、検出した頭部数を評価する(ステッ
プS2)。検出した頭部数が0の場合には、次のフレー
ムの映像を入力して頭部検出を行い、検出数が1以上に
なるまで、ステップS1は継続される。
Next, the number of detected heads is evaluated (step S2). If the number of detected heads is 0, the head of the next frame is input to perform video detection, and step S1 is continued until the number of detected heads becomes 1 or more.

【0030】頭部検出数が1以上の時、正面顔位置合わ
せ手段7に検出結果が送信される。正面顔位置合わせ手
段7では、顔領域の探索処理を行い(ステップS3)、
正面顔領域が見つかったかどうかを判断する(ステップ
S4)。
When the number of detected heads is one or more, the detection result is transmitted to the front face positioning means 7. The front face alignment means 7 performs a search process of the face area (step S3),
It is determined whether a front face area has been found (step S4).

【0031】正面顔が見つかると、顔中心部の矩形画像
である正面顔画像を出力する。ステップS3とステップ
S4の処理は、頭部の誤検出を排除し、さらに人物がカ
メラの正面を向いている映像のみを抽出して後段の処理
に送る事を目的としている。正面顔を発見できなかった
ときは、再びステップS1から処理を行う。
When a frontal face is found, a frontal face image which is a rectangular image at the center of the face is output. The processing in steps S3 and S4 is intended to eliminate erroneous detection of the head, extract only the video in which the person is facing the front of the camera, and send it to the subsequent processing. When the front face cannot be found, the processing is performed again from step S1.

【0032】正面顔を発見した時は、次に顔特徴抽出手
段8において、正面顔画像を特徴量データに変換する
(ステップS5)。
When a front face is found, the face feature extraction means 8 converts the front face image into feature data (step S5).

【0033】顔特徴抽出手段8の一例は、図8に示すよ
うに、正面顔画像を左から右へ1ライン毎にスキャン
し、上から下へ1ライン終われば次のラインをスキャン
して1次元データを生成し(「ラスタスキャン」とい
う)、それを特徴データとして用いるものである。その
他、1次微分フィルタや2次微分フィルタを用いてフィ
ルタリングし、エッジ情報を抽出したものを、ラスタス
キャンして特徴データとする方法を用いてもよい。
As shown in FIG. 8, one example of the face feature extracting means 8 scans the frontal face image line by line from left to right, and scans the next line after finishing one line from top to bottom. It generates dimensional data (referred to as “raster scan”) and uses it as feature data. Alternatively, a method may be used in which filtering is performed using a primary differential filter or a secondary differential filter, and edge information is extracted and raster-scanned into feature data.

【0034】次に、顔識別手段9において、識別辞書記
憶手段10の辞書データを参照して顔識別処理を行う
(ステップS6)。
Next, the face identification means 9 performs face identification processing with reference to the dictionary data in the identification dictionary storage means 10 (step S6).

【0035】次に、識別結果補正手段11において、過
去mフレーム分(mは2以上の整数)の識別結果との統
合処理を行い(ステップS7)、その結果を、人物検出
識別管理部13に出力する(ステップS8)。
Next, the identification result correcting means 11 performs integration processing with the identification results for the past m frames (m is an integer of 2 or more) (step S7), and sends the result to the person detection identification management section 13. Output (Step S8).

【0036】この時、頭部検出追跡手段6(ステップS
1)において、複数の頭部矩形を検出し、それらを全て
処理していない時は(ステップS9のNo分岐)、もう
一度正面顔位置合わせ手段7による(ステップS3)か
ら処理を行なう。人物検出識別手段1は、人物識別管理
部13から終了指示を受けて終了する(ステップS1
0)。終了指示があるまでは再びステップS1から処理
を継続して行う。
At this time, the head detection and tracking means 6 (step S
In 1), when a plurality of head rectangles are detected and all of them are not processed (No branch of step S9), the processing is performed again from the front face alignment means 7 (step S3). The person detection / identification unit 1 ends upon receiving an end instruction from the person identification management unit 13 (step S1).
0). Until there is an end instruction, the processing is continued from step S1 again.

【0037】図2は、図1の頭部検出追跡手段6の一実
施例をなす頭部検出追跡手段27の構成を示す図であ
る。図2を参照すると、頭部検出追跡手段27は、頭部
検出手段21と、頭部追跡手段22と、頭部矩形座標記
憶手段23とを備えている。頭部検出手段21は、頭部
矩形座標検出手段24と、左右画像照合手段25と、対
面距離統合手段31と、対面距離評価手段26とを備え
ている。
FIG. 2 is a diagram showing the configuration of the head detecting and tracking means 27 which constitutes one embodiment of the head detecting and tracking means 6 of FIG. Referring to FIG. 2, the head detection and tracking unit 27 includes a head detection unit 21, a head tracking unit 22, and a head rectangular coordinate storage unit 23. The head detecting unit 21 includes a head rectangular coordinate detecting unit 24, a left and right image matching unit 25, a facing distance integrating unit 31, and a facing distance evaluating unit 26.

【0038】図19は、頭部検出追跡手段27の処理を
説明するための流れ図である。図2及び図19を参照し
て、本発明の一実施例をなす頭部検出追跡手段27の動
作を説明する。
FIG. 19 is a flowchart for explaining the processing of the head detecting and tracking means 27. The operation of the head detection and tracking means 27 according to one embodiment of the present invention will be described with reference to FIGS.

【0039】右カメラの映像と左カメラの映像と、対面
距離センサの読み取り値が頭部検出手段21に入力され
る。頭部検出手段21は、入力された情報から人物頭部
の検出処理を行い、頭部矩形座標と頭部検出数を出力す
る(ステップS10)。
The image of the right camera, the image of the left camera, and the value read by the facing distance sensor are input to the head detecting means 21. The head detecting means 21 performs a process of detecting a human head from the input information, and outputs the coordinates of the head rectangle and the number of detected heads (step S10).

【0040】頭部検出数が1以上の場合には、頭部検出
数と頭部矩形座標を、頭部矩形座標記憶手段23に保存
した後に、出力する(ステップS18)。
If the number of detected heads is 1 or more, the number of detected heads and the coordinates of the head rectangle are stored in the head rectangle coordinate storage means 23 and then output (step S18).

【0041】頭部検出数が0の場合には、頭部追跡手段
22において、前のフレームにおける頭部矩形情報を、
頭部矩形記憶手段23から取り出し、頭部追跡処理を行
う(ステップS19)。
If the number of detected heads is 0, the head tracking means 22 converts the head rectangle information in the previous frame into
It is taken out from the head rectangle storage means 23 and head tracking processing is performed (step S19).

【0042】頭部追跡に成功した場合には、追跡に成功
した頭部数と頭部矩形座標を出力し、追跡に失敗した場
合には検出数0を出力する(ステップS20)。
If the head tracking is successful, the number of heads that have been successfully tracked and the rectangular coordinates of the head are output. If the tracking fails, the number of detections 0 is output (step S20).

【0043】次に、図19のステップ10の頭部検出手
段21の動作について詳細に説明する。頭部検出手段2
1では、まず左右どちらか一方の映像を頭部矩形座標検
出手段24に入力し、仮頭部検出数と仮頭部矩形座標を
得る(ステップS11)。
Next, the operation of the head detecting means 21 in step 10 of FIG. 19 will be described in detail. Head detection means 2
In step 1, either the left or right image is input to the head rectangle coordinate detection means 24, and the number of detected temporary heads and the coordinates of the temporary head rectangle are obtained (step S11).

【0044】図2に示した頭部矩形座標検出手段24で
は右カメラ映像を用いている。次に、左右画像照合手段
25において、得られた頭部矩形座標と左右カメラの映
像を用いて、ステレオ視の原理をもとに対面距離値を算
出する(図19のステップS12)。
The head rectangular coordinate detecting means 24 shown in FIG. 2 uses a right camera image. Next, the left-right image matching means 25 calculates the facing distance value based on the principle of stereo viewing using the obtained rectangular coordinates of the head and the images of the left and right cameras (step S12 in FIG. 19).

【0045】図6を参照して、図2の左右画像照合手段
25の動作を説明する。右カメラ画像において検出され
た頭部矩形を、頭部検出矩形51とする。そして頭部検
出矩形51内の画像データを用いて、左カメラ画像の同
じ検出座標位置の近傍を探索する。探索方法の一例はテ
ンプレートマッチングである。右カメラ画像の濃淡値を
FR(x,y)、左カメラ画像の濃淡値をFL(x,y)、矩形の
横サイズをTw、縦サイズをThとすると、テンプレー
トの左上始点位置が、左カメラ画像の(sx,sy)にある時
のマッチング距離Dtmは、次式(2)で表される。
Referring to FIG. 6, the operation of the left and right image matching means 25 of FIG. 2 will be described. The head rectangle detected in the right camera image is referred to as a head detection rectangle 51. Then, using the image data in the head detection rectangle 51, the vicinity of the same detection coordinate position of the left camera image is searched. One example of a search method is template matching. Assuming that the grayscale value of the right camera image is FR (x, y), the grayscale value of the left camera image is FL (x, y), the horizontal size of the rectangle is Tw, and the vertical size is Th, The matching distance Dtm at (sx, sy) of the camera image is represented by the following equation (2).

【0046】 [0046]

【0047】上式(2)は、右カメラと左カメラの部分
画像間のユークリッド距離を表している。Dtmが最も小
さい時の左カメラ画像上の座標を、探索結果52とす
る。探索結果52が求まると、次に左右の矩形座標値を
比較し、人物頭部への距離を算出する。
The above equation (2) represents the Euclidean distance between the partial images of the right camera and the left camera. The coordinates on the left camera image when Dtm is the smallest are set as a search result 52. When the search result 52 is obtained, the left and right rectangular coordinate values are compared, and the distance to the person's head is calculated.

【0048】図32を参照して、対象物への距離算出方
法の一例を示す。図32は、左右のカメラを使って、あ
る一つの対象物体403を撮影している状況を、上から
見た図である。右カメラ401と左カメラ402が、間
隔Cを空けて平行に設置されている。カメラの画角はθ
で左右共に同じとする。カメラの撮像面の横方向の長さ
をeとする。この状態で、右カメラ画像には、対象物4
03が座標 Xr に写っており、左カメラ画像には座標
Xlに写っている。なお画像の最大横サイズはW画素で
ある。この時、カメラ撮像面から、対称物403までの
対面距離Zは、次式(3)で算出することができる。
Referring to FIG. 32, an example of a method for calculating the distance to the object will be described. FIG. 32 is a diagram of a situation in which a certain target object 403 is photographed using the left and right cameras, as viewed from above. A right camera 401 and a left camera 402 are installed in parallel at an interval C. Camera angle of view is θ
And the same on both sides. Let e be the horizontal length of the imaging surface of the camera. In this state, the object 4 is displayed on the right camera image.
03 is shown at the coordinate Xr, and in the left camera image is shown at the coordinate Xl. Note that the maximum horizontal size of an image is W pixels. At this time, the facing distance Z from the camera imaging plane to the symmetric object 403 can be calculated by the following equation (3).

【0049】ここで、eは通常1cm未満の小さい値で
あることから、0として近似計算することもできる。以
上のようにして、左右カメラ画像から対面距離を算出す
る。
Here, since e is usually a small value of less than 1 cm, it can be approximated as 0. As described above, the facing distance is calculated from the left and right camera images.

【0050】そして、左右画像照合手段25において、
ステレオ視によって対面距離を算出した後、対面距離統
合手段31において、対面距離センサ30の出力値をも
とに、対面距離の統合処理を行う(図19のステップS
13)。実験的に、超音波センサ等の距離センサは、距
離が1m未満の場合には非常に精度が高い。一方、1m
以上の遠い距離では誤差が大きくなる傾向にある。
Then, in the left and right image matching means 25,
After the face-to-face distance is calculated by stereo vision, the face-to-face distance integrating means 31 performs a face-to-face distance integration process based on the output value of the face-to-face distance sensor 30 (step S in FIG. 19).
13). Experimentally, distance sensors such as ultrasonic sensors have very high accuracy when the distance is less than 1 m. On the other hand, 1m
The error tends to increase at the above-mentioned long distance.

【0051】ステレオ視により算出された距離値は、カ
メラの画角にもよるが概ね3m程度まで有効であるが、
距離が近すぎると、かえって誤差が大きくなる傾向にあ
る。そこで、両者の距離値を統合する方法として、対面
距離センサ30の出力があるしきい値Tよりも小さい場
合には、対面距離センサの値を採用し、しきい値Tより
も大きい場合にはステレオ視による距離値を採用すると
いう方法が用いられる。
The distance value calculated by stereo viewing is effective up to about 3 m depending on the angle of view of the camera.
If the distance is too short, the error tends to be rather large. Therefore, as a method of integrating the distance values of both, when the output of the facing distance sensor 30 is smaller than a certain threshold value T, the value of the facing distance sensor is adopted, and when the output of the facing distance sensor 30 is larger than the threshold value T, A method of employing a distance value by stereo vision is used.

【0052】対面距離を統合した後、対面距離評価手段
26において、対面距離値と画像中の頭部矩形座標値か
ら、頭部の実際のサイズを算出する(図19のステップ
S14)。
After integrating the face-to-face distances, the face-to-face distance evaluation means 26 calculates the actual size of the head from the face-to-face distance value and the coordinates of the head rectangle in the image (step S14 in FIG. 19).

【0053】算出結果が、人間の頭の大きさにほぼ一致
すれば、本当に頭部を検出したと判定する。算出結果が
実際の頭のサイズから著しくかけ離れる場合には、誤検
出であると判断する(図19ステップS15)。例え
ば、頭部の横サイズが12cmプラスマイナス2cm以
内で、かつ縦サイズが20cmプラスマイナス4cm以
内の場合は頭部と見做し、それ以外の場合は頭部ではな
い、と判断する。
If the result of the calculation substantially matches the size of the human head, it is determined that the head has actually been detected. If the calculation result is significantly different from the actual head size, it is determined to be an erroneous detection (step S15 in FIG. 19). For example, when the horizontal size of the head is within 12 cm ± 2 cm and the vertical size is within 20 cm ± 4 cm, it is determined that the head is not the head.

【0054】実際のサイズに合っている場合には、検出
数を1増やす(図19ステップS16)。
If the size matches the actual size, the number of detections is increased by 1 (step S16 in FIG. 19).

【0055】評価していない仮頭部矩形座標が残ってい
る時は(図19のステップS17のNo分岐)、再びス
テップS12から処理を行う。頭部検出手段21は仮頭
部矩形座標を全て評価し終わった時点で(図19のステ
ップS19のYes分岐)、頭部検出数と頭部矩形座標
を出力する。
If the temporary head rectangular coordinates that have not been evaluated remain (No branch of step S17 in FIG. 19), the processing is performed again from step S12. The head detecting means 21 outputs the number of detected heads and the rectangular coordinates of the head when all of the temporary head rectangular coordinates have been evaluated (Yes in step S19 in FIG. 19).

【0056】次に、図2に示した頭部矩形座標検出手段
24について説明する。図4は、頭部矩形座標検出手段
24の一実施例をなす頭部矩形座標検出手段41の構成
を示す図である。図4を参照すると、頭部矩形座標検出
手段41は、動き画素検出手段42と、ノイズ除去手段
47と、人物数評価手段43と、頭頂座標検出手段44
と、頭部下部座標検出手段45と、側頭座標検出手段4
6とを備えている。
Next, the head rectangular coordinate detecting means 24 shown in FIG. 2 will be described. FIG. 4 is a diagram showing a configuration of the head rectangular coordinate detecting means 41 which constitutes one embodiment of the head rectangular coordinate detecting means 24. Referring to FIG. 4, a head rectangular coordinate detecting unit 41 includes a motion pixel detecting unit 42, a noise removing unit 47, a person number evaluating unit 43, and a top coordinate detecting unit 44.
Head lower coordinate detecting means 45, temporal coordinate detecting means 4
6 is provided.

【0057】図20は、頭部矩形座標検出手段41の処
理を説明するための流れ図である。図20、図4、及び
図5を参照して、頭部矩形座標検出手段41の動作につ
いて説明する。
FIG. 20 is a flowchart for explaining the processing of the head rectangular coordinate detecting means 41. The operation of the head rectangular coordinate detecting means 41 will be described with reference to FIG. 20, FIG. 4, and FIG.

【0058】まず動き画素検出手段42において、画面
内で動きのある画素群を検出する。入力画像データと、
それより1つ前に入力された画像データとの差分をと
り、差分画像gを生成する(ステップS21)。
First, the moving pixel detecting means 42 detects a moving pixel group in the screen. Input image data,
The difference from the image data input immediately before that is obtained, and a difference image g is generated (step S21).

【0059】さらに過去mフレーム分(mは2以上の整
数)の差分画像gを加算し平均をとる事によって、統合
差分画像Gを得る(ステップS22)。統合差分画像G
は、動きのない領域の画素値が0で、動きのある領域ほ
ど画素値が大きい値を取る。
Further, an integrated difference image G is obtained by adding the difference images g of the past m frames (m is an integer of 2 or more) and averaging them (step S22). Integrated difference image G
Has a pixel value of 0 in a non-moving area, and has a larger pixel value in a moving area.

【0060】統合差分画像Gは、ごま塩ノイズを多く含
むので、ノイズ除去手段47において、ノイズ除去処理
を行う(ステップS23)。ノイズ除去処理の例として
は、膨張収縮処理や、メジアンフィルタ処理などがあ
る。これらのノイズ除去処理は、画像処理の分野で一般
的であり、当業者にとってよく知られている処理が用い
られるので、その詳細な構成は省略する。
Since the integrated difference image G contains a lot of sesame salt noise, the noise removing means 47 performs a noise removing process (step S23). Examples of the noise removal processing include expansion and contraction processing and median filter processing. These noise removal processes are common in the field of image processing, and processes that are well known to those skilled in the art are used, and thus detailed configurations are omitted.

【0061】次に、図4の人物数評価手段43におい
て、画面内に何人の人間がいるのかを評価する。人物数
評価手段43の動作について説明する。図5は、統合差
分画像Gの取得の例を説明するための図である。
Next, the number-of-persons evaluation means 43 in FIG. 4 evaluates how many people are on the screen. The operation of the number-of-persons evaluation means 43 will be described. FIG. 5 is a diagram for describing an example of obtaining the integrated difference image G.

【0062】はじめに、人物1人だけを検出する方法に
ついて説明する。統合差分画像G48が得られたとする
と、まず動き領域があるかどうかを判定する(図20の
ステップS24)。ここで動き領域とは、動きのある画
素が占める領域を表わす。この動き領域がない、すなわ
ち統合差分画像Gが全て0の場合には、人物数は0と判
定する。それ以外の場合人物数は1とする。
First, a method for detecting only one person will be described. Assuming that the integrated difference image G48 has been obtained, it is first determined whether or not there is a moving area (step S24 in FIG. 20). Here, the moving area indicates an area occupied by a moving pixel. If there is no motion area, that is, if the integrated difference image G is all zero, the number of persons is determined to be zero. In other cases, the number of persons is one.

【0063】次に、複数人物を検出する方法について説
明する。統合差分画像G49が得られたとすると、まず
動き領域の有無を調べる(図20のステップS24)。
動き領域がない場合は人物数0である。動き領域がある
場合、統合差分画像Gを参照して、何人いるのかを判定
する(図20のステップS25)。判定方法としては、
例えば統合差分画像上部領域50における動き領域幅の
最大値が、あるしきい値よりも小さいときは1人、大き
いときは2人、とする方法がある。人物数が2人のとき
は、人物が横に並んでいると仮定し、統合差分領域G
を、部分領域1と部分領域2に分割する。なお3人以上
検出の場合も、分割数を増やすことで対応できる。頭部
矩形を求める際には、部分領域1と部分領域2のそれぞ
れに対して、以下に述べる同じ処理(図20のステップ
S26からステップS29まで)を繰り返せばよい。
Next, a method for detecting a plurality of persons will be described. Assuming that the integrated difference image G49 is obtained, first, the presence or absence of a moving area is checked (step S24 in FIG. 20).
When there is no motion area, the number of persons is zero. If there is a moving area, the number of persons is determined with reference to the integrated difference image G (step S25 in FIG. 20). As a judgment method,
For example, there is a method in which the maximum value of the motion region width in the integrated difference image upper region 50 is one when the maximum value is smaller than a certain threshold value, and two when the maximum value is larger than a certain threshold value. When the number of persons is two, it is assumed that the persons are arranged side by side, and the integrated difference area G
Is divided into a partial area 1 and a partial area 2. It should be noted that a case where three or more persons are detected can be handled by increasing the number of divisions. When obtaining the head rectangle, the same processing described below (from step S26 to step S29 in FIG. 20) may be repeated for each of the partial area 1 and the partial area 2.

【0064】次に、統合差分画像Gから頭部矩形座標を
求める処理について説明する。各スキャンライン毎に動
き領域幅47を求める(図20のステップS26)。
Next, the processing for obtaining the coordinates of the head rectangle from the integrated difference image G will be described. The motion area width 47 is obtained for each scan line (step S26 in FIG. 20).

【0065】動き領域幅47は、各スキャンラインにお
いて動き領域のx座標最大値と最小値の差分を表してい
る。
The moving area width 47 represents the difference between the maximum and minimum values of the x coordinate of the moving area in each scan line.

【0066】次に頭頂座標検出手段44によって頭頂の
Y座標を求める(図20のステップS27)。頭頂座標
の求め方としては、動き領域のY座標の最小値を頭頂と
する方法がある。
Next, the Y coordinate of the crown is obtained by the crown coordinate detecting means 44 (step S27 in FIG. 20). As a method of obtaining the top coordinates, there is a method in which the minimum value of the Y coordinate of the motion area is set to the top.

【0067】次に、頭部下部座標検出手段45によっ
て、頭部矩形の底辺のY座標を求める(図20のステッ
プS28)。頭部矩形の底辺座標を求め方としては、頭
頂から下方向(Y方向)に探索し、動き領域幅47が動
き領域幅の平均値dmよりも小さいラインを求め、その
ラインの中でY座標が最も大きいところを、頭部矩形の
底辺とする方法を用いてもよい。
Next, the Y coordinate of the bottom side of the head rectangle is obtained by the lower head coordinate detecting means 45 (step S28 in FIG. 20). As a method of obtaining the base coordinate of the head rectangle, a search is performed in a downward direction (Y direction) from the top of the head, and a line in which the moving area width 47 is smaller than the average value dm of the moving area width is obtained. May be used as the bottom of the rectangular head.

【0068】次に側頭座標検出手段46によって、頭部
矩形の左右のx座標を求める(図20のステップS2
9)。左右のx座標の求め方としては、頭頂から頭部下
部までの範囲で最も動き領域幅47が大きなラインにお
ける動き領域の左右端の座標を求める方法を用いてもよ
い。
Next, the left and right x-coordinates of the head rectangle are obtained by the temporal coordinate detecting means 46 (step S2 in FIG. 20).
9). As a method of obtaining the left and right x-coordinates, a method of obtaining the coordinates of the left and right ends of the moving area in a line having the largest moving area width 47 in the range from the top to the lower part of the head may be used.

【0069】人物数が2つ以上の場合には、図20のス
テップS26からステップS29までの処理を部分領域
毎に繰り返す。
If the number of persons is two or more, the processing from step S26 to step S29 in FIG. 20 is repeated for each partial area.

【0070】次に、図2の頭部追跡手段22の動作につ
いて、図7を参照して説明する。追跡処理は、頭部矩形
座標検出に用いたカメラ画像(図2では右カメラ画像)
に対して行なう。まず前フレームの頭部矩形座標53と
前フレームの頭部矩形画像55を、頭部矩形記憶手段2
3から読み出す。
Next, the operation of the head tracking means 22 of FIG. 2 will be described with reference to FIG. In the tracking process, the camera image used for detecting the rectangular coordinates of the head (the right camera image in FIG. 2)
Perform for First, the head rectangle coordinates 53 of the previous frame and the head rectangle image 55 of the previous frame are stored in the head rectangle storage unit 2.
Read from 3.

【0071】次に、現フレームにおいて、前フレームの
頭部矩形座標53の近傍領域をテンプレートマッチング
によって探索し、最も距離値の小さい所を追跡結果とす
る。
Next, in the current frame, a region near the head rectangular coordinates 53 of the previous frame is searched by template matching, and a portion having the smallest distance value is determined as a tracking result.

【0072】図3は、図1の頭部検出追跡手段6の他の
実施例をなす頭部検出追跡手段32の構成を示す図であ
る。図3を参照すると、この頭部検出追跡手段32は、
頭部検出手段33と、頭部矩形記憶手段23と、頭部追
跡手段22とを備えている。図2に示した実施例との相
違点としては、頭部検出手段33が、頭部矩形座標検出
手段24と、対面距離評価手段26とを持ち、単眼のカ
メラ34と対面距離センサ30の出力を用いて検出を行
なっていることである。すなわち、左右のステレオ視に
よる対面距離は考慮せず、対面距離センサの読み取り値
のみを用いて頭部矩形の評価を行なうものである。
FIG. 3 is a diagram showing the configuration of the head detecting and tracking means 32 constituting another embodiment of the head detecting and tracking means 6 of FIG. Referring to FIG. 3, the head detecting and tracking means 32
The apparatus includes a head detection unit 33, a head rectangle storage unit 23, and a head tracking unit 22. The difference from the embodiment shown in FIG. 2 is that the head detecting means 33 has the head rectangular coordinate detecting means 24 and the face-to-face distance evaluating means 26, and the output of the monocular camera 34 and the face-to-face distance sensor 30. That is, detection is performed using That is, the head rectangle is evaluated using only the reading value of the facing distance sensor without considering the facing distance in left and right stereo vision.

【0073】また、頭部検出追跡手段6のその他の実施
例として、対面距離センサを用いずに、左右カメラのみ
の情報から対面距離を求め、頭部矩形を評価するという
構成の頭部検出手段を用いてもよい。この構成の場合、
頭部検出手段21において、図2の対面距離統合手段3
1を除いた構成となる。
As another embodiment of the head detecting and tracking means 6, a head detecting means having a structure in which a facing distance is obtained from information of only the left and right cameras without using a facing distance sensor and a head rectangle is evaluated. May be used. In this configuration,
In the head detecting means 21, the facing distance integrating means 3 shown in FIG.
1 is excluded.

【0074】図9は、図1の正面顔位置合わせ手段7の
一実施例をなす正面顔位置合わせ手段61の構成を示す
図である。図9を参照すると、正面顔位置合わせ手段6
1は、頭部矩形切り取り手段62と、正面顔探索手段6
3と、正面顔らしさ判定手段65とを備えて構成されて
いる。
FIG. 9 is a diagram showing the structure of the front face positioning means 61 which constitutes one embodiment of the front face positioning means 7 of FIG. Referring to FIG. 9, the front face alignment means 6
1 is a head rectangular cutting means 62 and a front face searching means 6
3 and a front face-likeness determination means 65.

【0075】正面顔らしさ判定手段65は、濃度分散判
定手段66と、しきい値処理手段67とを備えている。
The front face likeness determining means 65 includes a density dispersion determining means 66 and a threshold value processing means 67.

【0076】図21は、正面顔位置合わせ手段61の処
理を説明するための流れ図である。図9及び図21を参
照して、正面顔位置合わせ手段61の動作について説明
する。正面顔位置合わせ手段61は、画像データと頭部
矩形座標と対面距離が入力されると、正面顔有無フラグ
と正面顔画像データを出力する。入力された画像データ
は、頭部矩形切り取り手段62において、頭部矩形によ
る部分画像に切り取られる(ステップS41)。この部
分画像を「頭部矩形画像」と呼ぶ。
FIG. 21 is a flow chart for explaining the processing of the front face positioning means 61. The operation of the front face positioning means 61 will be described with reference to FIGS. When the image data, the rectangular coordinates of the head, and the facing distance are input, the front face positioning means 61 outputs a front face presence / absence flag and front face image data. The input image data is cut into a partial image based on the head rectangle by the head rectangle cutting means 62 (step S41). This partial image is called a “head rectangular image”.

【0077】次に正面顔探索手段63において、頭部矩
形画像の中から、正面顔領域を探索し、正面顔画像と標
準顔辞書とのパターン間距離又は類似度を出力する(ス
テップS42)。
Next, the frontal face search means 63 searches the head face rectangular image for a frontal face area, and outputs the distance between patterns or the similarity between the frontal face image and the standard face dictionary (step S42).

【0078】次に、正面顔らしさ判定手段65におい
て、正面顔画像が本当に正面顔であるかどうかを判断す
る(ステップS43)。ここで正面顔であると判断され
れば、正面顔有無フラグは「有り」となり、正面顔画像
を出力する。正面顔ではないと判断すれば、正面顔有無
フラグは「無し」となり、正面顔画像は出力しない。
Next, the front face likeness determining means 65 determines whether or not the front face image is really a front face (step S43). If it is determined that the face is a front face, the front face presence / absence flag is set to “present”, and a front face image is output. If it is determined that the front face is not a front face, the front face presence / absence flag is set to “none”, and no front face image is output.

【0079】正面顔らしさ判定手段65は、濃度分散判
定手段66と、しきい値処理手段67とを備えている。
The front face likeness determination means 65 includes a density variance determination means 66 and a threshold value processing means 67.

【0080】濃度分散判定手段66は、正面顔画像デー
タの濃淡値の分散を求め、あるしきい値以下の場合に
は、正面顔ではないと判断する(図21のステップS4
4)。
The density variance judging means 66 obtains the variance of the gray value of the front face image data, and judges that it is not the front face if it is equal to or less than a certain threshold value (step S4 in FIG. 21).
4).

【0081】濃度分散判定手段66により、単調な壁の
ようなパターンを排除することができる。
The density dispersion determining means 66 can eliminate a pattern such as a monotonous wall.

【0082】しきい値手段67は、パターン間距離又は
類似度をしきい値処理することによって正面顔らしさを
判断する(図21のステップS45)。
The threshold value means 67 determines the likeness of the frontal face by performing threshold processing on the distance or similarity between the patterns (step S45 in FIG. 21).

【0083】パターン間距離値の場合には、しきい値以
上のときに正面顔ではないと判断する。類似度の場合
は、しきい値以下のときに、正面顔でないと判断する。
In the case of the inter-pattern distance value, it is determined that the face is not the front face when the distance is equal to or larger than the threshold value. In the case of the similarity, when the similarity is equal to or less than the threshold value, it is determined that the face is not the front face.

【0084】図12は、正面顔位置合わせ手段61の動
作を模式的に示す説明図である。頭部矩形151が検出
されているとすると、図21のステップS41によっ
て、頭部矩形画像152が生成される。
FIG. 12 is an explanatory diagram schematically showing the operation of the front face positioning means 61. Assuming that the head rectangle 151 has been detected, a head rectangle image 152 is generated in step S41 of FIG.

【0085】次に図21のステップS42の顔中心部探
索処理では、縮小頭部矩形画像153が生成された後に
正面顔画像155が得られる。
Next, in the face center portion search processing of step S42 in FIG. 21, a front face image 155 is obtained after the reduced head rectangular image 153 is generated.

【0086】なお、正面顔画像とは、図12の正面顔画
像155に示すような、顔の中心部分の画像であり、横
方向は、両目を完全に含む程度で、縦方向は、眉毛から
口全体を含む程度の領域の画像を意味する。
The frontal face image is an image of the central part of the face as shown in the frontal face image 155 in FIG. 12, and the horizontal direction is a range that completely includes both eyes, and the vertical direction is from the eyebrows. It means an image in an area that includes the entire mouth.

【0087】図10は、正面顔探索手段63の一実施例
をなす正面顔探索手段71の構成を示す図である。図1
0を参照すると、この正面顔探索手段71は、頭部矩形
画像記憶手段89と、頭部中間サイズ算出手段88と、
画像縮小手段90と、中間サイズ記憶手段91と、正面
顔候補抽出手段72と、中間縮小画像記憶手段73と、
コントラスト補正手段74と、固有ベクトル投影距離算
出手段75と、標準顔辞書記憶手段76と、記憶手段7
7と、投影距離最小判定手段78と、探索範囲終了判定
手段79と、多重解像度処理終了判定手段92とを備え
て構成されている。
FIG. 10 is a diagram showing the configuration of the frontal face searching means 71 constituting one embodiment of the frontal face searching means 63. Figure 1
0, the front face searching means 71 includes a head rectangular image storage means 89, a head intermediate size calculating means 88,
Image reducing means 90, intermediate size storing means 91, front face candidate extracting means 72, intermediate reduced image storing means 73,
Contrast correction means 74, eigenvector projection distance calculation means 75, standard face dictionary storage means 76, storage means 7
7, a minimum projection distance determination unit 78, a search range end determination unit 79, and a multi-resolution processing end determination unit 92.

【0088】固有ベクトル投影距離算出手段75は、平
均差分手段82と、ベクトル投影値算出手段83と、再
構成演算手段84と、投影距離計算手段85とを備えて
構成されている。
The eigenvector projection distance calculation means 75 includes an average difference means 82, a vector projection value calculation means 83, a reconstruction calculation means 84, and a projection distance calculation means 85.

【0089】標準顔辞書記憶手段76は、標準顔平均デ
ータ記憶手段80と、標準顔固有ベクトルデータ記憶手
段81とを備えて構成されている。
The standard face dictionary storage means 76 comprises a standard face average data storage means 80 and a standard face unique vector data storage means 81.

【0090】記憶手段77は、投影距離最小値記憶手段
86と、正面顔濃淡値記憶手段87とを備えて構成され
ている。
The storage means 77 comprises a minimum projection distance value storage means 86 and a front face gray value storage means 87.

【0091】図22は、正面顔探索手段71の処理を説
明するための流れ図である。図10及び図22を参照し
て、正面顔探索手段71の動作について説明する。頭部
矩形画像データは、頭部矩形画像記憶手段89に保持さ
れている。はじめに頭部中間サイズ算出手段88におい
て、対面距離値と標準顔辞書データのサイズを参照し
て、頭部矩形画像の中間縮小サイズを計算する(ステッ
プS101)。
FIG. 22 is a flowchart for explaining the processing of the front face searching means 71. The operation of the front face searching means 71 will be described with reference to FIGS. The head rectangle image data is held in the head rectangle image storage unit 89. First, the head intermediate size calculating means 88 calculates the intermediate reduced size of the rectangular head image with reference to the facing distance value and the size of the standard face dictionary data (step S101).

【0092】頭部中間サイズ算出手段88の処理例につ
いて説明する。中間縮小サイズは、図12の縮小頭部矩
形画像153の縦横サイズとして示されている。頭部矩
形画像152の横サイズをHw、縦サイズをHhとす
る。中間縮小サイズの横サイズをMw、縦サイズをMh
とする。また正面顔画像の横サイズをFw、縦サイズを
Fhとする。Fw,Fhは正面顔探索形状154の縦横
サイズと同一であり、標準顔辞書に対して一意に決定さ
れる。なお、Hh,Hw,Mh,Mw、Fh,Fwはす
べて画素単位のピクセルサイズである。
A processing example of the head intermediate size calculating means 88 will be described. The intermediate reduced size is shown as the vertical and horizontal sizes of the reduced head rectangular image 153 in FIG. The horizontal size of the head rectangular image 152 is Hw, and the vertical size is Hh. The horizontal size of the intermediate reduced size is Mw, and the vertical size is Mh
And The horizontal size of the front face image is Fw, and the vertical size is Fh. Fw and Fh are the same as the vertical and horizontal sizes of the front face search shape 154, and are uniquely determined for the standard face dictionary. Note that Hh, Hw, Mh, Mw, Fh, and Fw are all pixel sizes in pixel units.

【0093】標準顔辞書は、図12の正面顔画像155
に示す正面顔領域の濃淡値を特徴値として生成されたパ
ターン認識用の辞書である。正面顔領域とは、横方向は
両目を完全に含む程度で、縦方向は眉毛から口全体を含
む程度の領域を意味する。正面顔領域は必ずしも矩形で
ある必要はなく、楕円形など、両目、鼻、口を含む任意
の連続領域で実現可能である。ただし、形状が矩形であ
れば処理が単純化されて高速化することができるので、
実装形態として有効である。よって、以下では、正面顔
領域を矩形であるものとして説明する。
The standard face dictionary corresponds to the front face image 155 shown in FIG.
6 is a dictionary for pattern recognition generated using the grayscale values of the frontal face area shown in FIG. The frontal face region means a region that completely includes both eyes in the horizontal direction and a region that includes the entire eyebrow to the mouth in the vertical direction. The frontal face area does not necessarily have to be rectangular, and can be realized by any continuous area including both eyes, nose, and mouth, such as an elliptical shape. However, if the shape is rectangular, the processing can be simplified and speeded up.
This is effective as a mounting mode. Therefore, the following description will be made assuming that the front face area is rectangular.

【0094】正面顔領域の実際の縦横サイズを、RF
h、RFwとすると、男性の大人であれば、大体 RF
w=10cm、RFh=15cm程度で表わすことがで
きる。一方、頭部矩形画像の実際の縦横サイズRHh、
RHwは、対面距離Zが既知であるため、次式(4)に
よって、計算することができる。なお次式(4)の変数
は、図32に対応している。
The actual vertical and horizontal size of the frontal face area is represented by RF
h and RFw, if a male adult, roughly RF
w = 10 cm and RFh = about 15 cm. On the other hand, the actual vertical and horizontal sizes RHh of the head rectangular image,
Since the facing distance Z is known, RHw can be calculated by the following equation (4). The variables in the following equation (4) correspond to FIG.

【0095】 [0095]

【0096】撮像面の幅eは小さいので通常は無視して
計算しても問題ない。
Since the width e of the imaging surface is small, it is not a problem to normally ignore and calculate.

【0097】標準顔辞書を用いて頭部矩形画像を探索す
るためには、頭部矩形画像を標準顔辞書と同じ解像度に
変換する必要がある。その変換後のサイズが中間縮小サ
イズMw、Mhである。Mh、Mwは、次式(5)の関
係式から求めることができる。
In order to search for a head rectangle image using the standard face dictionary, it is necessary to convert the head rectangle image to the same resolution as the standard face dictionary. The sizes after the conversion are the intermediate reduced sizes Mw and Mh. Mh and Mw can be obtained from the relational expression of the following expression (5).

【0098】 [0098]

【0099】すなわち、頭部中間サイズ算出手段88に
おいて、RFw、RFhを1組指定することによって中
間縮小サイズMw、Mhを1組算出することができる。
しかし人間の正面顔の大きさは大人から子供、女性と男
性で異なっている。そこで、RFw、RFhを複数組用
意し、それぞれに対応する中間縮小サイズを算出するこ
とも可能となっている。あらかじめ複数算出することに
より、後段の正面顔探索処理を複数の中間縮小サイズで
処理することができる。また複数の中間縮小サイズで探
索処理することは、頭部矩形を複数の解像度で探索処理
する行為と同じであると解釈できる。
That is, the head intermediate size calculating means 88 can calculate one set of intermediate reduced sizes Mw and Mh by designating one set of RFw and RFh.
However, the size of the human frontal face varies from adult to child, female and male. Therefore, it is also possible to prepare a plurality of sets of RFw and RFh and calculate an intermediate reduced size corresponding to each set. By performing a plurality of calculations in advance, it is possible to process the frontal face search process in the subsequent stage with a plurality of intermediate reduced sizes. Searching with a plurality of intermediate reduced sizes can be interpreted as the same as searching for a head rectangle with a plurality of resolutions.

【0100】頭部中間サイズ算出手段88によって中間
サイズが算出されると、中間サイズ記憶手段91に中間
サイズの情報が記憶される。
When the intermediate size is calculated by the head intermediate size calculating means 88, information on the intermediate size is stored in the intermediate size storing means 91.

【0101】次に最小パターン間距離値 Dmin を、通常
得られるパターン間距離値に比べ十分大きな値に初期化
する(図22のステップS102)。
Next, the minimum inter-pattern distance value Dmin is initialized to a value sufficiently larger than the normally obtained inter-pattern distance value (step S102 in FIG. 22).

【0102】中間縮小サイズ記憶手段91の情報を1つ
選択し、画像縮小手段90において、頭部矩形画像を選
択した中間縮小サイズに縮小し、縮小頭部矩形画像を得
る(図22のステップS103)。
One piece of information in the intermediate reduced size storage means 91 is selected, and the image reduction means 90 reduces the rectangular head image to the selected intermediate reduced size to obtain a reduced head rectangular image (step S103 in FIG. 22). ).

【0103】次に正面顔探索位置SX,SYを0に初期
化する(図22のステップS104)。
Next, the front face search positions SX and SY are initialized to 0 (step S104 in FIG. 22).

【0104】次に正面顔候補抽出手段72において、探
索位置SX,SYにおける正面顔候補画像を抽出する
(図22のステップS105)。
Next, the front face candidate extracting means 72 extracts front face candidate images at the search positions SX and SY (step S105 in FIG. 22).

【0105】次に正面顔候補画像を明暗の調子を補正す
るため、コントラスト補正手段74によってコントラス
トを補正する(図22のステップS106)。
Next, the contrast is corrected by the contrast correcting means 74 in order to correct the brightness of the front face candidate image (step S106 in FIG. 22).

【0106】コントラスト補正の具体的な方法の例につ
いて説明する。正面顔候補画像が、0からvmaxまでの
値をとるものとし、画素値の平均をμ、標準偏差をσと
すると、元画像Vからコントラスト補正画像V’への変
換式は、次式(6)で表わすことができる。
An example of a specific method of contrast correction will be described. Assuming that the front face candidate image takes a value from 0 to vmax, the average of the pixel values is μ, and the standard deviation is σ, the conversion equation from the original image V to the contrast corrected image V ′ is as follows: ).

【0107】 [0107]

【0108】再び図10及び図22を参照すると、次
に、固有ベクトル投影距離算出手段75において、正面
顔候補画像と標準顔パターンとの固有ベクトル投影距離
Dを求める(ステップS107)。
Referring again to FIGS. 10 and 22, next, the eigenvector projection distance calculating means 75 calculates the eigenvector projection distance between the front face candidate image and the standard face pattern.
D is obtained (step S107).

【0109】次に、投影距離最小判定手段78におい
て、DとDminとを比較する。このときDがDminよりも小さ
い値であれば、DminにDを代入して値を更新し、投影距
離最小値記憶手段86に記憶する。同時に正面顔候補画
像を、正面顔濃淡値記憶手段87に記憶する(ステップ
S108)。
Next, the minimum projection distance determining means 78 compares D and Dmin. At this time, if D is a value smaller than Dmin, the value is updated by substituting D for Dmin, and stored in the minimum projection distance value storage means 86. At the same time, the front face candidate image is stored in the front face gray value storage means 87 (step S108).

【0110】次に、探索範囲終了判定手段79におい
て、探索位置SX、SYをインクリメントし(ステップ
S109)、頭部矩形を全て探索し終わったかどうかを
判断する(ステップS110)。まだ探索し終わってい
ないときは、再びステップ105より処理を繰り返す。
Next, in the search range end determining means 79, the search positions SX and SY are incremented (step S109), and it is determined whether or not all the head rectangles have been searched (step S110). If the search has not been completed, the processing is repeated from step 105 again.

【0111】頭部矩形の探索範囲を全て探索し終わった
ら、多重解像度処理終了判定手段92において、すべて
の中間縮小サイズで探索したか否かを判断する(ステッ
プS111)。もし、探索していない中間縮小サイズが
あれば、異なる中間縮小サイズを用いて再びステップS
103から処理を開始する。すべての中間縮小サイズで
探索が終了した時点で正面顔探索手段71は終了する。
When the search for the entire head rectangle is completed, the multi-resolution processing end determination means 92 determines whether or not the search has been performed for all intermediate reduced sizes (step S111). If there is an intermediate reduced size that has not been searched, step S is performed again using a different intermediate reduced size.
The processing is started from 103. When the search is completed for all intermediate reduced sizes, the frontal face search means 71 ends.

【0112】次に、図10の固有ベクトル投影距離算出
手段75の動作について説明する。
Next, the operation of the eigenvector projection distance calculation means 75 of FIG. 10 will be described.

【0113】標準顔辞書記憶手段76には、標準顔平均
データと、標準顔固有ベクトルデータが記憶されてい
る。
The standard face dictionary storage means 76 stores standard face average data and standard face specific vector data.

【0114】図33に、特徴量の数がp個の時の、固有
ベクトル投影距離算出用辞書の一例を示す。固有ベクト
ル投影距離算出用辞書は、1からp番めまでのp次元の
固有ベクトルデータEと、p個の特徴量の平均値Aveと
からなる。特徴量がp個のとき、固有ベクトルはp番め
まで存在するが、投影距離算出時には1からm番めまで
を使用する。
FIG. 33 shows an example of an eigenvector projection distance calculation dictionary when the number of feature values is p. The eigenvector projection distance calculation dictionary includes p-dimensional eigenvector data E from the first to the p-th and an average value Ave of p feature amounts. When there are p feature amounts, the eigenvectors exist up to the p-th, but the projection distance is calculated using the first to the m-th.

【0115】正面顔候補画像の画素値を、図8に示すよ
うにラスタスキャンし、1次元の特徴データに変換す
る。このとき正面顔画像の縦横サイズの積Fw×Fh
は、辞書の特徴量と同じp個でなければならない。これ
をベクトルX:X1、X2,...Xpとする。
The pixel values of the frontal face candidate image are raster-scanned as shown in FIG. 8 and converted into one-dimensional feature data. At this time, the product Fw × Fh of the vertical and horizontal sizes of the front face image
Must be p, which is the same as the feature amount of the dictionary. This is expressed as a vector X: X1, X2,. . . Xp.

【0116】まず平均差分手段82において、ベクトル
Xから平均ベクトルAveを差分する。これをベクトルY
とする。
First, the average difference means 82 subtracts the average vector Ave from the vector X. This is called the vector Y
And

【0117】 [0117]

【0118】次にベクトル投影値算出手段83におい
て、ベクトルYをm個の固有ベクトルに投影し、その投
影値R1..Rmを求める。投影値算出方法を、次式
(8)に示す。
Next, the vector projection value calculating means 83 projects the vector Y onto m eigenvectors, and sets the projection values R1. . Find Rm. The projection value calculation method is shown in the following equation (8).

【0119】 [0119]

【0120】次に、再構成演算手段84(図10参照)
において、投影値R1...Rmと、m個の固有ベクト
ルとを用いて元の特徴量Yを再構成し、その再構成ベク
トルをY’とする。再構成の計算を次式(9)に示す。
Next, the reconstruction calculation means 84 (see FIG. 10)
At the projection values R1. . . The original feature amount Y is reconstructed using Rm and m eigenvectors, and the reconstructed vector is defined as Y ′. The calculation of the reconstruction is shown in the following equation (9).

【0121】 [0121]

【0122】次に、投影距離計算手段85において、次
式(10)に従い、YとY‘とのユークリッド距離値を
求める。これによって、固有ベクトルEへの投影距離D
が算出される。
Next, the projection distance calculating means 85 obtains a Euclidean distance value between Y and Y 'according to the following equation (10). Thus, the projection distance D to the eigenvector E is
Is calculated.

【0123】 [0123]

【0124】図11は、図9の正面顔探索手段63の他
の実施例をなす正面顔探索手段101の構成を示す図で
ある。図11を参照すると、この正面顔探索手段101
は、頭部矩形画像記憶手段89と、頭部中間サイズ算出
手段88と、画像縮小手段90と、中間サイズ記憶手段
91と、正面顔候補抽出手段72と、中間縮小画像記憶
手段73と、コントラスト補正手段74と、積和演算手
段102と、標準顔辞書データ記憶手段104と、記憶
手段105と、類似度最大判定手段103と、探索範囲
終了判定手段79と、多重解像度処理終了判定手段92
とを備えて構成されている。
FIG. 11 is a diagram showing the configuration of the front face search means 101 which constitutes another embodiment of the front face search means 63 of FIG. Referring to FIG. 11, this front face searching means 101
The head rectangular image storage unit 89, the head intermediate size calculation unit 88, the image reduction unit 90, the intermediate size storage unit 91, the front face candidate extraction unit 72, the intermediate reduced image storage unit 73, the contrast Correction means 74, sum-of-products calculation means 102, standard face dictionary data storage means 104, storage means 105, maximum similarity determination means 103, search range end determination means 79, and multi-resolution processing end determination means 92
It is comprised including.

【0125】記憶手段105は、類似度最大値記憶手段
106と、正面顔濃淡値記憶手段107とを備えてい
る。
The storage unit 105 includes a maximum similarity storage unit 106 and a front face gray value storage unit 107.

【0126】図23は、正面顔探索手段101の処理を
説明するための流れ図である。図11及び図23を参照
して、正面顔探索手段101の動作について説明する。
頭部矩形画像データは、頭部矩形画像記憶手段89に保
持されている。はじめに頭部中間サイズ算出手段88に
おいて、対面距離値と標準顔辞書データのサイズを参照
して、頭部矩形画像の中間縮小サイズを計算し、中間サ
イズ記憶手段91に記憶する(ステップS121)。
FIG. 23 is a flowchart for explaining the processing of the front face searching means 101. The operation of the frontal face search means 101 will be described with reference to FIGS.
The head rectangle image data is held in the head rectangle image storage unit 89. First, the head intermediate size calculating means 88 calculates the intermediate reduced size of the head rectangular image with reference to the facing distance value and the size of the standard face dictionary data, and stores it in the intermediate size storage means 91 (step S121).

【0127】中間縮小サイズの計算方法は正面顔探索手
段71と同一である。次に最大類似度Smaxを0に初期化
する(ステップS122)。
The method of calculating the intermediate reduced size is the same as that of the front face searching means 71. Next, the maximum similarity Smax is initialized to 0 (step S122).

【0128】中間サイズ記憶手段91の情報を1つ選択
し、画像縮小手段90において、頭部矩形画像を選択し
た中間縮小サイズに縮小し、縮小頭部矩形画像を得る
(ステップS123)。
One piece of information in the intermediate size storage means 91 is selected, and the image reducing means 90 reduces the rectangular head image to the selected intermediate reduced size to obtain a reduced rectangular head image (step S123).

【0129】次に正面顔探索位置SX、SYを0に初期
化する(ステップS124)。
Next, the front face search positions SX and SY are initialized to 0 (step S124).

【0130】次に正面顔候補抽出手段72において、探
索位置SX、SYにおける正面顔候補画像を抽出する
(ステップS125)。
Next, the front face candidate extracting means 72 extracts a front face candidate image at the search positions SX and SY (step S125).

【0131】次に正面顔候補画像を明暗の調子を補正す
るため、コントラスト補正手段74によってコントラス
トを補正する(ステップS126)。
Next, the contrast is corrected by the contrast correcting means 74 in order to correct the brightness of the front face candidate image (step S126).

【0132】次に積和演算手段102において、正面顔
候補画像と標準顔パターンとの類似度Sを求める(ステ
ップS127)。
Next, the sum-of-products calculating means 102 calculates the similarity S between the front face candidate image and the standard face pattern (step S127).

【0133】次に類似度最大値判定手段103におい
て、SとSmaxとを比較する。このときSがSmaxよりも
大きい値であれば、SmaxにSを代入して値を更新し、
類似度最大値記憶手段106に記憶する。同時に正面顔
候補画像を正面顔濃淡値記憶手段107に記憶する(ス
テップS128)。
Next, the maximum similarity value judgment means 103 compares S with Smax. At this time, if S is a value larger than Smax, the value is updated by substituting S for Smax,
It is stored in the maximum similarity storage unit 106. At the same time, the front face candidate image is stored in the front face gray value storage means 107 (step S128).

【0134】次に探索範囲終了判定手段79において、
探索位置SX、SYをインクリメントし(ステップS1
29)、頭部矩形を全て探索し終わったかどうかを判断
する(ステップS130)。まだ探索し終わっていない
ときは、再びステップ125より処理を繰り返す。
Next, in the search range end determining means 79,
The search positions SX and SY are incremented (step S1
29) It is determined whether or not all the head rectangles have been searched (step S130). If the search has not been completed, the processing is repeated from step 125 again.

【0135】頭部矩形の探索範囲を全て探索し終わった
ら、多重解像度処理終了判定手段92において、すべて
の中間縮小サイズで探索したかどうかを判断する。もし
探索していない中間縮小サイズがあれば、異なる中間縮
小サイズを用いて再びステップS123から処理を開始
する。
When the entire search range of the head rectangle has been searched, the multi-resolution processing end determination means 92 determines whether or not the search has been performed for all intermediate reduced sizes. If there is an intermediate reduced size that has not been searched, the process is restarted from step S123 using a different intermediate reduced size.

【0136】すべての中間縮小サイズで探索が終了した
時点で正面顔探索手段101は終了する。
When the search is completed for all the intermediate reduced sizes, the frontal face searching means 101 ends.

【0137】次に、図11に示した、標準顔パターンと
の類似度を算出する積和演算手段102の動作について
説明する。
Next, the operation of the product-sum operation means 102 for calculating the similarity with the standard face pattern shown in FIG. 11 will be described.

【0138】積和演算手段102は、正面顔かそれ以外
かを判別する線形判別辞書を参照して類似度Sを算出す
る。図34に、線形判別辞書の一例を示す。図34に
は、q個のクラスを判別する辞書が示されているが、標
準顔辞書データ記憶手段104は、正面顔とそれ以外の
2つのクラスを判別する辞書であり、q=2の場合に相
当する。
The sum-of-products calculation means 102 calculates the similarity S with reference to a linear discrimination dictionary for discriminating whether the face is a front face or not. FIG. 34 shows an example of the linear discrimination dictionary. FIG. 34 shows a dictionary for discriminating q classes. The standard face dictionary data storage means 104 is a dictionary for discriminating between a frontal face and the other two classes. Is equivalent to

【0139】正面顔候補画像の画素値を、図8に示すよ
うにラスタスキャンし、1次元の特徴データに変換す
る。このとき正面顔画像の縦横サイズの積Fw×Fh
は、辞書の特徴量と同じp個でなければならない。これ
をベクトルX:X1、X2,...Xpとする。
The pixel values of the frontal face candidate image are raster-scanned as shown in FIG. 8 and converted into one-dimensional feature data. At this time, the product Fw × Fh of the vertical and horizontal sizes of the front face image
Must be p, which is the same as the feature amount of the dictionary. This is expressed as a vector X: X1, X2,. . . Xp.

【0140】また標準顔辞書データとして、q=1のク
ラスが正面顔を、q=2のクラスがそれ以外を表わすも
のとして説明する。正面顔との類似度は、図34のq=
1の行、すなわちクラス1の識別係数422のみを用い
て、次式(11)によって計算することができる。
The standard face dictionary data will be described on the assumption that the class of q = 1 represents the frontal face and the class of q = 2 represents the other. The similarity to the front face is represented by q =
It can be calculated by the following equation (11) using only the 1st row, that is, the class 1 identification coefficient 422.

【0141】 [0141]

【0142】積和演算手段102は、上式(11)を演
算することによって、類似度を算出する。
The product-sum calculation means 102 calculates the similarity by calculating the above equation (11).

【0143】図13には、図1の顔識別手段9の一実施
例をなす顔識別手段111と、図1の識別辞書記憶手段
10の一実施例をなす識別辞書記憶手段112と、図1
の識別結果補正手段11の一実施例をなす識別結果補正
手段113とが示されている。図13を参照すると、顔
識別手段111は、特徴データ記憶手段115と、積和
演算手段116と、最大類似度人物判定手段118と、
しきい値処理手段117とを備えて構成されている。識
別辞書記憶手段112は、登録人物識別用辞書記憶手段
119を有する。識別結果補正手段113は、識別結果
加重平均算出手段114を有する。
FIG. 13 shows a face identification unit 111 which is an embodiment of the face identification unit 9 of FIG. 1, an identification dictionary storage unit 112 which is an embodiment of the identification dictionary storage unit 10 of FIG.
And an identification result correction means 113 which constitutes one embodiment of the identification result correction means 11 of FIG. Referring to FIG. 13, the face identification unit 111 includes a feature data storage unit 115, a product-sum operation unit 116, a maximum similarity person determination unit 118,
And a threshold processing unit 117. The identification dictionary storage unit 112 includes a registered person identification dictionary storage unit 119. The identification result correction means 113 has an identification result weighted average calculation means 114.

【0144】図24は、顔識別手段111と識別結果補
正手段113の処理を説明するための流れ図である。図
13及び図24を参照して、顔識別手段111と識別結
果補正手段113の動作について説明する。
FIG. 24 is a flowchart for explaining the processing of the face identification means 111 and the identification result correction means 113. The operations of the face identification unit 111 and the identification result correction unit 113 will be described with reference to FIGS.

【0145】特徴データが入力され、特徴データ記憶手
段115に記憶される(ステップS51)。
The characteristic data is input and stored in the characteristic data storage means 115 (step S51).

【0146】次に、登録人物識別用辞書記憶手段119
のデータを参照し、積和演算手段116において、登録
された人物への類似度を、人物毎にそれぞれ算出する
(ステップS54)。
Next, the registered person identification dictionary storage means 119
The sum-of-products calculating means 116 calculates the degree of similarity to the registered person for each person by referring to the data (step S54).

【0147】類似度の算出方法は、標準顔パターンとの
類似度を算出する積和演算手段102の動作と基本的に
同じである。ただし、識別するクラス数は登録されてい
る人物数となる。
The method of calculating the similarity is basically the same as the operation of the product-sum operation means 102 for calculating the similarity with the standard face pattern. However, the number of classes to be identified is the number of registered persons.

【0148】辞書としてq人分のデータが登録されてい
る場合には、登録人物識別用辞書記憶手段119には、
図34に示す線形判別辞書と同じ数のデータが保持され
ることになる。そして積和演算手段116により、次式
(12)に示すように、q個の類似度Si:(i=
1,...q)が得られる。
When data for q persons is registered as a dictionary, the registered person identification dictionary storage means 119 stores
The same number of data as the linear discrimination dictionary shown in FIG. 34 is held. Then, the product-sum operation unit 116 calculates q similarities Si: (i =
1,. . . q) is obtained.

【0149】 [0149]

【0150】このように、図34に示す線形判別辞書に
よる積和演算処理で求められた類似度の大きさによって
パターンを識別する方法を、「線形判別辞書による類似
度識別」と呼ぶ。
The method of identifying a pattern based on the magnitude of similarity obtained by the product-sum operation using the linear discriminant dictionary shown in FIG. 34 is referred to as “similarity discrimination by linear discriminant dictionary”.

【0151】再び図13及び図24を参照すると、次
に、最大類似度人物判定手段118において、算出され
たq個の類似度の中で最大値を求め、それに対応する人
物を求める(ステップS55)。すなわち、特徴データ
と最も似ていると判断される人物を求める。この時の類
似度を「最大類似度」と呼ぶ。
Referring again to FIGS. 13 and 24, next, the maximum similarity person determination means 118 obtains the maximum value among the calculated q similarities, and obtains the corresponding person (step S55). ). That is, a person determined to be most similar to the feature data is obtained. The similarity at this time is called “maximum similarity”.

【0152】次に、しきい値処理手段117において、
最大類似度をあらかじめ定められたしきい値と比較する
(ステップS56)。
Next, in the threshold value processing means 117,
The maximum similarity is compared with a predetermined threshold (step S56).

【0153】顔識別手段111は、最大類似度がしきい
値よりも高いときは、確かに人物を識別したと判断し、
そのID番号と最大類似度を出力する。最大類似度がし
きい値よりも低いときは、登録されている人物(本人)
ではない他人である可能性が高いので、「他人」という
情報を出力する。
When the maximum similarity is higher than the threshold, the face identifying means 111 determines that the person has been identified.
The ID number and the maximum similarity are output. If the maximum similarity is lower than the threshold, the registered person (person)
Is likely to be another person, the information "others" is output.

【0154】識別結果補正手段113は、識別結果を受
け取った後、識別結果加重平均算出手段114によっ
て、過去Nフレームにおける識別結果を統合する(ステ
ップS57)。識別結果加重平均算出手段114の動作
の例として、過去Nフレームにおける識別人物IDと類
似度、あるいは他人判定結果を、以下のように加重平均
する方法がある。
After receiving the identification result, the identification result correcting means 113 integrates the identification results in the past N frames by the identification result weighted average calculating means 114 (step S57). As an example of the operation of the identification result weighted average calculation means 114, there is a method of weighing the identification person ID and the similarity in the past N frames or the result of other person determination as follows.

【0155】ステップA1:過去Nフレームの中で、一
定割合のフレーム数が「他人」の時は、「他人」とす
る。他人でないと判定された場合にはステップA2へ進
む。
Step A1: In the past N frames, when the number of frames at a fixed rate is “others”, it is determined as “others”. If it is determined that the person is not another person, the process proceeds to step A2.

【0156】ステップA2:過去Nフレームの中で、人
物iという判定がNiフレームあるものとする(i=
1...q)。それぞれの人物の類似度加重平均値を次
式(13)で算出する。Siは人物iの類似度を表し、
SSiは人物iの類似度加重平均値を表す。SSiの最
も大きい人物IDを、識別結果として出力する。
Step A2: In the past N frames, it is assumed that a person i is determined to be a Ni frame (i =
1. . . q). The similarity-weighted average value of each person is calculated by the following equation (13). Si represents the similarity of the person i,
SSi represents a similarity-weighted average value of the person i. The person ID having the largest SSi is output as the identification result.

【0157】 [0157]

【0158】識別結果補正手段113は、上記のように
して統合された識別結果を出力する。
The identification result correcting means 113 outputs the identification result integrated as described above.

【0159】図15は、図1の顔識別手段9の他の実施
例をなす顔識別手段131の構成、図1の識別辞書記憶
手段10の他の実施例をなす識別辞書記憶手段132の
構成を示す図である。図15を参照すると、顔識別手段
131は、特徴データ記憶手段115と、固有ベクトル
他人判別手段133と、積和演算手段116と、最大類
似度人物判定手段118と、しきい値処理手段117と
を備えている。
FIG. 15 shows the structure of the face identification means 131 which constitutes another embodiment of the face identification means 9 of FIG. 1, and the structure of the identification dictionary storage means 132 which constitutes another embodiment of the identification dictionary storage means 10 of FIG. FIG. Referring to FIG. 15, the face identification unit 131 includes a feature data storage unit 115, an eigenvector stranger determination unit 133, a product-sum calculation unit 116, a maximum similarity person determination unit 118, and a threshold processing unit 117. Have.

【0160】識別辞書記憶手段132は、他人判別用辞
書記憶手段134と、登録人物識別用辞書記憶手段11
9とを備えている。
The identification dictionary storage means 132 includes a dictionary storage means 134 for discriminating another person and a dictionary storage means 11 for registered person identification.
9 is provided.

【0161】図24は、顔識別手段131の処理を説明
するための流れ図である。図15及び図24を参照し
て、顔識別手段131の動作について説明する。特徴デ
ータが入力され、特徴データ記憶手段115に記憶され
る(ステップS51)。
FIG. 24 is a flowchart for explaining the processing of the face identifying means 131. The operation of the face identifying means 131 will be described with reference to FIGS. The feature data is input and stored in the feature data storage unit 115 (step S51).

【0162】次に、他人判別用辞書記憶手段134のデ
ータを参照しながら、固有ベクトル他人判別手段133
によって、登録されている人物群とのパターン間距離D
hを求め(ステップS52)、パターン間距離Dhがし
きい値よりも大きければ他人であると判定する(ステッ
プS53)。パターン間距離Dhは固有ベクトル投影距
離として算出する。すなわち、他人判別用辞書記憶手段
には、登録されている全員の特徴データによって作成さ
れた固有ベクトル辞書が記憶されている。
Next, referring to the data stored in the dictionary storage means 134 for identifying others, the eigenvector and others identification means 133 is referred to.
Is the distance D between the pattern and the registered group of persons.
h is obtained (step S52), and if the inter-pattern distance Dh is larger than the threshold value, it is determined that another person is present (step S53). The inter-pattern distance Dh is calculated as the eigenvector projection distance. That is, the dictionary storage means for other persons stores an eigenvector dictionary created based on the registered feature data of all registered persons.

【0163】固有ベクトル辞書の例は図33に示されて
おり、また固有ベクトル投影距離の算出方法は、固有ベ
クトル投影距離算出手段75の動作の説明において述べ
られている。
An example of the eigenvector dictionary is shown in FIG. 33, and the method of calculating the eigenvector projection distance is described in the description of the operation of the eigenvector projection distance calculation means 75.

【0164】入力された特徴データが、固有ベクトル他
人判別手段133において他人と判断されれば、顔識別
手段131は、積和演算手段116を経ることなく、直
ちに「他人」を出力する。
If the input characteristic data is determined to be another person by the eigenvector other person discriminating means 133, the face discriminating means 131 immediately outputs "others" without going through the product-sum calculating means 116.

【0165】固有ベクトル他人判定手段133において
「他人」と判定されなかった場合には、次に、登録人物
識別用辞書記憶手段119のデータを参照し、積和演算
手段116において、登録された人物への類似度を、人
物毎にそれぞれ算出する(ステップS54)。q人の人
物が登録されていればq個の類似度Si:(i=
1,...q)を算出する。
If the eigenvector / others determination unit 133 does not determine “other”, then the data in the registered person identification dictionary storage unit 119 is referred to, and the product-sum operation unit 116 determines the registered person. Is calculated for each person (step S54). If q persons are registered, q similarities Si: (i =
1,. . . q) is calculated.

【0166】次に、最大類似度人物判定手段118にお
いて、算出されたq個の類似度の中で最大値を求め、そ
れに対応する人物を求める(ステップS55)。すなわ
ち、特徴データと最も似ていると判断される人物を求め
る。この時の類似度を最大類似度と呼ぶ。次にしきい値
処理手段117において、最大類似度をあらかじめ定め
られたしきい値と比較する(ステップS56)。
Next, the maximum similarity person determination means 118 obtains the maximum value among the calculated q similarities, and obtains the corresponding person (step S55). That is, a person determined to be most similar to the feature data is obtained. The similarity at this time is called a maximum similarity. Next, the threshold value processing unit 117 compares the maximum similarity with a predetermined threshold value (step S56).

【0167】顔識別手段131は、最大類似度がしきい
値よりも高いときは、確かに人物を識別したと判断し、
そのID番号と最大類似度を出力する。最大類似度がし
きい値よりも低いときは、登録されている人物ではない
他人である可能性が高いので、「他人」という情報を出
力する。
When the maximum similarity is higher than the threshold, the face identifying means 131 determines that the person has been identified, and
The ID number and the maximum similarity are output. When the maximum similarity is lower than the threshold value, it is highly likely that the registered person is another person who is not a registered person, so that information of “other person” is output.

【0168】図14は、図1の辞書データ管理部12の
一実施例をなす辞書データ管理部121の構成を示す図
である。図14を参照すると、辞書データ管理部121
は、個人特徴データ記憶手段122と、識別辞書生成手
段123と、セレクタ124とを備えて構成されてい
る。
FIG. 14 is a diagram showing a configuration of the dictionary data management section 121 which forms one embodiment of the dictionary data management section 12 of FIG. Referring to FIG. 14, the dictionary data management unit 121
Is provided with a personal characteristic data storage unit 122, an identification dictionary generation unit 123, and a selector 124.

【0169】識別辞書生成手段123は、線形判別辞書
作成手段126と固有ベクトル辞書作成手段127とを
備えて構成されている。個人特徴データ記憶手段122
内には、人物別特徴データ領域125が、登録された人
数分存在する。
The identification dictionary generating means 123 comprises a linear discriminating dictionary creating means 126 and an eigenvector dictionary creating means 127. Individual characteristic data storage means 122
Inside, there are the individual feature data areas 125 for the number of registered persons.

【0170】辞書データ管理部121は、特徴データと
人物ID番号とが入力されると、セレクタ124によっ
て人物ID毎に振り分けられ、個人特徴データ記憶手段
122内の人物ID番号に対応する領域に入力特徴デー
タを記憶する。また、新しい人物IDの追加命令があれ
ば、個人特徴データ記憶手段122内に、新しい人物別
特徴データ領域125を確保し、新しい人物ID番号を
割り当てる。また、既存の人物IDの削除命令があれ
ば、個人特徴データ記憶手段122内の該当するIDの
人物別特徴データ領域125を破棄する。
When the feature data and the person ID number are input, the dictionary data management unit 121 sorts the data by person ID by the selector 124 and inputs the data to the area corresponding to the person ID number in the personal feature data storage unit 122. The feature data is stored. If there is an instruction to add a new person ID, a new person-specific feature data area 125 is secured in the personal feature data storage means 122 and a new person ID number is assigned. If there is an instruction to delete an existing person ID, the individual characteristic data area 125 of the corresponding ID in the personal characteristic data storage unit 122 is discarded.

【0171】また辞書データ管理部121は、識別辞書
作成命令を受けると、識別辞書生成手段123は、個人
特徴データ記憶手段122のデータを用いて、線形判別
辞書である登録人物識別用識別辞書と固有ベクトル辞書
である他人判別用辞書を生成する。登録人物識別用識別
辞書は、線形判別辞書作成手段126において作成され
る。他人判別用辞書は、固有ベクトル辞書作成手段12
7で作成される。
When the dictionary data management unit 121 receives the identification dictionary creation command, the identification dictionary generation unit 123 uses the data of the personal feature data storage unit 122 to register a registered person identification identification dictionary that is a linear discrimination dictionary. A dictionary for identifying others, which is an eigenvector dictionary, is generated. The identification dictionary for registered person identification is created by the linear discrimination dictionary creating means 126. The dictionary for identifying others is created by eigenvector dictionary creating means 12.
7 is created.

【0172】なお、図1の顔識別手段9が、図13に示
した顔識別手段111の構成を持つ場合は、他人判別用
辞書は不要であるため、識別辞書生成手段123は固有
ベクトル辞書作成手段127を持たない構成としてもよ
い。
In the case where the face identifying means 9 in FIG. 1 has the configuration of the face identifying means 111 shown in FIG. 13, the dictionary for discriminating another person is unnecessary, so that the identification dictionary creating means 123 is used as the eigenvector dictionary creating means. 127 may be omitted.

【0173】図25は、図1の辞書データ管理部12へ
の登録処理を説明するための流れ図である。図1、図1
4及び図25を参照して、辞書データ管理部121がカ
メラの前にいる新しい人物を登録する時の動作について
説明する。
FIG. 25 is a flowchart for explaining the registration processing to the dictionary data management unit 12 in FIG. 1 and 1
4 and FIG. 25, an operation when the dictionary data management unit 121 registers a new person in front of the camera will be described.

【0174】人物検出識別管理部13は、新しい人物I
Dを指定して、辞書管理部121に新しい人物の登録を
指示する(ステップS61)。
The person detection / identification management unit 13 sets a new person I
By specifying D, the dictionary management unit 121 is instructed to register a new person (step S61).

【0175】辞書データ管理部121は、個人特徴デー
タ記憶手段122内に、指定されたIDに対応する人物
別特徴データ領域125を確保する(ステップS6
2)。
The dictionary data management unit 121 secures the individual-specific feature data area 125 corresponding to the specified ID in the personal feature data storage unit 122 (step S6).
2).

【0176】人物検出識別管理部13は、人物検出識別
手段1内の顔特徴抽出手段8から指定枚数分の特徴デー
タを取得し、辞書データ管理部121に送付する。
The person detection / identification management unit 13 acquires the specified number of pieces of feature data from the face feature extraction unit 8 in the person detection / identification unit 1 and sends it to the dictionary data management unit 121.

【0177】辞書データ管理部121は、新しいIDに
対応する人物別特徴データ領域125に、取得したデー
タを保存する(ステップS63)。
The dictionary data management unit 121 stores the acquired data in the individual-specific feature data area 125 corresponding to the new ID (step S63).

【0178】指定枚数分の取得が完了したら、人物検出
識別管理部13は、辞書データ管理部121に対して識
別辞書の作成を指示する(ステップS64)。
When the specified number of sheets have been obtained, the person detection identification management section 13 instructs the dictionary data management section 121 to create an identification dictionary (step S64).

【0179】辞書データ管理部121は、作成指示を受
けると、識別辞書生成手段123の線形判別辞書作成手
段126によって、登録人物用識別辞書を作成する(ス
テップS65)。
Upon receiving the creation instruction, the dictionary data management unit 121 creates a registered person identification dictionary by the linear discriminating dictionary creation unit 126 of the identification dictionary creation unit 123 (step S65).

【0180】次に、固有ベクトル辞書作成手段127に
よって、他人判別用辞書を作成する(ステップS6
6)。
Next, a dictionary for identifying others is created by the eigenvector dictionary creating means 127 (step S6).
6).

【0181】そして、作成された辞書を人物検出識別部
の識別辞書記憶手段10に出力し記憶させる(ステップ
S67)。以上の処理により、新規人物の登録処理は終
了する。
Then, the created dictionary is output to and stored in the identification dictionary storage means 10 of the person detection / identification section (step S67). With the above processing, the registration processing of the new person ends.

【0182】図29は、図14の線形判別辞書作成手段
126の一実施例をなす線形判別辞書作成手段311の
構成を示す図である。図29を参照すると、線形判別辞
書作成手段311は、特徴量X記憶手段312と、分散
共分散行列Cxx算出手段313と、逆行列変換手段3
14と、行列乗算手段315と、目的変数Y記憶手段3
17と、目的変数Y生成手段318と、共分散行列Cx
y算出手段319と、係数記憶手段320と、定数項算
出手段316とを備えて構成されている。
FIG. 29 is a diagram showing a configuration of the linear discriminant dictionary creating means 311 which constitutes one embodiment of the linear discriminant dictionary creating means 126 of FIG. Referring to FIG. 29, the linear discriminant dictionary creation unit 311 includes a feature amount X storage unit 312, a variance-covariance matrix Cxx calculation unit 313, and an inverse matrix transformation unit 311.
14, a matrix multiplication unit 315, and a target variable Y storage unit 3.
17, the objective variable Y generating means 318, and the covariance matrix Cx
It comprises a y calculating means 319, a coefficient storing means 320, and a constant term calculating means 316.

【0183】図31及び図34を参照して、線形判別辞
書の作成方法について説明する。図31には、1人あた
りn枚で、人物1から人物qまでq人分の個人特徴デー
タX341が示されている。また、個人特徴データX3
41の特徴数はp個である。図31の1行が、1枚分の
特徴データを示している。個人特徴データX341は、
図14において個人特徴データ記憶手段122に記憶さ
れており、1人分の個人特徴データがそれぞれ人物別特
徴データ領域125に記憶されている。
Referring to FIGS. 31 and 34, a method of creating a linear discriminant dictionary will be described. FIG. 31 shows personal characteristic data X341 for n persons, and for q persons from person 1 to person q. In addition, personal characteristic data X3
The number of features of 41 is p. One line in FIG. 31 shows one piece of feature data. The personal characteristic data X341 is
In FIG. 14, individual characteristic data of one person is stored in the individual characteristic data storage unit 122, and individual characteristic data of one person is stored in the individual characteristic data area 125.

【0184】目的変数Y342は、1つの特徴データに
ついて1つ作成され、識別する人物数分の要素を持つベ
クトルである。すなわち、図31において、人物IDは
1からqまでの値をとるので、目的変数YはY1からY
qまで存在する。目的変数Y342の値は、0か1の2
値であり、特徴データが属する人物のベクトル要素が1
で、その他は0である。すなわち人物2の特徴データで
あれば、Y2要素だけが1で他は0となる。
The target variable Y342 is a vector created for one piece of feature data and having elements for the number of persons to be identified. That is, in FIG. 31, since the person ID takes a value from 1 to q, the objective variable Y is from Y1 to Y
exist up to q. The value of the objective variable Y342 is 0 or 1 of 2
And the vector element of the person to which the feature data belongs is 1
And the others are 0. That is, in the case of the characteristic data of the person 2, only the Y2 element is 1 and the others are 0.

【0185】図34は、線形判別辞書の形式の一例を示
す図である。線形判別辞書は、定数項421と、乗算項
425の2種類の係数からなる。乗算項からなるマトリ
クスをAij(i=1,...p、j=1,....
q)、定数項からなるベクトルをA0j(j=
1,....q)とすると、マトリクスAijは、次式
(14)から求められる。
FIG. 34 is a diagram showing an example of the format of the linear discrimination dictionary. The linear discriminant dictionary includes two types of coefficients, a constant term 421 and a multiplication term 425. The matrix composed of the multiplication terms is represented by Aij (i = 1,... P, j = 1,.
q), a vector consisting of a constant term is represented by A0j (j =
1,. . . . q), the matrix Aij is obtained from the following equation (14).

【0186】 [0186]

【0187】上式(14)において、Cxxは個人特徴
データX341の全てのデータを用いたこの分散共分散
行列である。この分散共分散行列Cxxは、次式(1
5)で算出される。
In the above equation (14), Cxx is the variance-covariance matrix using all of the personal characteristic data X341. This variance-covariance matrix Cxx is given by the following equation (1)
It is calculated in 5).

【0188】個人特徴データXの要素を、xij:(i
=1....N、j=1,...p)で表わす。Nは全
データ数で、pは特徴数である。図31に示す例では、
1人につきn枚のデータがあることから、N=nqであ
る。x ̄は、xの平均値を表わす。
The elements of personal characteristic data X are represented by xij: (i
= 1. . . . N, j = 1,. . . expressed by p). N is the total number of data, and p is the number of features. In the example shown in FIG. 31,
Since there are n pieces of data per person, N = nq. x ̄ represents an average value of x.

【0189】 [0189]

【0190】Cxyは、個人特徴データXと目的変数Y
との共分散行列である。共分散行列Cxyは、次式(1
6)に従って算出される。x ̄、y ̄は、x、yの平均
値を表わす。
Cxy is the personal characteristic data X and the objective variable Y
Is the covariance matrix with The covariance matrix Cxy is given by the following equation (1)
It is calculated according to 6). x ̄, y ̄ represents an average value of x and y.

【0191】 [0191]

【0192】また、定数項A0jは、次式(17)に従
って算出される。
The constant term A0j is calculated according to the following equation (17).

【0193】 [0193]

【0194】はじめにCxxを算出し、その逆行列を求
める。次にCxyを求める。最後にこれらの行列を乗算
して乗算項マトリクスAijを求め、最後に定数項A0
jを求める。
First, Cxx is calculated, and its inverse matrix is obtained. Next, Cxy is obtained. Finally, these matrices are multiplied to obtain a multiplication term matrix Aij.
Find j.

【0195】図29は、線形判別辞書作成手段311の
処理を説明するための図である。図29を参照して、線
形判別辞書作成手段311の動作を説明する。入力され
た個人特徴データ群は、特徴量X記憶手段312に記憶
される。
FIG. 29 is a view for explaining the processing of the linear discrimination dictionary creating means 311. With reference to FIG. 29, the operation of the linear discriminant dictionary creation means 311 will be described. The input personal characteristic data group is stored in the characteristic amount X storage unit 312.

【0196】入力された個人特徴データ群と人物IDを
用いて、目的変数Y生成手段318によって目的変数Y
が生成される。生成した目的変数Yは、目的変数Y記憶
手段317に記憶される。
Using the input personal characteristic data group and the person ID, the target variable Y
Is generated. The generated target variable Y is stored in the target variable Y storage unit 317.

【0197】次に、分散共分散行列Cxx算出手段31
3において、分散共分散行列Cxxを算出する。
Next, the variance-covariance matrix Cxx calculating means 31
At 3, the variance-covariance matrix Cxx is calculated.

【0198】次に、逆行列変換手段314において、分
散共分散行列Cxxの逆行列を算出する。
Next, the inverse matrix conversion means 314 calculates an inverse matrix of the variance-covariance matrix Cxx.

【0199】次に、共分散行列Cxy算出手段319に
おいて、共分散行列Cxyを算出する。
Next, the covariance matrix Cxy calculating means 319 calculates the covariance matrix Cxy.

【0200】次に、行列乗算手段315において、乗算
項Aijを算出し、係数記憶手段320に乗算項Aij
データを記憶する。
Next, the multiplication term Aij is calculated by the matrix multiplication means 315, and the multiplication term Aij is stored in the coefficient storage means 320.
Store the data.

【0201】次に、定数項算出手段316において、定
数項A0jを算出し、係数記憶手段320に記憶する。
Next, the constant term calculation means 316 calculates a constant term A0j and stores it in the coefficient storage means 320.

【0202】最後に、係数記憶手段320のデータを出
力して終了する。
Finally, the data in the coefficient storage means 320 is output, and the processing ends.

【0203】なお、図31では、0と1の2値データを
示したが、線形判別辞書作成手段311においては、0
と100等の他の2値データを用いることも可能であ
る。
Although FIG. 31 shows the binary data of 0 and 1, the linear discriminating dictionary creating means 311 uses 0 binary data.
It is also possible to use other binary data such as and 100.

【0204】図30は、図14の固有ベクトル辞書作成
手段127の一実施例をなす固有ベクトル辞書作成手段
331を示す図である。固有ベクトル辞書作成手段33
1は、特徴量記憶手段332と、特徴量平均算出手段3
33と、分散共分散行列算出手段334と、固有ベクト
ル算出手段335と、係数記憶手段336と備えて構成
されている。
FIG. 30 is a diagram showing the eigenvector dictionary creating means 331 which forms one embodiment of the eigenvector dictionary creating means 127 of FIG. Eigenvector dictionary creation means 33
1 is a feature amount storage unit 332 and a feature amount average calculation unit 3
33, a variance-covariance matrix calculation unit 334, an eigenvector calculation unit 335, and a coefficient storage unit 336.

【0205】図31と図33とを参照して、固有ベクト
ル辞書の作成方法について説明する。個人特徴データX
の要素を、xij:(i=1....N、j=
1,...p)で表わす。
A method for creating an eigenvector dictionary will be described with reference to FIGS. 31 and 33. Personal characteristic data X
The elements of xij: (i = 1 ... N, j =
1,. . . expressed by p).

【0206】はじめにXの特徴量ごとの平均値を求め
る。次に、Xの分散共分散行列Cxxを、上式(15)
を用いて算出する。分散共分散行列Cxxの固有ベクト
ルを求める。固有ベクトルを求める方法は、当業者によ
って広く知られており、本発明とは直接関係しないこと
から、その詳細は省略する。
First, an average value for each feature amount of X is obtained. Next, the variance-covariance matrix Cxx of X is calculated by the above equation (15).
Is calculated using An eigenvector of the variance-covariance matrix Cxx is obtained. The method of obtaining the eigenvector is widely known by those skilled in the art, and is not directly related to the present invention, and thus the details thereof are omitted.

【0207】以上の操作により、図33に示すような形
式の固有ベクトル辞書が得られる。固有ベクトルは特徴
量の数(p個)だけ得られる。図33では、1行分が1
つの固有ベクトルを表わしている。
With the above operation, an eigenvector dictionary having a format as shown in FIG. 33 is obtained. The eigenvectors are obtained by the number (p) of feature amounts. In FIG. 33, one line is 1
Three eigenvectors.

【0208】図30は、固有ベクトル辞書作成手段33
1の構成及び処理を説明するための図である。図30を
参照して、固有ベクトル辞書作成手段331の動作につ
いて説明する。
FIG. 30 shows the eigenvector dictionary creating means 33.
1 is a diagram for describing a configuration and processing of FIG. The operation of the eigenvector dictionary creation unit 331 will be described with reference to FIG.

【0209】個人特徴データが入力されると、特徴量記
憶手段332に記憶される。
[0209] When the personal characteristic data is input, it is stored in the characteristic amount storage means 332.

【0210】次に、特徴量平均算出手段333におい
て、特徴量の平均値を求め、係数記憶手段336に記憶
する。次に分散共分散行列算出手段334において、分
散共分散行列Cxxを算出する。
Next, the average value of the characteristic values is obtained by the characteristic value average calculating means 333 and stored in the coefficient storing means 336. Next, the variance-covariance matrix calculation means 334 calculates the variance-covariance matrix Cxx.

【0211】次に、固有ベクトル算出手段335におい
て、分散共分散行列Cxxの固有ベクトルを算出し、係
数記憶手段336に記憶する。最後に、係数記憶手段3
36のデータを出力して終了する。
Next, the eigenvector calculation means 335 calculates the eigenvector of the variance-covariance matrix Cxx and stores it in the coefficient storage means 336. Finally, the coefficient storage means 3
36 is output and the process is terminated.

【0212】図16は、本発明に係るロボット装置の一
実施の形態の構成を示す図である。図16を参照する
と、このロボット装置201は、CCDカメラ202
と、人物検出識別手段203と、辞書データ管理部20
4と、人物検出識別管理部205と、全体制御部206
と、スピーカ207と、ロボット移動手段208とを備
えている。ロボット移動手段208は、モータ209
と、車輪210とを備えている。
FIG. 16 is a diagram showing the configuration of an embodiment of the robot apparatus according to the present invention. Referring to FIG. 16, the robot device 201 includes a CCD camera 202
, Person detection identification means 203, dictionary data management unit 20
4, the person detection identification management unit 205, and the overall control unit 206
, A speaker 207, and a robot moving unit 208. The robot moving means 208 includes a motor 209
And wheels 210.

【0213】人物検出識別手段203は、CCDカメラ
202からのステレオ映像を基に、人物検出と識別を行
なっている。人物検出識別管理部205は、人物検出識
別手段203との情報のやり取り、全体制御部206と
の情報のやり取り、辞書データ管理部204との情報の
やり取りを行なっている。スピーカ207は全体制御部
206に接続され、全体制御部206の指示で発話する
ことができる。また全体制御部206は、ロボット移動
手段208に移動指示を送る。ロボット移動手段208
はモータ209と複数の車輪210を持ち、ロボットを
自由な方向に移動させることができる。
[0213] The person detection / identification means 203 performs person detection and identification based on the stereo image from the CCD camera 202. The person detection identification management section 205 exchanges information with the person detection identification section 203, exchanges information with the overall control section 206, and exchanges information with the dictionary data management section 204. The speaker 207 is connected to the general control unit 206 and can speak according to an instruction from the general control unit 206. Further, the overall control unit 206 sends a movement instruction to the robot moving unit 208. Robot moving means 208
Has a motor 209 and a plurality of wheels 210, and can move the robot in a free direction.

【0214】図26は、本発明に係るロボット装置の一
実施の形態の処理を説明するための図である。図16及
び図26を参照して、本発明の一実施の形態のロボット
装置201の動作について説明する。ロボット装置20
1は、人物を検出すると、人物の方向に移動して近づい
ていき、予め定められた所定の距離以内に近づいたら人
物識別を行なう。
FIG. 26 is a diagram for explaining the processing of one embodiment of the robot apparatus according to the present invention. The operation of the robot apparatus 201 according to one embodiment of the present invention will be described with reference to FIGS. Robot device 20
When a person is detected, the person 1 moves in the direction of the person and approaches the person, and performs person identification when the person approaches within a predetermined distance.

【0215】人物検出識別管理部205は、人物検出識
別手段203内の頭部検出追跡手段から、検出した頭部
の矩形情報と、対面距離値を取得し、全体制御部206
に送信する(ステップS71)。
The person detection / identification management unit 205 obtains the rectangular information of the detected head and the facing distance value from the head detection / tracking unit in the person detection / identification unit 203, and
(Step S71).

【0216】全体制御部206では対面距離値を参照
し、対面距離がしきい値よりも近いかどうかを判定する
(ステップS73)。距離がしきい値よりも遠いとき
は、ロボット移動手段208に指令して、人物の方向に
前進する(ステップS72)。
The overall control unit 206 refers to the facing distance value and determines whether the facing distance is shorter than a threshold value (step S73). If the distance is longer than the threshold, the robot moving means 208 is commanded to move forward in the direction of the person (step S72).

【0217】人物の存在する概略的な方向は、画像内の
頭部矩形座標から類推することができる。ステップS7
1からステップS73を繰り返し、対面距離がしきい値
よりも近くなったら、全体制御部206は、人物検出識
別管理部205から人物識別結果を取得する(ステップ
S74)。
The approximate direction in which the person exists can be inferred from the coordinates of the head rectangle in the image. Step S7
Steps S73 to S73 are repeated, and when the face-to-face distance is shorter than the threshold, the overall control unit 206 acquires the person identification result from the person detection identification management unit 205 (step S74).

【0218】次に、人物別の音声をスピーカ207から
発声し、人物識別したことを対話者に知らせる(ステッ
プS75)。
Next, a voice for each person is uttered from the speaker 207 to notify the interlocutor that the person has been identified (step S75).

【0219】図17は、本発明のロボット装置の一実施
例の構成を示す図である。図17を参照すると、ロボッ
ト装置221は、CCDカメラ202と、対面距離セン
サ223と、タッチセンサ222と、人物検出識別手段
224と、辞書データ管理部204と、人物検出識別管
理部205と、全体制御部227と、マイク225と、
音声認識手段226と、スピーカ207と、ロボット移
動手段208とを備えて構成されている。ロボット移動
手段208は、モータ209と、車輪210とを備えて
いる。
FIG. 17 is a diagram showing the configuration of an embodiment of the robot apparatus according to the present invention. Referring to FIG. 17, the robot apparatus 221 includes a CCD camera 202, a facing distance sensor 223, a touch sensor 222, a person detection and identification unit 224, a dictionary data management unit 204, a person detection and identification management unit 205, A control unit 227, a microphone 225,
It comprises a voice recognition means 226, a speaker 207, and a robot moving means 208. The robot moving means 208 includes a motor 209 and wheels 210.

【0220】人物検出識別手段224は、CCDカメラ
202からのステレオ映像と、対面距離センサ223と
の情報を元に、人物検出と識別を行なっている。人物検
出識別管理部205は、人物検出識別手段224との情
報のやり取り、全体制御部227との情報のやり取り、
辞書データ管理部204との情報のやり取りを行なって
いる。スピーカ207は全体制御部227に接続され、
全体制御部227の指示で発話することができる。また
全体制御部227は、ロボット移動手段208に移動指
示を送る。ロボット移動手段208はモータ209と複
数の車輪210を持ち、ロボットを自由な方向に移動さ
せることができる。タッチセンサ222は、全体制御部
227に接続されており、外部から物体の接触の有無
と、接触の強さを検出する。マイク225は音声認識手
段226に接続され、音声認識手段226は全体制御部
227に接続されている。音声認識手段226は、マイ
ク225からの音声データから、人の言葉を自動認識
し、認識結果を、全体制御部に送信する。
[0220] The person detection / identification means 224 performs person detection and identification based on information from the stereo image from the CCD camera 202 and the facing distance sensor 223. The person detection identification management unit 205 exchanges information with the person detection identification unit 224, exchanges information with the overall control unit 227,
The exchange of information with the dictionary data management unit 204 is performed. The speaker 207 is connected to the overall control unit 227,
The utterance can be made according to an instruction from the overall control unit 227. The overall control unit 227 sends a movement instruction to the robot moving unit 208. The robot moving means 208 has a motor 209 and a plurality of wheels 210, and can move the robot in a free direction. The touch sensor 222 is connected to the overall control unit 227, and detects the presence or absence of contact with an object from outside and the strength of the contact. The microphone 225 is connected to the voice recognition unit 226, and the voice recognition unit 226 is connected to the overall control unit 227. The voice recognition unit 226 automatically recognizes a human word from voice data from the microphone 225, and transmits a recognition result to the overall control unit.

【0221】図27は、本発明の一実施例のロボット装
置の処理を説明するための流れ図である。図17及び図
27を参照して、本発明の一実施例のロボット装置22
1の動作例について説明する。
FIG. 27 is a flowchart for explaining the processing of the robot apparatus according to one embodiment of the present invention. Referring to FIGS. 17 and 27, a robot apparatus 22 according to an embodiment of the present invention is described.
The first operation example will be described.

【0222】ロボット装置221は、対面している人物
の検出識別を行ない、対話者の反応によって識別辞書を
更新することによって、人物画像の逐次学習を行なう。
The robot apparatus 221 performs the sequential learning of the person image by detecting and identifying the person facing the person and updating the identification dictionary according to the reaction of the interlocutor.

【0223】全体制御部227は、人物検出識別管理部
205から人物識別結果を取得する(ステップS8
1)。
The overall control unit 227 acquires the person identification result from the person detection identification management unit 205 (step S8).
1).

【0224】次に識別した人物毎に特定の動作を行なう
(ステップS82)。特定の動作とは、人の名前を発声
したり、人によって車輪を特定方向に動かしたりする行
為全体を差す。
Next, a specific operation is performed for each identified person (step S82). The specific action refers to an entire act of saying a person's name or moving a wheel in a specific direction by a person.

【0225】次に、対話者の反応がセンスされるのを待
つ(ステップS83)。対話者の反応が得られたとき
は、次にその反応がポジティブなものかネガティブなも
のかを判定する(ステップS84)。ポジティブな反応
とは、「Yes」という意味であり、例えば音声認識
で,「はい」を認識した時などがある。
Next, the process waits until the response of the interlocutor is sensed (step S83). When the response of the interlocutor is obtained, it is next determined whether the response is positive or negative (step S84). The positive response means "Yes", for example, when "Yes" is recognized by voice recognition.

【0226】ネガティブな反応とは、「No」という意
味であり、例えば音声認識で,「いいえ」を認識した時
などがある。
The negative response means "No", for example, when "No" is recognized by voice recognition.

【0227】また、例えば、あらかじめタッチセンサを
1度押下すると「はい」、2度押下すると「いいえ」と
いう規則を予め全体制御部で決めておくことで、タッチ
センサを用いて対話者の反応を取得することができる。
Also, for example, a rule of “Yes” when the touch sensor is pressed once and “No” when the touch sensor is pressed twice are determined in advance by the overall control unit, so that the reaction of the interlocutor can be performed using the touch sensor. Can be obtained.

【0228】ステップS84がネガティブな反応の場合
は、もう一度ステップS81から動作を繰り返す。ポジ
ティブな反応の場合には、識別に使用した顔特徴データ
を辞書データ管理部204に入力する(ステップS8
5)。
If step S84 is a negative reaction, the operation is repeated from step S81. In the case of a positive response, the facial feature data used for identification is input to the dictionary data management unit 204 (step S8).
5).

【0229】そして識別辞書を作成し更新する(ステッ
プS86)。
Then, an identification dictionary is created and updated (step S86).

【0230】終了指示があれば終了し、なければ、再び
ステップS81から動作を繰り返す(ステップS8
7)。
If there is an end instruction, the operation is ended. If not, the operation is repeated from step S81 again (step S8).
7).

【0231】図28は、本発明のロボット装置の他の実
施例の処理を説明するための流れ図である。図17及び
図28を参照して、本発明の他の実施例をなすロボット
装置221の動作の例について説明する。ロボット装置
221は、対面している人物の検出識別を行ない、対話
者の命令によって新しい人物の画像を取得し、新しい人
物辞書を登録する。
FIG. 28 is a flow chart for explaining the processing of another embodiment of the robot apparatus of the present invention. With reference to FIGS. 17 and 28, an example of the operation of the robot device 221 according to another embodiment of the present invention will be described. The robot device 221 detects and identifies a facing person, acquires an image of a new person according to a command of the interlocutor, and registers a new person dictionary.

【0232】全体制御部227は、人物検出識別管理部
205から人物識別結果を取得する(ステップS9
1)。
The overall control unit 227 acquires the person identification result from the person detection identification management unit 205 (step S9).
1).

【0233】次に識別した人物毎に特定の動作を行なう
(ステップS92)。特定の動作とは、人の名前を発声
したり、人によって車輪を特定方向に動かしたりする行
為全体を差す。
Then, a specific operation is performed for each identified person (step S92). The specific action refers to an entire act of saying a person's name or moving a wheel in a specific direction by a person.

【0234】次に、対話者の命令がセンスされるのを待
つ(ステップS93)。対話者の命令イベントが得られ
ると、次にその命令イベントが登録命令かどうかを判定
する(ステップS94)。登録命令イベントは、例えば
音声認識で「とうろく」を認識したというイベントがあ
る。また、あらかじめタッチセンサを1度たたくと登録
イベントである、という規則を予め全体制御部で決めて
おくことにより、タッチセンサを用いて登録命令イベン
トを発声させることができる。
Next, it waits for the command of the interlocutor to be sensed (step S93). When the command event of the interlocutor is obtained, it is determined whether the command event is a registration command (step S94). The registration command event includes, for example, an event in which "small" has been recognized by voice recognition. In addition, by preliminarily determining in the overall control unit a rule that tapping the touch sensor once is a registration event, the registration command event can be uttered using the touch sensor.

【0235】登録命令が来たときは、登録処理を行い、
新しい人物の登録を行なう(ステップS95)。登録処
理ステップS95の一例は、図25に示されており、既
に説明済みである。
When a registration command is received, a registration process is performed.
A new person is registered (step S95). An example of the registration processing step S95 is shown in FIG. 25 and has already been described.

【0236】登録処理が終了すると、再びステップS9
1から処理を開始する。登録命令イベントが来なかった
場合は、終了判定を行なう(ステップS96)。
Upon completion of the registration process, the process returns to step S9.
The processing is started from 1. If the registration command event has not arrived, an end determination is made (step S96).

【0237】終了命令があれば終了し、終了命令がない
場合は、再びステップS91から処理を開始する。
If there is an end command, the process ends. If there is no end command, the process starts again from step S91.

【0238】図35は、本発明の関連発明に係る人物検
出識別システムの一実施の形態の構成を示す図である。
図35を参照すると、本発明の関連発明に係る人物検出
識別システムは、映像取得手段2と、対面距離センサ5
と、人物検出識別手段501と、辞書データ管理部12
と、人物検出識別管理部502と、記録媒体503とを
備えている。記録媒体503には、人物検出識別処理プ
ログラムを記録しており、磁気ディスク、半導体メモ
リ、CD-ROMその他の記録媒体であってよい。
FIG. 35 is a diagram showing a configuration of an embodiment of a person detection / identification system according to the related invention of the present invention.
Referring to FIG. 35, a person detection / identification system according to a related invention of the present invention includes an image acquisition unit 2 and a facing distance sensor 5.
, Person detection identification means 501, dictionary data management unit 12
, A person detection identification management unit 502, and a recording medium 503. The recording medium 503 stores a person detection / identification processing program, and may be a magnetic disk, a semiconductor memory, a CD-ROM, or another recording medium.

【0239】人物検出識別処理プログラムは、記録媒体
503から人物検出識別手段501と、人物検出識別管
理部502に読み込まれ、図1を参照して説明した前記
した実施の形態における人物検出識別手段6および人物
検出識別管理部13による処理と同一の処理を実行す
る。
The person detection / identification processing program is read from the recording medium 503 by the person detection / identification means 501 and the person detection / identification management unit 502, and is read by the person detection / identification means 6 in the above-described embodiment described with reference to FIG. And the same processing as the processing by the person detection identification management unit 13 is executed.

【0240】[0240]

【発明の効果】以上説明したように、本発明によれば、
次のような効果を奏する。
As described above, according to the present invention,
The following effects are obtained.

【0241】本発明のロボット装置で用いられる人物識
別装置は、例えば家庭環境のように、照明条件の変動が
激しい環境下においても、極めて高い識別率で人物を識
別することができる、という効果を奏する。
The person identification device used in the robot apparatus of the present invention has an effect that a person can be identified with an extremely high identification rate even in an environment where lighting conditions fluctuate greatly, such as a home environment. Play.

【0242】その理由は以下の通りである。すなわち、
本発明においては、画像の濃淡値だけではなく、動きと
対面距離情報を用いて検出識別している、ためである。
また、本発明においては、顔位置合わせ手段により、精
度のよい正面顔を検出している、ためである。さらに、
本発明においては、顔識別手段において、線形判別辞書
による類似度識別を行なっている、ためである。
The reason is as follows. That is,
This is because, in the present invention, detection and identification are performed using not only the shading value of the image but also the movement and the facing distance information.
In addition, in the present invention, this is because an accurate frontal face is detected by the face positioning means. further,
This is because, in the present invention, the face discrimination means performs the similarity discrimination using the linear discrimination dictionary.

【0243】そして、本発明においては、人(利用者)
との対話を通じて、装置又はシステムが自ら学習するこ
とで、識別精度を上げる、ように構成したためである。
In the present invention, a person (user)
This is because the device or the system learns itself through the dialogue with the user to improve the identification accuracy.

【0244】また、本発明のロボット装置によれば、あ
る場所で入力画像が不良で識別できなくても、その後、
装置自ら動作することにより、良好な画像を取得する、
ことができる。
Further, according to the robot apparatus of the present invention, even if an input image cannot be identified at a certain place due to a defect, after that,
By acquiring a good image by operating the device itself,
be able to.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のロボット装置で用いられる人物識別装
置の一実施の形態の構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an embodiment of a person identification device used in a robot device of the present invention.

【図2】本発明のロボット装置で用いられる人物識別装
置における頭部検出追跡手段の一実施例の構成を示すブ
ロック図である。
FIG. 2 is a block diagram showing a configuration of an embodiment of a head detecting and tracking means in the person identification device used in the robot device of the present invention.

【図3】本発明のロボット装置で用いられる人物識別装
置における頭部検出追跡手段の別の実施例の構成を示す
ブロック図である。
FIG. 3 is a block diagram showing the configuration of another embodiment of the head detection and tracking means in the person identification device used in the robot device of the present invention.

【図4】本発明のロボット装置で用いられる人物識別装
置における単眼視頭部矩形座標検出手段の一実施例の構
成を示すブロック図である。
FIG. 4 is a block diagram showing a configuration of an embodiment of a monocular vision head rectangular coordinate detecting means in the human identification device used in the robot device of the present invention.

【図5】本発明のロボット装置で用いられる人物識別装
置における頭部検出処理を説明するための図である。
FIG. 5 is a diagram for explaining a head detection process in the person identification device used in the robot device of the present invention.

【図6】本発明のロボット装置で用いられる人物識別装
置における左右画像照合処理を説明するための図であ
る。
FIG. 6 is a diagram for explaining left and right image matching processing in the person identification device used in the robot device of the present invention.

【図7】本発明のロボット装置で用いられる人物識別装
置における頭部追跡処理を説明するための図である。
FIG. 7 is a diagram for explaining a head tracking process in the person identification device used in the robot device of the present invention.

【図8】本発明のロボット装置で用いられる人物識別装
置における正面顔画像を特徴データに変換する際のラス
タスキャンの説明図である。
FIG. 8 is an explanatory diagram of a raster scan when converting a frontal face image into feature data in a person identification device used in the robot device of the present invention.

【図9】本発明のロボット装置で用いられる人物識別装
置における正面顔位置合わせ手段の一実施例の構成を示
すブロック図である。
FIG. 9 is a block diagram showing a configuration of an embodiment of a front face alignment unit in the person identification device used in the robot device of the present invention.

【図10】本発明のロボット装置で用いられる人物識別
装置における正面顔探索手段の一実施例の構成を示すブ
ロック図である。
FIG. 10 is a block diagram showing a configuration of an embodiment of a front face searching means in the person identification device used in the robot device of the present invention.

【図11】本発明のロボット装置で用いられる人物識別
装置における正面顔探索手段の他の実施例の構成を示す
ブロック図である。
FIG. 11 is a block diagram showing the configuration of another embodiment of the front face search means in the person identification device used in the robot device of the present invention.

【図12】本発明のロボット装置で用いられる人物識別
装置における頭部検出処理と顔位置合わせ処理を説明す
るための図である。
FIG. 12 is a diagram for explaining a head detection process and a face registration process in the person identification device used in the robot device of the present invention.

【図13】本発明のロボット装置で用いられる人物識別
装置における顔識別手段と識別辞書記憶手段と識別結果
補正手段の各実施例の構成を示すブロック図である。
FIG. 13 is a block diagram showing a configuration of each embodiment of a face identification unit, an identification dictionary storage unit, and an identification result correction unit in the person identification device used in the robot device of the present invention.

【図14】本発明のロボット装置で用いられる人物識別
装置における辞書データ管理部の一実施例の構成を示す
ブロック図である。
FIG. 14 is a block diagram showing a configuration of an embodiment of a dictionary data management unit in the person identification device used in the robot device of the present invention.

【図15】本発明のロボット装置で用いられる人物識別
装置における顔識別手段と識別辞書記憶手段と識別結果
補正手段の各実施例の構成を示すブロック図である。
FIG. 15 is a block diagram showing a configuration of each embodiment of a face identification unit, an identification dictionary storage unit, and an identification result correction unit in the person identification device used in the robot device of the present invention.

【図16】本発明のロボット装置の一実施例の構成を示
す図である。
FIG. 16 is a diagram showing a configuration of an embodiment of the robot apparatus of the present invention.

【図17】本発明のロボット装置の他の実施例の構成を
示す図である。
FIG. 17 is a diagram showing a configuration of another embodiment of the robot apparatus of the present invention.

【図18】本発明のロボット装置で用いられる人物識別
装置における人物検出処理と識別処理を説明するための
流れ図である。
FIG. 18 is a flowchart illustrating a person detection process and an identification process in the person identification device used in the robot device of the present invention.

【図19】本発明のロボット装置で用いられる人物識別
装置における頭部検出追跡処理を説明するための流れ図
である。
FIG. 19 is a flowchart for explaining head detection tracking processing in the person identification device used in the robot device of the present invention.

【図20】本発明のロボット装置で用いられる人物識別
装置における頭部検出処理を説明するための流れ図であ
る。
FIG. 20 is a flowchart illustrating a head detection process in the person identification device used in the robot device of the present invention.

【図21】本発明のロボット装置で用いられる人物識別
装置における正面顔位置合わせ処理を説明するための流
れ図である。
FIG. 21 is a flowchart for explaining front face alignment processing in a person identification device used in the robot device of the present invention.

【図22】本発明のロボット装置で用いられる人物識別
装置における正面顔探索処理を説明するための流れ図で
ある。
FIG. 22 is a flowchart illustrating a front face search process in the person identification device used in the robot device of the present invention.

【図23】本発明のロボット装置で用いられる人物識別
装置における正面顔探索処理を説明するための流れ図で
ある。
FIG. 23 is a flowchart illustrating a front face search process in the person identification device used in the robot device of the present invention.

【図24】本発明のロボット装置で用いられる人物識別
装置における顔識別処理を説明するための流れ図であ
る。
FIG. 24 is a flowchart for explaining face identification processing in a person identification device used in the robot device of the present invention.

【図25】本発明のロボット装置で用いられる人物識別
装置における人物辞書登録処理を説明するための流れ図
である。
FIG. 25 is a flowchart illustrating a person dictionary registration process in the person identification device used in the robot device of the present invention.

【図26】本発明のロボット装置における行動制御を説
明するための流れ図である。
FIG. 26 is a flowchart for explaining behavior control in the robot device of the present invention.

【図27】本発明のロボット装置における行動制御を説
明するための流れ図である。
FIG. 27 is a flowchart for explaining behavior control in the robot device of the present invention.

【図28】本発明のロボット装置における行動制御を説
明するための流れ図である。
FIG. 28 is a flowchart for explaining behavior control in the robot device of the present invention.

【図29】本発明のロボット装置で用いられる人物識別
装置における線形判別辞書作成手段の一実施例の構成を
示すブロック図である。
FIG. 29 is a block diagram showing a configuration of an embodiment of a linear discrimination dictionary creating means in the person identification device used in the robot device of the present invention.

【図30】本発明のロボット装置で用いられる人物識別
装置における固有ベクトル辞書作成手段の一実施例の構
成を示すブロック図である。
FIG. 30 is a block diagram showing a configuration of an embodiment of an eigenvector dictionary creating means in the person identification device used in the robot device of the present invention.

【図31】本発明のロボット装置で用いられる人物識別
処理に用いる線形判別辞書作成方法を説明するための図
である。
FIG. 31 is a diagram for explaining a method of creating a linear discriminant dictionary used for a person identification process used in the robot apparatus of the present invention.

【図32】本発明のロボット装置で用いられる人物識別
処理に用いるステレオ視による対面距離算出方法を説明
するための図である。
FIG. 32 is a diagram for describing a face-to-face distance calculation method by stereo vision used in a person identification process used in the robot apparatus of the present invention.

【図33】本発明のロボット装置で用いられる人物識別
処理に用いる固有ベクトル投影距離辞書の説明図であ
る。
FIG. 33 is an explanatory diagram of an eigenvector projection distance dictionary used for a person identification process used in the robot apparatus of the present invention.

【図34】本発明のロボット装置で用いられる人物識別
処理に用いる線形判別辞書の説明図である。
FIG. 34 is an explanatory diagram of a linear discrimination dictionary used for a person identification process used in the robot apparatus of the present invention.

【図35】本発明のロボット装置で用いられる人物識別
装置の他の実施例の構成を示すブロック図である。
FIG. 35 is a block diagram showing a configuration of another embodiment of the person identification device used in the robot device of the present invention.

【符号の説明】[Explanation of symbols]

1 人物検出識別手段 2 映像取得手段 3 右カメラ 4 左カメラ 5 対面距離センサ 6 頭部検出追跡手段 7 正面顔位置合わせ手段 8 顔特徴量抽出手段 9 顔識別手段 10 識別辞書記憶手段 11 識別結果補正手段 12 辞書データ管理部 13 人物検出識別管理部 14 人物識別装置 21 頭部検出手段 22 頭部追跡手段 23 頭部矩形記憶手段 24 単眼視頭部矩形座標検出手段 25 左右画像照合手段 26 対面距離評価手段 27 頭部検出追跡手段 28 右カメラ 29 左カメラ 30 対面距離センサ 31 対面距離統合手段 32 頭部検出追跡手段 33 頭部検出手段 34 CCDカメラ 41 頭部矩形座標検出手段 42 動き画素検出手段 43 人物数評価手段 44 頭頂座標検出手段 45 頭部下部座標検出手段 46 側頭座標検出手段 47 動き領域幅 48 統合差分画像G 49 統合差分画像G 50 統合差分画像上部領域 51 頭部検出矩形 52 探索結果 53 前フレームの頭部矩形座標 54 サーチ軌跡 55 前フレームの頭部矩形画像 61 正面顔位置合わせ手段 62 頭部矩形切り取り手段 63 正面顔探索手段 64 標準顔辞書デ−タ記憶手段 65 正面顔らしさ判定手段 66 濃度分散判定手段 67 しきい値処理手段 71 正面顔探索手段 72 正面顔候補抽出手段 73 中間縮小画像記憶手段 74 コントラスト補正手段 75 固有ベクトル投影距離算出手段 76 標準顔辞書記憶手段 77 記憶手段 78 投影距離最小判定手段 79 探索範囲終了判定手段 80 標準顔平均データ記憶手段 81 標準顔固有ベクトルデータ記憶手段 82 平均差分手段 83 ベクトル投影値算出手段 84 再構成演算手段 85 投影距離計算手段 86 投影距離最小値記憶手段 87 正面顔濃淡値記憶手段 88 頭部中間サイズ算出手段 89 頭部矩形画像記憶手段 90 画像縮小手段 91 中間サイズ記憶手段 92 多重解像度処理終了判定手段 101 正面顔探索手段 102 積和演算手段 103 類似度最大判定手段 104 標準顔辞書データ記憶部 105 記憶手段 106 類似度最大値記憶手段 107 正面顔濃淡値記憶手段 111 顔識別手段 112 識別辞書記憶手段 113 識別結果補正手段 114 識別結果加重平均算出手段 115 特徴データ記憶手段 116 積和演算手段 117 しきい値処理手段 118 最大類似度人物判定手段 119 登録人物用識別辞書記憶手段 121 辞書データ管理部 122 個人特徴データ管理部 123 識別辞書生成手段 124 セレクタ 125 人物別特徴データ 126 線形判別辞書作成手段 127 固有ベクトル辞書作成手段 131 顔識別手段 132 識別辞書記憶手段 133 他人判別手段 134 他人判別用辞書記憶手段 151 頭部矩形 152 頭部矩形画像 153 縮小頭部矩形画像 154 正面顔探索形状 155 正面顔画像 201 ロボット装置 202 CCDカメラ 203 人物検出識別手段 204 辞書データ管理部 205 人物検出識別管理部 206 全体制御部 207 スピーカ 208 ロボット移動手段 209 モータ 210 車輪 221 ロボット装置 222 タッチセンサ 223 対面距離センサ 224 人物検出識別手段 225 マイク 226 音声認識手段 227 全体制御部 311 線形判別辞書作成手段 312 特徴量X記憶手段 313 分散共分散行列Cxx算出手段 314 逆行列変換手段 315 行列乗算手段 316 定数項算出手段 317 目的変数Y記憶手段 318 目的変数Y生成手段 319 共分散行列Cxy算出手段 320 係数記憶手段 331 固有ベクトル辞書作成手段 332 特徴量記憶手段 333 特徴量平均算出手段 334 分散共分散行列算出手段 335 固有ベクトル算出手段 336 係数記憶手段 341 個人特徴データX 342 目的変数Y 343 特徴データ平均値 344 目的変数平均値 401 右カメラ 402 左カメラ 403 対象物 411 1番目の固有ベクトル 412 2番目の固有ベクトル 413 P番目の固有ベクトル 414 平均値 421 定数項 422 クラス1の識別係数 423 クラス2の識別係数 424 クラスqの識別係数 425 乗算項 501 人物検出識別処理部 502 人物検出識別管理部 503 記録媒体 DESCRIPTION OF SYMBOLS 1 Person detection identification means 2 Video acquisition means 3 Right camera 4 Left camera 5 Face-to-face distance sensor 6 Head detection tracking means 7 Front face alignment means 8 Face feature extraction means 9 Face identification means 10 Identification dictionary storage means 11 Identification result correction Means 12 Dictionary data management unit 13 Person detection identification management unit 14 Person identification device 21 Head detection unit 22 Head tracking unit 23 Head rectangle storage unit 24 Monocular head rectangular coordinate detection unit 25 Left / right image comparison unit 26 Face-to-face distance evaluation Means 27 Head detection and tracking means 28 Right camera 29 Left camera 30 Face-to-face distance sensor 31 Face-to-face distance integration means 32 Head detection and tracking means 33 Head detection means 34 CCD camera 41 Head rectangular coordinate detection means 42 Motion pixel detection means 43 People Number evaluation means 44 Head coordinate detection means 45 Head lower coordinate detection means 46 Temporal coordinate detection means 4 Moving area width 48 Integrated differential image G 49 Integrated differential image G 50 Integrated differential image upper area 51 Head detection rectangle 52 Search result 53 Head rectangular coordinate of previous frame 54 Search locus 55 Head rectangular image of previous frame 61 Front face position Matching means 62 head rectangular cutout means 63 front face search means 64 standard face dictionary data storage means 65 front face likeness determination means 66 density variance determination means 67 threshold processing means 71 front face search means 72 front face candidate extraction means 73 intermediate reduced image storage means 74 contrast correction means 75 eigenvector projection distance calculation means 76 standard face dictionary storage means 77 storage means 78 minimum projection distance determination means 79 search range end determination means 80 standard face average data storage means 81 standard face eigenvector data storage Means 82 Mean difference means 83 Vector projection calculation Output means 84 Reconstruction calculation means 85 Projection distance calculation means 86 Projection distance minimum value storage means 87 Front face density value storage means 88 Head intermediate size calculation means 89 Head rectangular image storage means 90 Image reduction means 91 Intermediate size storage means 92 Multi-resolution processing end determination means 101 Front face search means 102 Product-sum operation means 103 Maximum similarity determination means 104 Standard face dictionary data storage unit 105 Storage means 106 Maximum similarity value storage means 107 Front face gray value storage means 111 Face identification means 112 identification dictionary storage means 113 identification result correction means 114 identification result weighted average calculation means 115 feature data storage means 116 product sum operation means 117 threshold processing means 118 maximum similarity person determination means 119 registered person identification dictionary storage means 121 dictionary Data management unit 122 Individual feature data management unit 123 identification dictionary generating means 124 selector 125 person-specific feature data 126 linear discriminating dictionary creating means 127 eigenvector dictionary creating means 131 face discriminating means 132 identification dictionary storing means 133 others discriminating means 134 others discriminating dictionary storing means 151 head rectangle 152 head Rectangular image 153 Reduced head rectangular image 154 Front face search shape 155 Front face image 201 Robot device 202 CCD camera 203 Person detection / identification unit 204 Dictionary data management unit 205 Person detection / identification management unit 206 Overall control unit 207 Speaker 208 Robot moving unit 209 Motor 210 Wheel 221 Robot device 222 Touch sensor 223 Face-to-face distance sensor 224 Person detection and identification unit 225 Microphone 226 Voice recognition unit 227 Overall control unit 311 Linear discrimination dictionary creation unit 312 Collection X storage means 313 variance-covariance matrix Cxx calculation means 314 inverse matrix conversion means 315 matrix multiplication means 316 constant term calculation means 317 objective variable Y storage means 318 objective variable Y generation means 319 covariance matrix Cxy calculation means 320 coefficient storage means 331 eigenvector dictionary creation means 332 feature quantity storage means 333 feature quantity average calculation means 334 variance-covariance matrix calculation means 335 eigenvector calculation means 336 coefficient storage means 341 personal feature data X 342 objective variable Y 343 feature data average value 344 objective variable average value 401 Right camera 402 Left camera 403 Object 411 First eigenvector 412 Second eigenvector 413 Pth eigenvector 414 Average 421 Constant term 422 Class 1 identification coefficient 423 Class 2 identification coefficient 424 Scan q identification coefficients 425 product terms 501 person detecting identification processor 502 human detection identification management unit 503 recording medium

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 340 G06T 1/00 340A 7/20 100 7/20 100 7/60 150 7/60 150J 150P G10L 15/00 G10L 3/00 551H Fターム(参考) 3C007 AS36 CS08 KS07 KS08 KT02 KT11 KV18 WA16 WB19 WB22 WC01 WC07 5B057 AA05 BA02 CA12 CA16 DA06 DA11 DB02 DC01 DC36 5D015 KK01 5L096 BA05 CA05 EA13 FA02 FA67 FA69 HA01 JA11 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) G06T 1/00 340 G06T 1/00 340A 7/20 100 7/20 100 7/60 150 7/60 150J 150P G10L 15/00 G10L 3/00 551H F-term (reference) 3C007 AS36 CS08 KS07 KS08 KT02 KT11 KV18 WA16 WB19 WB22 WC01 WC07 5B057 AA05 BA02 CA12 CA16 DA06 DA11 DB02 DC01 DC36 5D015 KK01 5L096 BA05 CA05 EA01

Claims (27)

【特許請求の範囲】[Claims] 【請求項1】画像を取得する映像取得手段と、 前記取得された画像情報から人の頭部を検出する頭部検
出追跡手段と、 前記検出された頭部の部分画像中から正面顔画像を取得
する正面顔位置合わせ手段と、 正面顔画像を特徴量に変換する顔特徴抽出手段と、 識別辞書を用いて特徴量から人物を識別する顔識別手段
と、 識別辞書を保存する識別辞書記憶手段と、 を含む人物識別装置と、 ロボットの動作を制御する全体制御部と、 前記全体制御部の指示で音声を発話する音声出力手段
と、 前記全体制御部の指示でロボットを移動する移動手段
と、 を備えたことを特徴とするロボット装置。
An image acquisition unit for acquiring an image; a head detection tracking unit for detecting a human head from the acquired image information; and a frontal face image from a partial image of the detected head. Front face alignment means for obtaining, face feature extraction means for converting a front face image into feature quantities, face identification means for identifying a person from feature quantities using an identification dictionary, and identification dictionary storage means for storing the identification dictionary And a person control device that controls the operation of the robot; a voice output unit that utters a voice according to an instruction from the general control unit; and a moving unit that moves the robot according to an instruction from the general control unit. A robot device comprising:
【請求項2】前記全体制御部が、人物識別結果が得られ
たときに、人物毎に異なる音声で発話するよう制御す
る、ことを特徴とする請求項1記載のロボット装置。
2. The robot apparatus according to claim 1, wherein the overall control unit controls to speak with a different voice for each person when a person identification result is obtained.
【請求項3】前記全体制御部が、前記人物識別装置から
前方物体との対面距離と方向を取得する手段と、 人物識別結果を取得する手段と、 前記対面距離がしきい値以上の場合には、前記前方物体
に近づくように移動する手段と、 前記対面距離がしきい値以下のときは、人物識別結果を
人物毎に異なる音声で発話するように制御する手段と、 を備えたことを特徴とする請求項2記載のロボット装
置。
3. The system according to claim 2, wherein the overall control unit acquires a facing distance and a direction from a front object from the person identifying device, a unit acquiring a person identifying result, and Means for moving so as to approach the front object, and means for controlling when the facing distance is equal to or less than a threshold value so that the person identification result is spoken with a different voice for each person. The robot device according to claim 2, wherein
【請求項4】画像を取得する映像取得手段と、 前記取得された画像情報から人の頭部を検出する頭部検
出追跡手段と、 前記検出された頭部の部分画像中から正面顔画像を取得
する正面顔位置合わせ手段と、 正面顔画像を特徴量に変換する顔特徴抽出手段と、 識別辞書を用いて特徴量から人物を識別する顔識別手段
と、 識別辞書を保存する識別辞書記憶手段と、 を含む人物識別装置と、 前方の物体との距離を測定する対面距離センサと、 タッチセンサと、 音声入力手段と、 音声認識手段と、 を備えたことを特徴とするロボット装置。
4. A video acquisition unit for acquiring an image, a head detection tracking unit for detecting a human head from the acquired image information, and a front face image from a partial image of the detected head. Front face alignment means for obtaining, face feature extraction means for converting a front face image into feature quantities, face identification means for identifying a person from feature quantities using an identification dictionary, and identification dictionary storage means for storing the identification dictionary A robot apparatus comprising: a person identification device including: a face-to-face distance sensor that measures a distance to a forward object; a touch sensor; voice input means; and voice recognition means.
【請求項5】請求項4記載のロボット装置において、音
声認識の認識結果と、前記タッチセンサの出力結果とを
基に、ネガティブかポジティブかを示す反応イベントを
発生する処理と、 ポジティブ反応イベントによって、人物の画像を取得
し、辞書データ管理部において辞書を作成する処理と、
を有することを特徴とするロボット装置。
5. The robot apparatus according to claim 4, wherein a process of generating a negative or positive reaction event based on the recognition result of the voice recognition and the output result of the touch sensor, A process of acquiring an image of a person and creating a dictionary in the dictionary data management unit;
A robot device comprising:
【請求項6】請求項4記載のロボット装置において、音
声認識の認識結果と、前記タッチセンサの出力結果とを
基に、新規人物登録イベントを発生する手段と、 前記新規人物登録イベントによって、新しい人物の画像
を取得し、辞書データ管理部において辞書を作成する手
段と、を有することを特徴とするロボット装置。
6. A robot apparatus according to claim 4, wherein a means for generating a new person registration event based on a recognition result of voice recognition and an output result of said touch sensor, Means for acquiring an image of a person and creating a dictionary in a dictionary data management unit.
【請求項7】請求項1乃至6のいずれか一に記載のロボ
ット装置において、 前記人物識別装置が、前記顔識別手段から出力される識
別結果を過去Nフレーム分(Nは2以上の整数)加重平
均する識別結果補正手段をさらに備えたことを特徴とす
るロボット装置。
7. The robot apparatus according to claim 1, wherein the human identification device outputs the identification result output from the face identification means for the past N frames (N is an integer of 2 or more). A robot apparatus further comprising a weighted average identification result correction unit.
【請求項8】請求項1乃至7のいずれか一に記載のロボ
ット装置において、 前記人物識別装置が、人物識別に使用する線形判別辞書
を生成する辞書データ管理部をさらに備えたことを特徴
とするロボット装置。
8. The robot device according to claim 1, wherein the person identification device further includes a dictionary data management unit that generates a linear discrimination dictionary used for person identification. Robotic device to do.
【請求項9】請求項1乃至8のいずれか一に記載のロボ
ット装置の前記人物識別装置において、 前記頭部検出追跡手段が、 1フレームの画像から頭部矩形領域を検出する頭部検出
手段と、 前フレームの頭部矩形画像と座標を記憶する頭部矩形記
憶手段と、 前フレームの頭部矩形画像を現フレームでマッチング処
理する頭部追跡手段と、 を備えたことを特徴とするロボット装置。
9. The human identification device of the robot device according to claim 1, wherein said head detection and tracking means detects a head rectangular area from an image of one frame. A robot comprising: a head rectangle storage unit for storing a head rectangle image of a previous frame and coordinates; and a head tracking unit for performing matching processing of the head rectangle image of the previous frame with the current frame. apparatus.
【請求項10】請求項9記載のロボット装置の前記人物
識別装置において、 前記映像取得手段が左右2つの撮像手段を備え、 1フレームの画像から頭部矩形領域を検出する前記頭部
検出手段が、 1枚の画像から頭部を検出する単眼視頭部矩形座標検出
手段と、 左右の画像を照合して対面距離値を算出する左右画像照
合手段と、 前記対面距離値と前記頭部矩形領域の座標値とから、頭
部の誤検出を取り除く対面距離評価手段と、 を備えたことを特徴とするロボット装置。
10. The human identification device of the robot device according to claim 9, wherein the image acquisition unit includes two left and right imaging units, and the head detection unit that detects a rectangular head region from an image of one frame. A monocular head rectangular coordinate detecting means for detecting the head from one image; a left and right image comparing means for comparing the left and right images to calculate a facing distance value; the facing distance value and the head rectangular area A face-to-face distance evaluation means for removing erroneous detection of the head from the coordinate values of (b).
【請求項11】請求項9記載のロボット装置の前記人物
識別装置において、 対面距離センサを備え、 1フレームの画像から頭部矩形領域を検出する前記頭部
検出手段が、 1枚の画像から頭部を検出する単眼視頭部矩形座標検出
手段と、 前記対面距離センサの出力値である対面距離値と、前記
頭部矩形領域の座標値とから、頭部の誤検出を取り除く
対面距離評価手段と、 を備えたことを特徴とするロボット装置。
11. The human identification device of the robot device according to claim 9, further comprising a face-to-face distance sensor, wherein the head detecting means for detecting a rectangular region of the head from one frame image comprises: A monocular vision head rectangular coordinate detecting means for detecting a part, a facing distance value which is an output value of the facing distance sensor, and a facing distance evaluation means for removing false detection of a head from the coordinate values of the head rectangular area A robot device comprising:
【請求項12】請求項9記載のロボット装置の前記人物
識別装置において、 前記映像取得手段が左右2つの撮像手段を備え、 さらに、対面距離センサを備え、 1フレームの画像から頭部矩形領域を検出する前記頭部
検出手段が、 1枚の画像から頭部を検出する単眼視頭部矩形座標検出
手段と、 左右の画像を照合して対面距離値を算出する左右画像照
合手段と、 左右の画像から計算された前記対面距離値と、前記対面
距離センサの出力とから統合対面距離を算出する対面距
離統合手段と、 前記統合対面距離値と、前記頭部矩形領域の座標値とか
ら、頭部の誤検出を取り除く対面距離評価手段と、 を備えたことを特徴とするロボット装置。
12. The human identification device of the robot device according to claim 9, wherein the image acquisition means includes two left and right image pickup means, further comprises a facing distance sensor, and a head rectangular area from one frame image. A monocular vision head rectangular coordinate detecting means for detecting a head from one image; a left and right image matching means for calculating a facing distance value by comparing left and right images; A face-to-face distance integrating unit that calculates an integrated face-to-face distance from the face-to-face distance value calculated from the image and the output of the face-to-face distance sensor; and the integrated face-to-face distance value and the coordinate values of the head rectangular area. A face-to-face distance evaluation means for removing erroneous detection of the part;
【請求項13】請求項10、11、12のいずれか一に
記載のロボット装置の前記人物識別装置において、 前記単眼視頭部矩形座標検出手段が、前フレームとの差
分画像gの生成処理と差分画像gを過去mフレーム(m
は2以上の整数)積分し統合差分画像Gを生成する処理
を行なう動き画素検出手段を備えたことを特徴とするロ
ボット装置。
13. The human identification device of the robot device according to claim 10, wherein the monocular vision head rectangular coordinate detecting means performs processing for generating a difference image g from a previous frame. The difference image g is stored in the past m frames (m
(Wherein is an integer of 2 or more). A robot apparatus comprising motion pixel detecting means for performing a process of integrating and generating an integrated difference image G.
【請求項14】請求項10、11、12のいずれか一に
記載のロボット装置の前記人物識別装置において、 前記単眼視頭部矩形座標検出手段が、 前フレームとの差分画像gの生成処理と差分画像gを過
去mフレーム(但し、mは2以上の整数)積分し、統合
差分画像Gを生成する処理を行なう動き画素検出手段
と、 統合差分画像Gから人物数を取得する人物数評価手段
と、 頭頂のY座標を取得する頭頂座標検出手段と、 頭部下部のY座標を検出する頭部下部座標検出手段と、 側頭部のX座標を検出する側頭座標検出手段と、 を備えたことを特徴とするロボット装置。
14. The human identification device of a robot device according to any one of claims 10, 11 and 12, wherein the monocular visual head rectangular coordinate detecting means performs a process of generating a difference image g from a previous frame. Motion pixel detecting means for integrating the difference image g in the past m frames (where m is an integer of 2 or more) to generate an integrated difference image G; and person number evaluation means for obtaining the number of people from the integrated difference image G And a head coordinate detecting means for obtaining the Y coordinate of the head, a lower head coordinate detecting means for detecting the Y coordinate of the lower head, and a temporal coordinate detecting means for detecting the X coordinate of the temporal region. A robot device characterized by the above-mentioned.
【請求項15】請求項1から14のいずれか一に記載の
ロボット装置の前記人物識別装置において、 前記正面顔位置合わせ手段が、前記対面距離値と前記頭
部矩形の画像を用いて、正面顔を探索する正面顔探索手
段を備えたことを特徴とするロボット装置。
15. The human identification device of the robot device according to claim 1, wherein the front face alignment unit uses the face distance value and the image of the head rectangle to form a front face. A robot device comprising a front face searching means for searching for a face.
【請求項16】請求項15に記載のロボット装置の前記
人物識別装置において、 前記正面顔位置合わせ手段が、 前記正面顔探索手段で得られた正面顔画像の濃度分散を
求め、濃度分散値によって正面顔の誤検出を排除する濃
度分散判定手段と、 前記正面顔探索手段で得られたパターン間距離または類
似度をあらかじめ定められたしきい値と比較処理するこ
とで、正面顔の誤検出を排除するしきい値処理手段と、 を備えたことを特徴とするロボット装置。
16. The human identification device of the robot device according to claim 15, wherein the front face positioning means obtains a density variance of the front face image obtained by the front face searching means, and calculates the density variance by the density variance value. Density variance determining means for eliminating false detection of the front face, and comparing the distance or similarity between the patterns obtained by the front face searching means with a predetermined threshold value, thereby detecting false detection of the front face. A robot device comprising: threshold processing means for eliminating;
【請求項17】請求項15又は16記載のロボット装置
の前記人物識別装置において、 前記正面顔探索手段が、 前記対面距離値から中間縮小サイズを算出する頭部中間
サイズ算出手段と、 前記頭部の画像を頭部中間サイズに縮小する画像縮小手
段と、 濃度を正規化することでコントラストを補正する手段
と、 正面顔特徴量の固有ベクトルデータを記憶した標準顔固
有ベクトルデータ記憶手段と、 前記正面顔特徴量の平均値を記憶した標準顔平均データ
記憶手段と、 固有ベクトル投影距離を算出する固有ベクトル投影距離
算出手段と、 前記固有ベクトル投影距離の最小値を求める投影距離最
小判定手段と、 を備え、 前記固有ベクトル投影距離算出手段が、 平均差分手段と、 ベクトル投影値算出手段と、 再構成演算手段と、 投影距離計算手段と、 を備えたことを特徴とするロボット装置。
17. The human identification device of the robot device according to claim 15, wherein the front face searching means calculates an intermediate reduced size from the facing distance value, and the head intermediate size calculating means; Image reduction means for reducing the image of the image to the head intermediate size, means for correcting the contrast by normalizing the density, standard face eigenvector data storage means for storing eigenvector data of the front face feature amount, and the front face A standard face average data storage unit that stores an average value of the feature amount; an eigenvector projection distance calculation unit that calculates an eigenvector projection distance; and a projection distance minimum determination unit that obtains a minimum value of the eigenvector projection distance. Projection distance calculating means, average difference means, vector projection value calculating means, reconstruction calculating means, projection distance meter Robot apparatus characterized by comprising: a means.
【請求項18】請求項15又は16記載のロボット装置
の前記人物識別装置において、 前記正面顔探索手段が、 前記対面距離値から中間縮小サイズを算出する頭部中間
サイズ算出手段と、 前記頭部の画像を頭部中間サイズに縮小する画像縮小手
段と、 濃度を正規化することでコントラストを補正する手段
と、 正面顔特徴量の線形判別辞書を記憶した標準顔辞書デー
タ記憶手段と、 前記線形判別辞書を用いて類似度を算出する積和演算手
段と、 前記算出された類似度の最大値を求める類似度最大判定
手段と、 を備えたことを特徴とするロボット装置。
18. The human identification device of the robot device according to claim 15, wherein the front face searching means calculates an intermediate reduced size from the facing distance value, and the head intermediate size calculating means. Image reducing means for reducing the image of the image to the head intermediate size, means for correcting the contrast by normalizing the density, standard face dictionary data storing means for storing a linear discrimination dictionary of front face feature amounts, A robot apparatus comprising: a product-sum operation unit that calculates a similarity using a discrimination dictionary; and a similarity maximum determination unit that obtains a maximum value of the calculated similarity.
【請求項19】請求項1から18のいずれか一に記載の
ロボット装置の前記人物識別装置において、 前記顔識別手段が、 線形判別辞書と特徴データから登録されている人物への
類似度を算出する積和演算手段と、 登録されている人物への類似度の最大値を求める最大類
似度人物判定手段と、 前記類似度の最大値をあらかじめ定められたしきいと比
較して、他人かどうかを判定するしきい値処理手段と、 を備えたことを特徴とするロボット装置。
19. The human identification device of a robot device according to claim 1, wherein the face identification means calculates a similarity to a registered person from a linear discrimination dictionary and feature data. Sum-of-products calculating means, maximum similarity person determining means for obtaining the maximum value of the similarity to a registered person, and comparing the maximum value of the similarity with a predetermined threshold to determine whether the person is another person. And a threshold value processing means for determining the threshold value.
【請求項20】請求項1から18のいずれか一に記載の
ロボット装置の前記人物識別装置において、 前記顔識別手段が、 他人を判別するための固有ベクトル辞書と特徴データか
ら固有ベクトル投影距離を算出して距離値を比較する固
有ベクトル他人判別手段と、 線形判別辞書と特徴データから登録されている人物への
類似度を算出する積和演算手段と、 登録されている人物への類似度の最大値を求める最大類
似度人物判定手段と、 前記類似度の最大値をあらかじめ定められたしきい値と
比較して、他人かどうかを判定するしきい値処理手段
と、 を備えたことを特徴とするロボット装置。
20. The human identification device of the robot device according to claim 1, wherein the face identification means calculates an eigenvector projection distance from an eigenvector dictionary for identifying another person and feature data. Eigenvector others discriminating means for comparing distance values with each other, product-sum calculating means for calculating a similarity to a registered person from a linear discriminant dictionary and feature data, and a maximum value of similarity to a registered person. A robot comprising: a maximum similarity person determination unit to be obtained; and a threshold processing unit that compares the maximum value of the similarity with a predetermined threshold value to determine whether the person is another person. apparatus.
【請求項21】請求項8から20のいずれか一に記載の
ロボット装置の前記人物識別装置において、 前記辞書データ管理部が、 識別辞書のもとになる個人特徴データを記憶する個人特
徴データ記憶手段と、 人物ID(識別)番号によって、前記個人特徴データ記
憶手段の特定領域に特徴データを保存する選択手段と、 前記線形判別辞書を作成する線形判別辞書作成手段と、 を備えたことを特徴とするロボット装置。
21. The personal identification device of a robot device according to claim 8, wherein the dictionary data management unit stores personal characteristic data serving as a basis of an identification dictionary. Means, selecting means for storing feature data in a specific area of the personal feature data storage means by a person ID (identification) number, and linear discriminating dictionary creating means for creating the linear discriminating dictionary. Robot device.
【請求項22】請求項8から20のいずれか一に記載の
ロボット装置の前記人物識別装置において、 前記辞書データ管理部が、 識別辞書のもとになる個人特徴データを記憶する個人特
徴データ記憶手段と、 人物ID番号によって個人特徴データ記憶手段の特定領
域に特徴データを保存する選択手段と、 前記線形判別辞書を作成する線形判別辞書作成手段と、 固有ベクトル辞書を作成する固有ベクトル辞書作成手段
と、 を備えたことを特徴とするロボット装置。
22. The personal identification device of the robot device according to claim 8, wherein the dictionary data management unit stores personal characteristic data based on an identification dictionary. Means, selecting means for storing feature data in a specific area of the personal feature data storage means by a person ID number, linear discriminating dictionary creating means for creating the linear discriminating dictionary, eigenvector dictionary creating means for creating an eigenvector dictionary, A robot device comprising:
【請求項23】請求項21又は22記載のロボット装置
の前記人物識別装置において、 前記線形判別辞書作成手段が、 前記個人特徴データ記憶手段に記憶された特徴量Xの分
散共分散行列Cxxを算出する分散共分散行列Cxx算
出手段と、 前記分散共分散行列Cxxの逆行列を算出する逆行列算
出手段と、 人物IDと特徴データから目的変数Yを生成する手段
と、 特徴量Xと目的変数Yの共分散行列Cxyを算出する分
散共分散行列Cxy算出手段と、 前記Cxxの逆行列と前記共分散行列Cxyを乗算し線
形判別辞書の乗算項マトリクスを算出する行列乗算手段
と、 前記線形判別辞書の定数項ベクトルを算出する定数項算
出手段と、 を備えたことを特徴とするロボット装置。
23. The human identification device of the robot device according to claim 21 or 22, wherein the linear discriminant dictionary creating means calculates a variance-covariance matrix Cxx of the feature quantity X stored in the personal feature data storage means. Means for calculating a variance-covariance matrix Cxx, an inverse matrix calculating means for calculating an inverse matrix of the variance-covariance matrix Cxx, means for generating an objective variable Y from a person ID and feature data, a feature amount X and an objective variable Y A variance-covariance matrix Cxy calculating means for calculating a covariance matrix Cxy of: a matrix multiplying means for multiplying the inverse matrix of Cxx and the covariance matrix Cxy to calculate a multiplication term matrix of a linear discriminant dictionary; And a constant term calculating means for calculating a constant term vector.
【請求項24】請求項22又は23記載のロボット装置
の前記人物識別装置において、 前記固有ベクトル辞書作成手段が、 特徴量Xの平均をとる特徴量平均算出手段と、 特徴量Xの分散共分散行列Cxxを算出する分散共分散
行列算出手段と、 前記分散共分散行列Cxxの固有ベクトルを算出する固
有ベクトル算出手段と、 を備えたことを特徴とするロボット装置。
24. The human identification device of the robot device according to claim 22, wherein the eigenvector dictionary creating means comprises: a feature quantity average calculating means for averaging the feature quantity X; and a variance-covariance matrix of the feature quantity X. A robot apparatus comprising: variance-covariance matrix calculation means for calculating Cxx; and eigenvector calculation means for calculating an eigenvector of the variance-covariance matrix Cxx.
【請求項25】請求項12から24のいずれか一に記載
のロボット装置において、 同一物体の左カメラ画像上の座標Xlと、右カメラ画像
上の座標Xrと、定数Kを用いて、Z=K/(Xl−X
r)なる計算によって対面距離Zを求める処理を含む左
右画像照合手段を備えたことを特徴とするロボット装
置。
25. The robot apparatus according to claim 12, wherein a coordinate Xl of the same object on a left camera image, a coordinate Xr on a right camera image, and a constant K are used to obtain Z = K / (X1-X
r) A robot apparatus provided with left and right image matching means including a process of obtaining a facing distance Z by calculation.
【請求項26】請求項12から24のいずれか一に記載
のロボット装置の前記人物識別装置において、 前記頭部中間サイズ算出手段が、次式、 と、 (但し、Hw、Hhは頭部矩形画像の横サイズ、縦サイ
ズ、RHw、RHhは正面顔領域の横サイズ、縦サイ
ズ、Zは対面距離値、eは撮像面の幅、Wは画像サイ
ズ、θはカメラの画角である)を用いて、中間サイズM
w、Mhを求める手段を備えたことを特徴とするロボッ
ト装置。
26. The human identification device of the robot device according to claim 12, wherein the head intermediate size calculating means is: When, (However, Hw and Hh are the horizontal size and the vertical size of the head rectangular image, RHw and RHh are the horizontal size of the front face area, the vertical size, Z is the facing distance value, e is the width of the imaging surface, W is the image size, θ is the angle of view of the camera).
A robot device comprising means for obtaining w and Mh.
【請求項27】請求項15から24のいずれか一に記載
のロボット装置の前記人物識別装置における前記正面顔
探索手段において、 (但し、Vは元画像、μは画素値の平均、σは標準偏
差、Vmaxは画素値の最大値)を用いてコントラスト
補正を行なうことを特徴とするロボット装置。
27. The front face search means in the person identification device of the robot device according to claim 15, wherein: (Where V is the original image, μ is the average of the pixel values, σ is the standard deviation, and Vmax is the maximum value of the pixel values), and the robot apparatus performs contrast correction.
JP2001158402A 2001-05-28 2001-05-28 Robot equipment Expired - Fee Related JP3823760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001158402A JP3823760B2 (en) 2001-05-28 2001-05-28 Robot equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001158402A JP3823760B2 (en) 2001-05-28 2001-05-28 Robot equipment

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP02158399A Division JP3307354B2 (en) 1999-01-29 1999-01-29 Personal identification method and apparatus and recording medium recording personal identification program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006034936A Division JP4860289B2 (en) 2006-02-13 2006-02-13 Robot equipment

Publications (2)

Publication Number Publication Date
JP2002056388A true JP2002056388A (en) 2002-02-20
JP3823760B2 JP3823760B2 (en) 2006-09-20

Family

ID=19002134

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001158402A Expired - Fee Related JP3823760B2 (en) 2001-05-28 2001-05-28 Robot equipment

Country Status (1)

Country Link
JP (1) JP3823760B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
JP2009530930A (en) * 2006-03-22 2009-08-27 ピルツ ゲーエムベーハー アンド コー.カーゲー Method and apparatus for determining correspondence, preferably three-dimensional reconstruction of a scene
JP2009233839A (en) * 2008-03-28 2009-10-15 Sogo Keibi Hosho Co Ltd Moving body, moving body direction control method, and moving body direction control program
US7684894B2 (en) 2003-03-14 2010-03-23 Panasonic Electric Works Co., Ltd. Autonomously moving robot
US7720685B2 (en) 2002-09-24 2010-05-18 Honda Giken Kogyo Kabushiki Kaisha Receptionist robot system
JP2010250730A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Image processing apparatus and imaging device
EP2267697A2 (en) 2003-12-12 2010-12-29 Nec Corporation Information processing system, method of processing information, and program for processing information
WO2014033936A1 (en) * 2012-08-31 2014-03-06 富士通株式会社 Image processing device, image processing method, and image processing program
JP2018005881A (en) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 Face detection tracking method, robot head pivoting control method, and robot
JPWO2018084170A1 (en) * 2016-11-07 2019-02-28 Groove X株式会社 Autonomous robot that identifies people
JP2021152740A (en) * 2020-03-24 2021-09-30 株式会社フジタ Utterance control device
CN116564005A (en) * 2023-07-11 2023-08-08 深圳市瑞凯诺科技有限公司 Wireless starting method and system for intelligent charging pile

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5718973B2 (en) * 2013-05-21 2015-05-13 富士ソフト株式会社 Face recognition device, face recognition method, and computer program
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
AU2019208182B2 (en) 2018-07-25 2021-04-08 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385979A (en) * 1986-09-30 1988-04-16 Toshiba Corp File retrieving device
JPH0351996A (en) * 1989-07-19 1991-03-06 Mitsubishi Electric Corp Monitor device
JPH04281688A (en) * 1990-09-07 1992-10-07 Philips Gloeilampenfab:Nv Tracking device of three-dimensional object and its device
JPH0520442A (en) * 1991-07-17 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Face picture collation device
JPH0573663A (en) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> Recognition method for picture of three-dimensional object
JPH05166090A (en) * 1991-12-11 1993-07-02 Ibaraki Keibi Hoshiyou Kk Burglar monitoring system
JPH06119433A (en) * 1992-10-01 1994-04-28 Toshiba Corp Figure authentication device
JPH06259534A (en) * 1993-03-03 1994-09-16 Toshiba Corp Person identifying device
JPH0723012A (en) * 1993-06-30 1995-01-24 Takahashi Takeshi Audience rating survey system
JPH07213753A (en) * 1994-02-02 1995-08-15 Hitachi Ltd Personal robot device
JPH07225841A (en) * 1993-12-13 1995-08-22 Sharp Corp Picture processor
JPH08161498A (en) * 1994-12-05 1996-06-21 Minolta Co Ltd Object recognition device
JPH09270006A (en) * 1996-04-03 1997-10-14 Toshiba Corp Method for processing moving image
JPH09322155A (en) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd Method and device for monitoring video
JPH10105217A (en) * 1996-09-27 1998-04-24 Mitsubishi Electric Corp Tracking controlling method of robot and robot control system
JPH10228316A (en) * 1997-02-13 1998-08-25 Honda Motor Co Ltd Autonomous traveling tobot with dead lock prevention device

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6385979A (en) * 1986-09-30 1988-04-16 Toshiba Corp File retrieving device
JPH0351996A (en) * 1989-07-19 1991-03-06 Mitsubishi Electric Corp Monitor device
JPH04281688A (en) * 1990-09-07 1992-10-07 Philips Gloeilampenfab:Nv Tracking device of three-dimensional object and its device
JPH0520442A (en) * 1991-07-17 1993-01-29 Nippon Telegr & Teleph Corp <Ntt> Face picture collation device
JPH0573663A (en) * 1991-09-17 1993-03-26 Nippon Telegr & Teleph Corp <Ntt> Recognition method for picture of three-dimensional object
JPH05166090A (en) * 1991-12-11 1993-07-02 Ibaraki Keibi Hoshiyou Kk Burglar monitoring system
JPH06119433A (en) * 1992-10-01 1994-04-28 Toshiba Corp Figure authentication device
JPH06259534A (en) * 1993-03-03 1994-09-16 Toshiba Corp Person identifying device
JPH0723012A (en) * 1993-06-30 1995-01-24 Takahashi Takeshi Audience rating survey system
JPH07225841A (en) * 1993-12-13 1995-08-22 Sharp Corp Picture processor
JPH07213753A (en) * 1994-02-02 1995-08-15 Hitachi Ltd Personal robot device
JPH08161498A (en) * 1994-12-05 1996-06-21 Minolta Co Ltd Object recognition device
JPH09270006A (en) * 1996-04-03 1997-10-14 Toshiba Corp Method for processing moving image
JPH09322155A (en) * 1996-05-31 1997-12-12 Hitachi Denshi Ltd Method and device for monitoring video
JPH10105217A (en) * 1996-09-27 1998-04-24 Mitsubishi Electric Corp Tracking controlling method of robot and robot control system
JPH10228316A (en) * 1997-02-13 1998-08-25 Honda Motor Co Ltd Autonomous traveling tobot with dead lock prevention device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
中山良一 外4名: "人に優しく,人と共存するロボット技術", 東芝レビュー, vol. 第52巻 第5号, CSNH199900185012, 1 May 1997 (1997-05-01), JP, pages 100 - 106, ISSN: 0000744942 *
梅木直子 外3名: "3次元画像入力装置とその利用について", 情報処理学会研究報告, vol. 第98巻 第75号, CSNG199901053008, 21 August 1998 (1998-08-21), JP, pages 43 - 48, ISSN: 0000744943 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720685B2 (en) 2002-09-24 2010-05-18 Honda Giken Kogyo Kabushiki Kaisha Receptionist robot system
US7684894B2 (en) 2003-03-14 2010-03-23 Panasonic Electric Works Co., Ltd. Autonomously moving robot
EP2267697A2 (en) 2003-12-12 2010-12-29 Nec Corporation Information processing system, method of processing information, and program for processing information
JP2007115129A (en) * 2005-10-21 2007-05-10 Sumitomo Electric Ind Ltd Obstacle detection system, obstacle detection method, and computer program
JP2009530930A (en) * 2006-03-22 2009-08-27 ピルツ ゲーエムベーハー アンド コー.カーゲー Method and apparatus for determining correspondence, preferably three-dimensional reconstruction of a scene
US8135211B2 (en) 2006-03-22 2012-03-13 Pilz Gmbh & Co. Kg Method and device for three-dimensional reconstruction of a scene
JP2009233839A (en) * 2008-03-28 2009-10-15 Sogo Keibi Hosho Co Ltd Moving body, moving body direction control method, and moving body direction control program
JP2010250730A (en) * 2009-04-20 2010-11-04 Sanyo Electric Co Ltd Image processing apparatus and imaging device
WO2014033936A1 (en) * 2012-08-31 2014-03-06 富士通株式会社 Image processing device, image processing method, and image processing program
US9454704B2 (en) 2012-08-31 2016-09-27 Fujitsu Limited Apparatus and method for determining monitoring object region in image
JP2018005881A (en) * 2016-07-08 2018-01-11 深セン市優必選科技有限公司 Face detection tracking method, robot head pivoting control method, and robot
JPWO2018084170A1 (en) * 2016-11-07 2019-02-28 Groove X株式会社 Autonomous robot that identifies people
JP2021152740A (en) * 2020-03-24 2021-09-30 株式会社フジタ Utterance control device
JP7402721B2 (en) 2020-03-24 2023-12-21 株式会社フジタ speech control device
CN116564005A (en) * 2023-07-11 2023-08-08 深圳市瑞凯诺科技有限公司 Wireless starting method and system for intelligent charging pile
CN116564005B (en) * 2023-07-11 2023-09-08 深圳市瑞凯诺科技有限公司 Wireless starting method and system for intelligent charging pile

Also Published As

Publication number Publication date
JP3823760B2 (en) 2006-09-20

Similar Documents

Publication Publication Date Title
JP3307354B2 (en) Personal identification method and apparatus and recording medium recording personal identification program
JP4860289B2 (en) Robot equipment
JP5629803B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US8942436B2 (en) Image processing device, imaging device, image processing method
JP4743823B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US7266225B2 (en) Face direction estimation using a single gray-level image
Pantic et al. Automatic analysis of facial expressions: The state of the art
Zhou et al. Integrating face and gait for human recognition at a distance in video
JP3823760B2 (en) Robot equipment
US20050271279A1 (en) Sign based human-machine interaction
JP2004133889A (en) Method and system for recognizing image object
MX2012010602A (en) Face recognizing apparatus, and face recognizing method.
WO1996042040A2 (en) Network-based system and method for detection of faces and the like
JP2007213378A (en) Method for detecting face of specific expression, imaging control method, device and program
JP2007521550A (en) Face recognition system and method
Baltzakis et al. Visual tracking of hands, faces and facial features of multiple persons
Ratan et al. Object detection and localization by dynamic template warping
Ibrahim et al. Geometrical-based lip-reading using template probabilistic multi-dimension dynamic time warping
JPH10307923A (en) Face parts extraction device and face direction detection device
Göcke et al. Automatic extraction of lip feature points
Youssef Hull convexity defect features for human action recognition
JP4789526B2 (en) Image processing apparatus and image processing method
Pramadihanto et al. Integrated person identification and expression recognition from facial images
JP3841482B2 (en) Face image recognition device
JP2003228702A (en) Imaging condition detecting device and image condition detecting program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060404

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20060404

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060619

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100707

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110707

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120707

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130707

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees