JPH0734229B2 - Video recognition device - Google Patents

Video recognition device

Info

Publication number
JPH0734229B2
JPH0734229B2 JP60187086A JP18708685A JPH0734229B2 JP H0734229 B2 JPH0734229 B2 JP H0734229B2 JP 60187086 A JP60187086 A JP 60187086A JP 18708685 A JP18708685 A JP 18708685A JP H0734229 B2 JPH0734229 B2 JP H0734229B2
Authority
JP
Japan
Prior art keywords
image
partial
moving image
partial image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP60187086A
Other languages
Japanese (ja)
Other versions
JPS6246384A (en
Inventor
啓次 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP60187086A priority Critical patent/JPH0734229B2/en
Publication of JPS6246384A publication Critical patent/JPS6246384A/en
Publication of JPH0734229B2 publication Critical patent/JPH0734229B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、移動や変形などのような動きを伴う物体を被
写体とした動画像を解析して、その被写体についての特
徴量を抽出することのできる、動画像認識装置に関す
る。ここでいう特徴量とは、その被写体の一部もしくは
全部の、形状を示すパラメータのことである。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention analyzes a moving image in which a subject is a moving object such as movement or deformation, and extracts a feature amount of the subject. The present invention relates to a moving picture recognition device. The feature amount here is a parameter indicating the shape of part or all of the subject.

このような、動画像認識装置を利用して、様々な物体の
動きに認識することができる。一例として、人間の顔を
被写体とした動画像を解析する場合、抽出すべき特徴量
は、人間の顔の中で認識すべき部分(例えば目、鼻、口
など)の形状の変化量である。すなわち、目の開き具
合、眼球の向き、口の開き具合などを示す変化量であ
る。
By using such a moving image recognition device, it is possible to recognize the movements of various objects. As an example, when analyzing a moving image in which a human face is a subject, the feature amount to be extracted is the amount of change in the shape of the portion (for example, eyes, nose, mouth, etc.) to be recognized in the human face. . That is, it is a change amount indicating the degree of opening of the eyes, the direction of the eyeball, the degree of opening of the mouth, and the like.

このような、顔画像から特徴量を抽出する動画像認識装
置を、テレビ会議のような通信分野や、マン・マシン・
インタフェースの向上を目指す情報処理の分野におい
て、様々な方法で有効に利用することができる。
Such a moving image recognition device that extracts a feature amount from a face image is used in a communication field such as a video conference or a man-machine
It can be effectively used in various ways in the field of information processing aiming to improve the interface.

例えば、このような動画像認識装置を利用して、従来よ
りもはるかに狭帯域のテレビ会議システムを構成するこ
とができる。すなわち、実際の顔画像を伝送するかわり
に、顔画像から抽出された特徴量を伝送することによ
り、受信側で顔の動きを再生することが可能となる。こ
の顔画像の特徴量の情報量は、実際の顔画像の情報量に
比べてはるかに少ない。従って、伝送すべき情報量を大
幅に減少させることができる。
For example, a video conference system having a much narrower band than conventional can be configured by using such a moving image recognition device. That is, instead of transmitting the actual face image, by transmitting the feature amount extracted from the face image, it becomes possible to reproduce the movement of the face on the receiving side. The information amount of the feature amount of the face image is much smaller than the information amount of the actual face image. Therefore, the amount of information to be transmitted can be greatly reduced.

また、このような動画像認識装置を利用して計算機の操
作者の顔の動きを解析すれば、操作者の顔の動きにより
計算機に情報を入力することができる。単純な例として
は、操作者が顔を縦に振れば「はい」が入力され、顔を
横に振れば「いいえ」が入力されるといった入力方法を
構成できる。このような入力手段を設けることにより、
従来の計算機の操作性を大幅に向上できる。
Further, by analyzing the movement of the face of the operator of the computer by using such a moving image recognition device, it is possible to input information to the computer by the movement of the face of the operator. As a simple example, it is possible to configure an input method in which “yes” is input when the operator shakes the face vertically, and “no” is input when the operator shakes the face horizontally. By providing such input means,
The operability of conventional computers can be greatly improved.

このような顔画像の認識の他にも、動画像認識装置を様
々な物体の認識に利用できる。例えば、動物や植物の動
きの解析などに用いることができる。
In addition to such face image recognition, the moving image recognition device can be used to recognize various objects. For example, it can be used for analysis of movement of animals and plants.

以下簡単のために、顔画像の認識に限って説明を行う
が、一般性を損なうものではない。
For the sake of simplicity, only the recognition of face images will be described below, but this does not impair generality.

(従来技術とその問題点) 従来の顔画像の認識装置においては、顔という非常に複
雑な形状を有する物体の画像を認識するために、顔画像
のなかで認識すべき部分(例えば目、鼻、口など)を特
定し、入力された1枚の顔画像に対してその特定された
部分に関する知識を利用して、認識処理を行なってい
た。
(Prior Art and Problems Thereof) In a conventional face image recognition apparatus, in order to recognize an image of an object having a very complicated shape such as a face, a portion to be recognized in the face image (for example, eyes, nose) , Mouth, etc.), and the recognition processing is performed for one input face image by using the knowledge about the specified portion.

このように、従来の顔画像の認識装置においては1枚の
顔画像という限られた情報のみを対象として処理が行な
われていたので、あらかじめ顔の特定の部分に関する非
常に詳細な知識を作成しておく必要があった。その際、
顔の形状は非常に複雑であり、しかも柔軟に変化するの
で、このような顔画像から正確に特徴量を抽出するため
に必要な知識の情報量は膨大なものとなってしまう。従
って、これを作成する労力も膨大となってしまうという
問題点があった。
As described above, in the conventional face image recognition apparatus, since the processing is performed only on the limited information of one face image, it is necessary to prepare very detailed knowledge about a specific part of the face in advance. I had to keep it. that time,
Since the shape of a face is extremely complicated and changes flexibly, the amount of knowledge information required to accurately extract a feature amount from such a face image becomes enormous. Therefore, there has been a problem that the labor for creating this becomes enormous.

また、このように膨大な情報を利用して認識処理が行な
われるので、処理に要する時間も多大なものとなってし
まうという問題点もあった。
Further, since the recognition processing is performed using such a huge amount of information, there is also a problem that the time required for the processing becomes large.

しかも、従来の顔画像の認識装置では、顔の特定の部分
に関する知識を作成するに当たり、対象となる画像中の
顔の向きや大きさといった様々な条件を限定することに
より、認識効率を上げていた。このため、もし異なる条
件の顔画像も認識処理しなければならない場合、各条件
にそれぞれ対応する膨大な知識を再度作成しなければな
らないという問題点もあった。
Moreover, in the conventional face image recognition device, when creating knowledge about a specific part of the face, various recognition conditions are increased by limiting various conditions such as the direction and size of the face in the target image. It was For this reason, if face images under different conditions have to be recognized, a huge amount of knowledge corresponding to each condition must be created again.

(発明の目的) 本発明は、このような問題点を解決しようとするもの
で、少ない知識と処理時間で動画像が正確に認識できる
動画像認識装置を提供することを目的とする。
(Object of the Invention) The present invention is intended to solve such a problem, and an object of the present invention is to provide a moving image recognition apparatus that can accurately recognize a moving image with less knowledge and processing time.

(発明の構成) 本発明の動画像認識装置は、入力された動画像を記憶す
る動画像記憶部と、前記動画像を解析してその被写体の
複数の部分の前記動画像における位置と形状とを示す特
徴量を抽出する動画像解析部とを備えた動画像認識装置
において、 前記動画像解析部が、すでに解析済みの第一の画像から
前記被写体の複数の部分をそれぞれ含むように切り出さ
れた複数の第一の部分画像およびこれら各部分画像の切
り出し位置情報を記憶する部分画像記憶部と、前記第一
の画像と時間的に連続する前記動画像記憶部に記憶され
た第二の画像における前記複数の第一の部分画像に対応
する位置情報を決定する対応位置決定部と、前記対応位
置情報に基づき前記第二の画像を解析して前記複数の部
分の前記第二の画像における位置と形状とを示す特徴量
を抽出する特徴量抽出部と、前記特徴量で示される前記
被写体の複数の部分の前記第二の画像における位置と形
状とに基づいて前記被写体の複数の部分をそれぞれ含む
ように複数の第二の部分画像の前記第二の画像からの切
り出し位置情報を決定して前記部分画像記憶部に前記複
数の第二の部分画像およびその切り出し位置情報を書き
込む部分画像切り出し部とで構成されている。
(Structure of the Invention) A moving image recognition apparatus of the present invention includes a moving image storage unit that stores an input moving image, a position and a shape of a plurality of portions of a subject in the moving image that are analyzed by the moving image. In the moving image recognition apparatus including a moving image analysis unit that extracts a feature amount indicating, the moving image analysis unit is cut out from the first image that has already been analyzed so as to include a plurality of portions of the subject, respectively. A plurality of first partial images and a partial image storage unit that stores cutout position information of each of these partial images; and a second image stored in the moving image storage unit that is temporally continuous with the first image. In the corresponding position determining unit that determines the position information corresponding to the plurality of first partial images in, the position of the plurality of parts in the second image by analyzing the second image based on the corresponding position information And shape A plurality of feature amounts, each of which includes a plurality of portions of the subject based on positions and shapes in the second image of the plurality of portions of the subject represented by the feature amount. Of the second partial image of the second image is determined from the second image and the partial image storage unit writes the plurality of second partial images and the cut-out position information to the partial image storage unit. ing.

(実施例) 以下、図面を参照して本発明の一実施例の動画像認識装
置を説明する。説明を簡単にするために、顔を被写体と
する動画像を認識する場合について述べるが、一般性を
損なうものではない。
(Embodiment) A moving image recognition apparatus according to an embodiment of the present invention will be described below with reference to the drawings. For simplicity of description, a case of recognizing a moving image with a face as a subject will be described, but the generality is not impaired.

第1図は、本発明の一実施例としての動画像認識装置の
全体を示す構成図である。第1図に示すように、外部よ
り入力される動画像信号102を1フレームずつ一時的に
記憶する動画像記憶部2が設けられており、フレームメ
モリで構成されている。この動画像記憶部2に記憶され
た画像Pの必要な部分を読み出すための、画像読み出し
線103が設けられている。この画像読み出し線103を介し
て読み出される画像Pを解析して、認識結果としての画
像Pに関する特徴量106を出力するための、動画像解析
部3が設けられている。
FIG. 1 is a block diagram showing the entire moving image recognition apparatus as an embodiment of the present invention. As shown in FIG. 1, a moving image storage unit 2 for temporarily storing a moving image signal 102 input from the outside one frame at a time is provided and is composed of a frame memory. An image reading line 103 for reading out a necessary portion of the image P stored in the moving image storage unit 2 is provided. The moving image analysis unit 3 is provided for analyzing the image P read out via the image readout line 103 and outputting the feature amount 106 regarding the image P as the recognition result.

この動画像解析部3には、既に解析された画像から切り
出されたn個の部分画像Qi(i=1,2,……,n)と、その
部分画像Qiの切り出し位置情報とを記憶するための、部
分画像記憶部4が設けられている。この部分画像Qiとし
ては、目、鼻、口などのように顔の中で特徴を持ってい
る部分が選択される。
The moving image analysis unit 3 stores n partial images Qi (i = 1, 2, ..., N) cut out from the already analyzed image and cut-out position information of the partial images Qi. For this purpose, a partial image storage unit 4 is provided. As the partial image Qi, a portion having a feature in the face such as eyes, nose, mouth, etc. is selected.

第2図は、この部分画像記憶部4の内容を示す説明図で
ある。また第3図は、この部分画像記憶部4に記憶され
る部分画像Qiの切り出し位置情報としての、切り出し位
置(Xi,Yi)と大きさ(SXi,SYi)の一例を示す説明図で
ある。第2図に示すように、この部分画像記憶部4には
部分画像Qiをディジタル画像として記憶する部分画像記
憶メモリ4aと、切り出された部分画像Qiの切り出し位置
(Xi,Yi)及び部分画像Qiの大きさ(SXi,SYi)を部分画
像Qiの切り出し位置情報として記憶するための切り出し
位置情報記憶メモリ4bとが設けられている。
FIG. 2 is an explanatory diagram showing the contents of the partial image storage unit 4. Further, FIG. 3 is an explanatory diagram showing an example of cutout positions (Xi, Yi) and sizes (SXi, SYi) as cutout position information of the partial image Qi stored in the partial image storage unit 4. As shown in FIG. 2, the partial image storage unit 4 stores a partial image Qi as a digital image in the partial image storage memory 4a, a cutout position (Xi, Yi) of the cutout partial image Qi, and a partial image Qi. And a cutout position information storage memory 4b for storing the size (SXi, SYi) of the partial image Qi as cutout position information.

第6図は、入力される動画像の一例を示す説明図であ
る。第6図に示すような動画像が入力されると、まず1
枚目の顔画像P1から、部分画像Qiが決定されて部分画像
記憶部4に記憶される。1枚目の顔画像P1における部分
画像Qiの決定は、人間が顔画像P1を参照して、各部分画
像Qiの切り出し位置(Xi,Yi)の大きさ(SXi,SYi)とを
決定するという手作業により実行される。切り出された
部分画像Qiは、初期部分画像書き込み線108を介して、
部分画像記憶部4に書き込まれる。
FIG. 6 is an explanatory diagram showing an example of the input moving image. When a moving image as shown in FIG. 6 is input, first,
A partial image Qi is determined from the first face image P1 and stored in the partial image storage unit 4. To determine the partial image Qi in the first face image P1, a person refers to the face image P1 and determines the size (SXi, SYi) of the cutout position (Xi, Yi) of each partial image Qi. It is executed manually. The cut out partial image Qi is transferred via the initial partial image writing line 108.
It is written in the partial image storage unit 4.

このような手作業を行なうことが困難な場合は、標準的
な部分画像をあらかじめ部分画像記憶部4に初期データ
として初期部分画像書き込み線108を介して記憶させて
おき、以下説明する本実施例の対応位置決定部5、特徴
量抽出部6、部分画像切り出し部7を用いて、顔画像P1
の中からこの標準的な部分画像に最も類似した部分画像
を部分画像Qiとして切り出すことも可能である。また、
1枚目の顔画像P1のみを従来の顔画像の認識装置を用い
て顔の各部分の位置を認識し、部分画像Qiを切り出して
もよい。このようにして切り出された顔画像P1に対する
部分画像Qiが、部分画像記憶部4に記憶される。
When it is difficult to perform such manual work, a standard partial image is stored in advance in the partial image storage unit 4 as initial data via the initial partial image writing line 108, and this embodiment described below is performed. Using the corresponding position determination unit 5, the feature amount extraction unit 6, and the partial image cutout unit 7 of the face image P1
It is also possible to cut out the partial image most similar to this standard partial image from among the partial images Qi. Also,
The position of each part of the face may be recognized using only the first face image P1 by using the conventional face image recognition device, and the partial image Qi may be cut out. The partial image Qi for the face image P1 cut out in this way is stored in the partial image storage unit 4.

このようにして部分画像記憶部4に顔画像P1から切り出
された部分画像Qiが記憶された後に、2枚目の顔画像P2
が動画像信号102として動画像記憶部2に記憶される。
In this way, after the partial image Qi cut out from the face image P1 is stored in the partial image storage unit 4, the second face image P2
Is stored in the moving image storage unit 2 as the moving image signal 102.

そして、部分画像記憶部4に記憶された部分画像Qiと動
画像記憶部2に記憶された顔画像P2とを比較して、顔画
像P2上における部分画像Qiの対応位置(X′i,Y′i)
を決定するための、対応位置決定部5が設けられてい
る。この対応位置(X′i,Y′i)とは、顔画像P2上に
おいて部分画像Qiとの相関が最も高いと判断される部分
画像の位置である。
Then, the partial image Qi stored in the partial image storage unit 4 is compared with the face image P2 stored in the moving image storage unit 2, and the corresponding position (X'i, Y) of the partial image Qi on the face image P2 is compared. ′ I)
Corresponding position determining unit 5 is provided for determining. The corresponding position (X'i, Y'i) is the position of the partial image determined to have the highest correlation with the partial image Qi on the face image P2.

第4図は、この対応位置決定部5の詳細を示す構成図で
ある。第4図に示すように、この対応位置決定部5は、
部分画像読み出し線104を介して部分画像記憶部4と接
続されている。同時に、この対応位置決定部5からは、
決定された対応位置(X′i,Y′i)と部分画像の大き
さ(SXi,SYi)とが、対応位置情報105として出力され
る。
FIG. 4 is a block diagram showing the details of the corresponding position determining unit 5. As shown in FIG. 4, the corresponding position determination unit 5
It is connected to the partial image storage unit 4 via the partial image read line 104. At the same time, from the corresponding position determination unit 5,
The determined corresponding position (X′i, Y′i) and the partial image size (SXi, SYi) are output as corresponding position information 105.

このような対応位置情報105を計算するために、対応位
置決定部5には、部分画像記憶器5aと、相関計算器5b
と、最良位置選択器5cと、最良位置記憶器5dと、探索範
囲設定器5eとが設けられている。
In order to calculate such corresponding position information 105, the corresponding position determining unit 5 includes a partial image storage 5a and a correlation calculator 5b.
A best position selector 5c, a best position memory 5d, and a search range setting device 5e are provided.

第7図は、この対応位置決定部5で行なわれる処理の一
例を示す説明図である。第7図に示すように、探索範囲
設定器5eには、対応位置(X′i,Y′i)の探索範囲の
広さを示す値(DX,DY)が、予め設定される。この値(D
X,DY)が、接続線114を通じて、最良位置選択器5cに出
力される。
FIG. 7 is an explanatory diagram showing an example of the processing performed by the corresponding position determination unit 5. As shown in FIG. 7, the search range setting unit 5e is preset with a value (DX, DY) indicating the width of the search range of the corresponding position (X'i, Y'i). This value (D
X, DY) is output to the best position selector 5c via the connection line 114.

この最良位置選択器5cでは、まずこの値(DX,DY)と、
部分画像Qiの切り出し位置情報とから、探索範囲Wの位
置(WX,WY)と大きさ(WSX,WSY)とが計算されて、記憶
される。ただし、部分画像Qiの切り出し位置情報は、部
分画像記憶部4から部分画像読み出し線104を通じて読
み出される。
In this best position selector 5c, first, with this value (DX, DY),
The position (WX, WY) and size (WSX, WSY) of the search range W are calculated and stored from the cut-out position information of the partial image Qi. However, the cut-out position information of the partial image Qi is read from the partial image storage unit 4 through the partial image reading line 104.

これらの値は、次のように計算される。These values are calculated as follows.

WX=Xi−DX WY=Yi−DY WSX=DX+DX+SX WSY=DY+DY+SY こうして求められた探索範囲Wの位置(WX,WY)と大き
さ(WSX,WSY)とが、接続線112を介して部分画像記憶器
5aに出力される。部分画像記憶器5aでは、これらの値で
示される顔画像P2の一部を、画像読み出し線103を介し
て動画像記憶部2から読み出して、記憶する。
WX = Xi-DX WY = Yi-DY WSX = DX + DX + SX WSY = DY + DY + SY The position (WX, WY) and size (WSX, WSY) of the search range W thus obtained are stored as partial images via the connection line 112. vessel
It is output to 5a. The partial image storage unit 5a reads a part of the face image P2 indicated by these values from the moving image storage unit 2 via the image reading line 103 and stores it.

次に、最良位置選択器5cでは、最良の対応位置(X′i,
Y′i)の候補位置(X′,Y′)が、探索範囲Wの位置
(WX,WY)に設定される。この候補位置(X′,Y′)と
が部分画像Qiの大きさ(SXi,SYi)とが、接続線111を介
して相関計算器5bへ出力される。
Next, in the best position selector 5c, the best corresponding position (X'i,
The candidate position (X ', Y') of Y'i) is set to the position (WX, WY) of the search range W. The candidate position (X ′, Y ′) and the size (SXi, SYi) of the partial image Qi are output to the correlation calculator 5b via the connection line 111.

この相関計算器5bでは、この候補位置(X′,Y′)にお
ける大きさ(SXi,SYi)の部分画像Q′iが、接続線110
を介して部分画像記憶器5aから読み出される。同時に、
部分画像Qiが部分画像記憶部4から部分画像読み出し線
104を介して読み出される。そして、部分画像Q′iと
部分画像Qiとの相関が計算されて、相関を示す値Cが接
続線111を通じて、最良位置選択器5cへ出力される。
In the correlation calculator 5b, the partial image Q'i having the size (SXi, SYi) at the candidate position (X ', Y') is the connecting line 110.
It is read from the partial image storage device 5a via. at the same time,
The partial image Qi is a partial image read line from the partial image storage unit 4.
Read through 104. Then, the correlation between the partial image Q'i and the partial image Qi is calculated, and the value C indicating the correlation is output to the best position selector 5c through the connection line 111.

この相関値Cの計算は、部分画像Qi内の位置(X,Y)に
おける画素の輝度をf(X,Y)とし、部分画像Q′i内
の位置(X,Y)における画素の輝度をf′(X,Y)とする
と、次のように計算される。
To calculate the correlation value C, the brightness of the pixel at the position (X, Y) in the partial image Qi is set to f (X, Y), and the brightness of the pixel at the position (X, Y) in the partial image Q′i is calculated. If f '(X, Y), it is calculated as follows.

このように計算された相関値Cを受けて、最良位置選択
器5cでは、この相関値Cと候補位置(X′,Y′)とが、
接続線113を通じて最良位置記憶器5dに出力される。最
良位置記憶器5dでは、この相関値Cと候補位置(X′,
Y′)とが記憶される。
In response to the correlation value C calculated in this way, the best position selector 5c calculates the correlation value C and the candidate position (X ', Y') as
It is output to the best position memory 5d through the connection line 113. In the best position memory 5d, the correlation value C and the candidate position (X ',
Y ') is stored.

次に、最良位置選択器5cにおいて、候補位置(X′,
Y′)のY座標値を1増加することにより、相関計算器5
bにより新たな相関値C′の計算が行なわれる。この相
関値C′が、既に最良位置記憶器5dに記憶されている相
関値Cよりも小さい場合、最良位置記憶器5dに、候補位
置(X′,Y′)と新たに計算された相関値C′とが書き
込まれる。
Next, in the best position selector 5c, the candidate position (X ',
By increasing the Y coordinate value of Y ′) by 1, the correlation calculator 5
With b, a new correlation value C'is calculated. If the correlation value C'is smaller than the correlation value C already stored in the best position memory 5d, the best position memory 5d stores the candidate position (X ', Y') and the newly calculated correlation value. C'and are written.

さらに、最良位置選択器5cにおいては、候補位置
(X′,Y′)のX,Y座標値を1づつ変化させて WX≦X′≦WX+WSX−SXi WY≦Y′≦WY+WSY−SYi の全ての候補位置(X′,Y′)について同様の処理を行
う。
Further, in the best position selector 5c, the X and Y coordinate values of the candidate position (X ', Y') are changed by one to change all of WX≤X'≤WX + WSX-SXi WY≤Y'≤WY + WSY-SYi. Similar processing is performed for the candidate position (X ', Y').

このような処理を行なうことにより、最終的に探索範囲
Wにおいて最も相関値C′が小さくなる時の候補位置
(X′,Y′)が、顔画像P2上の部分画像Qiの対応位置
(X′i,Y′i)として求められ、最良位置記憶器5dに
記憶される。この対応位置(X′i,Y′i)における部
分画像Q′iは、探索範囲W内で最も部分画像Qiと似通
った画像だといえる。
By performing such processing, the candidate position (X ′, Y ′) when the correlation value C ′ finally becomes the smallest in the search range W is the corresponding position (X ′ of the partial image Qi on the face image P2). ′ I, Y′i) and stored in the best position memory 5d. It can be said that the partial image Q'i at the corresponding position (X'i, Y'i) is the image most similar to the partial image Qi in the search range W.

部分画像Qiが切り出された顔画像P1と顔画像P2とは異な
る時刻の画像であるから、画像中の顔に何らかの変形や
移動が生じている。しかし、顔画像P1と顔画像P2とは、
動画像において時間的に連続する画像であるため、両者
には僅かな変化しか起こっていないはずである。従っ
て、部分画像Qiと最も相関の高い対応位置(X′i,Y′
i)における部分画像Q′iには、部分画像Qiに含まれ
ている顔の一部と同様の部分が含まれているため、この
対応位置決定部5により、変形や移動を伴う顔画像中の
特定の部分を連続的に追跡していくことができる。
Since the face image P1 and the face image P2 that are cut out of the partial image Qi are images at different times, some deformation or movement occurs in the face in the image. However, the face image P1 and the face image P2 are
Since the moving images are images that are temporally continuous, only a slight change should occur between them. Therefore, the corresponding position (X′i, Y ′) having the highest correlation with the partial image Qi
Since the partial image Q′i in i) includes a part similar to the part of the face included in the partial image Qi, the corresponding position determining unit 5 determines that the face image You can keep track of specific parts of the.

最終的に、この対応位置決定部5からは、上記の処理に
より求めた対応位置(X′i,Y′i)と部分画像Qiの大
きさ(SXi,SYi)とが、対応位置情報105として出力され
る。
Finally, from the corresponding position determining unit 5, the corresponding position (X'i, Y'i) obtained by the above process and the size (SXi, SYi) of the partial image Qi are obtained as the corresponding position information 105. Is output.

第5図は、特徴量抽出部6の詳細を示す構成図である。
第5図に示すように、対応位置決定部5から出力される
対応位置情報105を用いて、動画像記憶部2に記憶され
た顔画像P2の解析を行ない、被写体としての顔に関する
特徴量106を出力するための、特徴量抽出部6が設けら
れている。
FIG. 5 is a configuration diagram showing details of the feature quantity extraction unit 6.
As shown in FIG. 5, using the corresponding position information 105 output from the corresponding position determination unit 5, the face image P2 stored in the moving image storage unit 2 is analyzed, and the feature amount 106 related to the face as a subject is analyzed. A feature amount extraction unit 6 for outputting is provided.

この特徴量抽出部6には、エッジ抽出部6aと、エッジ画
像解析器6bと、部分情報記憶器6cとが設けられている。
The feature amount extraction unit 6 is provided with an edge extraction unit 6a, an edge image analyzer 6b, and a partial information storage unit 6c.

第8図は、この特徴量抽出部6の動作を示す説明図であ
る。対応位置決定部5から出力される対応位置情報105
を受けた特徴量抽出部6では、まずエッジ抽出器6aにお
いて、画像読み出し線103を通じて、第8図に示すよう
に、顔画像P2上の対応位置(X′i,Y′i)における大
きさ(SXi,SYi)の部分画像Q′iを中心とした、部分
画像Q′iの2倍の大きさの画像Rが参照される。
FIG. 8 is an explanatory diagram showing the operation of the feature quantity extraction unit 6. Corresponding position information 105 output from corresponding position determining unit 5
In the feature quantity extraction unit 6 having received the data, the size at the corresponding position (X′i, Y′i) on the face image P2 is first passed through the image read line 103 in the edge extractor 6a, as shown in FIG. An image R centering on the partial image Q'i of (SXi, SYi) and having a size twice as large as the partial image Q'i is referred to.

このように2倍の大きさの画像Rが参照されるのは、部
分画像Qiに含まれていた物体が、移動や変形により第8
図に示されているように、部分画像Q′iからはみ出し
てしまう場合があるためである。このようにはみ出して
しまった場合でも、2倍の大きさの画像Rを参照すれ
ば、物体を内部に含むことができる。
In this way, the image R having a double size is referred to because the object included in the partial image Qi is
This is because, as shown in the figure, the partial image Q′i may sometimes run off. Even in the case of such an overflow, an object can be included inside by referring to the image R having a size twice as large.

こうして参照された画像Rに対して、エッジ抽出器6aに
おいて二次微分演算処理が行なわれて、これらの画像の
エッジ画像115が抽出される。このような二次微分演算
処理の一例は、電子通信学会論文誌、第56−D巻、第4
号、坂井利之、長尾真、金出武雄、の論文「計算機によ
る顔写真の解析」に記載されている。
The thus-referenced image R is subjected to the second-order differential operation processing in the edge extractor 6a, and the edge image 115 of these images is extracted. An example of such a second-order differential calculation process is described in the Institute of Electronics and Communication Engineers, Volume 56-D, Vol.
, Toshiyuki Sakai, Makoto Nagao, Takeo Kanade, "Analysis of facial photographs by computer".

次に、エッジ画像解析器6bにおいて、このエッジ画像11
5が解析される。その際に、この部分画像Qiに含まれて
いる顔の部分についての部分情報116が、部分情報記憶
器6cから読み出されて、使用される。この部分情報116
により、抽出すべき特徴量106が決定される。
Next, in the edge image analyzer 6b, this edge image 11
5 is analyzed. At that time, the partial information 116 about the face portion included in the partial image Qi is read from the partial information storage unit 6c and used. This Partial Information 116
Thus, the feature amount 106 to be extracted is determined.

例えば、部分画像Q′iが目を含む画像であった場合、
部分情報116としては、目の形状や変形の仕方に関する
情報が設定される。その部分情報112に従って解析が行
なわれ、特徴量106としては、第8図に示すような目の
大きさ(EWX,EWY)、中心位置(EX,EY)などや、目の向
き、開き具合などが抽出される。
For example, when the partial image Q'i is an image including eyes,
As the partial information 116, information regarding the shape of the eyes and the method of deformation is set. The analysis is performed according to the partial information 112, and as the feature amount 106, the size of the eyes (EWX, EWY), the center position (EX, EY), the direction of the eyes, the degree of opening, etc. as shown in FIG. Is extracted.

この特徴量抽出部6で行なわれる処理は、従来の顔画像
の認識装置と同様の手法である。この従来の顔画像の認
識装置の一例は、やはり前述の論文に記載されている、
計算機による顔写真の解析方法として示されている。
The processing performed by the feature amount extraction unit 6 is the same as that of the conventional face image recognition apparatus. An example of this conventional face image recognition apparatus is also described in the above-mentioned paper,
It is shown as a method of analyzing a facial photograph by a computer.

しかし、処理される画像の大きさが顔画像P2の1部の部
分画像Q′iおよびその周囲に限定されているので、従
来よりも高速に処理を行なうことができる。また、その
部分画像Q′iは顔のどの部分であるか分かっているの
で、その部分に関する知識、すなわち部分情報116の記
述も容易となる。
However, since the size of the image to be processed is limited to the partial image Q'i of the face image P2 and its surroundings, the processing can be performed faster than before. Further, since it is known which part of the face the partial image Q′i is, the knowledge about the part, that is, the description of the partial information 116 becomes easy.

このような画像処理の結果、特徴量抽出部6から特徴量
106が出力される。抽出される特徴量106としては、顔の
各部(目、鼻、口など)の形状と大きさと位置に関する
パラメータや、顔の向きに関するパラメータなどであ
る。
As a result of such image processing, the feature amount extraction unit 6
106 is output. The extracted feature amount 106 includes parameters related to the shape, size, and position of each part of the face (eyes, nose, mouth, etc.) and parameters related to the face orientation.

このようにして抽出される特徴量106を用いて、動画像
記憶部2に記憶された顔画像P2から新たな部分画像Qi
(i=1,2,……,n)を決定して、部分画像記憶部4に、
その部分画像Qiと部分画像Qiの切り出し位置情報とを記
憶させるための、部分画像切り出し部7が設けられてい
る。この部分画像切り出し部7と部分画像記憶部4と
は、部分画像書き込み線107を介して接続されている。
By using the feature quantity 106 extracted in this way, a new partial image Qi from the face image P2 stored in the moving image storage unit 2 is obtained.
(I = 1,2, ..., n) is determined, and is stored in the partial image storage unit 4.
A partial image cutout unit 7 is provided for storing the partial image Qi and the cutout position information of the partial image Qi. The partial image cutout unit 7 and the partial image storage unit 4 are connected via a partial image writing line 107.

第9図は、この部分画像切り出し部7の動作を示す説明
図である。第9図に示すように、この部分画像切り出し
部7において、顔画像P2から新たな部分画像Qiの切り出
しが行なわれる場合に、対応位置(X′i,Y′i)にお
ける大きさ(SXi,SYi)の画像Q′iを切り出すと、顔
の移動や変形により、第9図(a)に示すように部分画
像Q′iが実際の顔を構成する物体と接触したり、第9
図(b)に示すように顔画像中の物体よりもはるかに大
きくなってしまう場合がある。
FIG. 9 is an explanatory diagram showing the operation of the partial image cutout unit 7. As shown in FIG. 9, in the partial image cutout unit 7, when a new partial image Qi is cut out from the face image P2, the size (SXi, Y′i) at the corresponding position (X′i, Y′i) is obtained. When the image Q′i of SYi) is cut out, the partial image Q′i may come into contact with an object forming an actual face, as shown in FIG.
As shown in FIG. 6B, the object may be much larger than the object in the face image.

そこで、部分画像切り出し部7において、特徴量抽出部
6から入力される特徴量106で示される顔の部分の位置
と大きさから、第9図(c)に示すように顔の部分を囲
むような画像の位置と大きさが求められて、新たな部分
画像Q″iとして切り出される。例えば第9図(c)に
示すような目の場合、特徴量106として入力される目の
中心位置(EX,EY)と大きさ(EWX,EWY)とが利用され
る。すなわち、切り出される部分画像Q″iとしては、
その中心位置が(EX,EY)で、大きさが(αX*SX,αY
*SY)となるように、その切り出し位置情報が求められ
る。これらの係数αXとαYとは、予め部分画像切り出
し部7に設定されている値である。
Therefore, in the partial image cutout unit 7, the face portion is surrounded as shown in FIG. 9C from the position and size of the face portion indicated by the feature amount 106 input from the feature amount extraction unit 6. The position and size of such an image are obtained and cut out as a new partial image Q ″ i. For example, in the case of an eye as shown in FIG. EX, EY) and size (EWX, EWY) are used, that is, as the partial image Q ″ i to be cut out,
The center position is (EX, EY) and the size is (αX * SX, αY
The cutting position information is calculated so that * SY). These coefficients αX and αY are values preset in the partial image cutout unit 7.

そして、この切り出し位置情報に基づいて、画像読み出
し線103を介して、部分画像Q″iが読み出される。こ
れらの部分画像Q″iが、切り出し位置情報と共に、部
分画像書き込み線107を介して部分画像記憶部4に書き
込まれる。
Then, based on this cut-out position information, the partial images Q ″ i are read out via the image reading line 103. These partial images Q ″ i are parted together with the cut-out position information via the partial image writing line 107. It is written in the image storage unit 4.

このようにして、新たに顔画像P2から切り出されて、部
分画像記憶部4に書き込まれた部分画像Qiを用いて、次
に動画像記憶部2に記憶される3枚目の顔画像P3の処理
が行なわれる。そして、順次この処理を繰り返すこと
で、動画像としての顔画像から連続的に特徴量を容易に
抽出することができる。その際に、既に処理を終わった
直前の画像の処理結果を部分画像Qiとして利用するの
で、処理が正確となり、処理時間も短縮される。
In this way, by using the partial image Qi newly cut out from the face image P2 and written in the partial image storage unit 4, the third face image P3 stored in the moving image storage unit 2 is displayed. Processing is performed. Then, by sequentially repeating this processing, it is possible to continuously and easily extract the feature amount from the face image as the moving image. At this time, since the processing result of the image just before the processing is already used is used as the partial image Qi, the processing becomes accurate and the processing time is shortened.

(発明の効果) 以上詳述したように、本発明の動画像認識装置によれ
ば、入力された動画像において、連続する画像間では僅
かな変化しか起こっていないことを十分に利用して認識
処理を行なっている。
(Effects of the Invention) As described in detail above, according to the moving image recognition apparatus of the present invention, the input moving image is recognized by fully utilizing the fact that only a slight change occurs between consecutive images. It is processing.

従って、本発明の動画像認識装置には、入力された動画
像の認識処理時間を大幅に短縮できるという利点がある
とともに、従来よりも正確な認識処理が実行できるとい
う利点もある。
Therefore, the moving image recognition apparatus of the present invention has an advantage that the recognition processing time of the input moving image can be significantly shortened and also has an advantage that the recognition processing can be executed more accurately than before.

また、本発明装置には、動画像中で、処理の対象となる
被写体の全体が移動したり回転したり、又は被写体の様
々な部分が変形していく場合でも、認識処理が容易であ
るという利点もある。
Further, the device of the present invention says that the recognition process is easy even when the whole subject to be processed moves or rotates in the moving image or various parts of the subject deform. There are also advantages.

【図面の簡単な説明】[Brief description of drawings]

第1図は本発明の一実施例を示す構成図、第2図はその
実施例における部分画像記憶部の内容を示す図、第3図
は部分画像の切り出し位置及び大きさの一例を示す図、
第4図はその実施例における対応位置決定部の具体例を
示す構成図、第5図はその実施例における特徴量抽出部
の具体例を示す構成図、第6図は第1図実施例に入力さ
れる動画像の例を示す説明図、第7図は第4図の対応位
置決定部で行なわれる処理の一例を説明する図、第8図
は第5図の特徴量抽出部の動作を説明する図、第9図
(a)〜(c)は第1図実施例における部分切り出し部
の動作を説明する図である。 2……動画像記憶部、3……動画像解析部、4……部分
画像記憶部、4a……部分画像記憶メモリ、4b……切り出
し位置情報記憶メモリ、5……対応位置決定部、5a……
部分画像記憶器、5b……相関計算器、5c……最良位置選
択器、5d……最良位置記憶器、5e……探索範囲設定器、
6……特徴量抽出部、6a……エッジ抽出器、6b……エッ
ジ画像解析器、6c……部分情報記憶器、7……部分画像
切り出し部、102……動画像信号、103……画像読み出し
線、104……部分画像読み出し線、105……対応位置情
報、106……特徴量、107……部分画像書き込み線、108
……初期部分画像書き込み線、110〜114……接続線、11
5……エッジ画像、116……部分情報。
FIG. 1 is a configuration diagram showing an embodiment of the present invention, FIG. 2 is a diagram showing contents of a partial image storage unit in the embodiment, and FIG. 3 is a diagram showing an example of a cutout position and a size of a partial image. ,
FIG. 4 is a block diagram showing a concrete example of the corresponding position determining unit in the embodiment, FIG. 5 is a block diagram showing a concrete example of the feature amount extracting unit in the embodiment, and FIG. 6 is shown in FIG. FIG. 7 is an explanatory diagram showing an example of a moving image to be input, FIG. 7 is a diagram explaining an example of processing performed by the corresponding position determining unit in FIG. 4, and FIG. 8 is an operation of the feature amount extracting unit in FIG. 9A to 9C are diagrams for explaining the operation of the partial cutout portion in the embodiment of FIG. 2 ... moving image storage unit, 3 ... moving image analysis unit, 4 ... partial image storage unit, 4a ... partial image storage memory, 4b ... cutout position information storage memory, 5 ... corresponding position determination unit, 5a ......
Partial image memory, 5b ... correlation calculator, 5c ... best position selector, 5d ... best position memory, 5e ... search range setting device,
6 ... Feature amount extraction unit, 6a ... Edge extractor, 6b ... Edge image analyzer, 6c ... Partial information storage unit, 7 ... Partial image cutout unit, 102 ... Moving image signal, 103 ... Image Read line, 104 ... Partial image read line, 105 ... Corresponding position information, 106 ... Feature amount, 107 ... Partial image writing line, 108
…… Initial partial image writing line, 110 to 114 …… Connecting line, 11
5 …… Edge image, 116 …… Partial information.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】入力された動画像を記憶する動画像記憶部
と、前記動画像を解析してその被写体の複数の部分の前
記動画像における位置と形状とを示す特徴量を抽出する
動画像解析部とを備えた動画像認識装置において、 前記動画像解析部が、すでに解析済みの第一の画像から
前記被写体の複数の部分をそれぞれ含むように切り出さ
れた複数の第一の部分画像およびこれら各部分画像の切
り出し位置情報を記憶する部分画像記憶部と、前記第一
の画像と時間的に連続する前記動画像記憶部に記憶され
た第二の画像における前記複数の第一の部分画像に対応
する位置情報を決定する対応位置決定部と、前記対応位
置情報に基づき前記第二の画像を解析して前記複数の部
分の前記第二の画像における位置と形状とを示す特徴量
を抽出する特徴量抽出部と、前記特徴量で示される前記
被写体の複数の部分の前記第二の画像における位置と形
状とに基づいて前記被写体の複数の部分をそれぞれ含む
ように複数の第二の部分画像の前記第二の画像からの切
り出し位置情報を決定して前記部分画像記憶部に前記複
数の第二の部分画像およびその切り出し位置情報を書き
込む部分画像切り出し部とで構成されていることを特徴
とする動画像認識装置。
1. A moving image storage unit that stores an input moving image, and a moving image that analyzes the moving image and extracts feature quantities indicating positions and shapes in the moving image of a plurality of portions of the subject. In a moving image recognition device including an analysis unit, the moving image analysis unit, a plurality of first partial images cut out to include a plurality of portions of the subject from the already analyzed first image and The partial image storage unit that stores the cut-out position information of each of these partial images, and the plurality of first partial images in the second image stored in the moving image storage unit that is temporally continuous with the first image. Corresponding position determining unit that determines position information corresponding to, and extract a feature amount indicating the position and shape of the plurality of portions in the second image by analyzing the second image based on the corresponding position information. Feature extraction Parts and the plurality of second partial images of the plurality of second partial images based on the positions and shapes of the plurality of portions of the subject represented by the feature amount in the second image. A moving image characterized by being configured with a plurality of second partial images and a partial image cutout unit for writing cutout position information in the partial image storage unit by determining cutout position information from the second image Recognition device.
JP60187086A 1985-08-26 1985-08-26 Video recognition device Expired - Lifetime JPH0734229B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60187086A JPH0734229B2 (en) 1985-08-26 1985-08-26 Video recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60187086A JPH0734229B2 (en) 1985-08-26 1985-08-26 Video recognition device

Publications (2)

Publication Number Publication Date
JPS6246384A JPS6246384A (en) 1987-02-28
JPH0734229B2 true JPH0734229B2 (en) 1995-04-12

Family

ID=16199872

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60187086A Expired - Lifetime JPH0734229B2 (en) 1985-08-26 1985-08-26 Video recognition device

Country Status (1)

Country Link
JP (1) JPH0734229B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0324675A (en) * 1989-06-21 1991-02-01 Matsushita Electric Ind Co Ltd Moving image dividing device
DE4102895C1 (en) * 1991-01-31 1992-01-30 Siemens Ag, 8000 Muenchen, De
JP5198151B2 (en) * 2008-05-30 2013-05-15 株式会社日立製作所 Video search device and video search method

Also Published As

Publication number Publication date
JPS6246384A (en) 1987-02-28

Similar Documents

Publication Publication Date Title
CN108229324B (en) Gesture tracking method and device, electronic equipment and computer storage medium
CN107710280B (en) Object visualization method
CN101406390A (en) Method and apparatus for detecting part of human body and human, and method and apparatus for detecting objects
CN110136153B (en) Image processing method, device and storage medium
JPS60167069A (en) Pattern recognizer
CN111881740A (en) Face recognition method, face recognition device, electronic equipment and medium
CN113780201B (en) Hand image processing method and device, equipment and medium
US20150112853A1 (en) Online loan application using image capture at a client device
CN116261742A (en) Information processing apparatus and information processing method
CN108229281B (en) Neural network generation method, face detection device and electronic equipment
JP2829934B2 (en) Mobile vehicle environment recognition device
CN111709269B (en) Human hand segmentation method and device based on two-dimensional joint information in depth image
JPH0734229B2 (en) Video recognition device
CN112561885A (en) YOLOv 4-tiny-based gate valve opening detection method
CN111738264A (en) Intelligent acquisition method for data of display panel of machine room equipment
JP3223384B2 (en) Pattern matching device for grayscale images
KR20010035100A (en) An Effective Object Tracking Method and for Apparatus for Interactive HyperLink Video
CN112348112B (en) Training method and training device for image recognition model and terminal equipment
CN112965602A (en) Gesture-based human-computer interaction method and device
WO2021033242A1 (en) Image recognition device, image recognition method, and image recognition program
CN112967216A (en) Method, device and equipment for detecting key points of face image and storage medium
US20240112355A1 (en) Trajectory analysis device, trajectory analysis method, and computer program
KR20190092155A (en) Method for a video stabilization for real-time optical character recognition (OCR)
CN113379838B (en) Method for generating roaming path of virtual reality scene and storage medium
KR20230052774A (en) Method and system for controlling robot arm using obtaining re-size image by frame grabber