JPH11283040A - Operation controller and computer readable recording medium for recording operation analysis program - Google Patents

Operation controller and computer readable recording medium for recording operation analysis program

Info

Publication number
JPH11283040A
JPH11283040A JP11020659A JP2065999A JPH11283040A JP H11283040 A JPH11283040 A JP H11283040A JP 11020659 A JP11020659 A JP 11020659A JP 2065999 A JP2065999 A JP 2065999A JP H11283040 A JPH11283040 A JP H11283040A
Authority
JP
Japan
Prior art keywords
image
motion
difference
dimensional
estimating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11020659A
Other languages
Japanese (ja)
Inventor
Yasushi Kage
裕史 鹿毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP11020659A priority Critical patent/JPH11283040A/en
Publication of JPH11283040A publication Critical patent/JPH11283040A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To automatically estimate a position and movement relating to respective parts of a photographing object in real time independent of a background, and to operate a control object based on the estimated movement. SOLUTION: A person as a photographing object 5 is photographed from plural photographing angles by plural image sensors 7 and 8. In a computer 8 for operation analysis, the difference in two successively photographed images is calculated for the respective plural image sensors, difference images are obtained for the respective image sensors, the area of the photographing object is estimated, the movement inside the respective areas is calculated further and the three-dimensional movement of the respective parts is estimated by using the difference images simultaneously obtained for the respective plural image sensors. In a computer 11 for operation reproduction, a human body model 12 is operated based on the estimated movement for the respective parts.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人間などの特定対
象の動きを撮影し、得られた画像から上記対象の動きを
部位毎に推定し、これに基づいて制御対象を操作する操
作制御装置、および動作解析プログラムを記録した記録
媒体に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operation control device for photographing the motion of a specific object such as a human, estimating the motion of the object for each part from an obtained image, and operating the control object based on the motion. , And a recording medium on which an operation analysis program is recorded.

【0002】[0002]

【従来の技術】CCD等の画像センサで人間の動きを撮
影し、撮影された画像から頭や腕など各身体部位の動き
を抽出する画像認識技術は幅広い応用分野を持ってい
る。特に撮影対象である人間自身の動作をコンピュータ
グラフィクスで表現された人物モデルの動きに反映させ
るための技術は、ジェスチャ入力によるビデオゲームな
どの娯楽分野や、これまでのキーボードやマウスに代わ
る新たなヒューマンインターフェースの構築などを可能
にする。
2. Description of the Related Art Image recognition technology for capturing the movement of a person with an image sensor such as a CCD and extracting the movement of each body part such as the head and arms from the captured image has a wide field of application. In particular, the technology to reflect the movement of the human being who is the shooting target in the movement of the human model represented by computer graphics is in the entertainment field such as video games by gesture input, and a new human being that replaces the existing keyboard and mouse. Enables construction of interfaces.

【0003】これに関連した代表的な従来技術として、
刊行物「Imidas' 97」(846〜847頁)に
掲載された光学式モーションキャプチャの例がある。こ
の技術によれば、光反射マーカなどを撮影対象の人間の
身体表面に取り付け、各時刻毎のマーカ位置を追うこと
で各身体部位の動きが捕捉できるが、付属のマーカを必
要とすることやリアルタイムで各身体部位の動きを捕捉
できないなどの問題点をもつ。これを克服するために
は、付属マーカ等を用いず、リアルタイムで画像処理の
みで撮影対象の動きを捕捉する技術が必要となる。
[0003] As a typical prior art related to this,
There is an example of an optical motion capture published in the publication "Imidas'97" (pp. 846-847). According to this technology, the movement of each body part can be captured by attaching a light reflection marker or the like to the surface of the human body to be photographed and following the marker position at each time, but the attached marker is required. There is a problem that the movement of each body part cannot be captured in real time. In order to overcome this, a technique for capturing the movement of the photographing target only by image processing in real time without using an attached marker or the like is required.

【0004】付属マーカ等を用いない他の従来技術とし
て、電子情報通信学会論文誌Vol.J79−D−I
I,No.1,pp.71−83に掲載された山本らに
よる「ロボットモデルに基づく人間動作の3次元動画像
追跡」がある。この技術によれば、撮影対象となる人間
の動作をあらかじめビデオテープに録画しておき、初期
フレームに含まれる撮影対象の各身体部位と設定した3
次元ロボットモデルとのマッチングを人間が手動で行
い、その後のフレームにおけるロボットモデルと人間と
のマッチングは運動パラメータ推定アルゴリズムによっ
て自動的に行う。この手法の問題点はあらかじめ撮影し
た画像を解析対象としている点と、初期フレームにおい
てモデルとのマッチングを手動で行う点であり、必然的
にリアルタイムで対象の動きを再現することはできず、
適用範囲は限られてしまう。
[0004] As another conventional technique which does not use an attached marker or the like, see IEICE Transactions Vol. J79-DI
I, No. 1, pp. Yamamoto et al., “Three-Dimensional Moving Image Tracking of Human Motion Based on Robot Model,” which is published in 71-83. According to this technology, the motion of a human being to be photographed is recorded on a video tape in advance, and each body part of the photographing target included in the initial frame is set.
The human is manually matched with the three-dimensional robot model, and the matching between the robot model and the human in the subsequent frame is automatically performed by a motion parameter estimation algorithm. The problem with this method is that the previously captured image is the target of analysis and that the matching with the model is performed manually in the initial frame, and the movement of the target cannot necessarily be reproduced in real time.
The scope of application is limited.

【0005】これに対し、身体部位を頭部のみに限定し
ているが三次元的動きの抽出をリアルタイムに行う従来
技術の例として、雑誌「IEEE Trans. PA
MI15(6),1993」(pp.602−605,
Azarbayejani等による“Visually
Controlled Graphics" )に記載
のものがある。これは画像から抽出される目尻や虹彩、
鼻孔など周辺に比べて輝度値変化が特徴的な箇所を抽出
し、これらを特徴点としてフレーム間で対応を取ること
で画像上の二次元的変位を計算し、これに基づきカルマ
ンフィルタで回転や並進など頭部の三次元的動きを推定
する手法である。
On the other hand, as an example of a conventional technique for extracting a three-dimensional movement in real time while limiting the body part to only the head, a magazine "IEEE Trans. PA"
MI15 (6), 1993 "(pp. 602-605,
"Visually" by Azarbayejani et al.
Controlled Graphics "). These include the outer corners of the eyes, the iris,
Extract two-dimensional displacements on the image by extracting points where the luminance value change is more characteristic than the surroundings, such as the nostrils, and using these points as feature points to calculate the two-dimensional displacement on the image.Based on this, rotate and translate with the Kalman filter This is a method for estimating the three-dimensional movement of the head.

【0006】[0006]

【発明が解決しようとする課題】このような従来の手法
の問題点は、対応をとるべき特徴点が常に検出されてい
なければならないので顔を向ける方向が制約される点で
ある。たとえば下を向いた場合に鼻孔が隠れたり、ある
いは横を向いた場合に虹彩の位置が特定できない場合な
どは特徴点の対応が困難となる。また画像中に頭部だけ
でなく胴体や両腕など他の身体部位が含まれる場合、頭
部回転検出に先だって頭部領域を画像中から切り出す必
要があるが、これを実現する手法は含まれていない。
The problem with such a conventional method is that the direction in which the face is turned is restricted because the feature points to be dealt with must always be detected. For example, when the nostrils are hidden when facing down, or when the position of the iris cannot be specified when facing down, it is difficult to deal with feature points. Also, if the image includes not only the head but also other body parts such as the torso and both arms, it is necessary to cut out the head region from the image before detecting the rotation of the head, but the method to realize this is included. Not.

【0007】本発明は、上記のような問題点を解決する
ためになされたものであり、毎時刻取り込まれる画像か
ら撮影対象の各部位の位置と動きを自動かつリアルタイ
ムで背景によらず推定する手法を与え、推定された動き
に基づいて制御対象を操作する操作制御装置および動作
解析プログラムを記録したコンピュータ読み取り可能な
記録媒体を得ることを目的とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems, and automatically and in real time estimates the position and movement of each part to be photographed from an image captured every hour, regardless of the background. It is an object of the present invention to provide a method and a computer-readable recording medium storing an operation control device and an operation analysis program for operating a control target based on an estimated motion.

【0008】[0008]

【課題を解決するための手段】上述した課題を解決し、
目的を達成するために、本発明にかかる操作制御装置に
あっては、複数の画像センサにより撮影対象の動きを含
む画像を複数の撮影角度から撮影し、複数の二次元画像
を得る画像入力部と、前記複数の画像センサ毎に撮影さ
れた時間的に連続する二枚の画像の差分を計算し、各画
像センサ毎に得られた複数の差分画像をそれぞれ解析し
て、前記撮影対象の部位を含む画像領域を各差分画像毎
に推定する部位領域推定部と、前記部位領域推定部で推
定された各領域内の動きを計算し、複数の画像センサ毎
に同時に得られる差分画像を用いて、各部位の三次元的
動きを推定する部位動作推定部と、前記部位動作推定部
で推定された部位毎の動きに基づいて制御対象を操作す
る対象操作部と、を備えたものである。
Means for Solving the Problems The above-mentioned problems are solved,
In order to achieve the object, in the operation control device according to the present invention, an image input unit that obtains a plurality of two-dimensional images by capturing an image including a movement of a capturing target from a plurality of capturing angles using a plurality of image sensors. Calculating the difference between two temporally consecutive images photographed for each of the plurality of image sensors, analyzing the plurality of difference images obtained for each image sensor, and And a region estimation unit that estimates an image region for each difference image, and calculates a motion in each region estimated by the region estimation unit, using a difference image obtained simultaneously for each of a plurality of image sensors. A part motion estimating unit for estimating a three-dimensional movement of each part, and a target operation unit for operating a control target based on the motion of each part estimated by the part motion estimating unit.

【0009】この発明によれば、人間が動かした身体部
位、たとえば、首を振って頭部を動かした場合に、部位
領域推定部が複数の画像センサからの入力画像を解析す
ることにより、頭部の位置を特定し、さらに、部位動作
推定部が回転など三次元的動き情報を抽出する。また、
必要であれば、部位領域推定部および部位動作推定部の
解析内容をモニタに表示する。そして、部位動作推定部
により抽出された三次元的動き情報に基づいて、対象操
作部が、たとえば、コンピュータグラフィクス表現の人
物モデル等をリアルタイムに動かす。
According to the present invention, when a human body is moved, for example, when the head is shaken and the head is moved, the part region estimating unit analyzes the input images from the plurality of image sensors, thereby obtaining the head. The position of the part is specified, and the part motion estimating unit extracts three-dimensional motion information such as rotation. Also,
If necessary, the analysis contents of the region estimation unit and the region motion estimation unit are displayed on the monitor. Then, based on the three-dimensional motion information extracted by the part motion estimating unit, the target operation unit moves, for example, a person model in computer graphics expression in real time.

【0010】つぎの発明にかかる操作制御装置におい
て、部位領域推定部は、差分画像の各画素値を2値化し
て撮影対象のシルエットを得、得られたシルエットの幅
を解析して、撮影対象の部位を含む画像領域を推定する
手段を備えたものである。
In the operation control device according to the next invention, the part region estimating unit binarizes each pixel value of the difference image to obtain a silhouette of the object to be photographed, analyzes the width of the obtained silhouette, and analyzes the width of the obtained silhouette. Means for estimating an image area including the part.

【0011】この発明によれば、得られる差分画像をし
きい値により二値化して、たとえば、人間のシルエット
(黒画素、白画素)を取得し、そして、黒画素から構成
されるシルエットの幅を計算することにより、すなわ
ち、水平画素列毎に左端および右端から見て最初に現わ
れる黒画素位置をシルエットの両端として、これらの幅
を列毎に計算することにより、撮影対象の部位を含む画
像領域を推定する。
According to the present invention, the obtained difference image is binarized by the threshold value to obtain, for example, a human silhouette (black pixel, white pixel), and the width of the silhouette composed of black pixels That is, by calculating the width of each of the horizontal pixel columns, the black pixel positions appearing first when viewed from the left end and the right end as the two ends of the silhouette, and calculating the width of each of these columns, the image including the portion to be captured Estimate the area.

【0012】つぎの発明にかかる操作制御装置におい
て、対象操作部は、撮影対象の動作をコンピュータグラ
フィクスによって表現されたモデルの動きによって再現
する手段を備えたものである。
[0012] In the operation control device according to the next invention, the object operation section includes means for reproducing the operation of the photographing object by the movement of the model represented by computer graphics.

【0013】この発明によれば、人間が動かした身体部
位、たとえば、頭部回転の回転検出の有無に関する出力
とその頻度により、頭部モデルの回転角を表現すること
により、コンピュータグラフィクス表現の人物モデルの
頭部等をリアルタイムに動かす。
According to the present invention, the rotation angle of the head model is represented by the body part moved by a human, for example, the output regarding the presence / absence of the rotation detection of the head rotation and the frequency thereof. Move the head of the model etc. in real time.

【0014】つぎの発明にかかる動作解析プログラムを
記録した記録媒体にあっては、コンピュータに、複数の
画像センサにより複数の撮影角度から撮影された複数の
二次元画像の時間的に連続する二枚の画像の差分を計算
し、各画像センサ毎に得られた複数の差分画像をそれぞ
れ解析して、撮影対象の部位を含む画像領域を各差分画
像毎に推定する手順、推定された各領域の動きを計算し
て各差分画像毎に対応づけ、各部位の三次元的動きを推
定する手順、を実行させるためのプログラムを記録した
ものである。
According to another aspect of the present invention, there is provided a recording medium storing an operation analysis program according to the present invention, wherein a computer is provided with two temporally continuous two-dimensional images of a plurality of two-dimensional images taken from a plurality of photographing angles by a plurality of image sensors. Calculating a difference between the images, analyzing a plurality of difference images obtained for each image sensor, and estimating an image region including a part to be imaged for each difference image, a procedure for estimating each of the estimated regions. This is a program for recording a program for executing a procedure of calculating a motion, associating each difference image with each other, and estimating a three-dimensional motion of each part.

【0015】この発明によれば、人間が動かした身体部
位、たとえば、首を振って頭部を動かした場合に、この
プログラムを読み取り可能なコンピュータにおいて、複
数の画像センサからの入力画像を解析することにより、
頭部の位置を特定し、さらに、回転など三次元的動き情
報を抽出し、そして、抽出された三次元的動き情報に基
づいて、コンピュータグラフィクス表現の人物モデル等
をリアルタイムに動かす。
According to the present invention, when a human body is moved, for example, when the head is moved by shaking the head, a computer capable of reading this program analyzes the input images from the plurality of image sensors. By doing
The position of the head is specified, and three-dimensional motion information such as rotation is extracted. Based on the extracted three-dimensional motion information, a human model or the like in computer graphics is moved in real time.

【0016】つぎの発明にかかる操作制御装置にあって
は、複数の画像センサにより撮影対象の動きを含む画像
を複数の撮影角度から撮影し、複数の二次元画像を得る
画像入力部と、複数の画像センサ毎に撮影された時間的
に連続する二枚の画像の差分を計算し、各画像センサ毎
に得られた複数の差分画像をそれぞれ解析して、撮影対
象の部位を含む画像領域を各差分画像毎に推定する部位
領域推定部と、時間的に連続する二枚の画像を構成する
各画素値を、水平および垂直方向に射影し、得られる射
影データに基づいて画像センサ毎に一次元オプティカル
フローを計算し、得られる複数の一次元オプティカルフ
ローから部位領域推定部で推定された各領域内の動きを
計算し、各部位の三次元的動きを推定する部位動作推定
部と、部位動作推定部で推定された部位毎の動きに基づ
いて制御対象を操作する対象操作部と、を備えたもので
ある。
In the operation control device according to the next invention, an image input section for capturing a plurality of two-dimensional images by capturing an image including a movement of a capturing target from a plurality of capturing angles using a plurality of image sensors; Calculate the difference between two temporally consecutive images taken for each image sensor, analyze the plurality of difference images obtained for each image sensor, and calculate the image area including the part to be imaged. A part region estimating unit for estimating each difference image, and each pixel value constituting two temporally continuous images is projected in the horizontal and vertical directions, and a primary image is obtained for each image sensor based on the obtained projection data. A part motion estimator for calculating the original optical flow, calculating the motion in each region estimated by the part region estimator from the obtained one-dimensional optical flows, and estimating a three-dimensional motion of each part, Action And the target operation section for operating the controlled object based on the movement of each region estimated in section, in which with a.

【0017】この発明によれば、人間が動かした身体部
位、たとえば、首を振って頭部を動かした場合に、部位
領域推定部が複数の画像センサからの入力画像を解析す
ることにより、頭部の位置を特定し、さらに、部位動作
推定部が時間的に連続する二枚の画像を構成する各画素
値を水平および垂直方向に射影し、得られる射影データ
に基づいて画像センサ毎に一次元オプティカルフローを
計算し、得られる複数の一次元オプティカルフローから
回転など三次元的動き情報を抽出する。また、必要であ
れば、部位領域推定部および部位動作推定部の解析内容
をモニタに表示する。そして、部位動作推定部により抽
出された三次元的動き情報に基づいて、対象操作部が、
たとえば、コンピュータグラフィクス表現の人物モデル
等をリアルタイムに動かす。
According to the present invention, when a human body part is moved, for example, when the head is shaken and the head is moved, the part region estimating part analyzes the input images from the plurality of image sensors, thereby obtaining the head part. Identify the position of the part, and further, the part motion estimating unit projects each pixel value constituting two temporally continuous images in the horizontal and vertical directions, and for each image sensor based on the projection data obtained, The original optical flow is calculated, and three-dimensional motion information such as rotation is extracted from the obtained one-dimensional optical flows. If necessary, the analysis contents of the region estimation unit and the region motion estimation unit are displayed on the monitor. Then, based on the three-dimensional motion information extracted by the part motion estimation unit, the target operation unit
For example, a person model in computer graphics expression is moved in real time.

【0018】つぎの発明にかかる操作制御装置におい
て、射影データは、画像処理機能を持った半導体集積回
路(後述する実施の形態の人工網膜LSIに相当)を搭
載する画像センサにより、直接得られるものである。
In the operation control device according to the next invention, the projection data is directly obtained by an image sensor equipped with a semiconductor integrated circuit having an image processing function (corresponding to an artificial retinal LSI in an embodiment described later). It is.

【0019】この発明によれば、半導体集積回路として
動作する、たとえば、人工網膜LSIが、画像センサに
より撮影される二次元画像のデータから、その二次元画
像に関する水平方向および垂直方向の射影データを自動
的に出力する。
According to the present invention, for example, an artificial retinal LSI operating as a semiconductor integrated circuit converts horizontal and vertical projection data relating to the two-dimensional image from data of the two-dimensional image captured by the image sensor. Output automatically.

【0020】つぎの発明にかかる操作制御装置におい
て、部位領域推定部は、差分画像の各画素値を2値化し
て撮影対象のシルエットを得、得られたシルエットの幅
を解析して、前記撮影対象の部位を含む画像領域を推定
する手段を備えたものである。
In the operation control device according to the next invention, the part region estimating unit binarizes each pixel value of the difference image to obtain a silhouette of a photographing target, analyzes the width of the obtained silhouette, and obtains the silhouette. The apparatus includes means for estimating an image area including a target part.

【0021】この発明によれば、得られる差分画像をし
きい値により二値化して、たとえば、人間のシルエット
(黒画素、白画素)を取得し、そして、黒画素から構成
されるシルエットの幅を計算することにより、すなわ
ち、水平画素列毎に左端および右端から見て最初に現わ
れる黒画素位置をシルエットの両端として、これらの幅
を列毎に計算することにより、撮影対象の部位を含む画
像領域を推定する。
According to the present invention, the obtained difference image is binarized by the threshold value to obtain, for example, a human silhouette (black pixel, white pixel), and the width of the silhouette composed of black pixels That is, by calculating the width of each of the horizontal pixel columns, the black pixel positions appearing first when viewed from the left end and the right end as the two ends of the silhouette, and calculating the width of each of these columns, the image including the portion to be captured Estimate the area.

【0022】つぎの発明にかかる操作制御装置におい
て、対象操作部は、撮影対象の動作をコンピュータグラ
フィックスによって表現されたモデルの動きによって再
現する手段を備えたものである。
In the operation control device according to the next invention, the object operation section has means for reproducing the operation of the photographing object by the movement of the model represented by computer graphics.

【0023】この発明によれば、人間が動かした身体部
位、たとえば、頭部回転の回転検出の有無に関する出力
とその頻度により、頭部モデルの回転角を表現すること
により、コンピュータグラフィクス表現の人物モデルの
頭部等をリアルタイムに動かす。
According to the present invention, the rotation angle of the head model is expressed by the body part moved by a human, for example, the output related to the presence or absence of detection of the rotation of the head rotation and the frequency of the output. Move the head of the model etc. in real time.

【0024】つぎの発明にかかる動作解析プログラムを
記録した記録媒体にあっては、コンピュータに、複数の
画像センサにより複数の撮影角度から撮影された複数の
二次元画像の時間的に連続する二枚の画像の差分を計算
し、各画像センサ毎に得られた複数の差分画像をそれぞ
れ解析して、撮影対象の部位を含む画像領域を各差分画
像毎に推定する手順、時間的に連続する二枚の画像を構
成する各画素値を、水平および垂直方向に射影し、得ら
れる射影データに基づいて画像センサ毎に一次元オプテ
ィカルフローを計算し、得られる複数の一次元オプティ
カルフローから推定された各領域内の動きを計算し、各
部位の三次元的動きを推定する手順、を実行させるため
のプログラムを記録したものである。
[0024] In the recording medium storing the operation analysis program according to the next invention, the computer is provided with two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles by a plurality of image sensors. Calculating a difference between the images, and analyzing a plurality of difference images obtained for each image sensor, and estimating an image region including a part to be imaged for each difference image. Each pixel value constituting one image is projected in the horizontal and vertical directions, a one-dimensional optical flow is calculated for each image sensor based on the obtained projection data, and estimated from the obtained plurality of one-dimensional optical flows. A program for calculating a motion in each region and estimating a three-dimensional motion of each part is recorded.

【0025】この発明によれば、人間が動かした身体部
位、たとえば、首を振って頭部を動かした場合に、この
プログラムを読み取り可能なコンピュータにおいて、複
数の画像センサからの入力画像を解析することにより頭
部の位置を特定し、さらに、時間的に連続する二枚の画
像を構成する各画素値を水平および垂直方向に射影し、
得られる射影データに基づいて画像センサ毎に一次元オ
プティカルフローを計算し、得られる複数の一次元オプ
ティカルフローから回転など三次元的動き情報を抽出
し、そして、抽出された三次元的動き情報に基づいて、
コンピュータグラフィクス表現の人物モデル等をリアル
タイムに動かす。
According to the present invention, when a human body moves, for example, when the head is shaken and the head is moved, a computer capable of reading this program analyzes input images from a plurality of image sensors. By specifying the position of the head by that, further, each pixel value constituting two images that are temporally continuous is projected in the horizontal and vertical directions,
A one-dimensional optical flow is calculated for each image sensor based on the obtained projection data, three-dimensional motion information such as rotation is extracted from the obtained one-dimensional optical flows, and the extracted three-dimensional motion information is obtained. On the basis of,
Move a human model in computer graphics expression in real time.

【0026】つぎの発明にかかる動作解析プログラムを
記録した記録媒体にあっては、コンピュータに、画像処
理機能を持った半導体集積回路(後述する実施の形態の
人工網膜LSIに相当)を搭載する複数の画像センサに
より複数の撮影角度から撮影された複数の二次元画像の
時間的に連続する二枚の画像の差分を計算し、各画像セ
ンサ毎に得られた複数の差分画像をそれぞれ解析して、
撮影対象の部位を含む画像領域を各差分画像毎に推定す
る手順、画像センサにより、直接得られる射影データに
基づいて画像センサ毎に一次元オプティカルフローを計
算し、得られる複数の一次元オプティカルフローから前
記推定された各領域内の動きを計算し、各部位の三次元
的動きを推定する手順、を実行させるためのプログラム
を記録したものである。
In a recording medium on which an operation analysis program according to the next invention is recorded, a computer is provided with a plurality of semiconductor integrated circuits having image processing functions (corresponding to an artificial retinal LSI in an embodiment described later). Calculating the difference between two temporally consecutive images of a plurality of two-dimensional images photographed from a plurality of photographing angles by the image sensor, and analyzing the plurality of difference images obtained for each image sensor. ,
Procedure for estimating an image area including a part to be imaged for each difference image, calculating a one-dimensional optical flow for each image sensor based on projection data directly obtained by the image sensor, and obtaining a plurality of one-dimensional optical flows. , A procedure for calculating the estimated motion in each region from the above, and estimating the three-dimensional motion of each part.

【0027】この発明によれば、人間が動かした身体部
位、たとえば、首を振って頭部を動かした場合に、この
プログラムを読み取り可能なコンピュータにおいて、複
数の画像センサからの入力画像を解析することにより頭
部の位置を特定し、さらに、直接得られる射影データに
基づいて画像センサ毎に一次元オプティカルフローを計
算し、得られる複数の一次元オプティカルフローから回
転など三次元的動き情報を抽出し、そして、抽出された
三次元的動き情報に基づいて、コンピュータグラフィク
ス表現の人物モデル等をリアルタイムに動かす。
According to the present invention, when a human body is moved, for example, when the head is shaken and the head is moved, a computer capable of reading this program analyzes the input images from the plurality of image sensors. Identify the position of the head, calculate the one-dimensional optical flow for each image sensor based on the directly obtained projection data, and extract three-dimensional motion information such as rotation from the obtained one-dimensional optical flows Then, based on the extracted three-dimensional motion information, a human model or the like in computer graphics is moved in real time.

【0028】[0028]

【発明の実施の形態】以下、本発明にかかる操作制御装
置および動作解析プログラムを記録したコンピュータ読
み取り可能な記録媒体の実施の形態について図面を参照
しながら詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an embodiment of a computer-readable recording medium on which an operation control device and an operation analysis program according to the present invention are recorded will be described in detail with reference to the drawings.

【0029】図1は、この発明の実施の形態による操作
制御装置の構成を示すブロック図であり、画像入力部
1、部位領域推定部2、部位動作推定部3、動作再現部
(対象操作部)4の4部分からなる。
FIG. 1 is a block diagram showing a configuration of an operation control apparatus according to an embodiment of the present invention. The image input unit 1, the part region estimating unit 2, the part motion estimating unit 3, the motion reproducing unit (object operation unit) ) 4).

【0030】画像入力部1は、複数の画像センサを備
え、物体の動きを画像センサ毎に違った角度から撮影す
る。本実施の形態では、画像入力部1が画像センサを2
台備える場合の例を示す。部位領域推定部2は、画像入
力部1の各画像センサから逐次出力される画像毎に、時
間的に連続する二枚の画像の間で対応する画素間の差分
(絶対値)を計算し(以下、得られる画像を差分画像と
呼ぶ)、この差分画像に基づいて各身体部分の画像領域
を推定する。部位動作推定部3は、部位領域推定部2で
推定された各領域内の動きを解析し、奥行き方向の回転
など三次元的な動きを推定する。動作再現部4は、部位
動作推定部3で推定された部位の動きに基づいてコンピ
ュータグラフィクスなどで模擬的に表現される人物モデ
ルを模擬的に動かす。
The image input unit 1 includes a plurality of image sensors, and captures the movement of an object from different angles for each image sensor. In the present embodiment, the image input unit 1 uses two image sensors.
An example of a case where a table is provided will be described. The part region estimation unit 2 calculates a difference (absolute value) between corresponding pixels between two temporally consecutive images for each image sequentially output from each image sensor of the image input unit 1 ( Hereinafter, the obtained image is referred to as a difference image), and the image area of each body part is estimated based on the difference image. The part motion estimator 3 analyzes the motion in each area estimated by the part area estimator 2, and estimates three-dimensional motion such as rotation in the depth direction. The motion reproducing unit 4 simulates a person model simulated by computer graphics or the like based on the motion of the part estimated by the part motion estimating unit 3.

【0031】図2は、本実施の形態による操作制御装置
により人物モデルを模擬的に動かす実現例であり、撮影
対象5となる人間と画像センサ6、7との位置関係を示
すとともに、部位領域推定部2と部位動作推定部3の処
理内容を受け持つ動作解析用計算機8と、その解析内容
を表示するための動作解析結果表示用モニタ9と、動作
解析用計算機8の出力データを送信するためのネットワ
ーク10と、送信データを入力として撮影対象の人間の
動作を再現するための動作再現用計算機11と、再現し
た動作を人物モデル12として表現するための動作再現
用モニタ(コンピュータグラフィクス表示用モニタ)1
3と、から構成される。
FIG. 2 shows an example in which a human model is simulated by the operation control device according to the present embodiment, and shows the positional relationship between a person to be photographed 5 and the image sensors 6 and 7 and a region area. A motion analysis computer 8 responsible for the processing contents of the estimation unit 2 and the part motion estimation unit 3, a motion analysis result display monitor 9 for displaying the analysis contents, and an output data of the motion analysis computer 8 Network 10, a motion reproduction computer 11 for reproducing the motion of a human being to be photographed using transmission data as input, and a motion reproduction monitor (computer graphics display monitor) for expressing the reproduced motion as a human model 12. ) 1
And 3.

【0032】図2の構成では、人間が動かした身体部
位、たとえば、頭部などを、首を振って動かした場合
に、計算機8が画像センサ6と7からの入力画像を解析
することにより、頭部の位置を特定し、さらに、回転な
ど三次元的動き情報を抽出することができる。また、必
要であれば、計算機8の解析内容をモニタ9に表示する
こともできる。そして、図2では、計算機8により抽出
された三次元的動き情報を、ネットワーク10を介して
送信することにより、同ネットワークに結合された計算
機11が、付属するモニタ13上で、コンピュータグラ
フィクス表現の人物モデル12をリアルタイムに動かす
ことができる。
In the configuration of FIG. 2, when a body part moved by a human, such as a head, is shaken and moved, the computer 8 analyzes the input images from the image sensors 6 and 7, thereby The position of the head can be specified, and three-dimensional motion information such as rotation can be extracted. If necessary, the analysis contents of the computer 8 can be displayed on the monitor 9. In FIG. 2, by transmitting the three-dimensional motion information extracted by the computer 8 via the network 10, the computer 11 coupled to the network transmits the computer graphics expression on the attached monitor 13. The human model 12 can be moved in real time.

【0033】ここで、部位領域推定部2によって処理さ
れる人間の身体部位推定アルゴリズムについて述べる。
なお、頭部領域推定アルゴリズムに基づく処理内容の例
を、図3を用いて説明し、頭部領域推定アルゴリズムの
詳細を、図4のフローチャートを用いて説明する。ま
た、胴体および両腕領域推定アルゴリズムに基づく処理
内容の例を、図5を用いて説明し、胴体および両腕領域
推定アルゴリズムの詳細を、図6のフローチャートを用
いて説明する。
Here, a human body part estimating algorithm processed by the part area estimating unit 2 will be described.
An example of processing based on the head region estimation algorithm will be described with reference to FIG. 3, and details of the head region estimation algorithm will be described with reference to the flowchart in FIG. Further, an example of the processing content based on the torso and both arms region estimation algorithm will be described with reference to FIG. 5, and details of the torso and both arms region estimation algorithm will be described with reference to the flowchart in FIG.

【0034】図3(a)〜(c)は、頭部領域推定アル
ゴリズムに基づく部位領域推定部2の処理内容を示し、
画像センサ6、7の各出力画像から得られる差分画像を
解析することによって人間の頭部領域が推定される例で
あり、二つの画像センサのいずれか一方に関する処理を
示している。なお、図3(a)は、人間の動きを含んだ
入力画像から得られる差分画像を示し、図3(b)は、
差分画像の各画素値をしきい値により二値化した結果と
頭部領域推定アルゴリズムの解析内容を示す。また、図
3(c)は、上記のアルゴリズムに基づいて得られた頭
部位置を入力画像上で示したものであり、白線枠Aによ
り入力画像における推定頭部矩型領域の位置を示す。
FIGS. 3A to 3C show the processing contents of the part region estimating section 2 based on the head region estimating algorithm.
This is an example in which a human head region is estimated by analyzing a difference image obtained from each output image of the image sensors 6 and 7, and shows a process relating to one of the two image sensors. FIG. 3A shows a difference image obtained from an input image including human motion, and FIG.
The result of binarizing each pixel value of the difference image by a threshold value and the analysis contents of a head region estimation algorithm are shown. FIG. 3C shows the head position obtained based on the above algorithm on the input image, and the white line frame A indicates the position of the estimated head rectangular area in the input image.

【0035】ここで、図3(b)の処理内容を説明する
ために、図4のフローチャートのステップST1〜ST
6との対応について述べる。まず、ステップST1で図
3(a)の差分画像はしきい値により二値化され、図3
(b)に示す動きによる人間のシルエット14aが得ら
れる。 つぎに、ステップST2では、黒画素から構成
されるシルエット14aの幅を計算する。具体的には、
水平画素列毎に左端および右端から見て最初に現われる
黒画素位置をシルエット14aの両端としてこの幅を列
毎に計算する。このシルエット幅は、頭部から胴体に至
るおおよその人間の輪郭の幅を反映しているが、シルエ
ット14aの目のあたりの幅のように、場所によっては
求められるシルエット幅が実際の幅を反映しない場合が
ある。
Here, in order to explain the processing contents of FIG. 3B, steps ST1 to ST of the flowchart of FIG.
6 will be described. First, in step ST1, the difference image of FIG.
The human silhouette 14a obtained by the movement shown in FIG. Next, in step ST2, the width of the silhouette 14a composed of black pixels is calculated. In particular,
This width is calculated for each horizontal pixel column, with the black pixel position first appearing from the left end and the right end as viewed from both ends of the silhouette 14a. This silhouette width reflects the approximate width of the human outline from the head to the torso, but if the required silhouette width does not reflect the actual width depending on the location, such as the width around the eyes of the silhouette 14a. There is.

【0036】つぎに、ステップST3でシルエット幅分
布を平滑化することによって実際の人間の輪郭幅をある
程度反映した14bのような平滑化したシルエット幅分
布を得ることができる。このようにして得られた平滑化
したシルエット幅分布の上端を推定頭頂位置として登録
する。また、特に腕を下ろした状態で人間が左右に動く
場合、平滑化したシルエット幅分布14bのように首の
位置あたりにくぼみができるので、この位置を特定すれ
ば、人間の首の垂直位置を推定することができる。
Next, by smoothing the silhouette width distribution in step ST3, it is possible to obtain a smoothed silhouette width distribution such as 14b reflecting the actual human outline width to some extent. The upper end of the smoothed silhouette width distribution obtained in this way is registered as the estimated top position. Also, in particular, when a human moves left and right with his arms down, a depression can be formed around the neck position as in the smoothed silhouette width distribution 14b. If this position is specified, the vertical position of the human neck can be calculated. Can be estimated.

【0037】つぎに、ステップST4では、このくぼみ
探索を行う。即ち、シルエット幅分布14bの上端(推
定頭頂位置16)から幅の値を調べ、最初に極大になっ
た位置からつぎに極小になる位置を見つけ、推定首位置
15として登録する。シルエット幅分布が14bのよう
に滑らかであれば、この極小位置が首の位置を反映して
いることがわかる。
Next, in step ST4, this hollow search is performed. That is, the width value is checked from the upper end (estimated crown position 16) of the silhouette width distribution 14b, the next smallest position is found from the first largest position, and registered as the estimated neck position 15. If the silhouette width distribution is smooth as in 14b, it can be seen that this minimum position reflects the position of the neck.

【0038】つぎに、ステップST5では、頭部領域の
両端位置を推定するために、推定頭頂位置16と推定首
位置15の間で二値化された差分画像を垂直方向に射影
し、射影の両端を推定頭部領域の両端(左端17、右端
18)として登録する。以上より、頭部領域の位置が推
定される(ステップST6)。
Next, in step ST5, in order to estimate both end positions of the head region, the binarized difference image between the estimated head position 16 and the estimated neck position 15 is projected in the vertical direction, and the projected image is projected. Both ends are registered as both ends (left end 17, right end 18) of the estimated head region. From the above, the position of the head region is estimated (step ST6).

【0039】図5(a)〜(c)は、胴体および両腕領
域を推定するための図3と同様の部位領域推定部2の処
理内容を示す。なお、図5(a)は、人間の動きを含ん
だ入力画像から得られる差分画像を示し、図5(b)
は、差分画像の各画素値をしきい値により二値化した結
果と胴体および両腕領域推定アルゴリズムの解析内容を
示す。また、図5(c)は、入力画像における推定され
る頭部矩型領域(白線枠A)、胴体矩型領域(白線枠
B)、および両腕矩型領域(白線枠C、D)の位置を示
す。
FIGS. 5 (a) to 5 (c) show the processing contents of the part region estimating unit 2 similar to FIG. 3 for estimating the torso and both arms regions. FIG. 5A shows a difference image obtained from an input image including human motion, and FIG.
Shows the result of binarizing each pixel value of the difference image by the threshold value and the analysis contents of the torso and both arms region estimation algorithm. FIG. 5C shows the estimated head rectangular area (white line frame A), torso rectangular area (white line frame B), and both arms rectangular area (white line frames C and D) in the input image. Indicates the position.

【0040】ここで、図5(b)の処理内容を説明する
ために、図6のフローチャートのステップST11〜S
T16との対応について述べる。まず、ステップST1
1で図5(a)の差分画像はしきい値により二値化さ
れ、図5(b)に示す動きによる人間のシルエット14
aが得られる。
Here, in order to explain the processing contents of FIG. 5B, steps ST11 to ST11 of the flowchart of FIG.
The correspondence with T16 will be described. First, step ST1
1, the difference image of FIG. 5A is binarized by a threshold value, and the human silhouette 14 due to the motion shown in FIG.
a is obtained.

【0041】つぎに、ステップST12では、上述の頭
部矩形領域を推定する。つぎに、ステップST13で
は、推定頭部矩形領域を手がかりに、肩の両端位置を推
定する。具体的には、頭部における矩型領域の下端の数
画素だけ下(図5の例では2ピクセル下)を肩の位置と
仮定する。
Next, in step ST12, the above-mentioned rectangular head region is estimated. Next, in step ST13, both end positions of the shoulder are estimated using the estimated head rectangular area as a clue. Specifically, the position of the shoulder is assumed to be several pixels below the lower end of the rectangular region in the head (two pixels below in the example of FIG. 5).

【0042】つぎに、ステップST14では、ステップ
ST3で推定された肩の左端20と右端21の位置を手
がかりに、胴体の幅は、肩幅に等しいとして胴体矩型領
域を抽出する。また、推定される胴体矩型領域の上端
は、推定頭部矩型領域の下端15に等しいとし、一方、
下端については図5の例では、上半身のみを画像の範囲
と仮定しているので、画像の最下端とした。仮に両脚も
画像の範囲内にある場合には、胴体矩型領域の横幅を肩
幅とし、縦幅を肩幅の一定倍として推定することもでき
る。
Next, in step ST14, a torso rectangular region is extracted on the basis of the positions of the left end 20 and the right end 21 of the shoulder estimated in step ST3, assuming that the width of the torso is equal to the shoulder width. Also, the upper end of the estimated torso rectangular region is equal to the lower end 15 of the estimated head rectangular region,
In the example of FIG. 5, only the upper body is assumed to be the range of the image with respect to the lower end, so the lower end is set to the lowermost end of the image. If both legs are within the range of the image, it can be estimated that the horizontal width of the torso rectangular region is the shoulder width and the vertical width is a fixed multiple of the shoulder width.

【0043】つぎに、ステップST15では、ステップ
ST14で推定された胴体矩型領域を手がかりとして、
その両脇に存在する黒画素を両腕と仮定して、それらを
囲む矩型を両腕矩形領域として推定する。図5(b)で
は、左腕が19と20の間を横幅、15と画像最下端の
間を縦幅とする矩型領域として推定され、右腕が21と
22の間を横幅とする同様の矩型領域として推定され
る。
Next, in step ST15, using the torso rectangular region estimated in step ST14 as a clue,
Assuming that the black pixels present on both sides are both arms, a rectangular shape surrounding them is estimated as a two-arm rectangular area. In FIG. 5B, the left arm is estimated as a rectangular area having a horizontal width between 19 and 20 and a vertical width between 15 and the lowermost end of the image, and the right arm is a rectangular area having a horizontal width between 21 and 22. Estimated as type region.

【0044】最後に、ステップST16では、ステップ
ST15で推定された両腕矩型領域内に存在する黒画素
の分布を近似した近似四角形を計算し、動く両腕の傾き
を推定する。なお、近似四角形の具体的な計算法とし
て、国際学会予稿集「IEEE2nd Interna
tional Conference on Auto
matic Face and Gesture Re
cognition,October 1996," C
omputer Vision for Comput
er Games" 」に掲載された画像モーメントの例
がある。この例は、画像中に含まれる手がさまざまな傾
きを持つ場合に、手の領域を四角形で近似し、同時に傾
きも求める。このアルゴリズムを、両腕領域を近似四角
形として計算する場合に適用すれば、図5(c)中のよ
うに、両腕の傾きを反映した近似四角形を計算すること
ができる。
Finally, in step ST16, an approximate square approximating the distribution of black pixels existing in the rectangular region of both arms estimated in step ST15 is calculated, and the inclination of the moving arms is estimated. In addition, as a specific calculation method of the approximate quadrangle, the international conference proceedings “IEEE2nd International”
Tional Conference on Auto
magic Face and Gesture Re
cognition, October 1996, "C
output Vision for Computing
er Games "". In this example, when a hand included in an image has various inclinations, the area of the hand is approximated by a rectangle, and the inclination is determined at the same time. If this algorithm is applied to the case where both arms are calculated as approximate squares, an approximate square reflecting the inclination of both arms can be calculated as shown in FIG. 5C.

【0045】つぎに、図7〜図9により、部位動作推定
部3によって処理される身体部位の動きを推定するため
のアルゴリズムについて述べる。以下では、動きを推定
する身体部位を頭部として、頭部の三次元的回転を推定
する頭部回転推定アルゴリズムの詳細を示す。
Next, an algorithm for estimating the motion of the body part processed by the part motion estimating unit 3 will be described with reference to FIGS. Hereinafter, details of the head rotation estimation algorithm for estimating the three-dimensional rotation of the head with the body part whose motion is estimated as the head will be described.

【0046】図7は、頭部回転推定アルゴリズムを示す
フローチャートであり、図8と図9は、それぞれ、鉛直
方向と水平方向の回転軸を中心とした人間の頭部回転を
示す説明図であり、特に図7のフローチャートのステッ
プST21〜ST26との対応について説明したもので
ある。なお、図8と図9の(a)は、鉛直方向の回転軸
28Xと水平方向の回転軸28Yを中心とした人間5の
頭部回転を示している。また、図8と図9の(b)
(c)は、二つの画像センサからの入力画像であり、図
中の白線枠A1 、A2 は、前述の部位領域推定部2によ
り推定された頭部矩型領域を示す(ステップST21と
ST22に対応)。
FIG. 7 is a flowchart showing a head rotation estimation algorithm. FIGS. 8 and 9 are explanatory diagrams showing human head rotation about vertical and horizontal rotation axes, respectively. In particular, the correspondence with steps ST21 to ST26 in the flowchart of FIG. 7 is described. FIGS. 8 and 9A show the rotation of the head of the person 5 about the vertical rotation axis 28X and the horizontal rotation axis 28Y. 8 and 9 (b).
(C) is an input image from the two image sensors, and white line frames A 1 and A 2 in the figure indicate the head rectangular region estimated by the above-described region estimation unit 2 (step ST21 and step ST21). ST22).

【0047】つぎに、ステップST23では、推定頭部
矩型領域内でオプティカルフローを計算する。オプティ
カルフローの具体的計算法は、たとえば特開平4−24
1077号公報におけるニューラルネットワークを用い
た方式があり、二次元画像の各画素の明るさの時間的、
空間的変化から各画素の速度ベクトル(動きベクトル)
を求めて、各画素毎の動きの方向と強さを算出する。具
体的にいうと、オプティカルフローは、汎関数ε、すな
わち、ε=ε1 +ε2 …式を最小化するこ
とで得られる。なお、ε1 は求めるオプティカルフロー
が満足すべき条件であり、また、ε2 は速度ベクトルが
空間的になめらかに変化するための拘束条件である。
Next, in step ST23, an optical flow is calculated within the estimated head rectangular area. A specific calculation method of the optical flow is described in, for example,
No. 1077, there is a method using a neural network.
Velocity vector (motion vector) of each pixel from spatial change
Is calculated, and the direction and intensity of the motion for each pixel are calculated. Specifically, the optical flow can be obtained by minimizing the functional ε, that is, ε = ε 1 + ε 2 . Note that ε 1 is a condition that should satisfy the optical flow to be obtained, and ε 2 is a constraint condition for the velocity vector to change smoothly and spatially.

【0048】ここで、該ニューラルネットワークを用い
たオプティカルフローの計算方法を簡単に説明する。な
お、オプティカルフローを計算する具体的な構成として
は、図15(a)(b)に示すとおりであり、たとえ
ば、移動物体各点におけるx成分およびy成分をそれぞ
れ求めるx方向速度ニューロン102a、y方向速度ニ
ューロン102bを一組として((b)参照)、複数配
置した双方向型ニューラルネットワーク102((a)
参照)と、前記各速度ニューロン間に配置して移動物体
のエッジを検出する(アナログ値をとる)ラインプロセ
ス102c((b)参照)とを備えている。
Here, a method of calculating an optical flow using the neural network will be briefly described. The specific configuration for calculating the optical flow is as shown in FIGS. 15A and 15B. For example, the x-direction velocity neurons 102a and y for obtaining the x component and the y component at each point of the moving object, respectively. A set of directional velocity neurons 102b (see (b)), a plurality of arranged bidirectional neural networks 102 ((a)
), And a line process 102c (see (b)) for detecting the edge of the moving object (taking an analog value) by arranging it between the velocity neurons.

【0049】つぎに、動作について図15の構成、およ
び、図16のフローチャートを用いて説明する。まず、
前記双方向型ニューラルネットワーク102に入力画像
101が入力されると(ステップST51)、x方向速
度ニューロン2aがオプティカルフローのx成分を、同
様に、y方向速度ニューロン2bがオプティカルフロー
のy成分を、それぞれ計算する。すなわち、各速度ニュ
ーロンが速度ベクトルを計算する(ステップST5
2)。そして、ラインプロセス102cが水平方向およ
び垂直方向のラインプロセスを計算し(ステップST5
3)、式の汎関数εが収束したときの双方向型ニュー
ラルネットワーク102の出力により(ステップST5
4)、求める移動物体の速度ベクトル(オプティカルフ
ロー)が得られる(ステップST55)。
Next, the operation will be described with reference to the configuration of FIG. 15 and the flowchart of FIG. First,
When the input image 101 is input to the bidirectional neural network 102 (step ST51), the x-direction velocity neuron 2a substitutes the x component of the optical flow, and similarly, the y-direction velocity neuron 2b substitutes the y component of the optical flow, Calculate each. That is, each velocity neuron calculates a velocity vector (step ST5).
2). Then, the line process 102c calculates the horizontal and vertical line processes (step ST5).
3) By the output of the bidirectional neural network 102 when the functional ε of the equation converges (step ST5)
4), a velocity vector (optical flow) of the moving object to be obtained is obtained (step ST55).

【0050】上記、オプティカルフローの計算は、たと
えば、図17に示す装置(図2に示す画像センサ6,
7、動作解析用計算機8等を含む)にて実現できる。な
お、オプティカルフローの計算法は、上記文献以外の他
の手法を用いてもよい。図17において、104は入力
画像データを取り込むCCDカメラであり、105はカ
メラインターフェースであり、106は前述した処理を
行うプロセッサ(CPU)であり、107はCCDカメ
ラ104により取り込まれた入力画像データを格納する
画像メモリであり、108はCPU106により得られ
た結果を外部に出力するためのインターフェースであ
る。
The calculation of the optical flow is performed by, for example, the apparatus shown in FIG. 17 (the image sensor 6 shown in FIG. 2).
7, including the operation analysis computer 8). Note that a method other than the above document may be used as a method for calculating the optical flow. In FIG. 17, reference numeral 104 denotes a CCD camera for capturing input image data, 105 denotes a camera interface, 106 denotes a processor (CPU) for performing the above-described processing, and 107 denotes input image data captured by the CCD camera 104. An image memory 108 for storing the image data is an interface for outputting the result obtained by the CPU 106 to the outside.

【0051】従って、図8(d)と図9(d)における
23a1 は、上記方法により、図8(b)と図9(b)
の推定頭部矩型領域A1 内で計算されたオプティカルフ
ローを示すものであり、図8(e)と図9(e)におけ
る23a2 は、上記方法により、図8(c)と図9
(c)の推定頭部矩型領域A2 内で計算されたオプティ
カルフローを示すものである。
Therefore, 23a 1 in FIGS. 8 (d) and 9 (d) is obtained by the method described above with reference to FIGS. 8 (b) and 9 (b).
Estimation and shows the head rectangular type region A optical flows calculated in the 1, 23a 2 in FIG. 8 (e) and FIG. 9 (e) by the method described above, FIG. 8 (c) and FIG. 9
Shows the calculated optical flow in the estimated head rectangular type region A 2 of (c).

【0052】つぎに、図7におけるステップST24で
は、ステップST23で得られたオプティカルフローを
水平および垂直方向に平均化して射影する。図8(d)
と図9(d)における24a1 および25a1 はオプテ
ィカルフロー23a1 をそれそれ水平方向および垂直方
向に平均化して射影した結果であり、図8(e)と図9
(e)における24a2 および25a2 はオプティカル
フロー23a2 をそれそれ水平方向および垂直方向に平
均化して射影した結果である。
Next, in step ST24 in FIG. 7, the optical flow obtained in step ST23 is averaged and projected in the horizontal and vertical directions. FIG. 8 (d)
And 24a 1 and 25a 1 in FIG. 9 (d) shows the result obtained by projecting the optical flow 23a 1 by averaging it it horizontally and vertically, 8 (e) and FIG. 9
(E) 24a 2 and 25a 2 are the results of averaging and projecting the optical flow 23a 2 in the horizontal and vertical directions, respectively.

【0053】つぎに、ステップST25では、ステップ
ST24で得られたオプティカルフローの水平射影24
1 、24a2 、および垂直射影25a1 、25a2
各画像センサ間で比較し、奥行き方向を含む三次元的な
頭部領域の動きを推定する。図8(f)(g)と図9
(f)(g)における26と27は上方向および右方向
から見た人間の頭部断面であり、各矢印列はそれぞれの
方向から見たステップST25で推定される奥行き方向
を含む頭部の動きを示す。即ち、図8(f)と図9
(f)における各矢印列は、平均化した垂直射影25a
1 と25a2 における各動きベクトルを列毎に合成して
得られた矢印列であり、図8(g)と図9(g)におけ
る各矢印列は、平均化した水平射影24a1 と24a2
における各動きベクトルを列毎に合成して得られた矢印
列である。
Next, in step ST25, the horizontal projection 24 of the optical flow obtained in step ST24 is performed.
a 1 , 24a 2 and the vertical projections 25a 1 , 25a 2 are compared between the respective image sensors to estimate the three-dimensional movement of the head region including the depth direction. 8 (f) (g) and FIG.
(F) Reference numerals 26 and 27 in (g) denote cross-sections of the human head viewed from above and to the right. Each arrow row indicates the head direction including the depth direction estimated in step ST25 viewed from each direction. Indicates movement. 8 (f) and FIG.
Each row of arrows in (f) is an averaged vertical projection 25a.
1 and 25a are arrows columns each motion vector obtained by combining in each column in 2, the arrows row in FIG. 8 (g) and FIG. 9 (g) were averaged horizontal projection 24a 1 and 24a 2
5 is an arrow sequence obtained by synthesizing each motion vector in each column.

【0054】最後に、ステップST26では、ステップ
ST25により得られた垂直および水平断面の奥行き方
向を含む動きベクトルのパターンを入力として、それぞ
れの回転軸について回転が検出されたかどうかを判定す
る。具体的な回転判定方法としては、各垂直および水平
断面上で得られた奥行き方向を含む各動きベクトルに関
して、頭部の前方向(顔側)と後方向に最も強く現われ
るベクトル対P1 、Q 1 、およびP2 、Q2 を選び、そ
れらの大きさが前もって設定したしきい値以上で、かつ
それらのなす角についても制限を設ければ、垂直および
水平回転軸に関する回転性を判定することができる。
Finally, at step ST26,
Depth of vertical and horizontal sections obtained by ST25
Input the motion vector pattern including the direction
Determine if rotation has been detected for one of these axes
You. As a specific rotation judgment method, each vertical and horizontal
For each motion vector including the depth direction obtained on the cross section,
And appears most strongly in the forward (facial) and backward direction of the head
Vector pair P1, Q 1, And PTwo, QTwoAnd select
Their magnitude is greater than or equal to a preset threshold, and
If there are restrictions on the angle between them,
Rotation with respect to the horizontal rotation axis can be determined.

【0055】図10は、部位動作推定部3によって推定
される、水平方向を回転軸とする頭部回転の推定結果を
示すもので、頭部右方向からみて時計回りを正方向、反
時計回りを負方向にとった場合の回転検出の時系列であ
る。各垂直線がフレーム毎の回転検出の有無を示してお
り、これらの並びの疎密は頭部の回転角の大小を表わし
ている。たとえば、一つの検出信号で10度の回転を示
すものとすれば、図10は、水平方向を回転軸として、
まず時計回りに10度、つぎに反時計回りにゆっくり2
0度、つぎに時計回りに50度、その後、反時計回りに
10度・・・というように頭部を回転させていると推定
できる。なお、垂直方向を回転軸とする頭部回転推定に
関しても同様に推定できる。
FIG. 10 shows the result of the estimation of the head rotation with the horizontal direction as the rotation axis, estimated by the part motion estimating unit 3, where the clockwise direction is the positive direction and the counterclockwise direction when viewed from the right side of the head. Is a time series of rotation detection in the case where is taken in the negative direction. Each vertical line indicates the presence or absence of rotation detection for each frame, and the density of these arrangements indicates the magnitude of the rotation angle of the head. For example, if one detection signal indicates a rotation of 10 degrees, FIG.
First 10 degrees clockwise, then slowly 2 counterclockwise.
It can be estimated that the head is rotated 0 degrees, then 50 degrees clockwise, and then 10 degrees counterclockwise. It should be noted that the estimation of the head rotation with the vertical direction as the rotation axis can be similarly estimated.

【0056】最後に、動作再現部4において、人間の身
体部分の動きがどのように再現されるかについて説明す
る。部位動作推定部3によって推定された頭部回転に基
づいて、コンピュータグラフィクス等で表現された人物
モデルを動かす場合、頭部モデルの回転が実際の頭部の
動きを反映していることが望ましい。頭部回転の回転角
に関する部位動作推定部3の出力データ表現形式には二
通りある。一つは、図10に示すように回転検出の有無
に関する出力とその頻度により頭部モデルの回転角を表
現するという方式であり、回転角を推定する必要がない
ので計算量を節約することができる。
Finally, how the motion of the human body is reproduced in the motion reproducing section 4 will be described. When moving a human model represented by computer graphics or the like based on the head rotation estimated by the part motion estimating unit 3, it is desirable that the rotation of the head model reflects the actual movement of the head. There are two types of output data expression formats of the part motion estimating unit 3 regarding the rotation angle of the head rotation. One is a method in which the rotation angle of the head model is represented by the output regarding the presence or absence of rotation detection and its frequency as shown in FIG. 10, and it is not necessary to estimate the rotation angle. it can.

【0057】もう一つは、部位動作推定部3の出力デー
タに回転検出の有無だけでなく、その回転角もあわせて
表現するという方式であり、たとえば、種々のベクトル
対P 1 、Q1 、およびP2 、Q2 に対して予め回転角を
求めておき、得られたベクトル対の位置と大きさに対応
した回転角を出力する。このようにすれば、図2におい
て、動作解析用計算機8からの出力データとして、回転
検出の有無に関する信号と回転角に関する数値データを
一つのメッセージとして送信でき、ネットワーク10を
通じて、これを受信した動作再現用計算機11が、回転
検出有りのメッセージを受けることができ、指定された
回転角でコンピュータグラフィクスを回転させることが
できる。
The other is the output data of the part motion estimating unit 3.
Not only the presence / absence of rotation detection but also the rotation angle
It is a method of expressing, for example, various vectors
Vs. P 1, Q1, And PTwo, QTwoThe rotation angle in advance
Determined, corresponding to the position and size of the obtained vector pair
The rotation angle is output. In this way, FIG.
Output data from the motion analysis computer 8
The signal about the presence or absence of detection and the numerical data about the rotation angle
Can be sent as one message,
Through this, the operation reproducing computer 11 receiving the
You can receive a message with detection, and
Rotating computer graphics with a rotation angle
it can.

【0058】この表現方式では、回転角の推定は照明条
件に依存するので照明条件が変化すると再現された動き
が実際の撮影対象の動きを反映しなくなるおそれがある
が、回転検出と同時に回転角もわかることから、動きの
再現性に関する人間の目から見た応答速度は前記の表現
方式よりも向上する。部位動作推定部3の出力データに
いずれの表現方式を採用しても、動作再現部4によって
コンピュータグラフィクスで表現された人物の頭部モデ
ルを人間自身の動きで操作することができる。
In this expression method, since the estimation of the rotation angle depends on the illumination condition, if the illumination condition changes, the reproduced motion may not reflect the actual motion of the object to be photographed. As a result, the response speed from the human eyes regarding the reproducibility of the motion is improved as compared with the above-described expression method. Regardless of which expression method is adopted for the output data of the part motion estimating unit 3, the human head model represented by computer graphics by the motion reproducing unit 4 can be operated by the motion of the person himself.

【0059】なお、上記実施の形態において、部位動作
推定部3は、人間の頭部の回転を推定する例を示した
が、並行移動の場合にも、上記と同様、オプティカルフ
ローの水平射影および垂直射影を各画像センサ間で比較
し、奥行き方向を含む三次元的な頭部の移動を容易に推
定でき、これらを組み合わせて頭部のさらに複雑な動き
を解析することが可能となる。
In the above-described embodiment, an example has been shown in which the part motion estimating unit 3 estimates the rotation of the human head. However, in the case of parallel movement, the horizontal projection of the optical flow and the By comparing the vertical projection among the image sensors, it is possible to easily estimate the three-dimensional movement of the head including the depth direction, and it is possible to analyze a more complicated movement of the head by combining these.

【0060】以上述べたような撮影対象の動作解析演算
は、動作解析用プログラムにより実現され、該プログラ
ムは記録媒体にして提供される。たとえば、上記実施の
形態では、図2の動作解析用計算機8のハードディスク
内に格納されている。
The above-described operation analysis operation of the photographing target is realized by an operation analysis program, and the program is provided as a recording medium. For example, in the above embodiment, the data is stored in the hard disk of the operation analysis computer 8 in FIG.

【0061】このように、本実施の形態によれば、差分
画像を用いて背景によらない領域推定を行い、さらに複
数の画像センサから得られる推定領域内のオプティカル
フロー解析の比較によって回転などの複雑な三次元的動
きが推定でき、また、コンピュータグラフィクスのモデ
ルを用いて人間等の動きをリアルタイムで再現できる。
As described above, according to the present embodiment, the region estimation is performed by using the difference image regardless of the background, and furthermore, the rotation and the like are determined by comparing the optical flow analysis in the estimation region obtained from the plurality of image sensors. A complex three-dimensional motion can be estimated, and the motion of a person or the like can be reproduced in real time using a computer graphics model.

【0062】なお、本実施の形態では、画像入力部1が
2台の画像センサ6、7を持ち、ステレオ画像を得る例
を示したが、この構成に限らず、たとえば、3台以上の
画像センサを用いて任意の2個一組を用いた構成でもよ
い。
In this embodiment, an example has been described in which the image input unit 1 has two image sensors 6 and 7 to obtain a stereo image. However, the present invention is not limited to this configuration. A configuration using an arbitrary pair of two sensors may be used.

【0063】また、たとえば特開平8−292998号
公報、特開平8−275059号公報、特開平8−27
5069号公報、および特開平8−56011号公報に
記載のような受光素子を搭載した画像センサを用いれ
ば、画像入力部からの出力として差分画像が得られ、動
作解析の演算速度がさらに向上する。
Further, for example, Japanese Patent Application Laid-Open Nos. 8-292998, 8-275059, 8-27
If an image sensor equipped with a light receiving element as described in JP-A-5069 and JP-A-8-56011 is used, a difference image can be obtained as an output from an image input unit, and the operation speed of motion analysis can be further improved. .

【0064】さらに、本実施の形態では、撮影対象の人
間における頭部の動きを再現する例を示したが、胴体や
両腕等、他の身体部位を動作再現の対象としてもよい。
また、撮影対象は、人間に限らず、動物等、他の撮影対
象であってもよく、撮影対象の特徴にあわせて部位領域
推定部の解析アルゴリズムは異なってくる。
Further, in the present embodiment, an example of reproducing the movement of the head of the person to be photographed has been described, but other body parts such as the torso and both arms may be subjected to the motion reproduction.
The imaging target is not limited to a human, but may be another imaging target such as an animal. The analysis algorithm of the region estimation unit differs depending on the characteristics of the imaging target.

【0065】さらに、本実施の形態では、部位動作推定
部3と動作再現部4の処理機能が別々のコンピュータで
実現される例を示したが、両処理機能を単一のコンピュ
ータ上で実現してもよい。
Further, in the present embodiment, an example has been described in which the processing functions of the part motion estimating unit 3 and the motion reproducing unit 4 are realized by separate computers, but both processing functions are realized by a single computer. You may.

【0066】さらに、再現された撮影対象の動き情報を
ゲーム機やパーソナルコンピュータなどへ送信し、入力
インターフェースとしてジョイスティックやマウス等の
操作を代行させてもよい。このようにすることにより、
両手に障害を持つ人間や、もしくは常時両手を使った作
業に従事する人間が、なんらかの制御対象を頭部の動き
により操作することが可能になる。
Further, the reproduced motion information of the object to be photographed may be transmitted to a game machine, a personal computer, or the like, and the operation of a joystick, a mouse, or the like may be performed as an input interface. By doing this,
A person with an obstacle in both hands or a person who constantly engages in work using both hands can operate any control target by moving the head.

【0067】なお、本実施の形態では、図8(b)と図
9(b)に示した推定頭部矩型領域内の水平および垂直
方向の動きを推定する方式として、まず画像から二次元
オプティカルフロー23a1 ・a2 を計算し、続いてプ
ティカルフローを構成する個々の動きベクトルを水平お
よび垂直方向に射影(列または行方向に並ぶベクトルの
平均を計算すること)することで、それぞれ水平方向の
動きベクトル24a1・a2 と垂直方向の動きベクトル
25a1 ・a2 を計算する例を示したが、別の方法とし
て、画像を構成する各画素値を水平および垂直方向に射
影し、これらの射影データに基づいて、一次元オプティ
カルフローを計算すれば、24a1 ・a 2 と25a1
a2と同様の動きベクトルを得ることができる。
In this embodiment, FIG. 8B and FIG.
Horizontal and vertical within the estimated head rectangular area shown in FIG. 9 (b)
As a method of estimating the direction motion, first, two-dimensional
Optical flow 23a1・ ATwoAnd then
The individual motion vectors that make up the physical flow are
And vertical projection (for vectors arranged in columns or rows)
Calculate the average)
Motion vector 24a1・ ATwoAnd vertical motion vector
25a1・ ATwoHas been shown as an example, but another method
Each pixel value that constitutes the image in the horizontal and vertical directions.
Shadow, and based on these projection data,
Calculating the cull flow, 24a1・ A TwoAnd 25a1
A motion vector similar to a2 can be obtained.

【0068】ここで、一次元オプティカルフローアルゴ
リズムおよび具体的な計算について、図11〜図14を
用いて説明する。図11は、一次元動きベクトルを計算
するための図であり、たとえば、画素値射影の各要素を
一つの画素値と見なし、隣接する三つの画素値により作
られるコントラスト(以下、明暗エッジと呼ぶ)が、左
右に動く4通りの例を示したものである。なお、図示の
細い線が前時刻の射影、太い線が現時刻の射影を示す。
また、明るい方の画素値を50とし、暗い方を10とす
る。
Here, the one-dimensional optical flow algorithm and specific calculations will be described with reference to FIGS. FIG. 11 is a diagram for calculating a one-dimensional motion vector. For example, each element of the pixel value projection is regarded as one pixel value, and a contrast formed by three adjacent pixel values (hereinafter referred to as a light-dark edge). ) Show four examples that move left and right. It should be noted that the thin line in the drawing indicates the projection at the previous time, and the thick line indicates the projection at the current time.
The brighter pixel value is 50, and the darker pixel value is 10.

【0069】たとえば、図11(a)および(c)は、
明暗エッジが左から右の方向に動く場合の射影値の変化
を示しており、図11(b)および(d)は、明暗エッ
ジが右から左に動く場合の射影値の変化を示している。
これらより、射影値(画素値)の変化と射影の動きとの
間には、ある射影位置における動き方向に関して、つぎ
のような一定の三つの法則があることがわかる。
For example, FIGS. 11 (a) and (c)
11B shows a change in the projection value when the light-dark edge moves from left to right, and FIGS. 11B and 11D show a change in the projection value when the light-dark edge moves from right to left. .
From these, it can be seen that there are the following three fixed rules regarding the movement direction at a certain projection position between the change in the projection value (pixel value) and the movement of the projection.

【0070】(I)ある射影位置において、射影値の変
化が0のときか、あるいは射影値の変化があっても、現
時刻あるいは前時刻を参照時刻として選択し、参照時刻
における隣接二射影値が同じ射影値を持つときは、動き
方向は0(動きなし)と推定される。 (II)ある射影位置において、射影値の変化が正の値の
とき、動き方向は参照時刻における隣接二射影値のう
ち、射影値の小さい方向と推定される。 (III)ある射影位置において、射影値の変化が負の値
のとき、動き方向は参照時刻における隣接二射影値のう
ち、射影値の大きい方向と推定される。
(I) If the change in the projection value is 0 at a certain projection position, or if there is a change in the projection value, the current time or the previous time is selected as the reference time, and the adjacent two projection values at the reference time are selected. Have the same projection value, the motion direction is estimated to be 0 (no motion). (II) At a certain projection position, when the change of the projection value is a positive value, the movement direction is estimated to be the direction of the smaller projection value among the two adjacent projection values at the reference time. (III) At a certain projection position, when the change in the projection value is a negative value, the motion direction is estimated to be the direction of the larger projection value among the two adjacent projection values at the reference time.

【0071】図12は、前時刻の射影と現時刻の射影の
一例と、一次元動きベクトルの推定方向を示す図であ
る。つぎに、上記(I)〜(III)の法則を利用して、前
時刻と現時刻の射影値の変化からどのように一次元動き
ベクトル(すなわち一次元オプティカルフロー)が得ら
れるかを、図12を用いて説明する。なお、図12
(a)(b)は、それぞれ8個の要素からなる射影値の
例であり、それぞれ前時刻と現時刻における射影値を示
す。図12(c)は、上記の法則が各射影の要素毎にど
のように適用されるかを、具体的に示すための表であ
る。また、各要素は簡単のため10〜50の値を取るこ
ととする。また、参照時刻は、前時刻の場合で説明する
が、本実施の形態とは別に参照時刻として現時刻を選択
しても同様の結果が得られる。
FIG. 12 is a diagram showing an example of the projection at the previous time and the projection at the current time, and the estimation direction of the one-dimensional motion vector. Next, using the rules (I) to (III), how a one-dimensional motion vector (that is, one-dimensional optical flow) is obtained from a change in the projection value between the previous time and the current time will be described. 12 will be described. FIG.
(A) and (b) are examples of projection values each having eight elements, and show projection values at the previous time and the current time, respectively. FIG. 12C is a table for specifically showing how the above rule is applied to each projection element. Each element takes a value of 10 to 50 for simplicity. Although the reference time will be described in the case of the previous time, a similar result can be obtained even if the current time is selected as the reference time separately from the present embodiment.

【0072】まず、要素#1に関しては、前時刻と現時
刻との射影値の差分が0であることから、法則(I)を
適用して、推定方向は0となる。つぎに、要素#2に関
しては、前記差分が負の値であることから、法則(II
I)を適用して、推定方向は#2→#3の向きとなる。
要素#3と#4についても同様で、それぞれ推定方向は
#3→#4、#4→#5となる。
First, regarding the element # 1, since the difference between the projection value of the previous time and the current time is 0, the rule (I) is applied, and the estimation direction becomes 0. Next, regarding the element # 2, since the difference is a negative value, the rule (II
Applying I), the estimation direction becomes the direction from # 2 to # 3.
The same applies to elements # 3 and # 4, and the estimation directions are # 3 → # 4 and # 4 → # 5, respectively.

【0073】つぎに、要素#5に関しては、差分が正の
値であるが、前時刻の射影において、要素#4と#6が
同じ値であることから、法則(I)を適用して、推定方
向は0となる。つぎに、要素#6に関しては、差分が正
の値であることから、法則(II)を適用して、推定方向
は#6→#7の向きとなる。要素#7についても同様
に、推定方向は#7→#8となる。最後に#8に関して
は、差分が正の値で値であるが、前時刻の射影におい
て、隣接要素がないことから、方向を推定できない。
Next, regarding the element # 5, the difference is a positive value, but since the elements # 4 and # 6 have the same value in the projection at the previous time, the rule (I) is applied. The estimated direction is 0. Next, regarding the element # 6, since the difference is a positive value, the rule (II) is applied, and the estimation direction is from # 6 to # 7. Similarly, for the element # 7, the estimation direction is # 7 → # 8. Finally, regarding # 8, the difference is a positive value, but the direction cannot be estimated because there is no adjacent element in the projection at the previous time.

【0074】以上、一次元動きベクトル計算の原理につ
いて説明したが、つぎに、この原理を利用した一次元オ
プティカルフローアルゴリズムの動作を、図面に従って
説明する。
The principle of the one-dimensional motion vector calculation has been described above. Next, the operation of the one-dimensional optical flow algorithm utilizing this principle will be described with reference to the drawings.

【0075】図13は、上記の一次元動きベクトル計算
の原理をフローチャートの形で表したものである。ま
ず、現時刻において射影値を取得し、これを配列cur
r_projへ格納する(ステップST31)。つぎ
に、配列curr_projと、前時刻の射影が格納さ
れている配列prev_projとの差分を計算し、そ
の結果を配列diff_projへ格納する(ステップ
ST32)。
FIG. 13 is a flowchart showing the principle of the one-dimensional motion vector calculation. First, a projection value is obtained at the current time, and this is
It is stored in r_proj (step ST31). Next, a difference between the array curr_proj and the array prev_proj in which the projection at the previous time is stored is calculated, and the result is stored in the array diff_proj (step ST32).

【0076】つぎに、配列diff_projと配列p
rev_projとを用いて、各要素毎に、一次元動き
ベクトルの計算を行い、その全ての結果を配列vect
_projに格納する(ステップST33)。つぎに、
全ての一次元動きベクトルを計算後、配列curr_p
rojを前時刻の射影として、配列prev_proj
に格納する(ステップST34)。最後に、ステップS
T33で得られた一次元動きベクトルのノイズを削減す
るため、配列vect_projを平滑化して出力する
(ステップST35)。
Next, the array diff_proj and the array p
Using rev_proj, a one-dimensional motion vector is calculated for each element, and all the results are stored in an array vector
_Proj (step ST33). Next,
After calculating all the one-dimensional motion vectors, the array curr_p
roj is the projection of the previous time, the array prev_proj
(Step ST34). Finally, step S
In order to reduce noise of the one-dimensional motion vector obtained in T33, the array vector_proj is smoothed and output (step ST35).

【0077】ここで、上記のステップST33における
射影要素毎の一次元動きベクトルの計算について、上記
法則を用いて詳細に説明する。なお、ここでは、射影の
配列インデックスkの計算過程を、図14のフローチャ
ートを用いて説明する。
Here, the calculation of the one-dimensional motion vector for each projected element in step ST33 will be described in detail using the above-mentioned rule. Here, the process of calculating the projection array index k will be described with reference to the flowchart in FIG.

【0078】まず、prev_proj[k−1]とp
rev_proj[k+1]の大小比較を行う(ステッ
プST41)。これらの値が等しいときは(ステップS
T42、YES)、vect_proj[k]に0を代
入して(ステップST43)、計算を終了する(法則
(I)に相当)。一方、等しくないときは(ステップS
T42、NO)、配列インデックスkとk+1のうち、
prev_projの値の小さい方をL、大きい方をG
とする(ステップST44)。
First, prev_proj [k-1] and p
The magnitude of rev_proj [k + 1] is compared (step ST41). If these values are equal (step S
T42, YES), 0 is substituted for vector_proj [k] (step ST43), and the calculation is terminated (corresponding to rule (I)). On the other hand, if they are not equal (step S
T42, NO), of the array indices k and k + 1
The smaller value of prev_proj is L, and the larger value is G
(Step ST44).

【0079】つぎに、diff_proj[k]の符号
を確認して、たとえば、0であれば(ステップST4
5、YES)、vect_proj[k]に0を代入し
て(ステップST43)、計算を終了し(法則(I)に
相当)、負の値であれば(ステップST45、NO、ス
テップST46、YES)、方向k→Gを選択し(ステ
ップST48、法則(III)に相当)、正の値であれば
(ステップST45、NO、ステップST46、N
O)、方向k→Lを選択する(ステップST47、法則
(II)に相当)。
Next, the sign of diff_proj [k] is checked, and if it is 0, for example (step ST4
5, YES), substituting 0 into vector_proj [k] (step ST43), and terminating the calculation (corresponding to law (I)). If it is a negative value (step ST45, NO, step ST46, YES) , The direction k → G is selected (step ST48, corresponding to the rule (III)), and if it is a positive value (step ST45, NO, step ST46, N
O), the direction k → L is selected (step ST47, corresponding to the rule (II)).

【0080】そして、ステップST48およびST47
において、G(またはL)が、たとえばk−1であれば
vect_proj[k]に−1を代入し、G(または
L)がk+1であればvect_proj[k]に+1
を代入する。最後に、vect_proj[k]の値
を、diff_proj[k]の絶対値で重み付けして
(ステップST49)、一次元動きベクトルの計算を終
了する。
Then, steps ST48 and ST47
In, if G (or L) is, for example, k−1, −1 is substituted for vector_proj [k], and if G (or L) is k + 1, +1 is added to vector_proj [k].
Is assigned. Finally, the value of the vector_proj [k] is weighted by the absolute value of the diff_proj [k] (step ST49), and the calculation of the one-dimensional motion vector ends.

【0081】以上のように、画像の射影値を用いて図8
もしくは図9の24a1 ・a2 と25a1 ・a2 に相当
する一次元オプティカルフローを計算することができ
る。また、射影データを利用した一次元オプティカルフ
ロー計算を経由することで、画像から計算される二次元
オプティカルフローを利用するよりも処理データを削減
することができる。さらに、画像処理機能(人工網膜L
SI等)を持った画像センサにより、図8(b)と図9
(b)の推定頭部領域A1 内の画像データから直接画素
値の射影を得ることができれば、画像を構成する各画素
値を水平および垂直方向に射影する必要がなくなり、上
記の計算過程はさらに加速される。
As described above, FIG.
Alternatively, one-dimensional optical flows corresponding to 24a 1 · a 2 and 25a 1 · a 2 in FIG. 9 can be calculated. In addition, processing data can be reduced by using one-dimensional optical flow calculation using projection data, as compared with using two-dimensional optical flow calculated from an image. Furthermore, an image processing function (artificial retina L
8 (b) and FIG. 9 by an image sensor having
If it is possible to obtain a projection of direct pixel values from the image data of the estimated head region A 1 in (b), each pixel value forming the image it is not necessary to project the horizontal and vertical directions, the above calculation process It is further accelerated.

【0082】[0082]

【発明の効果】以上のように、本発明にかかる操作制御
装置によれば、複数の画像センサにより撮影対象の動き
を含む画像を複数の撮影角度から撮影し、複数の二次元
画像を得る画像入力部と、前記複数の画像センサ毎に撮
影された時間的に連続する二枚の画像の差分を計算し、
各画像センサ毎に得られた複数の差分画像をそれぞれ解
析して、前記撮影対象の部位を含む画像領域を各差分画
像毎に推定する部位領域推定部と、前記部位領域推定部
で推定された各領域内の動きを計算し、複数の画像セン
サ毎に同時に得られる差分画像を用いて、各部位の三次
元的動きを推定する部位動作推定部と、部位動作推定部
で推定された部位毎の動きに基づいて制御対象を操作す
る対象操作部と、を備えたので、背景によらず撮影対象
の部位の位置を特定することができ、さまざまな状況で
撮影対象の動きに基づいて制御対象をリアルタイムで操
作することができる、という効果を奏する。
As described above, according to the operation control apparatus of the present invention, an image including a motion of a photographing target is photographed from a plurality of photographing angles by a plurality of image sensors to obtain a plurality of two-dimensional images. An input unit and calculates a difference between two temporally consecutive images captured for each of the plurality of image sensors,
Each of the plurality of difference images obtained for each image sensor is analyzed, and a region estimation unit that estimates an image region including the imaging target region for each difference image, and a region region estimation unit that estimates the region. A part motion estimating unit that calculates the motion in each region and estimates a three-dimensional motion of each part using a differential image obtained simultaneously for each of the plurality of image sensors; and for each part estimated by the part motion estimating unit. And a target operation unit that operates the control target based on the movement of the target, so that the position of the part to be shot can be specified regardless of the background, and the control target can be determined based on the movement of the shot target in various situations. Can be operated in real time.

【0083】つぎの発明にかかる操作制御装置によれ
ば、部位領域推定部が、差分画像の各画素値を2値化し
て撮影対象のシルエットを得、得られたシルエットの幅
を解析して、前記撮影対象の部位を含む画像領域を推定
する手段を備えたので、撮影対象の各部位を容易に推定
することができる、という効果を奏する。
According to the operation control device of the next invention, the region estimation unit binarizes each pixel value of the difference image to obtain a silhouette of the object to be photographed, and analyzes the width of the obtained silhouette. Since there is provided a means for estimating the image area including the part to be imaged, it is possible to easily estimate each part of the object to be imaged.

【0084】つぎの発明にかかる操作制御装置によれ
ば、対象操作部が、撮影対象の動作をコンピュータグラ
フィクスによって表現されたモデルの動きによって可視
的に再現する手段を備えたので、さまざまな状況で撮影
対象の動きをモデル上に再現することができる、という
効果を奏する。また、自分自身、もしくは他人が撮影対
象である場合に、対象自身の動きとモデルの動きを直観
的に比較することができる、という効果を奏する。
According to the operation control device of the next invention, the object operation unit includes means for visually reproducing the operation of the object to be photographed by the movement of the model represented by computer graphics. This has the effect that the movement of the photographing target can be reproduced on the model. In addition, when oneself or another person is a shooting target, there is an effect that the movement of the target itself and the movement of the model can be intuitively compared.

【0085】つぎの発明にかかる動作解析プログラムを
記録した記録媒体によれば、複数の画像センサにより複
数の撮影角度より撮影された複数の二次元画像の時間的
に連続する二枚の画像の差分を計算し、各画像センサ毎
に得られた複数の差分画像をそれぞれ解析して、撮影対
象の部位を含む画像領域を各差分画像毎に推定する手順
と、推定された各領域の動きを計算して各差分画像毎に
対応づけ、各部位の三次元的動きを推定する手順と、を
コンピュータに実行させるようにしたので、背景によら
ず撮影対象の部位の位置を特定することができ、さまざ
まな状況で撮影対象の動きに基づいて制御対象をリアル
タイムで操作することができる、という効果を奏する。
According to the recording medium storing the operation analysis program according to the next invention, the difference between two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles by a plurality of image sensors. Is calculated, and a plurality of difference images obtained for each image sensor are analyzed, and an image region including a part to be imaged is estimated for each difference image, and a motion of each estimated region is calculated. Then, the procedure for estimating the three-dimensional movement of each part, and the procedure for estimating the three-dimensional movement of each part, were performed by the computer, so that the position of the part to be photographed can be specified regardless of the background, This has the effect that the control target can be operated in real time based on the movement of the shooting target in various situations.

【0086】つぎの発明にかかる操作制御装置によれ
ば、複数の画像センサにより撮影対象の動きを含む画像
を複数の撮影角度から撮影し、複数の二次元画像を得る
画像入力部と、複数の画像センサ毎に撮影された時間的
に連続する二枚の画像の差分を計算し、各画像センサ毎
に得られた複数の差分画像をそれぞれ解析して、撮影対
象の部位を含む画像領域を各差分画像毎に推定する部位
領域推定部と、時間的に連続する二枚の画像を構成する
各画素値を、水平および垂直方向に射影し、得られる射
影データに基づいて画像センサ毎に一次元オプティカル
フローを計算し、得られる複数の一次元オプティカルフ
ローから部位領域推定部で推定された各領域内の動きを
計算し、各部位の三次元的動きを推定する部位動作推定
部と、部位動作推定部で推定された部位毎の動きに基づ
いて制御対象を操作する対象操作部と、を備えたので、
背景によらず撮影対象の部位の位置を特定することがで
き、さまざまな状況で撮影対象の動きに基づいて制御対
象をリアルタイムで操作することができる、という効果
を奏する。また、射影データを利用した一次元オプティ
カルフロー計算を経由することで、画像から計算される
二次元オプティカルフローを利用するよりも処理データ
を削減することができる、という効果を奏する。
According to the operation control apparatus of the next invention, an image input unit for obtaining a plurality of two-dimensional images by capturing images including a movement of a subject by a plurality of image sensors from a plurality of shooting angles, The difference between two temporally consecutive images photographed for each image sensor is calculated, and a plurality of difference images obtained for each image sensor are analyzed, and an image region including a part to be photographed is determined for each image sensor. A part region estimating unit for estimating each difference image, and each pixel value constituting two temporally continuous images is projected horizontally and vertically, and one-dimensionally for each image sensor based on the obtained projection data. A part motion estimator for calculating an optical flow, calculating a motion in each region estimated by the region estimator from a plurality of obtained one-dimensional optical flows, and estimating a three-dimensional motion of each part, and a part motion Estimation And the target operation section for operating the control target in on the basis of the motion of each estimated site, since with a,
It is possible to specify the position of the part to be photographed irrespective of the background, and it is possible to operate the control object in real time based on the movement of the photographing object in various situations. In addition, processing data can be reduced by using one-dimensional optical flow calculation using projection data as compared with using two-dimensional optical flow calculated from an image.

【0087】つぎの発明にかかる操作制御装置によれ
ば、射影データが、画像処理機能を持った半導体集積回
路(人工網膜LSIに相当)を搭載する画像センサによ
り、直接得られるので、各部位の動作推定をさらに高速
化できる、という効果を奏する。
According to the operation control device of the next invention, the projection data is directly obtained by the image sensor equipped with a semiconductor integrated circuit having an image processing function (corresponding to an artificial retinal LSI). There is an effect that the motion estimation can be further speeded up.

【0088】つぎの発明にかかる操作制御装置によれ
ば、部位領域推定部が、差分画像の各画素値を2値化し
て撮影対象のシルエットを得、得られたシルエットの幅
を解析して、前記撮影対象の部位を含む画像領域を推定
する手段を備えたので、撮影対象の各部位をより容易に
推定することができる、という効果を奏する。
According to the operation control apparatus of the next invention, the region estimation unit binarizes each pixel value of the difference image to obtain a silhouette of the object to be photographed, and analyzes the width of the obtained silhouette. Since there is provided a means for estimating the image area including the part to be imaged, it is possible to easily estimate each part of the object to be imaged.

【0089】つぎの発明にかかる操作制御装置によれ
ば、対象操作部は、撮影対象の動作をコンピュータグラ
フィックスによって表現されたモデルの動きによって再
現する手段を備えたので、さまざまな状況で撮影対象の
動きをモデル上により高速に再現することができる、と
いう効果を奏する。また、自分自身、もしくは他人が撮
影対象である場合に、対象自身の動きとモデルの動きを
直観的に比較することができる、という効果を奏する。
According to the operation control device of the next invention, the object operation unit has means for reproducing the operation of the object to be photographed by the movement of the model represented by computer graphics. Can be reproduced on the model at a higher speed. In addition, when oneself or another person is a shooting target, there is an effect that the movement of the target itself and the movement of the model can be intuitively compared.

【0090】つぎの発明にかかる動作解析プログラムを
記録した記録媒体によれば、複数の画像センサにより複
数の撮影角度から撮影された複数の二次元画像の時間的
に連続する二枚の画像の差分を計算し、各画像センサ毎
に得られた複数の差分画像をそれぞれ解析して、撮影対
象の部位を含む画像領域を各差分画像毎に推定する手順
と、時間的に連続する二枚の画像を構成する各画素値
を、水平および垂直方向に射影し、得られる射影データ
に基づいて画像センサ毎に一次元オプティカルフローを
計算し、得られる複数の一次元オプティカルフローから
推定された各領域内の動きを計算し、各部位の三次元的
動きを推定する手順と、をコンピュータに実行させるよ
うにしたので、背景によらず撮影対象の部位の位置を特
定することができ、さまざまな状況で撮影対象の動きに
基づいて制御対象をリアルタイムで操作することができ
る、という効果を奏する。また、射影データを利用した
一次元オプティカルフロー計算を経由することで、画像
から計算される二次元オプティカルフローを利用するよ
りも処理データを削減することができる、という効果を
奏する。
According to the recording medium storing the operation analysis program according to the next invention, the difference between two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles by a plurality of image sensors. Calculating a plurality of difference images obtained for each image sensor, and estimating an image region including a part to be imaged for each difference image, and two temporally continuous images. Are projected in the horizontal and vertical directions, a one-dimensional optical flow is calculated for each image sensor based on the obtained projection data, and each region estimated from a plurality of one-dimensional optical flows is obtained. Calculate the movement of, and the procedure of estimating the three-dimensional movement of each part, and let the computer to execute, it is possible to identify the position of the part of the imaging target regardless of the background, You can operate the controlled object in real time based on the motion of the imaging target in variety of situations, an effect that. In addition, processing data can be reduced by using one-dimensional optical flow calculation using projection data as compared with using two-dimensional optical flow calculated from an image.

【0091】つぎの発明にかかる動作解析プログラムを
記録した記録媒体によれば、画像処理機能を持った半導
体集積回路(人工網膜LSIに相当)を搭載する複数の
画像センサにより複数の撮影角度から撮影された複数の
二次元画像の時間的に連続する二枚の画像の差分を計算
し、各画像センサ毎に得られた複数の差分画像をそれぞ
れ解析して、撮影対象の部位を含む画像領域を各差分画
像毎に推定する手順と、画像センサにより、直接得られ
る射影データに基づいて画像センサ毎に一次元オプティ
カルフローを計算し、得られる複数の一次元オプティカ
ルフローから前記推定された各領域内の動きを計算し、
各部位の三次元的動きを推定する手順と、をコンピュー
タに実行させるようにしたので、背景によらず撮影対象
の部位の位置を特定することができ、さまざまな状況で
撮影対象の動きに基づいて制御対象をリアルタイムで操
作することができる、という効果を奏する。また、射影
データを利用した一次元オプティカルフロー計算を経由
することで、画像から計算される二次元オプティカルフ
ローを利用するよりも処理データを削減することができ
る、という効果を奏する。また、射影データが、画像セ
ンサにより、直接得られるので、各部位の動作推定をさ
らに高速化できる、という効果を奏する。
According to the recording medium on which the operation analysis program according to the next invention is recorded, a plurality of image sensors equipped with a semiconductor integrated circuit having image processing functions (corresponding to an artificial retinal LSI) photograph from a plurality of photographing angles. The difference between two temporally continuous images of the obtained two-dimensional images is calculated, the plurality of differential images obtained for each image sensor are analyzed, and an image region including a part to be imaged is calculated. The procedure for estimating each difference image, and the image sensor calculates a one-dimensional optical flow for each image sensor based on the directly obtained projection data. Calculate the movement of
The procedure for estimating the three-dimensional movement of each part is made to be executed by the computer, so that the position of the part to be imaged can be specified regardless of the background, and based on the movement of the imaging target in various situations Thus, the control target can be operated in real time. In addition, processing data can be reduced by using one-dimensional optical flow calculation using projection data as compared with using two-dimensional optical flow calculated from an image. Further, since the projection data is directly obtained by the image sensor, there is an effect that the motion estimation of each part can be further speeded up.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態における操作制御装置の
構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an operation control device according to an embodiment of the present invention.

【図2】 本発明の実施の形態における操作制御装置の
実現例を示す図である。
FIG. 2 is a diagram illustrating an implementation example of an operation control device according to an embodiment of the present invention.

【図3】 本発明の実施の形態における部位領域推定部
の処理内容を頭部領域推定の場合において説明する説明
図である。
FIG. 3 is an explanatory diagram for explaining processing contents of a part region estimating unit in the embodiment of the present invention in the case of head region estimation.

【図4】 本発明の実施の形態における部位領域推定部
の頭部領域推定アルゴリズムを説明するフローチャート
である。
FIG. 4 is a flowchart illustrating a head region estimation algorithm of a part region estimation unit according to the embodiment of the present invention.

【図5】 本発明の実施の形態における部位領域推定部
の処理内容を両腕、および胴体領域推定の場合において
説明する説明図である。
FIG. 5 is an explanatory diagram for describing processing performed by a part region estimating unit according to the embodiment of the present invention in the case of estimating both arms and a torso region.

【図6】 本発明の実施の形態における部位領域推定部
の身体部分領域抽出アルゴリズムを説明するフローチャ
ートである。
FIG. 6 is a flowchart illustrating a body part region extraction algorithm of a part region estimating unit according to the embodiment of the present invention.

【図7】 本発明の実施の形態における部位動作推定部
の頭部回転推定アルゴリズムを説明するフローチャート
である。
FIG. 7 is a flowchart illustrating a head rotation estimation algorithm of a part motion estimation unit according to the embodiment of the present invention.

【図8】 本発明の実施の形態における部位動作推定部
の処理内容を人間が頭部を横に振る場合において説明す
る説明図である。
FIG. 8 is an explanatory diagram for explaining processing contents of a part motion estimating unit according to the embodiment of the present invention when a human shakes his / her head.

【図9】 本発明の実施の形態における部位動作推定部
の処理内容を人間が頭部を縦に振る場合において説明す
る説明図である。
FIG. 9 is an explanatory diagram for explaining processing contents of a part motion estimating unit according to the embodiment of the present invention when a human shakes his / her head vertically.

【図10】 本発明の実施の形態における部位動作推定
部から出力される、水平方向を回転軸とする頭部回転の
時系列データを示す図である。
FIG. 10 is a diagram showing time-series data of a head rotation having a horizontal axis as a rotation axis, which is output from a region motion estimation unit according to the embodiment of the present invention.

【図11】 一次元動きベクトルを計算するための図で
ある。
FIG. 11 is a diagram for calculating a one-dimensional motion vector.

【図12】 前時刻の射影と現時刻の射影の一例と、一
次元動きベクトルの推定方向を示す図である。
FIG. 12 is a diagram illustrating an example of a projection at a previous time and a projection at a current time, and an estimation direction of a one-dimensional motion vector.

【図13】 一次元動きベクトル計算の原理をフローチ
ャートの形で表したものである。
FIG. 13 is a flowchart illustrating the principle of one-dimensional motion vector calculation.

【図14】 射影の配列インデックスkの計算過程を説
明するフローチャートである。
FIG. 14 is a flowchart illustrating a process of calculating a projection array index k.

【図15】 オプティカルフローを計算する具体的な構
成を示す図である。
FIG. 15 is a diagram showing a specific configuration for calculating an optical flow.

【図16】 オプティカルフローを計算する具体的な方
法を示すフローチャートである。
FIG. 16 is a flowchart illustrating a specific method of calculating an optical flow.

【図17】 オプティカルフローを計算する具体的な装
置を示す図である。
FIG. 17 is a diagram showing a specific device for calculating an optical flow.

【符号の説明】[Explanation of symbols]

1 画像入力部、2 部位領域推定部、3 部位動作推
定部、4 動作再現部、5 撮影対象、6,7 画像セ
ンサ、8 動作解析用計算機、9 動作解析結果表示用
モニタ、10 ネットワーク、11 動作再現用計算
機、12 人物モデル、13 動作再現用モニタ、14
a シルエット、14b 平滑化したシルエット幅分
布、15 推定首位置、16 推定頭頂位置、17 推
定頭部領域左端、18 推定頭部領域右端、19 推定
右腕矩型領域左端、20 推定胴体領域左端、21 推
定胴体領域右端、22 推定左碗矩型領域右端、23a
1 ,23a2 オプティカルフロー、24a1 ,24a2
平均化した水平射影、25a1,25a2 平均化した垂
直射影、26 人間の頭部の水平断面、27 人間の頭
部の垂直断面、28X 鉛直方向の回転軸、28Y 水
平方向の回転軸。
DESCRIPTION OF SYMBOLS 1 Image input part, 2 part area | region estimation part, 3 part operation | movement estimation part, 4 operation reproduction part, 5 imaging | photography object, 6,7 image sensor, 8 operation analysis computer, 9 operation analysis result display monitor, 10 network, 11 Motion reproduction computer, 12 human model, 13 motion reproduction monitor, 14
a silhouette, 14b smoothed silhouette width distribution, 15 estimated neck position, 16 estimated head position, 17 estimated head region left end, 18 estimated head region right end, 19 estimated right arm rectangular region left end, 20 estimated torso region left end, 21 Estimated torso region right end, 22 Estimated left bowl rectangular region right end, 23a
1 , 23a 2 optical flow, 24a 1 , 24a 2
Averaged horizontal projection, 25a 1 , 25a 2 Averaged vertical projection, 26 horizontal section of human head, 27 vertical section of human head, 28X vertical axis of rotation, 28Y horizontal axis of rotation.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 複数の画像センサにより撮影対象の動き
を含む画像を複数の撮影角度より撮影し、複数の二次元
画像を得る画像入力部と、 前記複数の画像センサ毎に撮影された時間的に連続する
二枚の画像の差分を計算し、各画像センサ毎に得られた
複数の差分画像をそれぞれ解析して、前記撮影対象の部
位を含む画像領域を各差分画像毎に推定する部位領域推
定部と、 前記部位領域推定部で推定された各領域内の動きを計算
し、複数の画像センサ毎に同時に得られる差分画像を用
いて、各部位の三次元的動きを推定する部位動作推定部
と、 前記部位動作推定部で推定された部位毎の動きに基づい
て制御対象を操作する対象操作部と、 を備えることを特徴とする操作制御装置。
An image input unit that obtains a plurality of two-dimensional images by photographing an image including a movement of a photographing target from a plurality of photographing angles by a plurality of image sensors; Calculating the difference between two consecutive images, analyzing each of the plurality of difference images obtained for each image sensor, and estimating an image region including the imaging target region for each difference image An estimating unit, estimating a motion in each area estimated by the estimating unit, and estimating a three-dimensional motion of each part using a difference image obtained simultaneously for each of a plurality of image sensors. An operation control device comprising: a unit; and a target operation unit that operates a control target based on the motion of each part estimated by the part motion estimation unit.
【請求項2】 前記部位領域推定部は、差分画像の各画
素値を2値化して撮影対象のシルエットを得、得られた
シルエットの幅を解析して、前記撮影対象の部位を含む
画像領域を推定する手段を備えることを特徴とする請求
項1に記載の操作制御装置。
2. The part region estimating unit binarizes each pixel value of a difference image to obtain a silhouette of a photographing target, analyzes the width of the obtained silhouette, and analyzes an image region including the part of the photographing target. The operation control device according to claim 1, further comprising a unit that estimates
【請求項3】 前記対象操作部は、撮影対象の動作をコ
ンピュータグラフィックスによって表現されたモデルの
動きによって再現する手段を備えることを特徴とする請
求項1または2に記載の操作制御装置。
3. The operation control device according to claim 1, wherein the target operation unit includes a unit configured to reproduce a motion of the imaging target by a motion of a model represented by computer graphics.
【請求項4】 コンピュータに、 複数の画像センサにより複数の撮影角度から撮影された
複数の二次元画像の時間的に連続する二枚の画像の差分
を計算し、各画像センサ毎に得られた複数の差分画像を
それぞれ解析して、撮影対象の部位を含む画像領域を各
差分画像毎に推定する手順、 推定された各領域の動きを計算し、複数の画像センサ毎
に同時に得られる差分画像を用いて、各部位の三次元的
動きを推定する手順、 を実行させるためのプログラムを記録したコンピュータ
読み取り可能な記録媒体。
4. A computer calculates a difference between two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles by a plurality of image sensors, and obtains a difference for each image sensor. A procedure for analyzing each of the plurality of difference images and estimating an image region including a part to be imaged for each of the difference images, calculating a motion of each of the estimated regions, and simultaneously obtaining a difference image for each of the plurality of image sensors A computer-readable recording medium on which a program for executing the steps of: estimating a three-dimensional movement of each part using;
【請求項5】 複数の画像センサにより撮影対象の動き
を含む画像を複数の撮影角度から撮影し、複数の二次元
画像を得る画像入力部と、 前記複数の画像センサ毎に撮影された時間的に連続する
二枚の画像の差分を計算し、各画像センサ毎に得られた
複数の差分画像をそれぞれ解析して、前記撮影対象の部
位を含む画像領域を各差分画像毎に推定する部位領域推
定部と、 前記時間的に連続する二枚の画像を構成する各画素値
を、水平および垂直方向に射影し、得られる射影データ
に基づいて画像センサ毎に一次元オプティカルフローを
計算し、得られる複数の一次元オプティカルフローから
前記部位領域推定部で推定された各領域内の動きを計算
し、各部位の三次元的動きを推定する部位動作推定部
と、 前記部位動作推定部で推定された部位毎の動きに基づい
て制御対象を操作する対象操作部と、 を備えることを特徴とする操作制御装置。
5. An image input unit for photographing an image including a movement of a photographing target from a plurality of photographing angles by a plurality of image sensors to obtain a plurality of two-dimensional images, a temporal image photographed for each of the plurality of image sensors. Calculating the difference between two consecutive images, analyzing each of the plurality of difference images obtained for each image sensor, and estimating an image region including the imaging target region for each difference image Estimating unit, projecting each pixel value constituting the two temporally continuous images in the horizontal and vertical directions, calculating a one-dimensional optical flow for each image sensor based on the obtained projection data, A motion in each region estimated by the region estimation unit from a plurality of one-dimensional optical flows to be calculated, and a region motion estimation unit for estimating a three-dimensional motion of each region; Part An operation control device, comprising: a target operation unit that operates a control target based on each movement.
【請求項6】 前記射影データは、画像処理機能を持っ
た半導体集積回路を搭載する画像センサにより、直接得
られることを特徴とする請求項5に記載の操作制御装
置。
6. The operation control device according to claim 5, wherein the projection data is directly obtained by an image sensor equipped with a semiconductor integrated circuit having an image processing function.
【請求項7】 前記部位領域推定部は、差分画像の各画
素値を2値化して撮影対象のシルエットを得、得られた
シルエットの幅を解析して、前記撮影対象の部位を含む
画像領域を推定する手段を備えることを特徴とする請求
項5または6に記載の操作制御装置。
7. The part region estimating unit binarizes each pixel value of the difference image to obtain a silhouette of a photographing target, analyzes a width of the obtained silhouette, and analyzes an image region including the part of the photographing target. The operation control device according to claim 5, further comprising a unit that estimates
【請求項8】 前記対象操作部は、撮影対象の動作をコ
ンピュータグラフィックスによって表現されたモデルの
動きによって再現する手段を備えることを特徴とする請
求項5、6または7に記載の操作制御装置。
8. The operation control device according to claim 5, wherein the target operation unit includes means for reproducing a motion of the shooting target by a motion of a model represented by computer graphics. .
【請求項9】 コンピュータに、 複数の画像センサにより複数の撮影角度から撮影された
複数の二次元画像の時間的に連続する二枚の画像の差分
を計算し、各画像センサ毎に得られた複数の差分画像を
それぞれ解析して、撮影対象の部位を含む画像領域を各
差分画像毎に推定する手順、 前記時間的に連続する二枚の画像を構成する各画素値
を、水平および垂直方向に射影し、得られる射影データ
に基づいて画像センサ毎に一次元オプティカルフローを
計算し、得られる複数の一次元オプティカルフローから
前記推定された各領域内の動きを計算し、各部位の三次
元的動きを推定する手順、 を実行させるためのプログラムを記録したコンピュータ
読み取り可能な記録媒体。
9. A computer calculates a difference between two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles by a plurality of image sensors, and obtains a difference for each image sensor. A procedure of analyzing each of the plurality of difference images and estimating an image area including a part to be imaged for each difference image; and calculating pixel values of the two temporally continuous images in horizontal and vertical directions. To calculate the one-dimensional optical flow for each image sensor based on the obtained projection data, calculate the motion in each of the estimated regions from the obtained one-dimensional optical flows, and calculate the three-dimensional A computer-readable recording medium on which a program for executing the steps of:
【請求項10】 コンピュータに、 画像処理機能を持った半導体集積回路を搭載する複数の
画像センサにより複数の撮影角度から撮影された複数の
二次元画像の時間的に連続する二枚の画像の差分を計算
し、各画像センサ毎に得られた複数の差分画像をそれぞ
れ解析して、撮影対象の部位を含む画像領域を各差分画
像毎に推定する手順、 前記画像センサにより、直接得られる射影データに基づ
いて画像センサ毎に一次元オプティカルフローを計算
し、得られる複数の一次元オプティカルフローから前記
推定された各領域内の動きを計算し、各部位の三次元的
動きを推定する手順、 を実行させるためのプログラムを記録したコンピュータ
読み取り可能な記録媒体。
10. A computer, comprising: a plurality of image sensors equipped with a semiconductor integrated circuit having an image processing function; and a difference between two temporally continuous two-dimensional images of a plurality of two-dimensional images photographed from a plurality of photographing angles. Calculating a plurality of difference images obtained for each image sensor, and estimating an image region including a part to be imaged for each difference image, and projecting data directly obtained by the image sensor. Calculating a one-dimensional optical flow for each image sensor based on the above, calculating the motion in each of the estimated regions from the obtained one-dimensional optical flows, estimating the three-dimensional motion of each part, A computer-readable recording medium on which a program to be executed is recorded.
JP11020659A 1998-01-29 1999-01-28 Operation controller and computer readable recording medium for recording operation analysis program Pending JPH11283040A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11020659A JPH11283040A (en) 1998-01-29 1999-01-28 Operation controller and computer readable recording medium for recording operation analysis program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP1708098 1998-01-29
JP10-17080 1998-01-29
JP11020659A JPH11283040A (en) 1998-01-29 1999-01-28 Operation controller and computer readable recording medium for recording operation analysis program

Publications (1)

Publication Number Publication Date
JPH11283040A true JPH11283040A (en) 1999-10-15

Family

ID=26353549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11020659A Pending JPH11283040A (en) 1998-01-29 1999-01-28 Operation controller and computer readable recording medium for recording operation analysis program

Country Status (1)

Country Link
JP (1) JPH11283040A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG128434A1 (en) * 2002-11-01 2007-01-30 Nanyang Polytechnic Embedded sensor system for tracking moving objects
JP2010056726A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processor, image processing method and image processing program
JP2014186524A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device
CN107154073A (en) * 2017-04-17 2017-09-12 嘉兴超维信息技术有限公司 A kind of three-dimensional modeling device and method
WO2018168539A1 (en) * 2017-03-16 2018-09-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Learning method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG128434A1 (en) * 2002-11-01 2007-01-30 Nanyang Polytechnic Embedded sensor system for tracking moving objects
JP2010056726A (en) * 2008-08-27 2010-03-11 Seiko Epson Corp Image processor, image processing method and image processing program
JP2014186524A (en) * 2013-03-22 2014-10-02 Mega Chips Corp Person detection device
WO2018168539A1 (en) * 2017-03-16 2018-09-20 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Learning method and program
CN107154073A (en) * 2017-04-17 2017-09-12 嘉兴超维信息技术有限公司 A kind of three-dimensional modeling device and method

Similar Documents

Publication Publication Date Title
US6188777B1 (en) Method and apparatus for personnel detection and tracking
Wechsler Reliable Face Recognition Methods: System Design, Impementation and Evaluation
Bobick et al. The recognition of human movement using temporal templates
JP5016175B2 (en) Face image processing system
JP4148281B2 (en) Motion capture device, motion capture method, and motion capture program
JP4692526B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP5227639B2 (en) Object detection method, object detection apparatus, and object detection program
JP2012518236A (en) Method and system for gesture recognition
JP2003015816A (en) Face/visual line recognizing device using stereo camera
JP2006523878A (en) Method and system for determining target pose from image
JP4936491B2 (en) Gaze direction estimation apparatus, gaze direction estimation method, and program for causing computer to execute gaze direction estimation method
JP5001930B2 (en) Motion recognition apparatus and method
WO2021052208A1 (en) Auxiliary photographing device for movement disorder disease analysis, control method and apparatus
Krzeszowski et al. Gait recognition based on marker-less 3D motion capture
JP5555193B2 (en) Data processing apparatus, data processing system, and program
JPH08287216A (en) In-face position recognizing method
JP2009230704A (en) Object detection method, object detection device, and object detection program
JP4682372B2 (en) Gaze direction detection device, gaze direction detection method, and program for causing computer to execute gaze direction detection method
JP3062181B1 (en) Real-time facial expression detection device
JPH11283040A (en) Operation controller and computer readable recording medium for recording operation analysis program
JP3400961B2 (en) Apparatus for estimating posture of human image and recording medium storing program for estimating posture of human image
Liu et al. Learning 3-D Human Pose Estimation from Catadioptric Videos.
JP4221681B2 (en) Gesture recognition device
Nguyen et al. Vision-Based Global Localization of Points of Gaze in Sport Climbing
Sumi et al. Active wearable vision sensor: recognition of human activities and environments

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090414