JP2000125196A - Input image processing method, input image processor, and recording medium recording input image processing program - Google Patents
Input image processing method, input image processor, and recording medium recording input image processing programInfo
- Publication number
- JP2000125196A JP2000125196A JP10315348A JP31534898A JP2000125196A JP 2000125196 A JP2000125196 A JP 2000125196A JP 10315348 A JP10315348 A JP 10315348A JP 31534898 A JP31534898 A JP 31534898A JP 2000125196 A JP2000125196 A JP 2000125196A
- Authority
- JP
- Japan
- Prior art keywords
- subject
- image
- images
- input
- occlusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 30
- 238000000034 method Methods 0.000 claims abstract description 25
- 238000012545 processing Methods 0.000 claims description 169
- 238000000605 extraction Methods 0.000 claims description 68
- 230000003287 optical effect Effects 0.000 claims description 16
- 238000012937 correction Methods 0.000 claims description 14
- 238000003384 imaging method Methods 0.000 claims description 14
- 239000000284 extract Substances 0.000 claims description 3
- 238000005259 measurement Methods 0.000 abstract description 27
- 238000010586 diagram Methods 0.000 description 15
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 7
- 238000001514 detection method Methods 0.000 description 5
- 238000010606 normalization Methods 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Studio Circuits (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、入力された画像を
処理する入力画像処理方法、入力画像処理装置、及び入
力画像処理プログラムを記録した記録媒体に関する。特
には、CCDカメラなどの画像入力部から入力された画
像を処理する入力画像処理方法、入力画像処理装置、及
び入力画像処理プログラムを記録した記録媒体に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an input image processing method for processing an input image, an input image processing device, and a recording medium on which an input image processing program is recorded. More particularly, the present invention relates to an input image processing method for processing an image input from an image input unit such as a CCD camera, an input image processing device, and a recording medium on which an input image processing program is recorded.
【0002】[0002]
【従来の技術】近年、画像の入力装置としてマウス装置
やキーボード装置からでなくCCDカメラのようなカメ
ラを用いて情報入力を行いその入力画像を処理する入力
画像処理装置が研究、開発されている。2. Description of the Related Art In recent years, an input image processing apparatus for inputting information using a camera such as a CCD camera and processing the input image using a camera such as a CCD camera instead of a mouse apparatus or a keyboard apparatus as an image input apparatus has been researched and developed. .
【0003】図11は、画像の入力部にCCDカメラな
どのカメラを用いた従来の入力画像処理装置を含むコン
ピュータシステムである。このコンピュータシステム
は、入力画像を処理する入力画像処理装置1100と、
入力画像処理装置1100に接続される画像処理装置1
111とを備える。FIG. 11 shows a computer system including a conventional input image processing apparatus using a camera such as a CCD camera in an image input section. The computer system includes an input image processing device 1100 that processes an input image,
Image processing device 1 connected to input image processing device 1100
111.
【0004】図11において、入力画像処理装置110
0は、画像を撮影するためのCCDカメラなどのカメラ
部A1102及びカメラ部B1103と、カメラ部A1
102及びカメラ部B1103に対して撮影の同期信号
を送出する同期信号発生部1101と、カメラ部A11
02及びカメラ部B1103によって撮影されたそれぞ
れの画像のアナログ信号をディジタル信号に変換するA
/D変換部1104及び1105と、A/D変換部11
04及び1105から出力されるそれぞれのディジタル
画像の特徴点を抽出する特徴点抽出部1106及び11
07と、特徴点抽出部1106及び1107で抽出され
たそれぞれの特徴点の1対1の対応を探索する対応点探
索部1108と、対応点探索部1108で対応付けされ
たそれぞれの特徴点の3次元座標値を三角測量に基づい
て計測する距離計測部1109と、距離計測部1109
の距離計測結果に基づいて画像の動きなどを認識し、そ
の認識に基づいた制御信号、例えば、マウスにおけるク
リック動作などと同様な制御信号を画像処理装置111
1に入力する入力処理部1110とを備えている。In FIG. 11, an input image processing device 110
0 denotes a camera unit A1102 and a camera unit B1103 such as a CCD camera for taking an image, and a camera unit A1.
A synchronization signal generation unit 1101 for transmitting a synchronization signal for photographing to the camera unit 102 and the camera unit B 1103;
A which converts an analog signal of each image taken by the camera unit 02 and the camera unit B 1103 into a digital signal.
/ D converters 1104 and 1105 and A / D converter 11
Feature point extraction units 1106 and 11 for extracting feature points of the respective digital images output from 04 and 1105
07, a corresponding point search unit 1108 that searches for a one-to-one correspondence between the respective feature points extracted by the feature point extraction units 1106 and 1107, and three of the respective feature points associated by the corresponding point search unit 1108. A distance measuring unit 1109 for measuring dimensional coordinate values based on triangulation, and a distance measuring unit 1109
Of the image based on the distance measurement result, and a control signal based on the recognition, for example, a control signal similar to a click operation with a mouse, is transmitted to the image processing apparatus 111.
1 is provided with an input processing unit 1110 for inputting the data to the input unit 1.
【0005】また、画像処理装置1111は、入力処理
部1110から制御信号を受け取り、その制御信号に基
づいて処理を行う制御部1112と、制御プログラムな
どを記憶するROM(Read Only Memory)1115と、
データなどを記憶するRAM(Random Access Memory)
1116と、画像を表示する表示部1114と、表示部
1114を制御する表示制御部1113と、を備えてい
る。[0005] The image processing apparatus 1111 receives a control signal from the input processing section 1110 and performs processing based on the control signal; a ROM (Read Only Memory) 1115 for storing a control program and the like;
RAM (Random Access Memory) for storing data
1116, a display unit 1114 that displays an image, and a display control unit 1113 that controls the display unit 1114.
【0006】上述の入力画像処理装置及び画像処理装置
1211で構成される画像処理システムにおいては、入
力装置としてマウス装置やキーボード装置を用いる替わ
りにCCDカメラなどのカメラを用いてオペレータ(使
用者)の動作(アクション)などを撮影し、そのカメラ
画像を入力画像処理装置で画像処理し、そのオペレータ
のアクションを認識することによって、画像処理装置1
111に制御信号を入力している。In the image processing system including the input image processing device and the image processing device 1211 described above, a camera such as a CCD camera is used instead of a mouse device or a keyboard device as an input device, and an operator (user) is used. The operation (action) is photographed, the camera image is processed by the input image processing device, and the image processing device 1 is recognized by recognizing the action of the operator.
A control signal is input to 111.
【0007】以下、入力画像処理装置の動作について説
明する。ここでは、ピアノの演奏の自動入力について説
明する。この場合、カメラ部A1102及びカメラ部B
1103で撮影された画像を画像処理して画像処理装置
1111に制御信号の入力処理を行う。このため、実際
に音の出るピアノ鍵盤は必要なく、鍵盤を模した絵があ
ればよい。Hereinafter, the operation of the input image processing apparatus will be described. Here, automatic input of a piano performance will be described. In this case, the camera unit A 1102 and the camera unit B
The image photographed in 1103 is subjected to image processing, and input processing of a control signal to the image processing apparatus 1111 is performed. For this reason, there is no need for a piano keyboard that actually produces a sound, and it is sufficient to have a picture that imitates the keyboard.
【0008】図12は、撮影画像の処理を示す概念図で
ある。図12(a1)及び(a2)は、鍵盤を描いた絵
の鉛直方向に設けられた2台のカメラ部A1102及び
カメラ部B1103でピアノを演奏している様子を撮影
したカメラ画像であり、図12(a1)は、カメラ部A
1102(左カメラ)の画像、図12(a2)は、カメ
ラ部B1103(右カメラ)の画像である。また、図1
2(b1)及び(b2)は、それぞれ図12(a1)及
び(a2)のカメラ画像におけるエピポーラ線と特徴点
を示す図である。FIG. 12 is a conceptual diagram showing processing of a photographed image. FIGS. 12A1 and 12A2 are camera images obtained by photographing a piano being played by two camera units A1102 and B1103 provided in the vertical direction of the picture depicting the keyboard. 12 (a1) is the camera unit A
FIG. 12A shows an image of the camera unit B 1103 (right camera). FIG.
FIGS. 2 (b1) and (b2) are diagrams showing epipolar lines and feature points in the camera images of FIGS. 12 (a1) and (a2), respectively.
【0009】ここで、図11及び図12を用いて、カメ
ラ画像から演奏データを画像処理装置1111に入力す
る場合の処理について説明する。まず、カメラ部A11
02及びカメラ部B1103から入力されるカメラ画像
(図12(a1)及び(a2))の撮影フレームの同期
をとるために、同期信号発生部1101は、カメラ部A
1102及びカメラ部B1104に同期信号を送出す
る。同期信号発生部1101からの同期信号を受けて、
カメラ部A1102及びカメラ部B1103は、ピアノ
演奏の状況を撮影し、撮影画像1211、1212のア
ナログ信号を得る。A/D変換部1104、1105
は、この撮影画像1211、1212のアナログ信号を
それぞれディジタル信号(ディジタル画像)に変換す
る。Here, a process for inputting performance data from a camera image to the image processing device 1111 will be described with reference to FIGS. First, the camera section A11
In order to synchronize the captured frames of the camera images (FIGS. 12A1 and 12A2) input from the camera unit B1103 and the camera unit B1103, the synchronization signal generation unit 1101
A synchronization signal is sent to the camera unit 1102 and the camera unit B 1104. Upon receiving the synchronization signal from the synchronization signal generation unit 1101,
The camera unit A 1102 and the camera unit B 1103 capture the situation of the piano performance, and obtain analog signals of the captured images 1211 and 1212. A / D converters 1104 and 1105
Converts the analog signals of the captured images 1211 and 1212 into digital signals (digital images).
【0010】次に、指先1213で押下されている鍵盤
1214の位置を検出するために、カメラ部A1102
及びカメラ部B1103の位置からの指先1213の3
次元奥行きを求める。Next, in order to detect the position of the keyboard 1214 pressed by the fingertip 1213, the camera unit A1102
And the fingertip 1213-3 from the position of the camera unit B1103.
Find the dimension depth.
【0011】この各指先1213の3次元奥行きの値を
求めるために、特徴点抽出部1106及び1107は、
指先1213の特徴点をディジタル画像から抽出する
(図12(a1)及び(a2))。この特徴点は、撮影
画像1211、1212における指先1213などの特
徴点の対象を予め決めておくことによって抽出する。In order to determine the value of the three-dimensional depth of each fingertip 1213, the feature point extracting units 1106 and 1107
The feature points of the fingertip 1213 are extracted from the digital image (FIGS. 12A and 12A). This feature point is extracted by previously determining the target of the feature point such as the fingertip 1213 in the captured images 1211 and 1212.
【0012】次に、対応点探索部1108は、このカメ
ラ部A1102及びカメラ部B1103の撮影画像12
11、1212から抽出されたそれぞれの特徴点120
1〜1210の1対1の対応関係を探索する。この対応
点探索は、エピポーラ線1215毎に特徴点1201〜
1210を探索し、1つのエピポーラ線1215上に1
つの特徴点1201乃至1210しか存在しないものを
抽出する。これによって、1対1の対応点は、図12
(b1)及び(b2)における対応点1202と120
7、1203と1208、及び1204と1209のよ
うに決定できる。また、特徴点1201、1205、1
206、及び1210のように、同一のエピポーラ線1
215上に複数の存在が探索された場合、このエピポー
ラ線1215の拘束条件のみから特徴点の対応関係は判
定できないので、各特徴点1201、1205、120
6、及び1210の座標やカメラ部の追加による新たな
エピポーラ線によって、対応点1201と1206、及
び1205と1210を決定する。Next, the corresponding point searching unit 1108 generates the captured image 12 of the camera unit A 1102 and the camera unit B 1103.
11. Each feature point 120 extracted from 11 and 1212
A one-to-one correspondence between 1 and 1210 is searched. This corresponding point search is performed for each feature point 1201 to 1201 for each epipolar line 1215.
Search for 1210 and put one on one epipolar line 1215
A feature that has only two feature points 1201 to 1210 is extracted. As a result, the one-to-one correspondence points are
Corresponding points 1202 and 120 in (b1) and (b2)
7, 1203 and 1208, and 1204 and 1209. Also, feature points 1201, 1205, 1
As in 206 and 1210, the same epipolar line 1
When a plurality of entities are searched for on the reference point 215, the correspondence between the feature points cannot be determined only from the constraint condition of the epipolar line 1215.
Corresponding points 1201 and 1206 and 1205 and 1210 are determined based on the coordinates of 6 and 1210 and a new epipolar line due to the addition of a camera unit.
【0013】距離計測部1109は、このようにして対
応付けされた特徴点1201〜1210の3次元座標値
を三角測量に基づいて計測する。The distance measuring unit 1109 measures the three-dimensional coordinate values of the feature points 1201 to 1210 associated with each other based on triangulation.
【0014】続いて、距離計測部1109で計測された
指先1213の奥行き値に基づいて、入力処理部111
0は、鍵盤1214の押下の判定を行い、押下を判定さ
れた鍵盤の位置を示す信号を画像処理装置1111に対
し出力する。Subsequently, based on the depth value of the fingertip 1213 measured by the distance measuring unit 1109, the input processing unit 111
A value of 0 determines whether or not the keyboard 1214 has been pressed, and outputs a signal indicating the position of the keyboard for which the determination has been made to the image processing apparatus 1111.
【0015】画像処理装置1111の制御部1112
は、入力処理部1110からの信号に基づいて、ROM
1115やRAM1116などに記憶されている画像処
理用のプログラムやデータを制御する。表示制御部11
13は、制御部1112の処理結果に基づいて、表示部
1114に画像を表示する。The control unit 1112 of the image processing device 1111
Is a ROM based on a signal from the input processing unit 1110.
It controls an image processing program and data stored in the RAM 1115, the RAM 1116, and the like. Display control unit 11
13 displays an image on the display unit 1114 based on the processing result of the control unit 1112.
【0016】[0016]
【発明が解決しようとする課題】しかしながら、図11
及び図12に示したような従来の入力画像処理装置にお
いては、指先1213と判断できるような特徴点120
1〜1210を画像1211及び1212のエピポーラ
線1215全体を探索することで抽出する必要があるた
め、その特徴点1201〜1210の抽出における計算
量が多くなり処理時間がかかる。このため、画像処理に
おけるリアルタイム性に欠けるという問題点があった。However, FIG.
In the conventional input image processing apparatus as shown in FIG.
Since it is necessary to extract 1 to 1210 by searching the entire epipolar line 1215 of the images 1211 and 1212, the amount of calculation in the extraction of the feature points 1201 to 1210 increases and the processing time is increased. For this reason, there is a problem that real-time properties in image processing are lacking.
【0017】また指先1213のような特徴が類似して
いる対象画像が、同一画像中に複数存在する場合には、
対応点のミスマッチングが発生する場合があるため、誤
った特徴点の対応付けに基づく誤った3次元計測が行わ
れてしまうという問題があった。If there are a plurality of target images having similar characteristics such as the fingertip 1213 in the same image,
Since the matching of the corresponding points may occur, there has been a problem that erroneous three-dimensional measurement based on the erroneous feature point association is performed.
【0018】また、3次元計測が可能な範囲は、撮影に
使用される複数(図11及び図12では2台)のカメラ
の撮像領域のオーバーラップ部分に限られるため、入力
に使われるカメラの撮影範囲を狭くしなければならない
という問題があった。Further, the range in which three-dimensional measurement is possible is limited to the overlapping portion of the image pickup areas of a plurality of cameras (two in FIGS. 11 and 12) used for photographing. There was a problem that the shooting range had to be narrowed.
【0019】したがって、本発明の目的は、上記の問題
点を解決するために、少ない計算量で3次元画像の正確
な奥行きを計測して撮像画像をリアルタイムに処理する
ことができ、また、撮像画像の背景面が広い場合にも対
応することができる入力画像処理方法、入力画像処理装
置、及び入力画像処理プログラムを記録した記録媒体を
提供することである。Accordingly, an object of the present invention is to solve the above-mentioned problems, to measure the depth of a three-dimensional image accurately with a small amount of calculation and to process the captured image in real time. An object of the present invention is to provide an input image processing method, an input image processing device, and a recording medium on which an input image processing program is recorded, which can cope with a case where an image has a wide background surface.
【0020】[0020]
【課題を解決するための手段】上記課題を解決するため
に、本発明の第1の態様の入力画像処理方法は、 背景
面の上を移動する被写体を撮影した画像を処理する入力
画像処理方法において、 背景面の上を移動する被写体
を同時に複数の撮影部で撮影して複数の入力画像を取得
し、 それぞれの入力画像から被写体のみを抽出して、
複数の被写体抽出画像を生成し、 生成された複数の被
写体抽出画像から差分画像を生成し、複数の被写体抽出
画像のうちの任意の被写体抽出画像と差分画像からオク
ルージョン画像を生成し、 オクルージョン画像に基づ
いて被写体の背景面に対する位置を計測する、 ことを
特徴とする。 このとき、複数の撮影部は、互いの相対
位置関係が既知であり、互いの光軸方向が平行で且つそ
れぞれの撮像平面が背景面と平行な平面上に設置されて
いるようにする。According to a first aspect of the present invention, there is provided an input image processing method for processing an image of a subject moving on a background surface. In, the subject moving on the background surface is photographed simultaneously by a plurality of photographing units to acquire a plurality of input images, and only the subject is extracted from each of the input images,
Generating a plurality of subject extraction images, generating a difference image from the generated plurality of subject extraction images, generating an occlusion image from an arbitrary subject extraction image and the difference image among the plurality of subject extraction images, and generating an occlusion image Measuring the position of the subject with respect to the background based on the background. At this time, the relative positions of the plurality of imaging units are known, and the optical axis directions of the imaging units are parallel to each other, and the respective imaging planes are set on a plane parallel to the background plane.
【0021】また、上記課題を解決するために、本発明
の第1の態様の入力画像処理装置は、 背景面の上を移
動する被写体を撮影した画像を処理する入力画像処理装
置において、 背景面の上を移動する被写体を同時に撮
影して複数の入力画像を取得する複数の撮影手段と、
撮影手段で取得された複数の入力画像から被写体のみを
抽出して、複数の被写体抽出画像を生成する抽出画像生
成手段と、 抽出画像生成手段で生成された複数の被写
体抽出画像から差分画像を生成する差分画像生成手段
と、 複数の被写体抽出画像のうちの任意の被写体抽出
画像と差分画像からオクルージョン画像を生成するオク
ルージョン画像生成手段と、 オクルージョン画像生成
手段で生成されたオクルージョン画像に基づいて被写体
の背景面に対する位置を計測する距離計測手段と、 を
備えることを特徴とする。 このとき、複数の撮影手段
は、互いの相対位置関係が既知であり、互いの光軸方向
が平行で且つそれぞれの撮像平面が背景面と平行な平面
上に設置されているようにするとよい。According to another aspect of the present invention, there is provided an input image processing apparatus for processing an image of a subject moving on a background. A plurality of photographing means for simultaneously photographing a subject moving on the to obtain a plurality of input images,
Extraction image generation means for extracting only the subject from the plurality of input images acquired by the imaging means to generate a plurality of subject extraction images, and generating a difference image from the plurality of subject extraction images generated by the extraction image generation means Image generating means for generating an occlusion image from an arbitrary object extracted image and a difference image among a plurality of object extracted images, and an object based on the occlusion image generated by the occlusion image generating means. And a distance measuring means for measuring a position with respect to the background surface. At this time, it is preferable that the relative positions of the plurality of photographing units are known, and the optical axis directions of the photographing units are parallel to each other, and the respective imaging planes are set on a plane parallel to the background surface.
【0022】これにより、カメラなどを用いて被写体の
動作画像を処理する際に、少ない計算量で、かつ正確に
被写体の奥行きを計測することができる。これによっ
て、リアルタイム処理を行うことができる高速かつ正確
な入力画像処理が可能となる。Thus, when processing a motion image of a subject using a camera or the like, the depth of the subject can be accurately measured with a small amount of calculation. Thereby, high-speed and accurate input image processing capable of performing real-time processing becomes possible.
【0023】また、上記課題を解決するために、本発明
の第2の態様の入力画像処理方法は、 背景面の上を移
動する被写体を撮影した画像を処理する入力画像処理方
法において、 背景面の上を移動する被写体を同時に複
数の撮影部で撮影して複数の入力画像を取得し、 複数
の入力画像からそれぞれの正規化画像を生成し、 それ
ぞれの正規化画像から被写体のみを抽出して、複数の被
写体抽出画像を生成し、 生成された複数の被写体抽出
画像から差分画像を生成し、 複数の被写体抽出画像の
うちの任意の被写体抽出画像と差分画像からオクルージ
ョン画像を生成し、 オクルージョン画像に基づいて被
写体の背景面に対する位置を計測する、ことを特徴とす
る。ここで、複数の撮影部は、互いの相対位置関係が既
知であり、互いの光軸方向が既知で輻輳するように設置
されているようにするとよい。According to another aspect of the present invention, there is provided an input image processing method for processing an image of a subject moving on a background surface. A plurality of input images are obtained by simultaneously photographing a subject moving on the camera with a plurality of photographing units, a normalized image is generated from the plurality of input images, and only the subject is extracted from each normalized image. Generating a plurality of subject extraction images, generating a difference image from the generated plurality of subject extraction images, generating an occlusion image from any of the plurality of subject extraction images and the difference image, and generating an occlusion image The position of the subject with respect to the background plane is measured based on Here, the plurality of photographing units may be installed such that their relative positional relationships are known, their optical axis directions are known, and they are congested.
【0024】また、上記課題を解決するために、本発明
の第2の態様の入力画像処理装置は、 背景面の上を移
動する被写体を撮影した画像を処理する入力画像処理装
置において、 背景面の上を移動する被写体を同時に撮
影して複数の入力画像を取得する複数の撮影手段と、
撮影手段で取得された複数の入力画像からそれぞれの正
規化画像を生成する正規化画像生成手段と、 正規化画
像生成手段で生成されたそれぞれの正規化画像から被写
体のみを抽出して、複数の被写体抽出画像を生成する抽
出画像生成手段と、 抽出画像生成手段で生成された複
数の被写体抽出画像から差分画像を生成する差分画像生
成手段と、 複数の被写体抽出画像のうちの任意の被写
体抽出画像と差分画像からオクルージョン画像を生成す
るオクルージョン画像生成手段と、 オクルージョン画
像生成手段で生成されたオクルージョン画像に基づいて
被写体の背景面に対する位置を計測する距離計測手段
と、を備えることを特徴とする。ここで、複数の撮影手
段は、互いの相対位置関係が既知であり、互いの光軸方
向が既知で輻輳するように設置されているようにすると
よい。According to another aspect of the present invention, there is provided an input image processing apparatus for processing an image of a subject moving on a background surface. A plurality of photographing means for simultaneously photographing a subject moving on the to obtain a plurality of input images,
A normalized image generating means for generating respective normalized images from a plurality of input images obtained by the photographing means; and extracting only a subject from the respective normalized images generated by the normalized image generating means, Extraction image generation means for generating a subject extraction image; difference image generation means for generating a difference image from a plurality of subject extraction images generated by the extraction image generation means; and an arbitrary subject extraction image of the plurality of subject extraction images And an occlusion image generating means for generating an occlusion image from the difference image; and a distance measuring means for measuring a position of the subject with respect to a background surface based on the occlusion image generated by the occlusion image generating means. Here, the plurality of photographing units may be installed such that their relative positional relationships are known, their optical axis directions are known, and they are congested.
【0025】これにより、入力に必要となる背景面が広
い場合にも、被写体の動作画像の処理が可能となる。This makes it possible to process a motion image of a subject even when the background required for input is large.
【0026】また、上記課題を解決するために、本発明
の第3の態様の入力画像処理方法は、 上述した第1及
び第2の態様の入力画像処理方法において、 オクルー
ジョン画像を生成するステップを、複数の被写体抽出画
像のうちの2以上の任意の被写体抽出画像と前記差分画
像から2以上のオクルージョン画像を生成するステップ
とし、 被写体の位置を計測するステップを、2以上の
オクルージョン画像毎に被写体の背景面に対する位置を
計測し、2以上のオクルージョン画像毎に計測した位置
の平均値に基づいて被写体の位置を決定するステップと
する、ことを特徴とする。According to a third aspect of the present invention, there is provided an input image processing method according to the third aspect of the present invention, further comprising the step of generating an occlusion image in the first and second aspects. Generating two or more occlusion images from two or more arbitrary subject extracted images of the plurality of subject extracted images and the difference image, and measuring the position of the subject is performed for each of the two or more occlusion images. Is characterized by a step of measuring a position with respect to a background surface and determining a position of a subject based on an average value of positions measured for each of two or more occlusion images.
【0027】また、上記課題を解決するために、本発明
の第3の態様の入力画像処理装置は、 上述した第1及
び第2の態様の入力画像処理装置において、 オクルー
ジョン画像生成手段を、複数の被写体抽出画像のうちの
2以上の任意の被写体抽出画像と差分画像から2以上の
オクルージョン画像を生成する構成にし、 距離計測手
段を、2以上のオクルージョン画像毎に被写体の背景面
に対する位置を計測し、2以上のオクルージョン画像毎
に計測した位置の平均値に基づいて被写体の位置を決定
する構成にする、ことを特徴とする。According to a third aspect of the present invention, there is provided an input image processing apparatus according to the first and second aspects, wherein a plurality of occlusion image generating means are provided. The configuration is such that two or more occlusion images are generated from two or more arbitrary subject extracted images of the subject extracted images and the difference image, and the distance measuring means measures the position of the subject with respect to the background plane for each of the two or more occlusion images The position of the subject is determined based on the average value of the positions measured for each of two or more occlusion images.
【0028】これにより、3次元計測の精度を向上する
ことができる。Thus, the accuracy of three-dimensional measurement can be improved.
【0029】また、上記課題を解決するために、本発明
の第4の態様の入力画像処理方法は、 上述した第1乃
至第3の態様の入力画像処理方法において、 被写体の
位置を計測するステップで、計測された位置を所定の補
正値によって補正するよにすることを特徴とする。 こ
のとき、被写体の位置を計測するステップにおいて、被
写体の位置は、背景面から被写体までの距離を示す値Z
h ’であり、所定の補正値は、被写体の背景面と垂直す
る方向での幅の値Z0 であり、計測した位置の値をZh
とした場合、被写体までの距離を示す値Zh ’は、Zh
’=Zh −Z0よって求める、ことができる。According to a fourth aspect of the present invention, there is provided an input image processing method according to the first to third aspects, wherein the position of the subject is measured. The measured position is corrected by a predetermined correction value. At this time, in the step of measuring the position of the subject, the position of the subject is determined by a value Z indicating the distance from the background surface to the subject.
h ′, the predetermined correction value is a width value Z0 in a direction perpendicular to the background surface of the subject, and the value of the measured position is Zh.
, The value Zh 'indicating the distance to the subject is Zh
'= Zh-Z0.
【0030】また、上記課題を解決するために、本発明
の第4の態様の入力画像処理装置は、 上述した第1乃
至第3の態様の入力画像処理装置において、 距離計測
手段で、計測した位置を所定の補正値によって補正する
ことを特徴とする。 ここで、距離計測手段において、
被写体の位置が、背景面から被写体までの距離を示す値
Zh ’であり、所定の補正値が、被写体の背景面と垂直
する方向での幅の値Z0 であり、計測した位置の値をZ
h とした場合、被写体までの距離を示す値Zhを、Zh
’=Zh −Z0 によって求める、ようにすることがで
きる。According to a fourth aspect of the present invention, there is provided an input image processing apparatus according to the first to third aspects, wherein the distance is measured by distance measuring means. The position is corrected by a predetermined correction value. Here, in the distance measuring means,
The position of the subject is a value Zh 'indicating the distance from the background surface to the subject, the predetermined correction value is a width value Z0 in a direction perpendicular to the background surface of the subject, and the measured position value is Zh.
h, the value Zh indicating the distance to the subject is Zh
'= Zh-Z0.
【0031】これにより、3次元計測の精度を向上する
ことができる。Thus, the accuracy of three-dimensional measurement can be improved.
【0032】また、上記課題を解決するために、上述し
た第1乃至第4の態様の入力画像処理方法において、
複数の入力画像を取得するステップを、背景面の上を移
動する被写体を同期を取りながら同時に複数の撮影部で
撮影して複数の入力画像を取得するステップとするとよ
い。また、複数の被写体抽出画像を生成するステップに
おいて、被写体の写っていない背景画像に基づいて被写
体のみを抽出する、ようにするとよい。さらに、差分画
像を生成するステップで、生成された複数の被写体抽出
画像のそれぞれの対応する画素毎の排他的論理和(EX
OR:EXclusive-OR)を取ることによって差分画像を生
成することもできる。また、オクルージョン画像を生成
するステップで、任意の被写体抽出画像と差分画像のそ
れぞれの対応する画素毎の論理積(AND)を取ること
によってオクルージョン画像を生成するようにしてもよ
い。さらに、被写体の位置を計測するステップの後に、
計測された被写体の位置から被写体の動作を認識する、
ようにしてもよい。According to another aspect of the present invention, there is provided an input image processing method according to any one of the first to fourth aspects.
The step of acquiring a plurality of input images may be a step of acquiring a plurality of input images by simultaneously photographing a subject moving on a background surface with a plurality of photographing units while synchronizing. In the step of generating a plurality of subject extraction images, it is preferable that only the subject is extracted based on the background image in which the subject is not shown. Further, in the step of generating the difference image, an exclusive OR (EX) for each corresponding pixel of the generated plurality of subject extraction images is provided.
OR: EXclusive-OR) to generate a difference image. Further, in the step of generating an occlusion image, an occlusion image may be generated by calculating a logical product (AND) of corresponding pixels of an arbitrary subject extracted image and a difference image. Furthermore, after the step of measuring the position of the subject,
Recognize the movement of the subject from the measured position of the subject,
You may do so.
【0033】また、上記課題を解決するために、上述し
た第1乃至第4の態様の入力画像処理装置において、
複数の撮影手段は、背景面の上を移動する被写体を同期
を取りながら同時に撮影して複数の入力画像を取得する
構成にすることができる。また、出画像生成手段は、被
写体の写っていない背景画像に基づいて被写体のみを抽
出する、ようにしてもよい。さらに、差分画像生成手段
は、生成された複数の被写体抽出画像のそれぞれの対応
する画素毎の排他的論理和(EXOR:EXclusive-OR)
を取ることによって差分画像を生成する、こともでき
る。また、オクルージョン画像生成手段は、任意の被写
体抽出画像と差分画像のそれぞれの対応する画素毎の論
理積(AND)を取ることによってオクルージョン画像
を生成する、ようにしてもよい。さらに、距離計測手段
で計測された被写体の位置から被写体の動作を認識する
手段を有する、こともできる。Further, in order to solve the above-mentioned problem, in the input image processing apparatus according to the first to fourth aspects,
The plurality of photographing units may be configured to simultaneously photograph a subject moving on the background surface while synchronizing with each other to acquire a plurality of input images. Further, the output image generating means may extract only the subject based on the background image in which the subject is not shown. Further, the difference image generating means is an exclusive OR (EXOR: EXOR-OR) for each corresponding pixel of the plurality of generated subject extraction images.
, A difference image can be generated. Further, the occlusion image generating means may generate an occlusion image by taking a logical product (AND) of corresponding pixels of an arbitrary subject extracted image and a difference image. Further, it is possible to have means for recognizing the motion of the subject from the position of the subject measured by the distance measuring means.
【0034】また、上述した本発明の第1乃至第4の態
様の入力画像処理方法を入力画像処理プログラムとし
て、コンピュータ読み取り可能な記録媒体に記録するこ
とができる。The input image processing methods according to the first to fourth aspects of the present invention can be recorded as an input image processing program on a computer-readable recording medium.
【0035】[0035]
【発明の実施の形態】以下、図面を参照しつつ、本発明
の入力画像処理方法、入力画像処理装置、及び入力画像
処理プログラムを記録した記録媒体について説明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an input image processing method, an input image processing device, and a recording medium on which an input image processing program is recorded according to the present invention will be described with reference to the drawings.
【0036】<実施の形態1>図1は、本発明の入力画
像処理装置を含むコンピュータシステムのブロック構成
図である。このコンピュータシステムは、入力画像を処
理する入力画像処理装置100と、入力画像処理装置1
00に接続される画像処理装置114とを備えている。<Embodiment 1> FIG. 1 is a block diagram of a computer system including an input image processing apparatus of the present invention. The computer system includes an input image processing device 100 that processes an input image and an input image processing device 1
00 and an image processing apparatus 114 connected to the image processing apparatus.
【0037】図1において、入力画像処理装置100
は、テクスチャを有する背景面120上で移動する被写
体を撮影するための2つのカメラ部A102及びカメラ
部B103と、カメラ部A102及びカメラ部B103
に対して撮影の同期信号を送出する同期信号発生部10
1と、カメラ部A102及びカメラ部B103によって
撮影されたそれぞれの画像のアナログ信号をディジタル
信号(ディジタル画像)に変換するA/D変換部104
及び105と、背景面120の背景画像のみを蓄積する
背景画像蓄積部106及び107と、A/D変換部10
4及び105から出力されるそれぞれのディジタル画像
と背景画像蓄積部106及び107に蓄積されているそ
れぞれの背景画像とに基づいて被写体のみを抽出し、抽
出した結果(信号)の2値化を行って被写体抽出画像を
生成する被写体抽出画像生成部108及び109と、被
写体抽出画像生成部108及び109で生成された2つ
被写体抽出画像間の差分画像を生成する差分画像生成部
110と、何れか一方の被写体抽出画像生成部(図1で
は被写体抽出画像生成部108)で生成された被写体抽
出画像と差分画像生成部110で生成された差分画像か
らオクルージョン領域の検出を行うオクルージョン検出
部111と、オクルージョン検出部111で検出された
オクルージョン領域から被写体の背景面120に対する
3次元位置計測を行う距離計測部112と、距離計測部
112の距離計測結果に基づいて画像の動きなどを認識
し、その認識に基づいた制御信号を画像処理装置114
に入力する入力処理部113とを備えている。In FIG. 1, an input image processing device 100
Are two camera units A102 and B103 for photographing a moving subject on a background surface 120 having a texture, and two camera units A102 and B103.
Synchronizing signal generating unit 10 for transmitting a synchronizing signal for photographing to
1 and an A / D converter 104 for converting an analog signal of each image taken by the camera unit A102 and the camera unit B103 into a digital signal (digital image).
And 105, background image storage units 106 and 107 for storing only the background image of the background plane 120, and the A / D conversion unit 10
Only the subject is extracted based on each digital image output from each of the digital images 4 and 105 and each background image stored in the background image storage units 106 and 107, and the extraction result (signal) is binarized. And a difference image generation unit 110 that generates a difference image between the two subject extraction images generated by the subject extraction image generation units 108 and 109. An occlusion detecting section 111 for detecting an occlusion area from the subject extracted image generated by one subject extracted image generating section (the subject extracted image generating section 108 in FIG. 1) and the differential image generated by the differential image generating section 110; From the occlusion area detected by the occlusion detection unit 111, three-dimensional position measurement of the subject with respect to the background surface 120 is performed. And the Hare distance measurement unit 112, recognizes a like motion of the image based on the distance measurement result of the distance measurement unit 112, the image processing apparatus control signal based on the recognition 114
And an input processing unit 113 for inputting the information to the user.
【0038】ここで、カメラ部A102及びカメラ部B
103は、互いの相対位置関係が既知であり、また、互
いの光軸方向が平行で、かつ撮像平面が背景面と平行な
同一平面上に配置されている。Here, the camera unit A102 and the camera unit B
Reference numerals 103 have a known relative positional relationship, and are arranged on the same plane whose optical axis directions are parallel to each other and whose imaging plane is parallel to the background plane.
【0039】また、画像処理装置114は、入力処理部
113からの制御信号を受け取り、その制御信号に基づ
いて処理を行う制御部115と、制御プログラムなどを
記憶するROM(Read Only Memory)119と、データ
などを記憶するRAM(Random Access Memory)118
と、画像を表示する表示部117と、表示部117を制
御する表示制御部116とを備えている。The image processing device 114 receives a control signal from the input processing unit 113 and performs processing based on the control signal, and a ROM (Read Only Memory) 119 for storing a control program and the like. (Random Access Memory) 118 for storing data, data, etc.
, A display unit 117 for displaying an image, and a display control unit 116 for controlling the display unit 117.
【0040】以下、上述の構成のコンピュータシステム
における画像処理について図1〜図4を用いて説明す
る。なお、この画像処理については、ピアノ鍵盤の絵を
用いた演奏入力の例によって説明する。Hereinafter, image processing in the computer system having the above configuration will be described with reference to FIGS. This image processing will be described using an example of performance input using a picture of a piano keyboard.
【0042】図2は、本発明の入力画像処理装置100
の動作を示すフローチャートである。ここで、背景面1
20の背景(ピアノ鍵盤の絵)のみを予めカメラ部A1
02及びカメラ部B103で撮影しておき、A/D変換
部104及び105でディジタル変換処理を行って、背
景画像として背景画像蓄積部106及び107に蓄積し
ておく。FIG. 2 shows an input image processing apparatus 100 according to the present invention.
6 is a flowchart showing the operation of the first embodiment. Here, the background surface 1
Only 20 backgrounds (pictures of the piano keyboard) are stored in the camera section A1 in advance.
02 and the camera unit B103, digital conversion processing is performed by the A / D conversion units 104 and 105, and the digital images are stored in the background image storage units 106 and 107 as background images.
【0043】図2において、まず、オペレータは、ピア
ノの鍵盤を描いた絵の背景面120上で演奏動作を行
う。この時、カメラ部A102及びカメラ部B103
は、同期信号発生部101から発生する同期信号に同期
して、画角内の手指の画像をアナログ信号として取り込
む(ステップ201A、201B)。In FIG. 2, first, the operator performs a performance operation on a background surface 120 of a picture depicting a keyboard of a piano. At this time, the camera unit A102 and the camera unit B103
Captures an image of a finger within the angle of view as an analog signal in synchronization with a synchronization signal generated from the synchronization signal generator 101 (steps 201A and 201B).
【0044】このアナログ信号は、A/D変換部10
4、105でディジタル信号(ディジタル画像)に変換
される。以下、距離計測部112で距離計測を行うため
の差分画像生成について説明する。This analog signal is supplied to the A / D converter 10
At 4 and 105, the signal is converted into a digital signal (digital image). Hereinafter, generation of a difference image for performing distance measurement by the distance measurement unit 112 will be described.
【0045】図3は、差分画像の生成を示す概念図であ
る。図1及び図3において、まず、被写体抽出画像生成
部108、109は、背景画像蓄積部106、107に
蓄積されている背景(テクスチャ)309のみの画像3
01、303と背景309に被写体( 手指) 310が入
った画像302、304(A/D変換部104、105
で変換されたディジタル画像)のそれぞれでの差分を計
算して差分画像を生成する(ステップ202A、202
B)。FIG. 3 is a conceptual diagram showing generation of a difference image. In FIGS. 1 and 3, first, the subject extraction image generation units 108 and 109 generate an image 3 of only the background (texture) 309 stored in the background image storage units 106 and 107.
01 and 303 and images (302) and 304 (304) containing a subject (fingers) 310 in a background 309 (A / D converters 104 and 105).
The difference is calculated by calculating the difference between each of the digital images converted in (Step 202A, 202).
B).
【0046】そして、この差分画像に基づいて、被写体
310の存在する部分は「1」で、背景309のみの部
分は「0」で2値化を行い、被写体抽出画像305、3
06を生成する(ステップ203A、203B)。図3
の被写体抽出画像305、306においては、被写体3
10の存在する部分「1」を、黒く塗りつぶしている。Then, based on the difference image, the portion where the subject 310 exists is “1”, and the portion of only the background 309 is “0”, and the binarization is performed.
06 is generated (steps 203A and 203B). FIG.
In the subject extraction images 305 and 306 of
The portion “1” where 10 is present is blacked out.
【0047】次に、差分画像生成部110は、被写体抽
出画像305、306の各対応する画素毎の排他的論理
和(EXOR:EXclusive-OR)を取って差分画像307
を生成する(ステップ204)。ここで、差分を取る際
の被写体抽出画像305と被写体抽出画像306の位置
関係(画素の対応関係)は、背景画像301、303に
撮影されている背景面120のテクスチャ(ピアノ鍵盤
の絵)309がずれることなく重なる位置に設定され
る。図3の差分画像307においては、被写体抽出画像
305、306で被写体310の重なった部分が「0」
(白抜き)となっている。Next, the difference image generation unit 110 obtains an exclusive OR (EXOR: EXOR-OR) for each corresponding pixel of the subject extracted images 305 and 306, and obtains a difference image 307.
Is generated (step 204). Here, the positional relationship (correspondence relationship between pixels) between the subject extraction image 305 and the subject extraction image 306 when taking the difference is the texture (picture of a piano keyboard) 309 of the background surface 120 photographed in the background images 301 and 303. Are set at overlapping positions without displacement. In the difference image 307 of FIG. 3, the overlapped portion of the subject 310 in the subject extracted images 305 and 306 is “0”.
(Open).
【0048】続いて、オクルージョン検出部111は、
何れか一方の被写体抽出画像(図3では被写体抽出画像
305)と差分画像307の各対応する画素毎の論理積
(AND)を取ってオクルージョン画像308を生成す
る(ステップ205)。ここで、論理積を取る際の被写
体抽出画像305と差分画像307の位置関係(画素の
対応関係)は、上述の差分画像生成部110で設定され
た位置関係と同一に設定される。Subsequently, the occlusion detecting section 111
An occlusion image 308 is generated by taking the logical product (AND) of one of the subject extracted images (the subject extracted image 305 in FIG. 3) and the difference image 307 for each corresponding pixel (step 205). Here, the positional relationship (correspondence relationship between pixels) between the subject extraction image 305 and the difference image 307 at the time of calculating the logical product is set to be the same as the positional relationship set by the difference image generation unit 110 described above.
【0049】続いて、距離計測部112は、オクルージ
ョン画像308のオクルージョン領域311から被写体
310の境界線に沿って、オクルージョン領域311の
幅の画素数を求める。このオクルージョン領域311の
幅の画素数に基づいて、背景面120によって定められ
る3次元座標系における被写体310の座標値を求める
(ステップ206)。Subsequently, the distance measuring unit 112 obtains the number of pixels of the width of the occlusion area 311 from the occlusion area 311 of the occlusion image 308 along the boundary line of the subject 310. Based on the number of pixels having the width of the occlusion area 311, a coordinate value of the subject 310 in a three-dimensional coordinate system defined by the background surface 120 is obtained (Step 206).
【0050】図4は、被写体310の座標値の求め方を
示す図である。図4(a)は、背景面120及び被写体
310と、そこで定められる座標系403を示す。ま
た、図4(b)は、Y軸上方向から見たカメラ焦点(ピ
ンホール位置)404、405、撮像面406、40
7、被写体310、及び背景面120の位置関係を示
す。FIG. 4 is a diagram showing how to obtain the coordinate values of the subject 310. FIG. 4A shows a background surface 120 and a subject 310, and a coordinate system 403 defined there. FIG. 4B shows the camera focal points (pinhole positions) 404 and 405 and the imaging planes 406 and 40 viewed from above the Y axis.
7, the positional relationship between the subject 310 and the background surface 120 is shown.
【0051】今、カメラ部A102及びカメラ部B10
3が、それぞれ座標(xc1,yc ,−zc )及び(xc
2,yc ,−zc )の位置に設置されているとする。図
4においては、カメラ部A102及びカメラ部B103
をピンホールカメラモデルとしてモデル化して説明す
る。ピンホール404、405の間の距離をB、ピンホ
ール404、405から背景面120までの距離をL、
ピンホール404、405からそれぞれの撮像面40
6、407までの距離(焦点距離)をF、オクルージョ
ン画像308(図3)から判定されるオクルージョン領
域311の幅にある画素数をp、オクルージョン領域3
11の幅の実際の長さをx0 とすると、以下に示すNow, the camera unit A102 and the camera unit B10
3 are the coordinates (xc1, yc, -zc) and (xc1,
2, yc, -zc). In FIG. 4, a camera unit A102 and a camera unit B103
Is described as a pinhole camera model. The distance between the pinholes 404 and 405 is B, the distance from the pinholes 404 and 405 to the background 120 is L,
The respective imaging planes 40 from the pinholes 404 and 405
F is the distance (focal length) to 6, 407, p is the number of pixels in the width of the occlusion area 311 determined from the occlusion image 308 (FIG. 3), and occlusion area 3
Assuming that the actual length of the width of 11 is x0,
【数1】が成り立つ。Equation 1 holds.
【数1】p:x0 =F:L ∴ x0 =(p×L)/F## EQU1 ## p: x0 = F: L∴x0 = (p × L) / F
【0052】また背景面120から被写体(この場合は
指先)310までの距離をZh とすると、三角形の相似
により、以下のWhen the distance from the background surface 120 to the object (in this case, the fingertip) 310 is Zh, the similarity between the triangles is as follows.
【数2】が成り立つ。Equation 2 holds.
【数2】B:x0 =(L−Zh ):Zh ∴ Zh =(L×x0 )/(B+x0 )## EQU2 ## B: x0 = (L-Zh): Zh∴Zh = (L × x0) / (B + x0)
【0053】ここで、Where
【数1】で得られたx0 をX0 obtained by the following equation
【数2】に代入することにより、以下のBy substituting into Equation 2,
【数3】が得られる。Equation 3 is obtained.
【数3】 Zh =L/[1+{(B×F)/(p×L)}]Zh = L / [1 + {(B × F) / (p × L)}]
【0054】このThis
【数3】において、L、p、F、Bの値は、全て既知の
ため、背景面120から被写体310までの距離Zh が
得られる。In Equation 3, since the values of L, p, F, and B are all known, the distance Zh from the background surface 120 to the subject 310 can be obtained.
【0055】距離計測部112は、The distance measuring unit 112
【数3】によって、背景面120から被写体310まで
の距離Zh を計算し、この値を被写体310の背景面1
20内におけるx−y座標値と一緒に出力する。The distance Zh from the background plane 120 to the subject 310 is calculated by the following equation (3), and this value is calculated as
20 together with the xy coordinate values.
【0056】続いて、入力処理部113では、背景面1
20の背景(ピアノの鍵盤を描いた絵)309からの被
写体(指先)310までの距離Zh に基づいて、鍵盤押
下の判定を行う(ステップ207)。Subsequently, in the input processing unit 113, the background 1
Based on the distance Zh from the background 20 (picture depicting the keyboard of the piano) 309 to the subject (fingertip) 310, it is determined that the keyboard has been pressed (step 207).
【0057】入力処理部113は、所定の閾値などに基
づいて鍵盤押下と判定した場合には、被写体(指先)3
10に対応する鍵盤の位置を示す(x,y)座標値を制
御信号として、画像処理装置114に送出する(ステッ
プ208)。一方、鍵盤押下と判定しなかった場合に
は、そのまま処理を続行する(ステップ209)。When it is determined that the keyboard has been pressed based on a predetermined threshold or the like, the input processing unit 113 sets the subject (fingertip) 3
The (x, y) coordinate value indicating the position of the keyboard corresponding to 10 is sent to the image processing device 114 as a control signal (step 208). On the other hand, if it is not determined that the key is pressed, the process is continued (step 209).
【0058】以下、画像の計測処理が終了するまで(上
述で説明した場合には、例えば、ピアノの演奏が終わる
まで)、上述のステップ201A及び201B〜209
までの処理を繰り返す(ステップ210)。Hereinafter, steps 201A and 201B to 209 described above are performed until the measurement processing of the image is completed (in the case described above, for example, until the performance of the piano is completed).
The processing up to is repeated (step 210).
【0059】画像処理装置114の制御部115は、入
力処理部113からの座標値(信号)に基づいて、RO
M119やRAM118などに記憶されているプログラ
ムやデータを処理する。制御部115は、その処理結果
に基づいて、表示制御部116を制御して表示部117
に画像を表示したり、音声出力部(図示せず)から音声
を出力する。The control unit 115 of the image processing device 114 determines the RO based on the coordinate value (signal) from the input processing unit 113.
It processes programs and data stored in M119, RAM 118, and the like. The control unit 115 controls the display control unit 116 based on the processing result, and
And an audio output unit (not shown) outputs an audio.
【0060】以上のように、本発明の入力画像処理装置
及び入力画像処理方法によれば、カメラを用いた画像の
入力の際に、少ない計算量で、かつ正確に背景面と被写
体間の距離を計測することができるようになる。これに
よって、画像をリアルタイムに処理することができる高
速かつ安定な入力画像処理が可能となる。As described above, according to the input image processing apparatus and the input image processing method of the present invention, when an image is input using a camera, the distance between the background surface and the subject can be accurately calculated with a small amount of calculation. Can be measured. As a result, high-speed and stable input image processing capable of processing an image in real time becomes possible.
【0061】<実施の形態2>次に、本発明の入力画像
処理装置及び入力画像処理方法について、図面を参照し
ながら説明する。<Embodiment 2> Next, an input image processing apparatus and an input image processing method of the present invention will be described with reference to the drawings.
【0062】図5は、本発明の入力画像処理装置を含む
コンピュータシステムのブロック構成図である。なお、
図5において、図1と同様の構成には同一の符号を付し
ている。FIG. 5 is a block diagram of a computer system including the input image processing device of the present invention. In addition,
5, the same components as those in FIG. 1 are denoted by the same reference numerals.
【0063】図5において、このコンピュータシステム
は、入力画像を処理する入力画像処理装置500と、入
力画像処理装置500に接続される画像処理装置114
とを備えている。In FIG. 5, the computer system includes an input image processing device 500 for processing an input image, and an image processing device 114 connected to the input image processing device 500.
And
【0064】この入力画像処理装置500は、テクスチ
ャを有する背景面120上で移動する被写体を撮影する
ための2つのカメラ部A502及びカメラ部B503
と、カメラ部A502及びカメラ部B503に対して撮
影の同期信号を送出する同期信号発生部101と、カメ
ラ部A502及びカメラ部B503によって撮影された
それぞれの画像のアナログ信号をディジタル信号(ディ
ジタル画像)に変換するA/D変換部104及び105
と、A/D変換部104及び105で変換されたディジ
タル画像を、光軸方向が平行な2つのカメラ部で撮像さ
れ、その撮像面が背景面120と平行になる画像と同一
な画像(以下、単に「正規化画像」ともいう)に正規化
変換する正規化画像生成部506及び507と、背景面
120の背景画像のみを蓄積する背景画像蓄積部106
及び107と、正規化画像生成部506及び507から
出力されるそれぞれの正規化画像と背景画像蓄積部10
6及び107に蓄積されているそれぞれの背景画像とに
基づいて被写体のみを抽出し、抽出した結果(信号)の
2値化を行って被写体抽出画像を生成する被写体抽出画
像生成部108及び109と、被写体抽出画像生成部1
08及び109で生成された2つ被写体抽出画像間の差
分画像を生成する差分画像生成部110と、何れか一方
の被写体抽出画像生成部(図1では被写体抽出画像生成
部108)で生成された被写体抽出画像と差分画像生成
部110で生成された差分画像からオクルージョン領域
の検出を行うオクルージョン検出部111と、オクルー
ジョン検出部111で検出されたオクルージョン領域か
ら被写体の背景面120に対する3次元位置計測を行う
距離計測部112と、距離計測部112の距離計測結果
に基づいて画像の動きなどを認識し、その認識に基づい
た制御信号を画像処理装置114に入力する入力処理部
113とを備えている。The input image processing apparatus 500 includes two camera units A 502 and B 503 for photographing a moving object on the background surface 120 having a texture.
A synchronizing signal generating unit 101 for transmitting a synchronizing signal of photographing to the camera unit A502 and the camera unit B503; and a digital signal (digital image) of an analog signal of each image photographed by the camera unit A502 and the camera unit B503. A / D converters 104 and 105 for converting to
And the digital image converted by the A / D conversion units 104 and 105 is captured by two camera units whose optical axis directions are parallel to each other, and the same image (hereinafter referred to as an image whose imaging surface is parallel to the background surface 120) (Referred to simply as “normalized image”) and a background image storage unit 106 that stores only the background image of the background surface 120.
And 107, the respective normalized images output from the normalized image generators 506 and 507, and the background image storage 10
6 and 107, only the subject is extracted based on the respective background images stored therein, binarized extraction results (signals) are used to generate subject extraction images, and subject extraction image generation units 108 and 109 , Subject extraction image generation unit 1
A difference image generation unit 110 that generates a difference image between the two subject extraction images generated in 08 and 109 and one of the subject extraction image generation units (the subject extraction image generation unit 108 in FIG. 1). An occlusion detection unit 111 that detects an occlusion area from the subject extraction image and the difference image generated by the difference image generation unit 110, and measures a three-dimensional position of the subject with respect to the background surface 120 from the occlusion area detected by the occlusion detection unit 111. The image processing apparatus 114 includes a distance measurement unit 112 that performs the operation, and an input processing unit 113 that recognizes a motion of an image based on the distance measurement result of the distance measurement unit 112 and inputs a control signal based on the recognition to the image processing device 114. .
【0065】ここで、カメラ部A502及びカメラ部B
503は、互いの相対位置関係が既知であり、また、互
いの光軸方向が既知で輻輳するように配置されている。Here, the camera unit A 502 and the camera unit B
Reference numerals 503 are arranged such that their relative positional relationships are known, and their optical axis directions are known and congested.
【0066】また、画像処理装置114は、入力処理部
113からの制御信号を受け取り、その制御信号に基づ
いて処理を行う制御部115と、制御プログラムなどを
記憶するROM119と、データなどを記憶するRAM
118と、画像を表示する表示部117と、表示部11
7を制御する表示制御部116とを備えている。The image processing device 114 receives a control signal from the input processing unit 113 and performs processing based on the control signal, a ROM 119 for storing a control program and the like, and stores data and the like. RAM
118, a display unit 117 for displaying an image, and a display unit 11
And a display control unit 116 for controlling the control unit 7.
【0067】図5に示した入力画像処理装置500と図
1に示した入力画像処理装置100との相違点は、図5
の入力画像処理装置500において、カメラ部A502
及びカメラ部B503を互いの相対位置関係が既知で、
互いの光軸方向が既知で輻輳するように配置し、ディジ
タル画像を正規化画像に正規化変換する正規化画像生成
部506及び507を備える点である。The difference between the input image processing device 500 shown in FIG. 5 and the input image processing device 100 shown in FIG.
In the input image processing apparatus 500 of FIG.
And the relative positional relationship between the camera unit B503 and each other is known,
The point is that normalization image generation units 506 and 507 are arranged so that their optical axis directions are known and congested, and normalize and convert a digital image into a normalization image.
【0068】本発明の入力画像処理装置を以上のような
構成にすることで、カメラ部A502及びカメラ部B5
03で撮影することができる背景面120の範囲を広げ
ることが出来る。By configuring the input image processing apparatus of the present invention as described above, the camera unit A502 and the camera unit B5
The range of the background surface 120 that can be photographed at 03 can be expanded.
【0069】以下、図5に示した入力画像処理装置50
0の動作について、上述と同様にピアノの演奏を例にと
って説明する。Hereinafter, the input image processing device 50 shown in FIG.
The operation of 0 will be described by taking a piano performance as an example as described above.
【0070】図6は、入力画像処理装置500での画像
処理を示すフローチャートである。なお、図6におい
て、上述した図2と同様の処理をするステップには、同
一のステップ番号を付している。ここで、背景面120
の背景(ピアノ鍵盤の絵)のみを予めカメラ部A102
及びカメラ部B103で撮影しておき、A/D変換部1
04及び105でディジタル変換処理を行って、背景画
像として背景画像蓄積部106及び107に蓄積してお
く。FIG. 6 is a flowchart showing image processing in the input image processing device 500. In FIG. 6, the same steps as those in FIG. 2 described above are denoted by the same step numbers. Here, the background surface 120
Only the background (picture of the piano keyboard) of the camera unit A102
And A / D converter 1
In steps 04 and 105, digital conversion processing is performed, and the digital images are stored in the background image storage units 106 and 107 as background images.
【0071】図6において、図2と同様にして、まず、
オペレータは、ピアノの鍵盤を描いた絵の背景面120
上で演奏動作を行う。この時、カメラ部A502及びカ
メラ部B503は、同期信号発生部101から発生する
同期信号に同期して、画角内の手指の画像をアナログ信
号として取り込む(ステップ601A、601B)。こ
のアナログ信号は、A/D変換部104、105でディ
ジタル信号(ディジタル画像)に変換される。In FIG. 6, similar to FIG. 2, first,
The operator operates the background 120 of the picture of the piano keyboard.
Perform the performance operation above. At this time, the camera unit A502 and the camera unit B503 take in an image of the finger within the angle of view as an analog signal in synchronization with the synchronization signal generated from the synchronization signal generation unit 101 (steps 601A and 601B). The analog signals are converted into digital signals (digital images) by A / D converters 104 and 105.
【0072】次に、正規化画像生成部506、507
は、カメラ部A502及びカメラ部B503の輻輳した
既知である光軸方向に基づいて、A/D変換部104及
び105で変換されたディジタル画像を、光軸方向が平
行な2つのカメラ部で撮像されその撮像面が背景面12
0と平行になる画像と同一な画像(正規化画像)に正規
化変換する(ステップ602A、602B)。このよう
な正規化画像の生成は、両眼立体視法などで用いられる
一般的な正規化(rectification )処理によって行うと
よい。Next, the normalized image generation units 506 and 507
Captures digital images converted by the A / D converters 104 and 105 based on the known optical axis directions in which the camera units A502 and B503 are congested by two camera units whose optical axis directions are parallel to each other. And its imaging surface is the background surface 12
Normalization conversion is performed to the same image (normalized image) as the image parallel to 0 (steps 602A and 602B). The generation of such a normalized image may be performed by a general normalization (rectification) process used in a binocular stereoscopic method or the like.
【0073】以下、図2で説明したのと同様にして、こ
の正規化変換の画像を用いて、被写体抽出画像生成部1
08、109は、差分画像を生成する(ステップ202
A、202B)。そして、この差分画像に基づいて、2
値化を行い、被写体抽出画像305、306(図3)を
生成する(ステップ203A、203B)。次に、差分
画像生成部110は、被写体抽出画像305、306に
基づいて、差分画像307(図3)を生成する(ステッ
プ204)。Thereafter, in the same manner as described with reference to FIG.
08 and 109 generate difference images (step 202).
A, 202B). Then, based on the difference image, 2
The binarization is performed to generate subject extraction images 305 and 306 (FIG. 3) (steps 203A and 203B). Next, the difference image generation unit 110 generates a difference image 307 (FIG. 3) based on the subject extraction images 305 and 306 (Step 204).
【0074】続いて、オクルージョン検出部111は、
何れか一方の被写体抽出画像(図3では被写体抽出画像
305)と差分画像307に基づいてオクルージョン画
像308(図3)を生成する(ステップ205)。次
に、距離計測部112は、オクルージョン画像308に
基づいて、被写体310(図3)の座標値を求める(ス
テップ206)。Subsequently, the occlusion detecting section 111
An occlusion image 308 (FIG. 3) is generated based on one of the subject extracted images (the subject extracted image 305 in FIG. 3) and the difference image 307 (step 205). Next, the distance measurement unit 112 obtains the coordinate value of the subject 310 (FIG. 3) based on the occlusion image 308 (Step 206).
【0075】続いて、入力処理部113では、被写体3
10の座標値に基づいて、所定の閾値などにより鍵盤押
下の判定を行う(ステップ207)。入力処理部113
は、鍵盤押下と判定した場合には、被写体(指先)31
0に対応する鍵盤の座標値を制御信号として、画像処理
装置114に送出する(ステップ208)。一方、鍵盤
押下と判定しなかった場合には、そのまま処理を続行す
る(ステップ209)。Subsequently, in the input processing section 113, the object 3
Based on the coordinate values of 10, the keyboard is determined to be pressed by a predetermined threshold or the like (step 207). Input processing unit 113
Indicates that the subject (fingertip) 31
The coordinate value of the keyboard corresponding to 0 is sent to the image processing device 114 as a control signal (step 208). On the other hand, if it is not determined that the key is pressed, the process is continued (step 209).
【0076】以下、画像の計測処理が終了するまで(上
述で説明した場合には、例えば、ピアノの演奏が終わる
まで)、上述のステップ601A及び601B〜209
までの処理を繰り返す(ステップ210)。Hereinafter, steps 601A and 601B to 209B until the image measurement processing ends (in the case described above, for example, until the piano performance ends).
The processing up to is repeated (step 210).
【0077】画像処理装置114の制御部115は、入
力処理部113からの座標値(信号)に基づいて、RO
M119やRAM118などに記憶されているプログラ
ムやデータを処理する。制御部115は、その処理結果
に基づいて、表示制御部116を制御して表示部117
に画像を表示したり、音声出力部(図示せず)から音声
を出力する。The control unit 115 of the image processing device 114 determines the RO based on the coordinate value (signal) from the input processing unit 113.
It processes programs and data stored in M119, RAM 118, and the like. The control unit 115 controls the display control unit 116 based on the processing result, and
And an audio output unit (not shown) outputs an audio.
【0078】以上のように、本発明の入力画像処理装置
及び入力画像処理方法によれば、画像の入力に必要とな
る背景面が広い場合にも、オペレータのアクションを示
す画像を処理することができる。As described above, according to the input image processing apparatus and the input image processing method of the present invention, it is possible to process an image showing the action of the operator even when the background required for inputting the image is wide. it can.
【0079】<実施の形態3>次に、本発明の他の実施
の形態について説明する。本実施の形態の特徴は、複数
のオクルージョン領域を検出することによって、計測精
度をより向上させたことにある。ここで、本実施の形態
における入力画像処理装置は、図1で示した入力画像処
理装置100と同一の構成である。次に、本実施の形態
における入力画像処理装置の動作について説明する。<Embodiment 3> Next, another embodiment of the present invention will be described. A feature of the present embodiment is that measurement accuracy is further improved by detecting a plurality of occlusion regions. Here, the input image processing device according to the present embodiment has the same configuration as input image processing device 100 shown in FIG. Next, the operation of the input image processing device according to the present embodiment will be described.
【0080】図7は、入力画像処理装置100での画像
処理を示すフローチャートである。なお、図7におい
て、上述した図2と同様の処理をするステップには、同
一のステップ番号を付している。ここで、背景面120
の背景(ピアノ鍵盤の絵)のみを予めカメラ部A102
及びカメラ部B103で撮影しておき、A/D変換部1
04及び105でディジタル変換処理を行って、背景画
像として背景画像蓄積部106及び107に蓄積してお
く。FIG. 7 is a flowchart showing image processing in the input image processing apparatus 100. Note that, in FIG. 7, the same steps as those in FIG. 2 described above are denoted by the same step numbers. Here, the background surface 120
Only the background (picture of the piano keyboard) of the camera unit A102
And A / D converter 1
In steps 04 and 105, digital conversion processing is performed, and the digital images are stored in the background image storage units 106 and 107 as background images.
【0081】図7において、図2と同様にして、まず、
オペレータは、ピアノの鍵盤を描いた絵の背景面120
上で演奏動作を行う。この時、カメラ部A102及びカ
メラ部B103は、同期信号発生部101から発生する
同期信号に同期して、画角内の手指の画像をアナログ信
号として取り込む(ステップ201A、201B)。こ
のアナログ信号は、A/D変換部104、105でディ
ジタル信号(ディジタル画像)に変換される。In FIG. 7, similar to FIG. 2, first,
The operator operates the background 120 of the picture of the piano keyboard.
Perform the performance operation above. At this time, the camera unit A102 and the camera unit B103 capture an image of the finger within the angle of view as an analog signal in synchronization with the synchronization signal generated from the synchronization signal generation unit 101 (steps 201A and 201B). The analog signals are converted into digital signals (digital images) by A / D converters 104 and 105.
【0082】図8は、差分画像の生成を示す概念図であ
る。図1及び図8において、まず、被写体抽出画像生成
部108、109は、背景画像蓄積部106、107に
蓄積されている背景(テクスチャ)309のみの画像3
01、303と背景309に被写体( 手指) 310が入
った画像302、304(A/D変換部104、105
で変換されたディジタル画像)のそれぞれでの差分を計
算して差分画像を生成する(ステップ202A、202
B)。FIG. 8 is a conceptual diagram showing generation of a difference image. 1 and 8, first, the subject extraction image generation units 108 and 109 generate an image 3 of only the background (texture) 309 stored in the background image storage units 106 and 107.
01 and 303 and images (302) and 304 (304) containing a subject (fingers) 310 in a background 309 (A / D converters 104 and 105).
The difference is calculated by calculating the difference between each of the digital images converted in (Step 202A, 202).
B).
【0083】そして、この差分画像に基づいて、被写体
310の存在する部分は「1」で、背景309のみの部
分は「0」で2値化を行い、被写体抽出画像305、3
06を生成する(ステップ203A、203B)。図8
の被写体抽出画像305、306においては、被写体3
10の存在する部分「1」を、黒く塗りつぶしている。Then, based on the difference image, the portion where the subject 310 exists is “1”, and the portion of only the background 309 is “0”, and the binarization is performed.
06 is generated (steps 203A and 203B). FIG.
In the subject extraction images 305 and 306 of
The portion “1” where 10 is present is blacked out.
【0084】次に、差分画像生成部110は、被写体抽
出画像305、306の各対応する画素毎の排他的論理
和(EXOR:Exclusive-OR)を取って差分画像307
を生成する(ステップ204)。ここで、差分を取る際
の被写体抽出画像305と被写体抽出画像306の位置
関係(画素の対応関係)は、背景画像301、303に
撮影されている背景面120のテクスチャ(ピアノ鍵盤
の絵)309がずれることなく重なる位置に設定され
る。図8の差分画像307においては、被写体抽出画像
305、306で被写体310の重なった部分が「0」
(白抜き)となっている。Next, the difference image generation unit 110 calculates the exclusive OR (EXOR: Exclusive-OR) for each corresponding pixel of the subject extraction images 305 and 306, and obtains the difference image 307.
Is generated (step 204). Here, the positional relationship (correspondence relationship between pixels) between the subject extraction image 305 and the subject extraction image 306 when taking the difference is the texture (picture of the piano keyboard) 309 of the background surface 120 captured in the background images 301 and 303. Are set at overlapping positions without displacement. In the difference image 307 of FIG. 8, the overlapped portion of the subject 310 in the subject extracted images 305 and 306 is “0”.
(Open).
【0085】続いて、オクルージョン検出部111は、
被写体抽出画像305と差分画像307の各対応する画
素毎の論理積(AND)を取ってオクルージョン画像8
08を生成する(ステップ705A)。ここで、論理積
を取る際の被写体抽出画像305と差分画像307の位
置関係(画素の対応関係)は、上述の差分画像生成部1
10で設定された位置関係と同一に設定される。同様に
して、オクルージョン検出部111は、被写体抽出画像
306と差分画像307の各対応する画素毎の論理積
(AND)を取ってオクルージョン画像809を生成す
る(ステップ705B)。Subsequently, the occlusion detecting section 111
The logical product (AND) of each corresponding pixel of the subject extraction image 305 and the difference image 307 is calculated to obtain the occlusion image 8
08 is generated (step 705A). Here, the positional relationship (correspondence relationship between pixels) between the subject extraction image 305 and the difference image 307 at the time of calculating the logical product is the same as the difference image generation unit 1 described above.
The position is set to be the same as the positional relationship set at 10. Similarly, the occlusion detecting unit 111 generates an occlusion image 809 by taking the logical product (AND) of each corresponding pixel of the subject extraction image 306 and the difference image 307 (step 705B).
【0086】次に、距離計測部112は、図2で説明し
たのと同様にして、オクルージョン画像308及び30
9のオクルージョン領域311A及び311Bに基づい
て、被写体310の座標値Zh を求める(ステップ20
6)。この座標値Zh は、それぞれのオクルージョン領
域311A及び311Bに基づいて算出された座標値Z
hA及びZhBの平均値にするとよい。Next, the distance measuring section 112 executes the occlusion images 308 and 30 in the same manner as described with reference to FIG.
Based on the occlusion areas 311A and 311B, the coordinate value Zh of the subject 310 is obtained (step 20).
6). The coordinate value Zh is the coordinate value Z calculated based on the respective occlusion areas 311A and 311B.
The average value of hA and ZhB may be used.
【0087】続いて、入力処理部113では、被写体3
10の座標値Zh に基づいて、所定の閾値などにより鍵
盤押下の判定を行う(ステップ207)。入力処理部1
13は、鍵盤押下と判定した場合には、被写体(指先)
310に対応する鍵盤の座標値を制御信号として、画像
処理装置114に送出する(ステップ208)。一方、
鍵盤押下と判定しなかった場合には、そのまま処理を続
行する(ステップ209)。Subsequently, in the input processing unit 113, the subject 3
Based on the ten coordinate values Zh, the keyboard press is determined by a predetermined threshold or the like (step 207). Input processing unit 1
13 indicates a subject (fingertip) when it is determined that a key is pressed.
The coordinate value of the keyboard corresponding to 310 is sent to the image processing device 114 as a control signal (step 208). on the other hand,
If it is not determined that the key is pressed, the processing is continued (step 209).
【0088】以下、画像の計測処理が終了するまで(上
述で説明した場合には、例えば、ピアノの演奏が終わる
まで)、上述のステップ201A及び201B〜209
までの処理を繰り返す(ステップ210)。Hereinafter, steps 201A and 201B to 209 are performed until the image measurement processing is completed (in the case described above, for example, until the performance of the piano is completed).
The processing up to is repeated (step 210).
【0089】画像処理装置114の制御部115は、入
力処理部113からの座標値(信号)に基づいて、RO
M119やRAM118などに記憶されているプログラ
ムやデータを処理する。制御部115は、その処理結果
に基づいて、表示制御部116を制御して表示部117
に画像を表示したり、音声出力部(図示せず)から音声
を出力する。The control unit 115 of the image processing device 114 determines the RO based on the coordinate value (signal) from the input processing unit 113.
It processes programs and data stored in M119, RAM 118, and the like. The control unit 115 controls the display control unit 116 based on the processing result, and
And an audio output unit (not shown) outputs an audio.
【0090】以上のように、本発明の実施の形態によれ
ば、2つのオクルージョン画像808、809を生成
し、これらから被写体310の座標値Zh の平均値を求
めるため、距離計測の精度を向上させることができる。As described above, according to the embodiment of the present invention, since two occlusion images 808 and 809 are generated and the average value of the coordinate values Zh of the subject 310 is obtained from them, the accuracy of distance measurement is improved. Can be done.
【0091】<実施の形態4>次に、本発明の他の実施
の形態について説明する。本発明の入力画像処理におい
ては、背景面120(図4)から被写体310(図4)
までの距離Zh を求める際に、被写体の厚みを考慮する
ことによって、画像動作の判定(押下判定)の精度を上
げることができる。そこで、本実施の形態の特徴は、入
力処理部113において被写体310の形状をモデル化
し、そのモデルに基づいて画像の動作判定を行う。これ
によって、判定精度をより向上させたことにある。<Embodiment 4> Next, another embodiment of the present invention will be described. In the input image processing of the present invention, the subject 310 (FIG. 4) is shifted from the background plane 120 (FIG. 4).
When determining the distance Zh to the distance, the thickness of the subject is taken into consideration, so that the accuracy of the image operation determination (press determination) can be improved. Therefore, the feature of the present embodiment is that the shape of the subject 310 is modeled in the input processing unit 113, and the operation of the image is determined based on the model. As a result, the determination accuracy is further improved.
【0092】ここで、本実施の形態における入力画像処
理装置は、図1で示した入力画像処理装置100と同一
の構成である。次に、本実施の形態における入力画像処
理装置の動作について説明する。Here, the input image processing apparatus according to the present embodiment has the same configuration as the input image processing apparatus 100 shown in FIG. Next, the operation of the input image processing device according to the present embodiment will be described.
【0093】図9は、入力画像処理装置100での画像
処理を示すフローチャートである。なお、図9におい
て、上述した図2と同様の処理をするステップには、同
一のステップ番号を付している。ここで、背景面120
の背景(ピアノ鍵盤の絵)のみを予めカメラ部A102
及びカメラ部B103で撮影しておき、A/D変換部1
04及び105でディジタル変換処理を行って、背景画
像として背景画像蓄積部106及び107に蓄積してお
く。FIG. 9 is a flowchart showing image processing in the input image processing apparatus 100. In FIG. 9, the steps that perform the same processing as in FIG. 2 described above are given the same step numbers. Here, the background surface 120
Only the background (picture of the piano keyboard) of the camera unit A102
And A / D converter 1
In steps 04 and 105, digital conversion processing is performed, and the digital images are stored in the background image storage units 106 and 107 as background images.
【0094】図9において、図2と同様にして、まず、
オペレータは、ピアノの鍵盤を描いた絵の背景面120
上で演奏動作を行う。この時、カメラ部A102及びカ
メラ部B103は、同期信号発生部101から発生する
同期信号に同期して、画角内の手指の画像をアナログ信
号として取り込む(ステップ201A、201B)。こ
のアナログ信号は、A/D変換部104、105でディ
ジタル信号(ディジタル画像)に変換される。In FIG. 9, similar to FIG. 2, first,
The operator operates the background 120 of the picture of the piano keyboard.
Perform the performance operation above. At this time, the camera unit A102 and the camera unit B103 capture an image of the finger within the angle of view as an analog signal in synchronization with the synchronization signal generated from the synchronization signal generation unit 101 (steps 201A and 201B). The analog signals are converted into digital signals (digital images) by A / D converters 104 and 105.
【0095】次に、被写体抽出画像生成部108、10
9は、背景画像蓄積部106、107に蓄積されている
背景(テクスチャ)309(図3)のみの画像301、
303(図3)と背景309に被写体( 手指) 310
(図3)が入った画像302、304(A/D変換部1
04、105で変換されたディジタルディジタル画像)
のそれぞれでの差分を計算して差分画像を生成する(ス
テップ202A,202B)。そして、この差分画像に
基づいて、被写体310の存在する部分は「1」で、背
景309のみの部分は「0」で2値化を行い、被写体抽
出画像305、306(図3)を生成する(ステップ2
03A、203B)。Next, the subject extraction image generators 108, 10
9 is an image 301 of only the background (texture) 309 (FIG. 3) stored in the background image storage units 106 and 107;
303 (FIG. 3) and a subject (finger) 310 in the background 309
Images 302 and 304 (A / D conversion unit 1) containing (FIG. 3)
Digital digital image converted in 04, 105)
Are calculated to generate difference images (steps 202A and 202B). Then, based on the difference image, the portion where the subject 310 exists is “1”, and the portion of only the background 309 is “0”, and the binarization is performed to generate subject extraction images 305 and 306 (FIG. 3). (Step 2
03A, 203B).
【0096】次に、差分画像生成部110は、被写体抽
出画像305、306の各対応する画素毎の排他的論理
和(EXOR:Exclusive-OR)を取って差分画像307
(図3)を生成する(ステップ204)。続いて、オク
ルージョン検出部111は、何れか一方の被写体抽出画
像(図3では被写体抽出画像305)と差分画像307
に基づいてオクルージョン画像308(図3)を生成す
る(ステップ205)。Next, the difference image generation unit 110 calculates an exclusive OR (EXOR: Exclusive-OR) for each corresponding pixel of the subject extraction images 305 and 306, and obtains a difference image 307.
(FIG. 3) is generated (step 204). Subsequently, the occlusion detection unit 111 compares one of the subject extracted images (the subject extracted image 305 in FIG. 3) with the difference image 307.
Then, an occlusion image 308 (FIG. 3) is generated based on (step 205).
【0097】次に、距離計測部112は、オクルージョ
ン画像308に基づいて、被写体310(図3)の座標
値Zh を求める。Next, based on the occlusion image 308, the distance measuring section 112 calculates the coordinate value Zh of the subject 310 (FIG. 3).
【0098】図8は、被写体(指先)310に厚みがあ
る場合の例を示す。このように、被写体310に厚みが
ある場合、背景面に押下動作を行っても座標値Zh は0
にはならない。そこで、入力処理部113では、予め被
写体310の厚みをモデル化し、その厚みに応じた補正
値(図8におけるZ0 )を記憶しておく。そして、入力
処理部113は、距離計測部112の出力結果である座
標値Zh から、この記憶してある補正値Z0 を減算する
ことで、実際の座標値Zh ’(Zh ’=Zh −Z0 )を
求める(ステップ906)。これによって、被写体31
0の厚み分の補正が行われる。なお、被写体310の座
標値の補正は、距離計測部112で行ってもよい。FIG. 8 shows an example in which the subject (fingertip) 310 has a thickness. As described above, when the subject 310 has a thickness, the coordinate value Zh is 0 even when the pressing operation is performed on the background surface.
It does not become. Therefore, the input processing unit 113 models the thickness of the subject 310 in advance and stores a correction value (Z0 in FIG. 8) corresponding to the thickness. Then, the input processing unit 113 subtracts the stored correction value Z0 from the coordinate value Zh, which is the output result of the distance measurement unit 112, to obtain the actual coordinate value Zh ′ (Zh ′ = Zh−Z0). (Step 906). Thereby, the subject 31
The correction for the thickness of 0 is performed. Note that the coordinate value of the subject 310 may be corrected by the distance measurement unit 112.
【0099】続いて、入力処理部113では、被写体3
10の座標値Zh ’と所定の閾値に基づいて、鍵盤押下
の判定を行う(ステップ907)。Subsequently, in the input processing unit 113, the subject 3
Based on the 10 coordinate values Zh 'and a predetermined threshold value, it is determined whether the keyboard has been pressed (step 907).
【0100】入力処理部113は、鍵盤押下と判定した
場合には、被写体(指先)310に対応する鍵盤の座標
値を制御信号として、画像処理装置114に送出する
(ステップ208)。一方、鍵盤押下と判定しなかった
場合には、そのまま処理を続行する(ステップ20
9)。If the input processing section 113 determines that the keyboard has been pressed, it sends the coordinate value of the keyboard corresponding to the subject (fingertip) 310 to the image processing device 114 as a control signal (step 208). On the other hand, if it is not determined that the key is pressed, the process is continued (step 20).
9).
【0101】以下、画像の計測処理が終了するまで(上
述で説明した場合には、例えば、ピアノの演奏が終わる
まで)、上述のステップ201A及び201B〜209
までの処理を繰り返す(ステップ210)。Thereafter, steps 201A and 201B to 209 described above are performed until the measurement processing of the image is completed (in the case described above, for example, until the performance of the piano is completed).
The processing up to is repeated (step 210).
【0102】画像処理装置114の制御部115は、入
力処理部113からの座標値(信号)に基づいて、RO
M119やRAM118などに記憶されているプログラ
ムやデータを処理する。制御部115は、その処理結果
に基づいて、表示制御部116を制御して表示部117
に画像を表示したり、音声出力部(図示せず)から音声
を出力する。The control unit 115 of the image processing device 114 determines the RO based on the coordinate value (signal) from the input processing unit 113.
It processes programs and data stored in M119, RAM 118, and the like. The control unit 115 controls the display control unit 116 based on the processing result, and
And an audio output unit (not shown) outputs an audio.
【0103】以上のように、本発明の実施の形態によれ
ば、被写体の形状をモデル化して補正するため、画像の
動作判定の精度を向上することができる。As described above, according to the embodiment of the present invention, since the shape of the subject is modeled and corrected, the accuracy of the motion judgment of the image can be improved.
【0104】以上、本発明の入力画像処理装置及び入力
画像処理方法について説明したが、上述した実施の形態
2に、実施の形態3又は実施の形態4を適用することが
できる。さらに、実施の形態2に、実施の形態3及び実
施の形態4の両方を適用することができる。また、実施
の形態3に、実施の形態4を適用することもできる。The input image processing apparatus and the input image processing method of the present invention have been described above. However, the third embodiment or the fourth embodiment can be applied to the second embodiment. Further, both the third embodiment and the fourth embodiment can be applied to the second embodiment. Further, the fourth embodiment can be applied to the third embodiment.
【0105】また、上述の入力画像処理方法をコンピュ
ータ実行可能な入力画像処理プログラムとして記録媒体
に記録しておくこともできる。The above-described input image processing method can be recorded on a recording medium as an input image processing program which can be executed by a computer.
【0106】[0106]
【発明の効果】以上のように、本発明の入力画像処理装
置、入力画像処理方法、及び入力画像処理プログラムを
記録した記録媒体によれば、少ない計算量で3次元画像
の正確な奥行きを計測して撮像画像をリアルタイムに処
理することができ、また、撮像画像の背景面が広い場合
にも対応することができる。As described above, according to the input image processing apparatus, the input image processing method, and the recording medium on which the input image processing program is recorded, the depth of a three-dimensional image can be accurately measured with a small amount of calculation. Thus, the captured image can be processed in real time, and it is possible to cope with a case where the background surface of the captured image is wide.
【0107】また被写体の座標値の平均値を取ることに
よって、計測精度の高い距離計測をすることができる。
さらに、被写体の座標値にモデル化した補正値を適用す
ることによって、画像の動作判定の精度を向上すること
ができる。Further, by taking the average value of the coordinate values of the subject, distance measurement with high measurement accuracy can be performed.
Further, by applying the modeled correction value to the coordinate value of the subject, it is possible to improve the accuracy of the image motion determination.
【図1】本発明の入力画像処理装置の構成を示すブロッ
ク図である。FIG. 1 is a block diagram illustrating a configuration of an input image processing device of the present invention.
【図2】本発明の入力画像処理を示すフローチャートで
ある。FIG. 2 is a flowchart showing input image processing of the present invention.
【図3】差分画像の生成を示す概念図である。FIG. 3 is a conceptual diagram illustrating generation of a difference image.
【図4】被写体の座標値の求め方を示す図である。FIG. 4 is a diagram illustrating a method of obtaining a coordinate value of a subject.
【図5】本発明の入力画像処理装置の構成を示すブロッ
ク図である。FIG. 5 is a block diagram illustrating a configuration of an input image processing device according to the present invention.
【図6】本発明の入力画像処理を示すフローチャートで
ある。FIG. 6 is a flowchart illustrating input image processing according to the present invention.
【図7】本発明の入力画像処理を示すフローチャートで
ある。FIG. 7 is a flowchart showing input image processing of the present invention.
【図8】差分画像の生成を示す概念図である。FIG. 8 is a conceptual diagram illustrating generation of a difference image.
【図9】本発明の入力画像処理を示すフローチャートで
ある。FIG. 9 is a flowchart showing input image processing of the present invention.
【図10】被写体の座標値の求め方を示す図である。FIG. 10 is a diagram illustrating a method of obtaining a coordinate value of a subject.
【図11】従来の入力画像処理装置の構成を示すブロッ
ク図である。FIG. 11 is a block diagram illustrating a configuration of a conventional input image processing device.
【図12】従来の撮影画像の処理を示す図である。FIG. 12 is a diagram showing processing of a conventional captured image.
100、500、1100 入力画像処理装置 101 同期信号発生部 102、502、1102 カメラ部A 103、503、1103 カメラ部B 104、105、1104、1105 A/D変換部 106、107 背景画像蓄積部 108、109 被写体抽出画像生成部 110 差分画像生成部 111 オクルージョン検出部 112、1109 距離計測部 113、1110 入力処理部 114、1111 画像処理装置 115、1112 制御部 116、1113 表示制御部 117、1114 表示部 118、1116 RAM 119、1115 ROM 120 背景面 301、303 背景画像 302、304 ディジタル画像 305、306 被写体抽出画像 307 差分画像 308、808、809 オクルージョン画像 311、311A、311B オクルージョン領域 403 座標系 404、405 カメラ焦点 406、407 撮像面 506、507 正規化画像生成部 1201〜1210 特徴点 1211、1212 撮影画像 1213 指先 1214 鍵盤 1215 エピポーラ線 100, 500, 1100 Input image processing device 101 Synchronous signal generation unit 102, 502, 1102 Camera unit A 103, 503, 1103 Camera unit B 104, 105, 1104, 1105 A / D conversion unit 106, 107 Background image storage unit 108 , 109 subject extraction image generation unit 110 difference image generation unit 111 occlusion detection unit 112, 1109 distance measurement unit 113, 1110 input processing unit 114, 1111 image processing device 115, 1112 control unit 116, 1113 display control unit 117, 1114 display unit 118, 1116 RAM 119, 1115 ROM 120 Background surface 301, 303 Background image 302, 304 Digital image 305, 306 Subject extraction image 307 Difference image 308, 808, 809 Occlusion image 311, 311A 311B Occlusion area 403 Coordinate system 404, 405 Camera focus 406, 407 Image plane 506, 507 Normalized image generator 1201 to 1210 Feature points 1211, 1212 Photographed image 1213 Fingertip 1214 Keyboard 1215 Epipolar line
フロントページの続き (72)発明者 斎藤 潤子 東京都新宿区大久保3丁目4番1号 早稲 田大学内 (72)発明者 竹内 俊一 東京都新宿区西早稲田1丁目21番1号 通 信・放送機構 早稲田リサーチセンター内 (72)発明者 富永 英義 東京都新宿区大久保3丁目4番1号 早稲 田大学内 Fターム(参考) 2F065 AA04 DD03 DD06 FF01 FF05 JJ03 JJ26 QQ03 QQ24 QQ25 QQ42 UU05 5B057 CE09 CH08 DA07 DB03 5C023 AA01 AA06 AA08 AA10 AA34 AA38 BA01 BA02 CA01 DA02 DA03 DA08 Continued on the front page (72) Inventor Junko Saito Waseda University, 3-4-1 Okubo, Shinjuku-ku, Tokyo (72) Inventor Shunichi Takeuchi 1-21-1, Nishiwaseda, Shinjuku-ku, Tokyo Inside the Waseda Research Center (72) Inventor Hideyoshi Tominaga 3-4-1 Okubo, Shinjuku-ku, Tokyo F-term within Waseda University 2F065 AA04 DD03 DD06 FF01 FF05 JJ03 JJ26 QQ03 QQ24 QQ25 QQ42 UU05 5B057 CE09 CH08 DA07 AA01 AA06 AA08 AA10 AA34 AA38 BA01 BA02 CA01 DA02 DA03 DA08
Claims (36)
像を処理する入力画像処理方法において、 背景面の上を移動する被写体を同時に複数の撮影部で撮
影して複数の入力画像を取得し、 それぞれの入力画像から前記被写体のみを抽出して、複
数の被写体抽出画像を生成し、 生成された前記複数の被写体抽出画像から差分画像を生
成し、 前記複数の被写体抽出画像のうちの任意の被写体抽出画
像と前記差分画像からオクルージョン画像を生成し、 前記オクルージョン画像に基づいて前記被写体の前記背
景面に対する位置を計測する、 ことを特徴とする入力画像処理方法。1. An input image processing method for processing an image of a subject moving on a background surface, wherein a plurality of input images are obtained by simultaneously photographing a subject moving on the background surface by a plurality of photographing units. Extracting only the subject from each input image to generate a plurality of subject extracted images; generating a difference image from the generated plurality of subject extracted images; selecting any of the plurality of subject extracted images Generating an occlusion image from the subject extracted image and the difference image, and measuring a position of the subject with respect to the background surface based on the occlusion image.
が既知であり、互いの光軸方向が平行で且つそれぞれの
撮像平面が前記背景面と平行な平面上に設置されている
ことを特徴とする請求項1記載の入力画像処理方法。2. The plurality of photographing units have a known relative positional relationship, and their optical axis directions are parallel to each other, and their respective imaging planes are set on a plane parallel to the background plane. The input image processing method according to claim 1, wherein:
像を処理する入力画像処理方法において、 背景面の上を移動する被写体を同時に複数の撮影部で撮
影して複数の入力画像を取得し、 前記複数の入力画像からそれぞれの正規化画像を生成
し、 前記それぞれの正規化画像から前記被写体のみを抽出し
て、複数の被写体抽出画像を生成し、 生成された前記複数の被写体抽出画像から差分画像を生
成し、 前記複数の被写体抽出画像のうちの任意の被写体抽出画
像と前記差分画像からオクルージョン画像を生成し、 前記オクルージョン画像に基づいて前記被写体の前記背
景面に対する位置を計測する、 ことを特徴とする入力画像処理方法。3. An input image processing method for processing an image of a subject moving on a background surface, wherein the subject moving on the background surface is simultaneously photographed by a plurality of photographing units to obtain a plurality of input images. Generating respective normalized images from the plurality of input images; extracting only the subject from the respective normalized images to generate a plurality of subject extraction images; and generating the plurality of subject extraction images. A difference image is generated from the plurality of subject extraction images, an occlusion image is generated from any of the subject extraction images and the difference image, and a position of the subject with respect to the background surface is measured based on the occlusion image. An input image processing method comprising:
が既知であり、互いの光軸方向が既知で輻輳するように
設置されていることを特徴とする請求項3記載の入力画
像処理方法。4. The input image according to claim 3, wherein the plurality of photographing units are installed so that their relative positional relationship is known, their optical axis directions are known, and they are congested. Processing method.
プは、前記複数の被写体抽出画像のうちの2以上の任意
の被写体抽出画像と前記差分画像から2以上のオクルー
ジョン画像を生成するステップであり、 前記被写体の位置を計測するステップは、前記2以上の
オクルージョン画像毎に前記被写体の前記背景面に対す
る位置を計測し、前記2以上のオクルージョン画像毎に
計測した位置の平均値に基づいて前記被写体の位置を決
定するステップである、 ことを特徴とする請求項1乃至4記載の入力画像処理方
法。5. The method according to claim 1, wherein the step of generating the occlusion image includes the step of generating two or more occlusion images from two or more arbitrary subject extracted images of the plurality of subject extracted images and the difference image. Measuring the position of the subject with respect to the background surface for each of the two or more occlusion images, and determining the position of the subject based on an average value of the positions measured for each of the two or more occlusion images. The input image processing method according to any one of claims 1 to 4, further comprising a step of determining.
計測された位置を所定の補正値によって補正することを
特徴とする請求項1乃至5記載の入力画像処理方法。6. The step of measuring the position of the subject,
6. The input image processing method according to claim 1, wherein the measured position is corrected by a predetermined correction value.
いて、 前記被写体の位置は、前記背景面から前記被写体までの
距離を示す値Zh ’であり、 前記所定の補正値は、前記被写体の前記背景面と垂直す
る方向での幅の値Z0あり、 前記計測した位置の値をZh とした場合、前記被写体ま
での距離を示す値Zhは、 Zh ’=Zh −Z0 によって求める、 ことを特徴とする請求項6記載の入力画像処理方法。7. The step of measuring the position of the subject, wherein the position of the subject is a value Zh ′ indicating a distance from the background surface to the subject, and the predetermined correction value is the value of the background of the subject. When a value of the width in the direction perpendicular to the surface is Z0 and the value of the measured position is Zh, the value Zh indicating the distance to the subject is obtained by Zh ′ = Zh−Z0. The input image processing method according to claim 6.
は、前記背景面の上を移動する被写体を同期を取りなが
ら同時に複数の撮影部で撮影して複数の入力画像を取得
するステップである、ことを特徴とする請求項1乃至7
記載の入力画像処理方法。8. The step of acquiring the plurality of input images is a step of acquiring a plurality of input images by simultaneously photographing a subject moving on the background surface with a plurality of photographing units while synchronizing. 8. The method according to claim 1, wherein
The input image processing method as described.
ップは、前記被写体の写っていない背景画像に基づいて
前記被写体のみを抽出する、ことを特徴とする請求項1
乃至8記載の入力画像処理方法。9. The method according to claim 1, wherein the step of generating the plurality of subject extracted images includes extracting only the subject based on a background image in which the subject is not shown.
9. An input image processing method according to any one of claims 1 to 8.
成された前記複数の被写体抽出画像のそれぞれの対応す
る画素毎の排他的論理和(EXOR:EXclusive-OR)を
取ることによって差分画像を生成するステップである、
ことを特徴とする請求項1乃至9記載の入力画像処理方
法。10. The step of generating a difference image includes generating a difference image by taking an exclusive OR (EXOR: EXOR-OR) for each corresponding pixel of the generated plurality of subject extraction images. Is the step of
10. The input image processing method according to claim 1, wherein:
ップは、前記任意の被写体抽出画像と前記差分画像のそ
れぞれの対応する画素毎の論理積(AND)を取ること
によってオクルージョン画像を生成するステップであ
る、ことを特徴とする請求項1乃至10記載の入力画像
処理方法。11. The step of generating an occlusion image is a step of generating an occlusion image by taking a logical product (AND) of each of the corresponding subject extracted image and the difference image for each corresponding pixel. 11. The input image processing method according to claim 1, wherein:
テップの後に、 計測された前記被写体の位置から前記被写体の動作を認
識する、ステップを有することを特徴とする請求項1乃
至11記載の画像入力方法。12. The image according to claim 1, further comprising, after the step of measuring the position of the subject, recognizing a motion of the subject from the measured position of the subject. input method.
画像を処理する入力画像処理装置において、 背景面の上を移動する被写体を同時に撮影して複数の入
力画像を取得する複数の撮影手段と、 前記撮影手段で取得された前記複数の入力画像から前記
被写体のみを抽出して、複数の被写体抽出画像を生成す
る抽出画像生成手段と、 前記抽出画像生成手段で生成された前記複数の被写体抽
出画像から差分画像を生成する差分画像生成手段と、 前記複数の被写体抽出画像のうちの任意の被写体抽出画
像と前記差分画像からオクルージョン画像を生成するオ
クルージョン画像生成手段と、 前記オクルージョン画像生成手段で生成された前記オク
ルージョン画像に基づいて前記被写体の前記背景面に対
する位置を計測する距離計測手段と、 を備えることを特徴とする入力画像処理装置。13. An input image processing apparatus for processing an image of a subject moving on a background surface, wherein a plurality of photographing means for simultaneously photographing a subject moving on the background surface to obtain a plurality of input images. Extraction image generation means for extracting only the subject from the plurality of input images obtained by the imaging means to generate a plurality of subject extraction images; and the plurality of subjects generated by the extraction image generation means A difference image generating unit configured to generate a difference image from the extracted image; an occlusion image generating unit configured to generate an occlusion image from an arbitrary subject extracted image of the plurality of subject extracted images and the difference image; and the occlusion image generating unit. Distance measuring means for measuring a position of the subject with respect to the background surface based on the generated occlusion image. Input image processing apparatus characterized by.
関係が既知であり、互いの光軸方向が平行で且つそれぞ
れの撮像平面が前記背景面と平行な平面上に設置されて
いることを特徴とする請求項13記載の入力画像処理装
置。14. The plurality of photographing means have a known relative positional relationship, and their optical axis directions are parallel to each other, and their respective imaging planes are set on a plane parallel to the background plane. 14. The input image processing device according to claim 13, wherein:
画像を処理する入力画像処理装置において、 背景面の上を移動する被写体を同時に撮影して複数の入
力画像を取得する複数の撮影手段と、 前記撮影手段で取得された前記複数の入力画像からそれ
ぞれの正規化画像を生成する正規化画像生成手段と、 前記正規化画像生成手段で生成された前記それぞれの正
規化画像から前記被写体のみを抽出して、複数の被写体
抽出画像を生成する抽出画像生成手段と、 前記抽出画像生成手段で生成された前記複数の被写体抽
出画像から差分画像を生成する差分画像生成手段と、 前記複数の被写体抽出画像のうちの任意の被写体抽出画
像と前記差分画像からオクルージョン画像を生成するオ
クルージョン画像生成手段と、 前記オクルージョン画像生成手段で生成された前記オク
ルージョン画像に基づいて前記被写体の前記背景面に対
する位置を計測する距離計測手段と、 を備えることを特徴とする入力画像処理装置。15. An input image processing apparatus for processing an image of a subject moving on a background surface, wherein a plurality of photographing means for simultaneously photographing a subject moving on the background surface to obtain a plurality of input images. A normalized image generating means for generating respective normalized images from the plurality of input images obtained by the photographing means; and only the subject from the respective normalized images generated by the normalized image generating means Extracted image generating means for extracting a plurality of subject extracted images, a difference image generating means for generating a difference image from the plurality of subject extracted images generated by the extracted image generating means, and the plurality of subjects Occlusion image generation means for generating an occlusion image from an arbitrary subject extraction image of the extraction images and the difference image; and the occlusion image generation Input image processing apparatus characterized by comprising: a distance measuring means for measuring a position relative to the background surface of the object on the basis of the occlusion image generated by the stage, a.
関係が既知であり、互いの光軸方向が既知で輻輳するよ
うに設置されていることを特徴とする請求項15記載の
入力画像処理装置。16. The input image according to claim 15, wherein said plurality of photographing means are installed such that their relative positional relationship is known, their optical axis directions are known, and they are congested. Processing equipment.
記複数の被写体抽出画像のうちの2以上の任意の被写体
抽出画像と前記差分画像から2以上のオクルージョン画
像を生成する構成であり、 前記距離計測手段は、前記2以上のオクルージョン画像
毎に前記被写体の前記背景面に対する位置を計測し、前
記2以上のオクルージョン画像毎に計測した位置の平均
値に基づいて前記被写体の位置を決定する構成である、 ことを特徴とする請求項13乃至16記載の入力画像処
理装置。17. The distance measuring means, wherein the occlusion image generating means generates two or more occlusion images from two or more arbitrary subject extracted images of the plurality of subject extracted images and the difference image. Is a configuration in which the position of the subject with respect to the background surface is measured for each of the two or more occlusion images, and the position of the subject is determined based on an average value of the positions measured for each of the two or more occlusion images. 17. The input image processing device according to claim 13, wherein:
定の補正値によって補正することを特徴とする請求項1
3乃至17記載の入力画像処理装置。18. The apparatus according to claim 1, wherein said distance measuring means corrects the measured position by a predetermined correction value.
18. The input image processing device according to any one of items 3 to 17.
が、前記背景面から前記被写体までの距離を示す値Zh
’であり、前記所定の補正値が、前記被写体の前記背
景面と垂直する方向での幅の値Z0 であり、前記計測し
た位置の値をZh とした場合、前記被写体までの距離を
示す値Zh ’を、 Zh ’=Zh −Z0 によって求める、ことを特徴とする請求項18記載の入
力画像処理装置。19. The distance measuring means according to claim 1, wherein said position of said subject is a value Zh indicating a distance from said background surface to said subject.
', The predetermined correction value is a width value Z0 of the subject in a direction perpendicular to the background surface, and a value indicating the distance to the subject when the measured position value is Zh. 19. The input image processing apparatus according to claim 18, wherein Zh 'is obtained by Zh' = Zh-Z0.
を移動する被写体を同期を取りながら同時に撮影して複
数の入力画像を取得する構成である、ことを特徴とする
請求項13乃至19記載の入力画像処理装置。20. The apparatus according to claim 13, wherein said plurality of photographing means are configured to simultaneously photograph a subject moving on said background plane while synchronizing to obtain a plurality of input images. 20. The input image processing device according to 19.
写っていない背景画像に基づいて前記被写体のみを抽出
する、ことを特徴とする請求項13乃至20記載の入力
画像処理装置。21. The input image processing apparatus according to claim 13, wherein said extracted image generating means extracts only said subject based on a background image in which said subject is not shown.
記複数の被写体抽出画像のそれぞれの対応する画素毎の
排他的論理和(EXOR:EXclusive-OR)を取ることに
よって差分画像を生成する、ことを特徴とする請求項1
3乃至21記載の入力画像処理装置。22. The difference image generating means generates a difference image by taking an exclusive OR (EXOR: EXOR-OR) for each corresponding pixel of the plurality of generated subject extracted images. 2. The method according to claim 1, wherein
22. The input image processing device according to any one of Items 3 to 21.
記任意の被写体抽出画像と前記差分画像のそれぞれの対
応する画素毎の論理積(AND)を取ることによってオ
クルージョン画像を生成する、ことを特徴とする請求項
13乃至22記載の入力画像処理装置。23. The occlusion image generating means generates an occlusion image by taking a logical product (AND) of each of the corresponding extracted pixels of the subject and the difference image for each corresponding pixel. The input image processing device according to claim 13.
前記被写体の位置から前記被写体の動作を認識する手段
を有する、ことを特徴とする請求項13乃至23記載の
画像入力装置。24. The image input apparatus according to claim 13, further comprising means for recognizing a motion of said subject from a position of said subject measured by said distance measuring means.
数の撮影部で撮影して複数の入力画像を取得するステッ
プと、 それぞれの入力画像から前記被写体のみを抽出して、複
数の被写体抽出画像を生成するステップと、 生成された前記複数の被写体抽出画像から差分画像を生
成するステップと、前記複数の被写体抽出画像のうちの
任意の被写体抽出画像と前記差分画像からオクルージョ
ン画像を生成するステップと、 前記オクルージョン画像に基づいて前記被写体の前記背
景面に対する位置を計測するステップと、 を有する入力画像処理方法をコンピュータに実行させる
ための入力画像処理プログラムを記録したコンピュータ
読み取り可能な記録媒体。25. A method of simultaneously photographing a subject moving on a background with a plurality of photographing units to obtain a plurality of input images, extracting only the subject from each input image, and extracting a plurality of subjects. Generating an image; generating a difference image from the generated plurality of subject extraction images; and generating an occlusion image from an arbitrary subject extraction image of the plurality of subject extraction images and the difference image. Measuring a position of the subject with respect to the background based on the occlusion image; and a computer-readable recording medium recording an input image processing program for causing a computer to execute an input image processing method.
は、互いの相対位置関係が既知であり、互いの光軸方向
が平行で且つそれぞれの撮像平面が前記背景面と平行な
平面上に設置されている前記複数の撮影部で撮影された
複数の入力画像を取得するステップである、ことを特徴
とする請求項25記載の記録媒体。26. The step of obtaining a plurality of input images, wherein the relative positional relationship between the input images is known, the optical axis directions are parallel to each other, and the respective imaging planes are set on a plane parallel to the background plane 26. The recording medium according to claim 25, further comprising a step of acquiring a plurality of input images photographed by said plurality of photographing units.
数の撮影部で撮影して複数の入力画像を取得するステッ
プと、 前記複数の入力画像からそれぞれの正規化画像を生成す
るステップと、 前記それぞれの正規化画像から前記被写体のみを抽出し
て、複数の被写体抽出画像を生成するステップと、 生成された前記複数の被写体抽出画像から差分画像を生
成するステップと、 前記複数の被写体抽出画像のうちの任意の被写体抽出画
像と前記差分画像からオクルージョン画像を生成するス
テップと、 前記オクルージョン画像に基づいて前記被写体の前記背
景面に対する位置を計測するステップと、 を有する入力画像処理方法をコンピュータに実行させる
ための入力画像処理プログラムを記録したコンピュータ
読み取り可能な記録媒体。27. A step of simultaneously photographing a subject moving on a background with a plurality of photographing units to obtain a plurality of input images; and generating respective normalized images from the plurality of input images. Extracting only the subject from each of the normalized images to generate a plurality of subject extracted images; generating a difference image from the generated plurality of subject extracted images; and the plurality of subject extracted images Generating an occlusion image from an arbitrary subject extracted image and the difference image, and measuring a position of the subject with respect to the background surface based on the occlusion image. A computer-readable recording medium that stores an input image processing program to be executed.
は、互いの相対位置関係が既知であり、互いの光軸方向
が既知で輻輳するように設置されている前記複数の撮影
部で撮影された複数の入力画像を取得するステップであ
る、ことを特徴とする請求項27記載の記録媒体。28. The step of acquiring the plurality of input images, wherein the relative positional relationship between the plurality of input images is known, the directions of the optical axes are known, and the plurality of input images are photographed by the plurality of photographing units installed so as to be congested. 28. The recording medium according to claim 27, further comprising a step of acquiring a plurality of input images.
ップは、前記複数の被写体抽出画像のうちの2以上の任
意の被写体抽出画像と前記差分画像から2以上のオクル
ージョン画像を生成するステップであり、 前記被写体の位置を計測するステップは、前記2以上の
オクルージョン画像毎に前記被写体の前記背景面に対す
る位置を計測し、前記2以上のオクルージョン画像毎に
計測した位置の平均値に基づいて前記被写体の位置を決
定するステップである、 ことを特徴とする請求項25乃至28記載の記録媒体。29. The step of generating the occlusion image is a step of generating two or more occlusion images from two or more arbitrary subject extracted images of the plurality of subject extracted images and the difference image. Measuring the position of the subject with respect to the background surface for each of the two or more occlusion images, and determining the position of the subject based on an average value of the positions measured for each of the two or more occlusion images. 29. The recording medium according to claim 25, which is a step of determining.
は、計測された位置を所定の補正値によって補正するこ
とを特徴とする請求項25乃至29記載の記録媒体。30. The recording medium according to claim 25, wherein the step of measuring the position of the subject corrects the measured position by a predetermined correction value.
おいて、 前記被写体の位置は、前記背景面から前記被写体までの
距離を示す値Zh ’であり、 前記所定の補正値は、前記被写体の前記背景面と垂直す
る方向での幅の値Z0あり、 前記計測した位置の値をZh とした場合、前記被写体ま
での距離を示す値Zhは、 Zh ’=Zh −Z0 によって求める、ことを特徴とする請求項30記載の記
録媒体。31. In the step of measuring the position of the subject, the position of the subject is a value Zh ′ indicating a distance from the background surface to the subject, and the predetermined correction value is the background of the subject. When there is a width value Z0 in a direction perpendicular to the surface, and when the value of the measured position is Zh, the value Zh indicating the distance to the subject is obtained by Zh ′ = Zh−Z0. The recording medium according to claim 30.
は、前記背景面の上を移動する被写体を同期を取りなが
ら同時に複数の撮影部で撮影して複数の入力画像を取得
するステップである、ことを特徴とする請求項25乃至
31記載の記録媒体。32. The step of acquiring a plurality of input images is a step of acquiring a plurality of input images by simultaneously photographing a subject moving on the background surface with a plurality of photographing units while synchronizing. 32. The recording medium according to claim 25, wherein:
テップは、前記被写体の写っていない背景画像に基づい
て前記被写体のみを抽出する、ことを特徴とする請求項
25乃至32記載の記録媒体。33. The recording medium according to claim 25, wherein the step of generating the plurality of subject extracted images extracts only the subject based on a background image not including the subject.
成された前記複数の被写体抽出画像のそれぞれの対応す
る画素毎の排他的論理和(EXOR:EXclusive-OR)を
取ることによって差分画像を生成するステップである、
ことを特徴とする請求項25乃至33記載の記録媒体。34. The step of generating a differential image includes generating a differential image by taking an exclusive OR (EXOR: EXOR-OR) for each corresponding pixel of the generated plurality of subject extraction images. Is the step of
The recording medium according to any one of claims 25 to 33, wherein:
ップは、前記任意の被写体抽出画像と前記差分画像のそ
れぞれの対応する画素毎の論理積(AND)を取ること
によってオクルージョン画像を生成するステップであ
る、ことを特徴とする請求項25乃至34記載の記録媒
体。35. The step of generating an occlusion image is a step of generating an occlusion image by taking a logical product (AND) of each of the corresponding subject extracted image and the difference image for each corresponding pixel. 35. The recording medium according to claim 25, wherein:
テップの後に、計測された前記被写体の位置から前記被
写体の動作を認識する、ステップを有することを特徴と
する請求項25乃至35記載の記録媒体。36. The recording method according to claim 25, further comprising, after the step of measuring the position of the subject, recognizing an operation of the subject from the measured position of the subject. Medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10315348A JP2000125196A (en) | 1998-10-20 | 1998-10-20 | Input image processing method, input image processor, and recording medium recording input image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP10315348A JP2000125196A (en) | 1998-10-20 | 1998-10-20 | Input image processing method, input image processor, and recording medium recording input image processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000125196A true JP2000125196A (en) | 2000-04-28 |
Family
ID=18064340
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10315348A Pending JP2000125196A (en) | 1998-10-20 | 1998-10-20 | Input image processing method, input image processor, and recording medium recording input image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000125196A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275366A (en) * | 2007-04-26 | 2008-11-13 | Tokyo Institute Of Technology | Stereoscopic 3-d measurement system |
JP2010170423A (en) * | 2009-01-23 | 2010-08-05 | Toshiba Corp | Information processor and program |
US9378583B2 (en) | 2010-07-02 | 2016-06-28 | Samsung Electronics Co., Ltd. | Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume |
-
1998
- 1998-10-20 JP JP10315348A patent/JP2000125196A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008275366A (en) * | 2007-04-26 | 2008-11-13 | Tokyo Institute Of Technology | Stereoscopic 3-d measurement system |
JP2010170423A (en) * | 2009-01-23 | 2010-08-05 | Toshiba Corp | Information processor and program |
US9378583B2 (en) | 2010-07-02 | 2016-06-28 | Samsung Electronics Co., Ltd. | Apparatus and method for bidirectionally inpainting occlusion area based on predicted volume |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111879235A (en) | Three-dimensional scanning detection method and system for bent pipe and computer equipment | |
JP4110501B2 (en) | Random pattern generation apparatus and method, distance image generation apparatus and method, and program providing medium | |
JP2001266128A (en) | Method and device for obtaining depth information and recording medium recording depth information obtaining program | |
JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
JPH1079029A (en) | Stereoscopic information detecting method and device therefor | |
JPH0991436A (en) | Image processing method and device therefor | |
JP5336325B2 (en) | Image processing method | |
KR101578891B1 (en) | Apparatus and Method Matching Dimension of One Image Up with Dimension of the Other Image Using Pattern Recognition | |
JP2004069583A (en) | Image processing device | |
JP3862402B2 (en) | 3D model generation apparatus and computer-readable recording medium on which 3D model generation program is recorded | |
JP7230722B2 (en) | Image processing device and image processing method | |
JP2001208522A (en) | Distance image generator, distance image generation method and program supply medium | |
JP2000125196A (en) | Input image processing method, input image processor, and recording medium recording input image processing program | |
JP2003006618A (en) | Method and device for generating three-dimensional model and computer program | |
JP5342977B2 (en) | Image processing method | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
JPH08329110A (en) | Method for processing picture | |
CN113140031B (en) | Three-dimensional image modeling system and method and oral cavity scanning equipment applying same | |
JPH0875454A (en) | Range finding device | |
JP2000331160A (en) | Device and method for matching and recording medium stored with matching program | |
JPH09229648A (en) | Input/output method and device for image information | |
JP2001012944A (en) | Parallax image input apparatus and image pickup apparatus | |
JPH1194527A (en) | Stereo measuring method and device using image processing | |
JP2001319224A (en) | Device and method for detecting three-dimensional object, and recording medium | |
JPH0949714A (en) | Apparatus for extracting three-dimensional shape |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20040513 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20040517 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20040827 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20040827 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20051017 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060301 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081028 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090303 |