JPH0634232B2 - Video input device - Google Patents

Video input device

Info

Publication number
JPH0634232B2
JPH0634232B2 JP1015732A JP1573289A JPH0634232B2 JP H0634232 B2 JPH0634232 B2 JP H0634232B2 JP 1015732 A JP1015732 A JP 1015732A JP 1573289 A JP1573289 A JP 1573289A JP H0634232 B2 JPH0634232 B2 JP H0634232B2
Authority
JP
Japan
Prior art keywords
image
difference
input
photographing
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1015732A
Other languages
Japanese (ja)
Other versions
JPH02195486A (en
Inventor
聡 石橋
健二 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Original Assignee
Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk filed Critical Ei Tei Aaru Tsushin Shisutemu Kenkyusho Kk
Priority to JP1015732A priority Critical patent/JPH0634232B2/en
Publication of JPH02195486A publication Critical patent/JPH02195486A/en
Publication of JPH0634232B2 publication Critical patent/JPH0634232B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は映像入力装置に関し、特に、撮影装置を用い
て物体の映像を入力する場合に、入力された映像から特
定の物体の映像のみを抽出して入力するような映像入力
装置に関する。
Description: TECHNICAL FIELD The present invention relates to a video input device, and in particular, when an image of an object is input using a photographing device, only an image of a specific object is input from the input image. The present invention relates to a video input device for extracting and inputting.

[従来の技術および発明が解決しようとする課題] 従来より、撮影装置によって撮影された入力映像から特
定の物体の像のみを抽出して入力する方式として、クロ
マキー方式がある。このクロマキー方式では、特定色の
スクリーンを用意し、そのスクリーンを背景にして対象
物体を撮影し、入力映像信号からその特定色に相当する
信号を除去することにより、背景映像を消去し、対象物
体の映像を抽出している。しかしながら、クロマキー方
式では、前述のごとく、入力に際して特定色を塗布した
専用のスクリーン設備を用意する必要があり、その上抽
出対象物体が背景スクリーンと同一色の場合には抽出が
困難になるという欠点がある。
[Problems to be Solved by the Related Art and Invention] Conventionally, there is a chroma key method as a method for extracting and inputting only an image of a specific object from an input video imaged by an imaging device. In this chroma key method, a screen of a specific color is prepared, the target object is photographed with the screen as a background, and the background image is erased by removing the signal corresponding to the specific color from the input video signal, thereby removing the target object. The video of is being extracted. However, in the chroma key method, as described above, it is necessary to prepare a dedicated screen facility to which a specific color is applied at the time of input, and further it is difficult to extract when the extraction target object has the same color as the background screen. There is.

一方、別の従来方式として、入力映像の連続する2つの
フレーム間での差異を検出し、差異の生じた部分のみの
映像を抽出する方式がある。この従来方式では、クロマ
キー方式のような特殊な背景を必要としない。しかしな
がら、抽出対象物体が時間経過とともに場所を移動して
いなければ、フレーム間での差異として検出されないば
かりでなく、背景部分に変化が生じた場合には、これも
差異として検出されてしまい、抽出対象と混同して抽出
されてしまうという欠点がある。
On the other hand, as another conventional method, there is a method of detecting a difference between two consecutive frames of an input image and extracting an image of only a portion where the difference occurs. This conventional method does not require a special background like the chroma key method. However, if the extraction target object does not move in place over time, not only will it not be detected as a difference between frames, but if a change occurs in the background part, this will also be detected as a difference, It has the drawback of being confused with the target and being extracted.

それゆえに、この発明の主たる目的は、上述の欠点を解
消し得て、入力映像から特定の物体の映像のみを抽出し
て入力できるような映像入力装置を提供することであ
る。
Therefore, a main object of the present invention is to provide a video input device which can solve the above-mentioned drawbacks and can extract and input only a video of a specific object from an input video.

[課題を解決するための手段] この発明は映像入力装置であって、それぞれが一定間隔
を隔てて配置され、同時に物体を撮影する少なくとも第
1および第2の撮影手段と、これらの撮影手段に対応し
て設けられ、第1および第2の撮影手段の位置から見た
物体の背景映像を予め記憶する映像記憶手段と、各撮影
手段のそれぞれに対応して設けられ、対応する撮影手段
によって撮影された物体の映像と、映像記憶手段から読
出された背景映像とを比較し、差異の生じる部分を検出
する差異検出手段と、各差異検出手段によって検出され
た差異の生じた部分の画面内での位置を各撮影手段から
の入力映像ごとの視差の間で比較して検出する視差検出
手段と、検出された位置が予め定めるしきい値内にある
か否かに応じてラベル付けし、各撮影手段から物体まで
の距離を検出する距離検出手段と、検出された各撮影手
段から所定の距離にある物体の映像を抽出する抽出手段
とを備えて構成される。
[Means for Solving the Problems] The present invention is a video input device, which is provided with at least first and second photographing means which are arranged at regular intervals and simultaneously photograph an object, and these photographing means. Image storage means provided corresponding to each of the first and second image pickup means, which stores the background image of the object viewed in advance, and the image pickup means provided corresponding to each of the image pickup means and photographed by the corresponding image pickup means. In the screen of the difference detection means for comparing the image of the captured object with the background image read out from the image storage means and detecting the difference occurrence portion, and the difference occurrence portion detected by each difference detection means Parallax detection means for detecting the position of each of the parallaxes of each input image from each photographing means and detecting, and labeling according to whether or not the detected position is within a predetermined threshold value. Shooting method A distance detection unit that detects the distance from the object to the object, and an extraction unit that extracts an image of the object at a predetermined distance from each of the detected imaging units.

[作用] この発明に係る映像入力装置は、入力の対象となる物体
を含まない映像と、その物体を含む映像とで差異の生じ
る部分を検出し、検出された差異の生じた部分の画面内
での位置を各入力映像ごとの視差の間で比較して検出さ
れた位置が予め定めるしきい値内にあるか否かに応じて
ラベル付けし、撮影位置から物体までの距離を検出し、
撮影位置から特定の距離にある物体の映像のみを抽出す
る。
[Operation] The video input device according to the present invention detects a portion where a difference occurs between an image that does not include an object to be input and an image that includes the object, and the detected portion of the difference within the screen is displayed. Labeled according to whether or not the position detected by comparing the position at the parallax of each input image is within a predetermined threshold, and detecting the distance from the shooting position to the object,
Only the image of the object at a specific distance from the shooting position is extracted.

[発明の実施例] 第1図はこの発明の一実施例の概略ブロック図であり、
第2図はこの発明の一実施例における撮影装置と対象物
体と背景の位置関係を模式的に表わした図である。
Embodiment of the Invention FIG. 1 is a schematic block diagram of an embodiment of the present invention.
FIG. 2 is a diagram schematically showing the positional relationship among the photographing device, the target object, and the background in one embodiment of the present invention.

まず、第1図および第2図を参照して、この発明の一実
施例の構成について説明する。映像の入力は、撮影対象
に対して平行に一定間隔を隔てて配置した2台あるいは
3台以上の撮影装置を用いて行なわれるが、ここでは説
明を簡潔にするために、第2図に示すように、背景1の
前方に入力対象物体2を設定し、これに対向して左右平
行に並べて2台の撮影装置3,4が設けられているもの
とする。右側の撮影装置3によって出力された映像信号
は右側の入力部11に入力され、左側の撮影装置4によ
って出力された映像信号は左側の入力部12に与えられ
る。
First, the configuration of an embodiment of the present invention will be described with reference to FIGS. The image input is performed by using two or three or more image pickup devices arranged in parallel to the object to be photographed at regular intervals, but here, in order to simplify the description, it is shown in FIG. As described above, it is assumed that the input target object 2 is set in front of the background 1 and two image capturing devices 3 and 4 are provided so as to face the background 1 and are arranged in parallel in the left and right directions. The video signal output by the right photographing device 3 is input to the right input unit 11, and the video signal output by the left photographing device 4 is given to the left input unit 12.

なお、ここで、映像信号とは、白黒画像の場合は輝度信
号、カラー画像の場合はR(赤)成分,G(緑)成分,
B(青)成分の輝度信号、あるいはNTSC方式におけ
るY(輝度信号)成分,I,Q(色度信号)成分であ
る。以下の説明においては、便宜上、白黒画像の場合に
ついてのみ述べるが、カラー画像の場合についても、カ
ラー画像の各成分について、白黒画像における動作を、
並列あるいは繰返して適用することにより実現すること
ができるため、この発明の構成上、白黒画像,カラー画
像のいずれでも差支えない。
Here, the video signal is a luminance signal in the case of a monochrome image, and an R (red) component, a G (green) component in the case of a color image,
It is a luminance signal of B (blue) component, or Y (luminance signal) component, I, Q (chromaticity signal) component in the NTSC system. In the following description, for the sake of convenience, only the case of a monochrome image will be described, but also in the case of a color image, the operation in the monochrome image will be described for each component of the color image.
Since it can be realized by applying them in parallel or repeatedly, it does not matter whether the image is a monochrome image or a color image.

入力部11と12は同一の動作を行ない、撮影装置3,
4から出力される映像信号をフレーム単位に行ない、横
H画素,縦V画素(H,Vは正の整数)からなるマトリ
ックス状の画素ごとにディジタル量で与えられる映像信
号に変換して切換スイッチ21,22に出力する。切換
スイッチ21は入力部11の出力信号を背景蓄積部31
または差異検出部41および抽出部71に切換えて出力
するものであり、切換スイッチ22は入力部12の出力
を背景蓄積部32または差異検出部42および抽出部7
2に切換えて出力するためのものである。
The input units 11 and 12 perform the same operation, and the photographing device 3,
The video signal output from the reference numeral 4 is converted into a video signal given in digital quantity for each pixel in a matrix of horizontal H pixels and vertical V pixels (H and V are positive integers), and the changeover switch It outputs to 21 and 22. The changeover switch 21 outputs the output signal of the input unit 11 to the background storage unit 31.
Alternatively, the changeover switch 22 outputs by switching to the difference detection unit 41 and the extraction unit 71, and the changeover switch 22 outputs the output of the input unit 12 to the background accumulation unit 32 or the difference detection unit 42 and the extraction unit 7.
It is for switching to 2 and outputting.

背景蓄積部31,32は第2図に示した背景画像1を予
め記憶しておくものである。差異検出部41,42はそ
れぞれ背景蓄積部31,32から背景映像の1フレーム
を読出し、これと入力部11,12から出力された入力
映像のフレームとを比較してその差異を検出するもので
ある。差異検出部41,42のそれぞれの検出出力は視
差検出部5に与えられる。視差検出部5は差異検出部4
1と42から送られてくる2つの差異マトリックスから
差異領域のフレーム内での位置を比較して視差を検出
し、その検出結果をマスク生成部6に与える。マスク生
成部6は視差検出部5の検出出力に基づいて、マスクす
べき画像データを作成するものである。このマスク生成
部6の出力は抽出部71,72に与えられる。抽出部7
1,72はそれぞれ入力部11,12から与えられる映
像信号のうち、マスク生成部6からの画像データにより
マスクして必要な映像信号を出力するものである。
The background accumulating units 31 and 32 store the background image 1 shown in FIG. 2 in advance. The difference detection units 41 and 42 read out one frame of the background image from the background storage units 31 and 32, respectively, and compare the frame with the frame of the input image output from the input units 11 and 12 to detect the difference. is there. The respective detection outputs of the difference detection units 41 and 42 are given to the parallax detection unit 5. The parallax detection unit 5 is the difference detection unit 4
The positions of the difference regions in the frame are compared with each other from the two difference matrices sent from 1 and 42 to detect the parallax, and the detection result is given to the mask generation unit 6. The mask generation unit 6 creates image data to be masked based on the detection output of the parallax detection unit 5. The output of the mask generation unit 6 is given to the extraction units 71 and 72. Extraction unit 7
Reference numerals 1 and 72 denote the ones of the video signals supplied from the input units 11 and 12, respectively, which are masked with the image data from the mask generation unit 6 and output the necessary video signals.

第3図は差異検出部から出力される差異マトリックスを
示す図であり、第4図は差異領域を説明するための図で
あり、第5図は視差検出部5によって作成される比較結
果リストを示す図であり、第6図はマスク生成部によっ
て切換えられる差異マトリックスの例を示す図である。
FIG. 3 is a diagram showing a difference matrix output from the difference detection unit, FIG. 4 is a diagram for explaining a difference region, and FIG. 5 is a comparison result list created by the parallax detection unit 5. FIG. 6 is a diagram showing an example of a difference matrix switched by the mask generator.

次に、第1図ないし第6図を参照して、この発明の一実
施例のより具体的な動作について説明する。まず、対象
となる物体2の入力に先立って、対象物体2を含まない
背景1の映像を入力する。この際、切換スイッチ21,
22はA端子側に切換えられている。入力部11,12
から出力される映像信号は背景蓄積部31,32に与え
られる。背景蓄積部31,32は映像信号をそれぞれ1
フレーム分蓄積する。この蓄積されたフレームは入力部
11,12から送られてくる最初の1フレームであって
もよく、あるいは数フレーム分を加算平均して生成され
る1フレームであってもよい。
Next, a more specific operation of the embodiment of the present invention will be described with reference to FIGS. First, prior to the input of the target object 2, the image of the background 1 not including the target object 2 is input. At this time, the changeover switch 21,
22 is switched to the A terminal side. Input section 11, 12
The video signal output from is supplied to the background storage units 31 and 32. The background accumulators 31 and 32 store one video signal each.
Accumulate for frames. The accumulated frame may be the first one frame sent from the input units 11 and 12, or one frame generated by averaging several frames.

次に、切換スイッチ21,22をB端子側に倒し、背景
1の前方に対象物体2を設定して映像の入力が行なわれ
る。入力部11,12から出力される映像信号は、1フ
レームを一区切りとして、差異検出部41,42および
抽出部71,72に与えられ、それぞれ一時記憶され
る。差異検出部41,42は背景蓄積部31,32から
背景映像の1フレームを読出し、これと入力映像のフレ
ームとを比較し、その差異を検出する。差異の検出は、
それぞれ横H画素,縦V画素から背景映像のフレームと
入力映像のフレームの間で、同じ位置にある画素の信号
値の一致,不一致を既知の画像処理手法を用いて判定す
ることにより行なわれる。一致,不一致の判定は、たと
えば両者の信号値の差分値が、与えられたしきい値未満
であれば一致、しきい値以上であれば不一致とすること
によって行なわれる。すなわち、一致の場合は差異無
し,不一致の場合は差異有りと判定される。
Next, the changeover switches 21 and 22 are tilted to the B terminal side, the target object 2 is set in front of the background 1, and an image is input. The video signals output from the input units 11 and 12 are given to the difference detection units 41 and 42 and the extraction units 71 and 72 with one frame as a break, and temporarily stored. The difference detection units 41 and 42 read one frame of the background image from the background accumulation units 31 and 32, compare this with the frame of the input image, and detect the difference. The difference detection is
This is performed by determining whether the signal values of the pixels at the same position are the same or different between the horizontal video pixel and the vertical video pixel and the background video frame and the input video frame using a known image processing method. The match / mismatch is determined by, for example, determining that the difference between the signal values of the two is less than a given threshold value, and determining that the difference value is not less than the threshold value. That is, it is determined that there is no difference if they match and if there is a difference if they do not match.

差異検出部41,42は入力映像の1フレーム内のH画
素×V画素すべてについて差異の有無を検出し、差異有
りの場合は値「1」,差異無の場合は「0」を発生して
差異マトリックスを作成し、これを視差検出部5へ出力
する。差異マトリックスは、第4図に示すように、1フ
レームの画素数に対応するH個×V個の0あるいは1の
値を持つ要素からなるマトリックスのことである。
The difference detection units 41 and 42 detect the presence or absence of difference for all H pixels × V pixels in one frame of the input video, and generate a value “1” when there is a difference and “0” when there is no difference. A difference matrix is created and output to the parallax detection unit 5. As shown in FIG. 4, the difference matrix is a matrix composed of H × V elements each having a value of 0 or 1 corresponding to the number of pixels in one frame.

視差検出部5は差異検出部41と42から送られてくる
2つの差異マトリックスから差異領域のフレーム内での
位置を比較する。位置の比較は以下のないしの手順
によって行なわれる。ここで、第4図を例にして説明す
る。
The parallax detection unit 5 compares the positions of the difference regions in the frame from the two difference matrices sent from the difference detection units 41 and 42. The position comparison is performed by the following procedure. Here, description will be made with reference to FIG. 4 as an example.

差異マトリックス内の値「1」を持つ要素で構成され
る閉領域を差異領域として検出し、その領域の大きさ
(領域に含まれる要素の数),中心位置(マトリックス
の左上端の要素を原点とし、行方向をx軸,列方向をy
軸とみなし、x,y座標値で表わす)を求める。中心位
置は領域内に含まれる各要素の質量を1とみなして、そ
の重心位置を算出することにより得られる。たとえば、
第4図における領域101の中心G101の位置は次式
で与えられる。101 =(x101,y101) =(1/N101)Σ101 101 :領域101に含まれる要素P101の位置 N101:領域101に含まれる要素の個数 左側と右側の差異マトリックスで検出された差異領域
の対応づけを行なう。この対応づけは、左右の各差異領
域の間で領域の大きさと中心位置のy座標をそれぞれ比
較し、値が近いものどうしを対応する領域と判定するこ
とによって行なわれる。たとえば、第4図の例において
は、領域101と102,領域201と202が対応関
係にあると判定される。
A closed area composed of elements having a value of "1" in the difference matrix is detected as a difference area, and the size of the area (the number of elements included in the area) and the center position (the element at the upper left corner of the matrix is the origin). Let x be the row direction and y be the column direction
It is regarded as an axis and is represented by x, y coordinate values). The center position is obtained by regarding the mass of each element included in the region as 1, and calculating the position of its center of gravity. For example,
The position of the center G 101 of the area 101 in FIG. 4 is given by the following equation. 101 = (x 101 , y 101 ) = (1 / N 101 ) Σ 101 101 : Position of element P 101 included in area 101 N 101 : Number of elements included in area 101 Detected in left and right difference matrix The different areas are matched. This correspondence is performed by comparing the size of the area and the y-coordinate of the center position between the left and right difference areas, and determining the areas having similar values as the corresponding areas. For example, in the example of FIG. 4, it is determined that the areas 101 and 102 and the areas 201 and 202 have a correspondence relationship.

左右で対応する差異領域ごとにその中心位置のx座標
の差分値を視差量として算出する。第4図に示した例で
は、領域101と102についての視差量dは d=x101−x102 のごとく算出される。
The difference value of the x-coordinate of the center position is calculated as the amount of parallax for each of the difference regions corresponding to the left and right. In the example shown in FIG. 4, the parallax amount d 1 for the regions 101 and 102 is calculated as d 1 = x 101 −x 102 .

視差検出部5は以上の比較結果から第5図に示す比較結
果リストを作成し、差異マトリックスとともにマスク生
成部6に与える。
The parallax detection unit 5 creates the comparison result list shown in FIG. 5 from the above comparison results, and supplies it to the mask generation unit 6 together with the difference matrix.

マスク生成部6は比較結果リストを参照し、各差異領域
の視差量が指定されたしきい値の範囲内にあるか否かを
判定し、範囲内にあるものであれば、その領域に関して
差異マトリックス内の要素の値を「2」に書換える。一
般に、撮影位置から遠くにあるものほど視差量は小さ
く、近くにあるものほど視差量は大きいことが知られて
いる。この判定および書換え動作は、撮影位置から特定
の距離にある物体を抽出する動作に他ならない。マスク
生成部6は第6図に示すような書換えた差異マトリック
スを抽出部71,72に与える。
The mask generation unit 6 refers to the comparison result list and determines whether or not the parallax amount of each difference area is within a specified threshold value range. Rewrite the value of the element in the matrix to "2". It is generally known that the farther from the shooting position, the smaller the parallax amount, and the closer to the photographing position, the larger the parallax amount. This determination and rewriting operation is nothing but the operation of extracting an object at a specific distance from the shooting position. The mask generation unit 6 gives the rewritten difference matrix as shown in FIG. 6 to the extraction units 71 and 72.

抽出部71,72は差異マトリックスの要素の値を参照
し、一時記憶していた入力映像の1フレームをもとに2
種類の映像信号を作成する。その1つは、入力映像のフ
レームにおいて差異マトリックスの要素の値「2」以外
である要素に対応する入力映像の画素、すなわち値が
「0」,「1」である要素に対応する入力映像の画素の
信号値をダミーの信号値に置換えた映像、2つ目は入力
映像のフレームにおいて、差異マトリックスの要素の値
が「1」以外である要素に対応する入力映像の画素、す
なわち値が「0」,「2」である要素に対応する入力映
像信号の画素の信号値をダミーの信号値に置換えた映像
である。前述の1つ目の映像は入力対象物体を抽出し
た、この発明の処理結果であるところの映像として出力
される。
The extraction units 71 and 72 refer to the values of the elements of the difference matrix, and based on the temporarily stored one frame of the input video,
Create a type of video signal. One of them is a pixel of the input image corresponding to an element other than the element value "2" of the difference matrix in the frame of the input image, that is, an input image pixel corresponding to an element having a value "0" or "1". An image in which the signal value of a pixel is replaced with a dummy signal value, the second is a pixel of the input image corresponding to an element in which the value of the element of the difference matrix is other than "1" in the frame of the input image, that is, the value is " It is an image in which the signal values of the pixels of the input image signal corresponding to the elements of "0" and "2" are replaced with dummy signal values. The above-mentioned first video is output as a video which is the processing result of the present invention in which the input target object is extracted.

一方、2つ目の映像は背景蓄積部31,32に与えられ
る。背景蓄積部31,32は送られてくる映像と蓄積し
ている映像を合成し、背景画像を更新する。このように
することにより、対象物体2の映像を入力している最中
に、背景1などの対象物体2以外の部分に変化が生じた
としても、その影響を受けることなく安定した入力動作
を続けることができる。
On the other hand, the second video image is provided to the background storage units 31 and 32. The background accumulating units 31 and 32 combine the sent image and the accumulated image to update the background image. By doing so, even if a portion other than the target object 2 such as the background 1 changes while the image of the target object 2 is being input, a stable input operation can be performed without being affected by the change. I can continue.

以上のようにして、入力画像の1フレームに対する物体
の切り出し、入力動作が完了する。この動作は入力映像
の連続するフレームに対して繰返すことにより、動きの
ある対象物体についても切出し,入力が可能になる。
As described above, the clipping and input operation of the object for one frame of the input image is completed. By repeating this operation for successive frames of the input video, it is possible to cut out and input even a moving target object.

なお、上述の説明では、撮影装置3,4を2台設けた場
合について述べたが、これに限ることなく、撮影装置を
3台以上に増やし、それに接続する入力部,切換スイッ
チ,差異検出部,背景蓄積部および抽出部を追加して構
成することにより、3箇所以上の位置から撮影する映像
を用いて動作させれば、複雑な形状を有する対象物体に
おいて、1つの撮影位置からでは隠れが生じて撮影でき
ない部分も撮影することが可能となり、対象物体の切出
し精度を向上させることができることは明らかである。
In the above description, the case where two image capturing devices 3 and 4 are provided has been described, but the number of image capturing devices is not limited to this, and the number of image capturing devices may be increased to three or more, and an input unit, a changeover switch, and a difference detection unit connected thereto. By configuring by adding the background storage unit and the extraction unit, if the target object having a complicated shape is operated by using images captured from three or more positions, it may not be hidden from one image capturing position. It is obvious that it is possible to capture even a part that has occurred and cannot be captured, and it is possible to improve the cutting accuracy of the target object.

[発明の効果] 以上のように、この発明によれば、入力対象となる物体
を含まない映像とその物体を含む映像とで差異の生じる
部分を検出し、複数の撮影位置から同様に検出した差異
の生じた部分の画面内での位置を入力映像ごとの視差の
間で比較して検出し、検出された位置が予め定めるしき
い値内にあるか否かに応じてラベル付けし、撮影位置か
ら物体までの距離を検出し、撮影位置から特定の距離に
ある物体の映像のみを切り出して入力することにより、
特殊な背景を設定する必要がないばかりでなく、背景の
一部分が変化するような環境においても、撮影位置から
特定の距離にある物体の映像のみを切り出して入力する
ことが可能となる。また、対象物体が静止しているか否
かにもかかわらず入力することができる。
[Effects of the Invention] As described above, according to the present invention, a portion that causes a difference between an image that does not include an object that is an input target and an image that includes the object is detected, and similarly detected from a plurality of shooting positions. The position on the screen where the difference occurs is detected by comparing it with the parallax of each input image, and is labeled according to whether the detected position is within a predetermined threshold value, and the image is taken. By detecting the distance from the position to the object and cutting out and inputting only the image of the object at a specific distance from the shooting position,
It is not only necessary to set a special background, but also in an environment in which a part of the background changes, it is possible to cut out and input only the image of the object at a specific distance from the shooting position. In addition, it can be input regardless of whether the target object is stationary.

【図面の簡単な説明】[Brief description of drawings]

第1図はこの発明の一実施例の概略ブロック図である。
第2図はこの発明の一実施例を動作させる際の撮影位
置,対象物体,背景の位置関係を模式的に表わした図で
ある。第3図は差異検出部で作成される差異マトリック
スの一例を示す図である。第4図は差異領域を説明する
ための図である。第5図視差検出部で作成される比較結
果リストの例を示す図である。第6図はマスク生成部で
書換えられる差異マトリックスの一例を示す図である。 図において、1は背景画像、2は対象物体、3,4は撮
影装置、5は視差検出部、6はマスク生成部、11,1
2は入力部、31,32は背景蓄積部、41,42は差
異検出部、71,72は抽出部を示す。
FIG. 1 is a schematic block diagram of an embodiment of the present invention.
FIG. 2 is a diagram schematically showing the positional relationship among the photographing position, the target object, and the background when operating the embodiment of the present invention. FIG. 3 is a diagram showing an example of a difference matrix created by the difference detection unit. FIG. 4 is a diagram for explaining the different areas. 5 is a diagram showing an example of a comparison result list created by the parallax detection unit. FIG. 6 is a diagram showing an example of a difference matrix rewritten by the mask generator. In the figure, 1 is a background image, 2 is a target object, 3 and 4 are image capturing devices, 5 is a parallax detection unit, 6 is a mask generation unit, and 11, 1
Reference numeral 2 is an input unit, 31 and 32 are background storage units, 41 and 42 are difference detection units, and 71 and 72 are extraction units.

フロントページの続き (56)参考文献 特開 昭62−125478(JP,A) 特開 昭63−76081(JP,A)Continuation of the front page (56) References JP 62-125478 (JP, A) JP 63-76081 (JP, A)

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】それぞれが一定間隔を隔てて配置され、同
時に物体を撮影する少なくとも第1および第2の撮影手
段、 前記少なくとも第1および第2の撮影手段に対応して設
けられ、前記第1および第2の撮影手段の位置から見た
前記物体の背景映像を予め記憶する映像記憶手段、 前記少なくとも第1および第2の撮影手段のそれぞれに
対応して設けられ、対応する撮影手段によって撮影され
た物体の映像と、前記映像記憶手段から読出された背景
映像とを比較し、差異の生じる部分を検出する差異検出
手段、 前記各差異検出手段によって検出された差異の生じた部
分の画面内での位置を、前記各撮影手段からの入力映像
ごとの視差の間で比較して検出する視差検出手段、 前記視差検出手段によって検出された位置が予め定める
しきい値内にあるか否かに応じてラベル付けし、前記各
撮影手段から前記物体までの距離を検出する距離検出手
段、および 前記距離検出手段によって検出された前記各撮影手段か
ら所定の距離にある物体の映像を抽出する抽出手段を備
えた、映像入力装置。
1. At least first and second photographing means for photographing an object at the same time, each of which is arranged at a constant interval, and is provided corresponding to at least the first and second photographing means, and the first And image storing means for storing in advance a background image of the object viewed from the position of the second photographing means, provided corresponding to each of the at least first and second photographing means, and photographed by the corresponding photographing means. Difference image detecting means for comparing the image of the object with the background image read out from the image storing means and detecting a portion where a difference occurs, in the screen of the portion having a difference detected by each of the difference detecting means The position of the parallax detection means for detecting by comparing between the parallax of each input image from each of the photographing means, the position detected by the parallax detection means within a predetermined threshold Labeling according to whether or not there is a distance detecting means for detecting a distance from each of the photographing means to the object, and an image of an object at a predetermined distance from each of the photographing means detected by the distance detecting means An image input device including extraction means for extracting the image.
JP1015732A 1989-01-24 1989-01-24 Video input device Expired - Fee Related JPH0634232B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1015732A JPH0634232B2 (en) 1989-01-24 1989-01-24 Video input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1015732A JPH0634232B2 (en) 1989-01-24 1989-01-24 Video input device

Publications (2)

Publication Number Publication Date
JPH02195486A JPH02195486A (en) 1990-08-02
JPH0634232B2 true JPH0634232B2 (en) 1994-05-02

Family

ID=11896941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1015732A Expired - Fee Related JPH0634232B2 (en) 1989-01-24 1989-01-24 Video input device

Country Status (1)

Country Link
JP (1) JPH0634232B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0766446B2 (en) * 1985-11-27 1995-07-19 株式会社日立製作所 Method of extracting moving object image
JPS6376081A (en) * 1986-09-19 1988-04-06 Fujitsu Ltd Labeling circuit in coupling area

Also Published As

Publication number Publication date
JPH02195486A (en) 1990-08-02

Similar Documents

Publication Publication Date Title
US6661838B2 (en) Image processing apparatus for detecting changes of an image signal and image processing method therefor
KR100219999B1 (en) An image sensing apparatus having camera-shake detection function
US20140168385A1 (en) Video signal processing apparatus and video signal processing method
US7268834B2 (en) Method and apparatus for combining video signals to one comprehensive video signal
JPH0686104A (en) Noise reduction device
CN1574889A (en) Image signal processing apparatus
CN112926385A (en) Video processing method of monitoring equipment and related product
CN110692240A (en) Stereo shooting device
JPS61170876A (en) Video processor and video processing system having at least two thereof
JPH0634232B2 (en) Video input device
JPH04309078A (en) Jiggling detector for video data
US6175381B1 (en) Image processing method and image processing apparatus
JPH0783474B2 (en) Automatic tracking imaging device
JPH0636020A (en) Image pickup monitoring device
JP3075937B2 (en) Motion vector detection circuit and subject tracking camera device using the same
JPH08320935A (en) Method and device for processing moving image
JP2792906B2 (en) Panning detection circuit
JP2562715B2 (en) Camera shake detection circuit
JPH07325906A (en) Detecting and tracking device for moving body
JPS6250971A (en) Pattern discriminating device
JP3676319B2 (en) Color arrival order and time determination device
JPH09252427A (en) Picture replacement system, picture replacement device and picture replacement method
KR100224854B1 (en) Image processing method
JPH05300440A (en) Solid-state image pickup device
JPH0720274B2 (en) Motion vector display method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees