JPS60222981A - Object recognizing device - Google Patents

Object recognizing device

Info

Publication number
JPS60222981A
JPS60222981A JP7928584A JP7928584A JPS60222981A JP S60222981 A JPS60222981 A JP S60222981A JP 7928584 A JP7928584 A JP 7928584A JP 7928584 A JP7928584 A JP 7928584A JP S60222981 A JPS60222981 A JP S60222981A
Authority
JP
Japan
Prior art keywords
color
image data
target object
color information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7928584A
Other languages
Japanese (ja)
Inventor
Eisaku Yamada
山田 栄作
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Komatsu Ltd
Original Assignee
Komatsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Komatsu Ltd filed Critical Komatsu Ltd
Priority to JP7928584A priority Critical patent/JPS60222981A/en
Publication of JPS60222981A publication Critical patent/JPS60222981A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To discriminate a target object and its background even in case a luminance difference of both of them is not sufficient, and to recognize exactly the object by providing a color extracting device, a picture emphasizing device and a color information setting device. CONSTITUTION:Picture data of each separate color inputted to memories 7, 8 and 9 through a color signal separator 2, etc. from a color TV camera 1 are outputted to a color extracting device 10. The device 10 converts an input picture data so that it becomes color information which is not generated by the brightness, and outputs it to a picture emphasizing device 11. The device 11 forms a picture data related to whether both color information is similar or not from the color information inputted from the device 10 and the color information inputted from a color information setting device 12. This picture data becomes a larger value by the extent that the input picture is different from a color of a pattern picture set in advance to the setting device 12, and becomes smaller value as it becomes approximate. In this way, a difference of the pattern picture and its background is emphasized, and even in case when a luminance difference of a target object and its background is not sufficient, both of them can be discriminated, and the object can be recognized exactly.

Description

【発明の詳細な説明】 本発明はテレビカメラ等の撮像装置を用いて目標物体の
位置等を認識するようにした物体認識装置に関する。
DETAILED DESCRIPTION OF THE INVENTION The present invention relates to an object recognition device that recognizes the position of a target object using an imaging device such as a television camera.

従来、白黒のチンピカメラ音用いて、目標物体を含んだ
一画面分の画像データr得、この画像データから目標物
体の画面上の位置を検出する際に、前記目標9勿体の画
像データを参照データとし、前記一画面分の画像データ
より前記参照データと同領域の画像データを順次抽出し
該抽出した画像データと前記参照データとの相関をめる
ことにより、参照データと類似した画像データの領域、
すなわち目標物体の画面上の位〔4を検出するようにし
た物体認識装置がある(特開昭57−57096号、特
開昭58−39180号)。
Conventionally, a black and white chimp camera sound is used to obtain one screen worth of image data including a target object, and when detecting the position of the target object on the screen from this image data, the image data of the target 9 is referred to. By sequentially extracting image data in the same area as the reference data from the image data for one screen and determining the correlation between the extracted image data and the reference data, image data similar to the reference data is extracted. region,
That is, there is an object recognition device which detects the position [4] of a target object on the screen (Japanese Patent Laid-Open Nos. 57-57096 and 39180-1988).

しかしながら前記1Iill塚データは、目標物体やそ
の背景の輝度に比例した値となるため、目標物体とその
背景との間に輝度差がない場合、あるいは輝度差が小さ
い場合には、上記相関値に明確なピーク値が現われず、
目標物体と背景との区別がしに〈〈なり、正確な物体認
識を行なうことができなかった。
However, since the 1Ill mound data is a value proportional to the brightness of the target object and its background, if there is no brightness difference between the target object and its background, or if the brightness difference is small, the above correlation value No clear peak value appears,
It was difficult to distinguish between the target object and the background, making it impossible to perform accurate object recognition.

本発明は上記実情に鑑みてなされたもので、目標物体と
その背景との輝度差が十分でない場合でも、両者の区別
をすることができ、正確な物体認識が可能な物体認識装
置を提供することを目的とする。
The present invention has been made in view of the above-mentioned circumstances, and provides an object recognition device that can distinguish between a target object and its background even when the brightness difference between the two is insufficient, and that can perform accurate object recognition. The purpose is to

この発明によれば、目標物体とその背景の色調の違いを
両者を区別するだめの情報とするもので、カラーテレビ
カメラからの映像信号より得られる色彩情報と、予め設
定された目標物体の色彩情報とに基づいて、カラーテレ
ビカメラからの映像信号を、前記目標物体に関して強−
した画像データに変換し、この一画面分の画像データか
ら目標物体の位置を認識するようにしている。
According to this invention, the difference in color tone between the target object and its background is used as information to distinguish between the two, and the color information obtained from the video signal from the color television camera and the color tone of the target object set in advance are used. Based on the information, the video signal from the color television camera is intensified with respect to the target object.
The target object's position is recognized from this one-screen image data.

以下、本発明を添付図面を参照して詳細に説明する。Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

第1図は本発明に係る物体認識装置の一実施例を示すブ
ロック図で、目標物体としては移動体を想定し、その移
動体の追跡を行なう装置に関して示している。
FIG. 1 is a block diagram showing an embodiment of an object recognition device according to the present invention, in which a moving object is assumed as a target object, and a device for tracking the moving object is shown.

第1図において、カラーテレビカメラ1は所定の固定し
た視野で移動体を撮影しく第2図(、)参照)NTSC
規格の映像1g号を色1g号分離器2νよび同期分離回
路3に出力する。色信号分離器2は、入力する映像−1
g号を光の三原色、赤部)、緑←)および青紫(B)の
・16号に分離し、これらの信号をA7D変換器4.5
および6に容態に加える。なお、カラーテレビカメラが
3管式テレビカメラの場合には、前記色信号分離器2は
不要となり、該テレビカメラのR,G、B各端子から出
力される映像信号をそれぞれのA/D i換器4,5、
および6に直接加えるようにする。
In Fig. 1, the color television camera 1 photographs a moving object with a predetermined fixed field of view.
The standard video 1g signal is output to the color 1g signal separator 2ν and the sync separator circuit 3. The color signal separator 2 inputs the input video-1
G is separated into the three primary colors of light, red), green←) and blue-violet (B), and these signals are sent to the A7D converter 4.5.
and 6 in addition to the condition. Note that when the color television camera is a three-tube type television camera, the color signal separator 2 is unnecessary, and the video signals output from the R, G, and B terminals of the television camera are sent to the respective A/D i exchanger 4, 5,
and 6 directly.

同期分離回路3は入力する映像信号から同期信号を分離
し、上記A//D変換器4,5および6はそれぞれ各色
に分離された映像信号を同期信号分離回路3からの同期
信号に同期して1画素づつの画像データに変換し、これ
をそれぞれメモリ7.8、および9に出力する。なお、
上記ん勺変撲器4゜5および6はそれぞれ入力する映像
信号の輝度に応じて、輝度レベルとして例えば16階調
の画像データに変換する。
The synchronization separation circuit 3 separates a synchronization signal from the input video signal, and the A//D converters 4, 5, and 6 synchronize the video signals separated into each color with the synchronization signal from the synchronization signal separation circuit 3. and converts each pixel into image data for each pixel, and outputs this to memories 7, 8 and 9, respectively. In addition,
The above-mentioned transformers 4, 5 and 6 each convert the luminance level into image data of, for example, 16 gradations according to the luminance of the input video signal.

メモリ7.8および9に一時記憶された各色別の画像デ
ータは、色彩抽出装置d10に加えられる。
The image data for each color temporarily stored in memories 7.8 and 9 is applied to color extraction device d10.

色彩抽出値ratioは上記各色別の画像データが、明
るさによらない色彩情報となるように変換するものでめ
る。今、R,G、Bに分解されて入力する画像データを
R(X + y ) r G (x r y ) + 
B (x r y )とすると、色彩抽出装置10は、
これらを次式に示す色彩情報r (X r 3’ ) 
r g (X r Y ) * b (X * 7 )
に変換して画像強調装置11に出力する。
The color extraction value ratio is used to convert the above image data for each color into color information independent of brightness. Now, input image data that has been decomposed into R, G, and B is R(X + y) r G (x ry) +
B (x ry ), the color extraction device 10 is
Color information r (X r 3') which shows these as the following formula
r g (X r Y ) * b (X * 7)
and output to the image enhancement device 11.

なお、上記第(気に限らず、入力する3つの画像データ
を正規化するように変換してもよい。
Note that the conversion is not limited to the above-described method, and the three input image data may be converted to be normalized.

色彩情報設定器12は、移動体の画面の一部である周囲
と色調の異なるパターン画像P(第2図(b)参照)の
上記と同様な情報である色彩情報α。
The color information setting device 12 sets color information α, which is information similar to the above, of a pattern image P (see FIG. 2(b)) that is a part of the screen of the moving object and has a different tone from the surroundings.

β、γが予め設定されており、これらの情報を画像強調
装置11の他の入力に出力している。
β and γ are set in advance, and these pieces of information are output to other inputs of the image enhancement device 11.

画像強調装置11は、色彩抽出装置110から入力する
色彩情報r (x、yLg(x、y)、b(x+y)と
色彩情報設定器12から人力する色彩情報α、β、rと
から両色彩情報の類否に関連する画像データf (x 
+ y )を形成するものである。具体的には、上記画
像デ・・・・・・・・・・・・(2) の(電昇によってめられる。なお、上記第(2)峡式に
代えて、次式、 r(x+y)=lα−r (X + y月刊β−g(x
、yl+1r−b(x、yl ++・++ (3)とし
て演算の前略化を図ることもできる。
The image enhancement device 11 extracts both colors from the color information r (x, yLg(x, y), b(x+y) input from the color extraction device 110 and the color information α, β, r manually input from the color information setting device 12. Image data f (x
+y). Specifically, the above image data is determined by (electronic rise) of (2).In addition, in place of the above (2) equation, the following equation, r(x+y )=lα−r (X + y Monthly β−g(x
, yl+1r−b(x, yl ++·++ (3)).

上記第(2)式または第(32式からも明らかなように
、画像データf (x r y )は、入力画像がパタ
ーン1IijI像Pの色彩と異なる程大きな値となシ、
近似する程小さい値となり、ノ譬ターン画像Pとその背
景との違いが強調される。
As is clear from the above equation (2) or equation (32), the image data f (x ry ) has a larger value as the input image differs from the color of the pattern 1IijI image P.
The closer the approximation is, the smaller the value becomes, and the difference between the parable turn image P and its background is emphasized.

この画像強調装置11から出力されるf(x、y)を示
す1111111データは、色彩によって3つ番′こ分
解された画像データが再び1つの11家データとなるた
め、これ以後は、通常の14度レベルによる画像処理と
同一の処理を行なうことができる。
The 1111111 data indicating f(x, y) output from this image enhancement device 11 is divided into 3 pieces according to the color, and the image data becomes 11 pieces of data again. The same processing as image processing using the 14 degree level can be performed.

以下、移動体の移動とともVC移動するパターン画像P
の移動を追跡する場合について説明する。
Below, a pattern image P in which the VC moves as the moving object moves.
We will explain the case of tracking the movement of.

さて、上記のようにして強調された画像データは、切換
スイッチ13に加えられる。切換スイッチ13は、同期
分離回路3から加えられる1フレーム終了毎の信号によ
シその可動接片13aを接点13bと接点13・cJに
交互に切り換え接続し、入力する強調された画像データ
を第1画像メモリ14および第1画像メモリ14に出力
する。
Now, the image data emphasized as described above is applied to the changeover switch 13. The changeover switch 13 alternately switches and connects the movable contact 13a to the contact 13b and the contact 13.cJ according to the signal applied from the synchronization separation circuit 3 at the end of each frame, and switches the input emphasized image data to the first one. 1 image memory 14 and the first image memory 14.

第1画像メモリ14および第2画像メモリ15はそれぞ
れ一画面分の画像データを記憶するもので、各メモリの
記憶内容は切換スイッチ13が切9換えられる毎に交互
に新しい画面の画像データに更新される。したがって、
第1画像メモリ14と第2画像メモリ15との画像デー
タ間には、1フレ一ム時間を1/30秒とすると、−、
&、E取シ込むための14r定時間Δt(−t/30秒
)の時間差が生じる。
The first image memory 14 and the second image memory 15 each store image data for one screen, and the stored contents of each memory are alternately updated with image data for a new screen every time the selector switch 13 is switched. be done. therefore,
The image data between the first image memory 14 and the second image memory 15 is -, assuming that one frame time is 1/30 second.
&, a time difference of 14r constant time Δt (-t/30 seconds) for loading E occurs.

なお、画像強調装置11からはlフレーム時間ごとに一
画面分の画像データが送出されている。
Note that image data for one screen is sent from the image enhancement device 11 every l frame time.

谷メモリに記憶された一画面分の画像よシ、その画像の
一部であるパターン画像Pを含む画像(部分画像)が抽
出される(第2図(b)および第3図参照)。第1画像
メモリ14および第2画像メモリ15からはそれぞれ抽
出される部分画像の位置は、メモリコントローラ16に
よって制御される。すなわち、メモリコントローラ16
は、移動位置算出回路18からパターン画像の中心位置
座標(x ry)を示す信号を、該パターン画像の移動
位置を示す信号として入力し、この位置信号に基づいて
前記位置(x、y)を中心とする所定画素の部分画像を
抽出するだめの制御信号を第1画像メモリ14および第
2画1象メモリ15に出力する。
From one screen worth of images stored in the valley memory, an image (partial image) including the pattern image P, which is a part of the image, is extracted (see FIGS. 2(b) and 3). The positions of the partial images extracted from the first image memory 14 and the second image memory 15 are controlled by a memory controller 16. That is, the memory controller 16
inputs a signal indicating the center position coordinates (x ry) of the pattern image from the moving position calculation circuit 18 as a signal indicating the moving position of the pattern image, and calculates the position (x, y) based on this position signal. A control signal for extracting a partial image of a predetermined central pixel is output to the first image memory 14 and the second image memory 15.

いま、時刻1oの時点で72タ一ン画像が位置(xo 
+yo )におυ、この時点の画面が第1画像メモリ1
4に記憶され、所定時間経過後の時刻tl(=to+Δ
t)における画面が第2画像メモリ15に記1.はされ
ている場合について説明する。まず、第1画像メモリ1
4に記憶されている画像データからその画面をモニタテ
レビ(図示せず)に映し出し、ライトベン等を用いて・
母ターン画像の位置(IQ + Fo )を指定する。
Now, at time 1o, the 72-tan image is located at the position (xo
+yo ) to υ, the screen at this point is the first image memory 1
4, and the time tl (=to+Δ
The screen at 1.t) is recorded in the second image memory 15. Let's explain the case where it is. First, the first image memory 1
4. Project the screen from the image data stored in 4 on a monitor TV (not shown) and use a light ben etc.
Specify the position (IQ + Fo) of the mother turn image.

この位置(zo。This position (zo.

3’o )を示す信号は、初期値として移動位置算出回
路18に入力され、そのままメモリコントローラ16に
加えられる。
The signal indicating 3'o) is input to the movement position calculation circuit 18 as an initial value and is applied to the memory controller 16 as is.

メモリコントローラ16は、入力する位置(x。The memory controller 16 inputs a position (x.

y)を示す信号に基づいて該移動位置を中心とす ゛る
部分画像を抽出すべく第1画像メモリ6および −第2
画像メモリ7に制御信号を出力する。
y), the first image memory 6 and the -second
A control signal is output to the image memory 7.

第1画像メモリ6および第2画像メモリ7から抽出され
た部分画像のデータは、それぞれ相関演算器20のFF
T装置21および22に加えられ、ここで2次元フーリ
エ変換され、両画像からの結果が対応する周波数成分ご
とに掛算器23で掛算され、この結果がIFFT装置2
4で逆フーリエ変換される。
The data of the partial images extracted from the first image memory 6 and the second image memory 7 are sent to the FFs of the correlation calculator 20, respectively.
T units 21 and 22, where they are subjected to two-dimensional Fourier transform, and the results from both images are multiplied for each corresponding frequency component in a multiplier 23, and this result is applied to the IFFT unit 2.
Inverse Fourier transform is performed in step 4.

逆フーリエ変換されたデータは最大値検出器17に加え
らノ]1、ここで両部分向像データの相互相関が最′犬
となる第1画像メモリ14の部分画像に対する第2画像
メモリ15の部分画像のずれi(ΔX。
The inverse Fourier transformed data is applied to the maximum value detector 17]1, where the data of the second image memory 15 is calculated for the partial image of the first image memory 14 where the cross-correlation of both partial directional image data is the highest. Partial image shift i (ΔX.

Δy)がめらh−1これに対応する信号が移動位置算出
回路18に送出される(第3図参照)。
.DELTA.y)GAMEH-1 A signal corresponding to this is sent to the movement position calculation circuit 18 (see FIG. 3).

移動位置算出回路18は、初期値(XQ l yo)に
前記す、hit(ΔX、Δy)を加算し、この加算値を
示す信号を、Δを時間後の・ぐターン画像の位置(x+
y)を示す信号として出力する。
The movement position calculation circuit 18 adds hit (ΔX, Δy) to the initial value (XQl yo), and outputs a signal indicating this added value to the position (x+) of the turn image after Δ time.
output as a signal indicating y).

この位tf(x、y)k示す信号は、メモリコントロー
ラ16に加えられる。メモリコントローラ16は、前記
と同様にしてその入力信号に基づいて第1画像メモリ1
4および第2画像メモリ15からそれぞれ部分画像を抽
出すべく制御信号を出力する。なお、この場合には、切
換スイッチ13の113T動接片13aは接点13bに
切り換えられており、第1画像メモリ14には新だな画
面の画像データが記憶されている。
A signal indicating this point tf(x,y)k is applied to the memory controller 16. The memory controller 16 controls the first image memory 1 based on the input signal in the same manner as described above.
4 and the second image memory 15, respectively, to output control signals to extract partial images from the second image memory 15. In this case, the 113T movable contact piece 13a of the changeover switch 13 is switched to the contact 13b, and the first image memory 14 stores image data of a new screen.

これらの部分画像から再び両者の相関をと9、相関が最
大となる第2画像メモリ150部分画像に14する第1
画像メモリ14の部分1IiIII&!のずれ1i(Δ
X、Δy)をめ、これを現移動位置(x * y )に
加算して新たな移動位置をめる。
From these partial images, the correlation between the two is calculated again, and the second image memory 150 has the maximum correlation.
Portion 1IiIII&! of image memory 14 deviation 1i (Δ
X, Δy) and add this to the current movement position (x * y) to find a new movement position.

以上の処理を繰り返し・実行することにより移動体を追
跡することができる。
A moving object can be tracked by repeating and executing the above processing.

なお、本実施例では、色調の異同のみによって目標物体
とその背景を区別するようにしているが、更に、輝度レ
ベルの異同も考慮して史に目標物体とその背景との区別
を明瞭にすることができる。
Note that in this embodiment, the target object and its background are distinguished only by the difference in color tone, but the difference in brightness level is also taken into account to clearly distinguish the target object and its background. be able to.

この場合、例えば輝度の高い程高レベルの画像データと
し、輝度の低い程低レベルの画像データとすると、目標
物体としては背景よりも輝度の低いものを選択し、かか
る画像データを画像強調装置から出力される画像データ
に重畳するようにすればよい。
In this case, for example, if the higher the brightness is, the higher the level of image data is, and the lower the brightness is, the image data is of a lower level, an object with lower brightness than the background is selected as the target object, and such image data is sent to the image enhancement device. What is necessary is to superimpose it on the output image data.

また、本発明によって形成される色調の違いを強調する
ようにした画像データは、上記実施例の移動体の追跡方
法に限らず、例えば画像データの急変する点から目標物
体の輪郭を検出し、もって物体認識する方法等、種々の
画像処理において応用することができる。
In addition, the image data formed by the present invention that emphasizes the difference in color tone is not limited to the method of tracking a moving object in the above embodiment, but can also be obtained by detecting the outline of a target object from a point where the image data suddenly changes, for example. This can be applied to various image processing methods such as object recognition methods.

以上説明したように本発明によれば、目標物体とその背
景との輝度差が十分でない場合でも、両者に色彩の差が
あれば、これを強調した画像データを得ることができ、
6易に物体の認識ができる。
As explained above, according to the present invention, even if the luminance difference between the target object and its background is not sufficient, if there is a color difference between the two, image data that emphasizes this can be obtained.
6. Can easily recognize objects.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明に係る物体認識装置の一実施例を示すプ
ロ、り図、渠2図(a)はカラーテレビカメラによって
像影された画面の一例を示す図、第2図(b)は第2図
(a)から取り出される部分画像の拡大図、第3図は本
発明の詳細な説明するために用いた部分画像を示す図で
ある。
Figure 1 is a diagram showing an embodiment of the object recognition device according to the present invention, Figure 2 (a) is a diagram showing an example of a screen imaged by a color television camera, and Figure 2 (b) is a diagram showing an example of a screen imaged by a color television camera. 2 is an enlarged view of a partial image extracted from FIG. 2(a), and FIG. 3 is a diagram showing a partial image used for detailed explanation of the present invention.

Claims (5)

【特許請求の範囲】[Claims] (1) 目標物体を所定の視野でカラー撮影するカラー
テレビカメラと、前記目標物体の色彩情報が設定される
色彩情報設定器と、前記カラーテレビカメラからの映像
・16号より得られる色彩情報と前記設定された色彩情
報とに基づいて前記映像信号を前記目標物体に関して強
調した画像データにするカラーフィルタ装置と、前記カ
ラーフィルタ装置からの一画面分の画像データを用いて
前記目標物体を認識する認識手段とを具えた物体認識装
置。
(1) A color television camera that photographs a target object in color in a predetermined field of view, a color information setting device in which color information of the target object is set, and color information obtained from the image No. 16 from the color television camera. a color filter device that converts the video signal into image data that emphasizes the target object based on the set color information; and recognizing the target object using one screen worth of image data from the color filter device. An object recognition device comprising recognition means.
(2)前記色情設定器に設定される色彩情報は、元の三
原色でめるR、G、Bの各色別のレベルを示す情報であ
る特許請求の範囲第(1)項記載の物体認識装置。
(2) The object recognition device according to claim (1), wherein the color information set in the lust setting device is information indicating the level of each color of R, G, and B in the original three primary colors. .
(3) 前記カラーフィルタ装置は、前記カラーテレビ
カメラからの映像信号を明るさによらない各色彩別の色
彩悄@Vこ変換する色彩抽出装置と、該色彩抽出装置か
ら得られる色彩1*暢と=+1記色彩悄@設定器によっ
て設定された色彩情報とから両色彩情報の類否に関連す
る画像データを形成する画像強11装置とからなる特許
請求の範囲第(1)項記載の物体認識装置。
(3) The color filter device includes a color extraction device that converts the video signal from the color television camera into a color for each color independent of brightness, and a color extraction device that converts the video signal from the color television camera into a color 1 * color obtained from the color extraction device. and an image strength 11 device that forms image data related to the similarity of both color information from the color information set by the color information set by the color information set by the =+1 color information setting device. recognition device.
(4) 前記認識手段は、前記カラーフィルタ装置から
の一1111面分の画像データ若しくは一画面中の所定
領域の画像データと、目標物体の画像データ若しくは目
標物体を含む所定領域の画像データとの相互相関を算出
し、その相関値の最大となる一画面上の位置から目標物
体の位置を認識する特許請求の範囲第(1)項記載の物
体認識装置。
(4) The recognition means is configured to combine the image data of 11111 screens from the color filter device or the image data of a predetermined area in one screen with the image data of the target object or the image data of a predetermined area including the target object. The object recognition device according to claim 1, which calculates the cross-correlation and recognizes the position of the target object from the position on one screen where the correlation value is maximum.
(5)@記認識手段は、前記カラーフィルタ装置からの
一画面分の画像データから、該画像データのレベル変化
より前記目標物体の輪郭を検出し、もって物体を認識す
る特許請求の範囲第(1)項記載の物体認識装置。
(5) The recognition means detects the contour of the target object from a level change in the image data from one screen of image data from the color filter device, and thereby recognizes the object. The object recognition device described in section 1).
JP7928584A 1984-04-19 1984-04-19 Object recognizing device Pending JPS60222981A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7928584A JPS60222981A (en) 1984-04-19 1984-04-19 Object recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7928584A JPS60222981A (en) 1984-04-19 1984-04-19 Object recognizing device

Publications (1)

Publication Number Publication Date
JPS60222981A true JPS60222981A (en) 1985-11-07

Family

ID=13685591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7928584A Pending JPS60222981A (en) 1984-04-19 1984-04-19 Object recognizing device

Country Status (1)

Country Link
JP (1) JPS60222981A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0542091A2 (en) * 1991-11-04 1993-05-19 Hughes Aircraft Company Video image processor and method for detecting vehicles
US5253302A (en) * 1989-02-28 1993-10-12 Robert Massen Method and arrangement for automatic optical classification of plants

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5253302A (en) * 1989-02-28 1993-10-12 Robert Massen Method and arrangement for automatic optical classification of plants
EP0542091A2 (en) * 1991-11-04 1993-05-19 Hughes Aircraft Company Video image processor and method for detecting vehicles
EP0542091A3 (en) * 1991-11-04 1994-01-19 Hughes Aircraft Co
US5535314A (en) * 1991-11-04 1996-07-09 Hughes Aircraft Company Video image processor and method for detecting vehicles

Similar Documents

Publication Publication Date Title
JP2969319B2 (en) Apparatus and method for synchronizing video and audio channels of television signal
US5473369A (en) Object tracking apparatus
US3761607A (en) Video monochrom to color conversion
US20070266312A1 (en) Method for displaying face detection frame, method for displaying character information, and image-taking device
KR960006661A (en) How to convert 2D image to 3D image
JPH0373076A (en) Method and device for detecting change of image
US5940145A (en) Method and apparatus for motion compensated image processing using two separate motion measurement techniques
KR960016419A (en) Video signal tracking system
TW200834466A (en) Image processing method
JPH11150676A (en) Image processor and tracking device
JPS60222981A (en) Object recognizing device
US4933758A (en) Signal processing apparatus with a movement detecting device and an outline enhancement device
US5548342A (en) Luminance/chrominance separating circuit using predetermined separations
JPH11136664A (en) Automatic moving object tracking system
JP3197633B2 (en) Automatic tracking device for moving objects
JPH0962444A (en) Indication information input device
JP2010213105A (en) Imaging apparatus
JPH10336506A (en) Image-processing system, system and method for tracking and storage medium
JP3480591B2 (en) Object tracking device
JPH09214847A (en) Video signal processor
KR100457302B1 (en) Auto tracking and auto zooming method of multi channel by digital image processing
JP2000307931A (en) Method and device for picking up image
JPH0787392A (en) Display controller for slave picture
JP2001333299A (en) Image pickup device
JPH0923369A (en) Image pickup device