JPH08329248A - Feature quantity detection system for displayed graphic - Google Patents

Feature quantity detection system for displayed graphic

Info

Publication number
JPH08329248A
JPH08329248A JP7135076A JP13507695A JPH08329248A JP H08329248 A JPH08329248 A JP H08329248A JP 7135076 A JP7135076 A JP 7135076A JP 13507695 A JP13507695 A JP 13507695A JP H08329248 A JPH08329248 A JP H08329248A
Authority
JP
Japan
Prior art keywords
target
image information
displayed
detection system
labeling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7135076A
Other languages
Japanese (ja)
Other versions
JP3677816B2 (en
Inventor
Yoshiki Ono
良樹 小野
Koji Minami
浩次 南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP13507695A priority Critical patent/JP3677816B2/en
Publication of JPH08329248A publication Critical patent/JPH08329248A/en
Application granted granted Critical
Publication of JP3677816B2 publication Critical patent/JP3677816B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE: To provide the detection system which suppresses an effect of unnecessary graphics included in a picked-up picture signal in the system which detects the feature quantity of target graphics displayed on a display device. CONSTITUTION: In an operation processing part 5 for feature quantity, a labeling means 52 which compares a prescribed picture element of a picked-up picture signal 104 with a threshold 151 to give a label is provided to distinguish target graphics 102 and unnecessary graphics included in the picked-up picture signal 104, and only target graphics are extracted to detect a feature quantity 105.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、表示手段に表示され
た特徴量を検出しようとする図形(以下、「目標図形」
という)の特徴量を検出するシステムに関するものであ
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a graphic (hereinafter referred to as "target graphic") on which a feature quantity displayed on a display means is to be detected.
The above) relates to a system for detecting feature quantities.

【0002】[0002]

【従来の技術】直視型のCRT方式表示装置や投写型の
表示装置では、画面歪補正、色ズレ補正、フォーカス調
整等、表示装置のスクリーンに表示される映像をもとに
調整されることが多い。この調整を安定して精度良く行
うには、補正量を客観的に取得する手段として、目標図
形の重心位置、輝度値、高周波成分の電力等、補正しよ
うとする項目に関する特徴量を検出するシステムが必要
となる。
2. Description of the Related Art In a direct-view CRT display device or a projection display device, screen distortion correction, color misregistration correction, focus adjustment, and the like can be adjusted based on an image displayed on the screen of the display device. Many. In order to perform this adjustment stably and accurately, as a means for objectively acquiring the correction amount, a system for detecting the feature amount related to the item to be corrected, such as the position of the center of gravity of the target figure, the brightness value, the power of the high frequency component, etc. Is required.

【0003】以下、検出する特徴量が画面歪補正量であ
る検出システムを例に説明する。この検出システムは、
目標図形を表示装置に表示し、表示された目標図形を含
む領域を画像の入力手段として、例えばCCDカメラで
撮影し、この撮影によって得られた画像情報に含まれて
いる目標図形の重心位置を演算で求めることにより、画
面歪補正量を客観的に評価するものである。
An example of a detection system in which the characteristic amount to be detected is a screen distortion correction amount will be described below. This detection system
The target figure is displayed on the display device, the area including the displayed target figure is photographed by, for example, a CCD camera as an image input means, and the barycentric position of the target figure included in the image information obtained by this photographing is determined. The amount of screen distortion correction is objectively evaluated by the calculation.

【0004】図17は従来の画面歪補正量検出システム
の構成を示すブロック図で、1は目標図形の映像信号1
01を発生する映像信号発生装置、2は映像信号101
を表示する表示装置、3は目標図形102を含む領域を
撮影することによってその映像信号103を取得するC
CDカメラ、4は映像信号103を記憶してその画像情
報104が読み出されるフレームメモリ、5はフレーム
メモリ4から読み出された画像情報104から目標図形
の重心情報105を算出する演算処理手段で、画像情報
104から閾値151を算出する閾値演算手段51、お
よび閾値151をもとにして重心情報105を算出する
重心演算手段54で構成されている。6はシステム全体
を制御するシステム制御手段である。
FIG. 17 is a block diagram showing the configuration of a conventional screen distortion correction amount detection system. Reference numeral 1 is a video signal 1 of a target figure.
A video signal generator for generating 01, 2 is a video signal 101
The display device 3 for displaying the image C and the image signal 103 are acquired by capturing an area including the target graphic 102 C
A CD camera, 4 is a frame memory for storing the video signal 103 and the image information 104 thereof is read out, and 5 is an arithmetic processing means for calculating the barycentric information 105 of the target figure from the image information 104 read out from the frame memory 4, It is composed of a threshold value calculation means 51 for calculating the threshold value 151 from the image information 104 and a center of gravity calculation means 54 for calculating the center of gravity information 105 based on the threshold value 151. Reference numeral 6 is a system control means for controlling the entire system.

【0005】次に、動作について説明する。システム制
御手段6の指示で、映像信号発生装置1から目標図形の
映像信号101が出力され、表示装置2に目標図形10
2が表示される。表示された目標図形102はCCDカ
メラ3で撮影され、CCDカメラ3から出力された映像
信号103は、システム制御手段6の指示で一旦フレー
ムメモリ4に記憶され、画像情報104として閾値演算
手段51に読み出され、例えば、画像情報104の輝度
値の最大値zmaxと最小値zminから閾値151が次式に
よって算出される。 δ=(zmax + zmin)/2 ・・・・・(1)
Next, the operation will be described. In accordance with an instruction from the system control means 6, the video signal 101 of the target graphic is output from the video signal generator 1, and the target graphic 10 is displayed on the display device 2.
2 is displayed. The displayed target figure 102 is photographed by the CCD camera 3, and the video signal 103 output from the CCD camera 3 is temporarily stored in the frame memory 4 according to an instruction from the system control means 6 and is stored in the threshold value calculation means 51 as image information 104. The threshold value 151 is read out and, for example, the threshold 151 is calculated from the maximum value zmax and the minimum value zmin of the brightness value of the image information 104 by the following equation. δ = (zmax + zmin) / 2 (1)

【0006】次に、重心演算手段54により、画像情報
104の閾値δ以上の画素を対象として、次式を用いて
目標図形102の重心情報105が算出される。 xg =Σ(xi・zi)/Σzi ・・・・・(2) yg =Σ(yi・zi)/Σzi ・・・・・(3) ここで、xi,yi,ziはそれぞれ、i番目の画素のx
座標,y座標,輝度値を表し、(xg,yg)が重心情報
を意味する。画面歪の補正量を得る場合は、重心情報1
05と、予め求めておいた理想画面における重心情報と
の差分を補正量とする。
Next, the center-of-gravity calculation means 54 calculates the center-of-gravity information 105 of the target graphic 102 by using the following equation for the pixels having a threshold value δ or more in the image information 104. xg = Σ (xi · zi) / Σzi (2) yg = Σ (yi · zi) / Σzi (3) where xi, yi, and zi are the i-th Pixel x
The coordinates, the y coordinate, and the brightness value are represented, and (xg, yg) means the center of gravity information. When obtaining the correction amount of the screen distortion, the center of gravity information 1
The difference between 05 and the center of gravity information on the ideal screen that was obtained in advance is the correction amount.

【0007】[0007]

【発明が解決しようとする課題】上記のような従来の特
徴量検出システムでは、例えば、図18に示すように、
表示装置2に表示された目標図形102をCCDカメラ
で撮影した映像信号103には、目標図形102の外
に、雑音や周囲の物体の映り込みによる図形b,cが含
まれている。このため、目標図形102の輝度情報以外
の閾値δを超える図形bおよびcの輝度情報も重心演算
の対象となり、目標図形102以外の図形bおよびcを
含む重心位置Pを算出してしまうという問題点があっ
た。
In the conventional feature quantity detecting system as described above, for example, as shown in FIG.
In the video signal 103 obtained by photographing the target figure 102 displayed on the display device 2 with the CCD camera, figures b and c due to noise and reflection of surrounding objects are included in addition to the target figure 102. For this reason, the brightness information of the graphics b and c exceeding the threshold value δ other than the brightness information of the target graphic 102 is also the target of the gravity center calculation, and the gravity center position P including the graphics b and c other than the target graphic 102 is calculated. There was a point.

【0008】この発明は上述のような問題点の解消を目
的としてなされたもので、目標図形以外の雑音や周囲の
物体の映り込み等の図形による影響を排除できる表示図
形の特徴量検出システムを得ることを目的とする。
The present invention has been made for the purpose of solving the above-mentioned problems, and provides a feature quantity detection system for a display figure capable of eliminating the influence of the figure other than the target figure such as noise and glare of surrounding objects. The purpose is to get.

【0009】[0009]

【課題を解決するための手段】この発明に係る表示図形
の特徴量検出システムは、画像情報に含まれている図形
にラベル付けを行うラベル付け手段と、このラベル付け
された図形のなかから、目標図形の形状,大きさに最も
近い図形を目標図形として抽出する手段とを備えたもの
である。
A feature detection system for display graphics according to the present invention comprises a labeling means for labeling graphics included in image information, and a labeling graphic, The target figure is provided with means for extracting the figure closest to the shape and size of the target figure as the target figure.

【0010】また、画像情報から図形を抽出する際に、
複数回撮影した画像情報から図形を抽出して複数回とも
存在する図形を目標図形として抽出する手段を備えたも
のである。
Further, when extracting a figure from image information,
It is provided with a means for extracting a figure from image information obtained by photographing a plurality of times and extracting a figure existing a plurality of times as a target figure.

【0011】また、表示手段に目標図形を表示している
ときの画像情報と、目標図形を表示していないときの画
像情報からそれぞれ1回以上、図形を抽出し、目標図形
を表示しているときの画像情報のみに存在する図形を目
標図形として抽出する手段を備えたものである。
In addition, the target graphic is displayed by extracting the graphic once or more from the image information when the target graphic is displayed on the display means and the image information when the target graphic is not displayed. A means for extracting a figure existing only in the image information at that time as a target figure is provided.

【0012】また、ラベル付け手段の前に、画像情報の
各画素に単一方向または複数方向の膨張処理を施す膨張
処理手段を備えたものである。
Further, before the labeling means, there is provided expansion processing means for performing expansion processing in a single direction or a plurality of directions on each pixel of the image information.

【0013】また、ラベル付け手段の中に、画像情報の
各画素に単一方向または複数方向の膨張処理を施す膨張
処理手段を備えたものである。
Further, the labeling means includes expansion processing means for performing expansion processing in each direction of the image information in a single direction or in a plurality of directions.

【0014】[0014]

【作用】この発明における特徴量検出システムは、撮影
した画像情報の各画素にラベル付けを施すことで当該画
像情報に含まれている図形を明瞭にし、これらの図形の
うち形状や大きさが目標図形に最も近いものを目標図形
として抽出する。
The feature amount detection system according to the present invention clarifies the graphics included in the image information by labeling each pixel of the captured image information, and the shape and size of these graphics are targeted. The one closest to the figure is extracted as the target figure.

【0015】また、複数回撮影した画像情報の各画素に
ラベル付けを施すことで当該各画像情報に含まれている
図形を明瞭にし、その図形のうち形状や大きさの変わら
ない図形を目標図形として抽出する。
Further, by labeling each pixel of the image information photographed a plurality of times, the figure included in each image information is clarified, and the figure whose shape and size do not change is the target figure. To extract.

【0016】また、表示手段に目標図形を表示している
ときと表示していないときを、それぞれ1回以上撮影し
た画像情報の各画素にラベル付けを施すことで当該各画
像情報に含まれている図形を明瞭にし、目標図形を表示
しているときだけ存在する図形を目標図形として抽出す
る。
Further, when the target graphic is displayed on the display means and when it is not displayed, each pixel of the image information photographed at least once is labeled so as to be included in each image information. A figure that exists only when the target figure is displayed is extracted as the target figure.

【0017】また、画像情報の各画素に単一方向または
複数方向に膨張処理を施すことにより、空間的または時
間的に分断されている目標図形を1個の図形として認識
する。
Further, by subjecting each pixel of the image information to expansion processing in a single direction or in a plurality of directions, the target figure which is spatially or temporally divided is recognized as one figure.

【0018】また、前記膨張処理手段とラベル付け手段
を一体にすることにより、処理手段の回路規模、または
処理時間を小さくできる。
Also, by integrating the expansion processing means and the labeling means, the circuit scale of the processing means or the processing time can be reduced.

【0019】[0019]

【実施例】【Example】

実施例1.以下、この発明の一実施例を図について説明
する。図1はこの実施例1の構成を示すブロック図で、
図17と同一符号はそれぞれ同一または相当部分を示し
ており、52は閾値151をもとにして画像情報104
の各画素にラベル付けをして図形を明らかにするラベル
付け手段、53は画像情報104に含まれている図形の
なかから目標図形を抽出する図形抽出手段である。
Example 1. An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the first embodiment,
The same reference numerals as in FIG. 17 denote the same or corresponding portions, and 52 is the image information 104 based on the threshold 151.
Labeling means for labeling each pixel to clarify the figure, and 53 is a figure extracting means for extracting a target figure from the figures included in the image information 104.

【0020】次に、動作について説明する。閾値演算手
段51で閾値151を算出するまでの動作は従来例と同
様であるので説明を省略する。ラベル付け手段52で
は、画像情報104の各画素のうち閾値151以上の所
定画素についてラベル付け操作を行う。ここでは、画像
の左上から水平に走査し、順次下へ向かって走査しなが
ら、所定画素として連続した画素を1画素ごとにラベル
付けを行う場合を考える。
Next, the operation will be described. The operation until the threshold value calculation means 51 calculates the threshold value 151 is the same as that of the conventional example, and therefore its explanation is omitted. The labeling unit 52 performs a labeling operation on predetermined pixels having a threshold value of 151 or more among the pixels of the image information 104. Here, a case will be considered in which the pixels are horizontally scanned from the upper left of the image, and the pixels consecutive as the predetermined pixels are labeled for each pixel while sequentially scanning downward.

【0021】図2は走査中に各画素において行われるラ
ベル付けの説明図、図3はそのフローチャートである。
図2において、ウを現在走査中の画素とすると、ウを目
標画素および目標領域、アとイを参照画素として考え
る。図3のフローチャートに沿って説明すると、目標画
素ウの輝度値が閾値151以上であれば、目標画素ウを
ラベル付けの対象と判断し、参照画素であるアとイの画
素に付けられたラベルを見るて目標画素ウにラベルを付
ける。すなわち、参照画素アまたはイのいずれか1画素
にラベルが付いている場合にはそのラベルを目標画素ウ
に付け、参照画素アおよびイのいずれにもラベルが付い
ていない場合には目標画素ウに新しいラベルを付ける。
また、参照画素アとイの両方にラベルが付いており、か
つ、そのラベルが異なる場合には、それらのラベルを同
一のラベルに書き換えることによってラベルの連結を行
う。
FIG. 2 is an explanatory diagram of labeling performed on each pixel during scanning, and FIG. 3 is a flowchart thereof.
In FIG. 2, when C is a pixel currently being scanned, C is considered as a target pixel and a target region, and A and B are considered as reference pixels. Explaining along the flowchart of FIG. 3, if the luminance value of the target pixel C is equal to or larger than the threshold 151, it is determined that the target pixel C is the target of labeling, and the labels attached to the reference pixels A and B are labeled. Look at and label the target pixel. That is, if any one of the reference pixels A and B has a label, the label is attached to the target pixel C, and if neither of the reference pixels A and B has a label, the target pixel C is attached. Give a new label to.
If both the reference pixels A and B have labels and the labels are different, the labels are linked by rewriting them to the same label.

【0022】図4はラベル付けされた画像情報152を
表したもので、前記ラベル付けによって明らかになった
図形A,B,Cと目標図形102を比較することによ
り、表示装置2に表示した目標図形102を撮影した目
標図形Aを、他の図形B,Cと分離することができる。
図形抽出手段53は図形A,B,Cのうち表示装置2に
表示した目標図形102に最も近い大きさおよび形状を
した目標図形Aを抽出する。重心演算手段54は、図形
抽出手段53で抽出された目標図形Aのみを対象とし
て、従来例と同様に重心情報105を算出する。画面歪
の補正量を得たい場合にも、従来例と同様に、重心情報
105と予め求めておいた理想画面における重心情報と
の差分を補正量とする。
FIG. 4 shows the labeled image information 152. By comparing the target graphics 102 with the graphics A, B, and C revealed by the labeling, the targets displayed on the display device 2 are shown. The target figure A obtained by photographing the figure 102 can be separated from the other figures B and C.
The figure extracting means 53 extracts the target figure A having the size and shape closest to the target figure 102 displayed on the display device 2 among the figures A, B, and C. The center-of-gravity calculation unit 54 calculates the center-of-gravity information 105, similarly to the conventional example, only for the target graphic A extracted by the graphic extraction unit 53. Even when it is desired to obtain the correction amount of the screen distortion, the difference between the center of gravity information 105 and the center of gravity information of the ideal screen obtained in advance is used as the correction amount, as in the conventional example.

【0023】実施例2.上記実施例1では、映像情報1
04に含まれている目標図形A以外の、一時的に発生す
る雑音等による図形B,Cにもラベル付けされるので、
目標図形102と大きさや形状を比較する必要がある。
本実施例2は、目標図形102が表示された表示面を複
数回撮影して複数の画像情報を得、各画像情報を比較す
ることにより、移動する図形や一時的に発生した図形を
排除するように構成したものである。
Embodiment 2 FIG. In the first embodiment, the video information 1
Other than the target figure A included in 04, the figures B and C due to temporarily generated noise are also labeled.
It is necessary to compare the size and shape with the target figure 102.
In the second embodiment, the display surface on which the target graphic 102 is displayed is photographed a plurality of times to obtain a plurality of pieces of image information, and the pieces of image information are compared with each other to exclude a moving figure or a temporarily generated figure. It is configured as follows.

【0024】本実施例2の検出システム全体の構成、お
よび、検出システムにおける演算処理手段5の内部構成
は実施例1と同様であるので説明を省略する。
Since the entire structure of the detection system of the second embodiment and the internal structure of the arithmetic processing means 5 in the detection system are the same as those of the first embodiment, the description thereof will be omitted.

【0025】次に、動作について説明する。複数の画像
情報を比較するためには、取得する画像の枚数分だけ記
憶できる記憶手段4を用意する必要があるが、本実施例
2では、フレームメモリ41の記憶容量を削減するため
に、前画面までの図形情報をラベル付け手段52に保持
されるラベル情報として保持することにする。映像情報
104から閾値151を算出するまで、および、図形抽
出手段53以降の動作は実施例1と同様であるので説明
を省略する。
Next, the operation will be described. In order to compare a plurality of image information, it is necessary to prepare the storage means 4 capable of storing the number of images to be acquired. However, in the second embodiment, in order to reduce the storage capacity of the frame memory 41, The graphic information up to the screen is held as the label information held by the labeling means 52. The operation until the threshold 151 is calculated from the video information 104 and the operation after the graphic extraction means 53 are the same as those in the first embodiment, and therefore the description thereof is omitted.

【0026】ラベル付け手段52において、最初の1枚
目の画像情報については、実施例1と同様にラベル付け
を行う。2枚目以降の画像については図5に示すよう
に、現在走査している画素がケの位置であるとすると、
ケを目標画素とし、前画面の同じ位置の画素カがラベル
付けされていて、かつ、目標画素ケの輝度値が閾値15
1以上の場合のみ目標画素ケをラベル付けの対象とす
る。残りの処理は、カ、キ、クを参照画素、ケを目標領
域として、実施例1と同様にラベル付けを行う。この操
作により、図6に示すように、雑音等による一時的に発
生する図形、および移動している物体の映像等、動的要
素を持った図形の画素にはラベル付けが行われず、静止
画のみにラベル付けが行われるので、動的要素を持った
図形を排除できる。
In the labeling means 52, the first first image information is labeled in the same manner as in the first embodiment. For the second and subsequent images, as shown in FIG. 5, assuming that the pixel currently being scanned is at the position
The target pixel is the target pixel, the pixel position at the same position on the previous screen is labeled, and the luminance value of the target pixel is the threshold value 15
Only when the number is 1 or more, the target pixel number is targeted for labeling. In the rest of the processing, labeling is performed in the same manner as in the first embodiment, using K, K, and K as reference pixels and K as the target region. By this operation, as shown in FIG. 6, pixels of a figure having a dynamic element such as a figure temporarily generated by noise or a moving object image is not labeled, and a still image is not displayed. Only the labels will be added, so shapes with dynamic elements can be eliminated.

【0027】実施例3.本実施例3では、表示手段に目
標図形102を表示している場合と表示していない場合
の画像情報104をそれぞれ1回以上取得することによ
り、目標図形Aのみを抽出するようにしたものである。
Embodiment 3 FIG. In the third embodiment, only the target graphic A is extracted by acquiring the image information 104 for each of the case where the target graphic 102 is displayed and the case where the target graphic 102 is not displayed, one or more times. is there.

【0028】本実施例3の検出システム全体の構成、お
よび、検出システムにおける演算処理手段5の内部構成
は実施例1と同様であるので説明を省略する。
Since the entire structure of the detection system of the third embodiment and the internal structure of the arithmetic processing means 5 in the detection system are the same as those of the first embodiment, the description thereof will be omitted.

【0029】次に、動作について説明する。表示手段2
に表示する目標図形102の表示および消去の指示は、
システム制御手段6が映像信号発生装置1に指示を出す
ことにより行われる。それ以外の、閾値151を算出す
るまで、および、図形抽出手段53以降の動作は、実施
例1と同様であるので説明を省略する。
Next, the operation will be described. Display means 2
The instruction to display and delete the target graphic 102 displayed in
This is performed by the system control means 6 issuing an instruction to the video signal generator 1. Other than that, the operation until the threshold 151 is calculated and the operation after the graphic extraction means 53 are the same as those in the first embodiment, and therefore the description thereof is omitted.

【0030】本実施例3では、まず、目標図形102を
表示した表示面を撮影した画像情報104について、ラ
ベル付け手段52において実施例1または実施例2と同
じラベル付けを行う。次に、目標図形102を消去した
表示面を撮影した画像情報104について、先の処理で
ラベルを付した画素と同じ位置の画素が閾値151以上
の場合は先の処理で付したラベルを消去するとともに、
閾値151以上の画素にもラベル付けを行わない処理を
行う。この処理により、図7に示すように目標図形のみ
にラベル付けが行われ、目標図形以外の他の静止図形等
を排除することができる。
In the third embodiment, first, the same labeling as in the first or second embodiment is performed by the labeling means 52 for the image information 104 obtained by photographing the display surface displaying the target graphic 102. Next, in the image information 104 obtained by photographing the display surface from which the target graphic 102 is erased, if the pixel at the same position as the pixel labeled in the previous process has a threshold value of 151 or more, the label attached in the previous process is erased. With
Pixels having a threshold value of 151 or more are subjected to a process of not labeling them. By this processing, only the target figure is labeled as shown in FIG. 7, and still figures other than the target figure can be excluded.

【0031】実施例4.上記実施例1から実施例3で
は、表示装置がCRT方式の前面投射型表示装置であっ
た場合、図8に示すように走査線の間に隙間があるた
め、本来1個の図形であるにもかかわらず、走査線ごと
に区分された図形D,E,F,Gのようにラベル付けさ
れる。このため、結果として4個の図形に分離され、目
標図形を発見できないか、誤認識されることになる。そ
こで、本実施例4では、ラベル付けを行う前に画素の縦
方向に膨張処理を行って図形間の隙間を埋めることによ
り、図9に示すように走査線の隙間によって図形が分断
されるのを回避するようにした。
Example 4. In the first to third embodiments described above, when the display device is a CRT type front projection display device, there is a gap between the scanning lines as shown in FIG. Nevertheless, they are labeled as figures D, E, F, G divided for each scanning line. Therefore, as a result, the figure is separated into four figures, and the target figure cannot be found or is erroneously recognized. Therefore, in the fourth embodiment, by performing expansion processing in the vertical direction of pixels to fill the gaps between figures before labeling, the figures are divided by the gaps of the scanning lines as shown in FIG. I tried to avoid.

【0032】本実施例4の検出システム全体の構成は従
来例と同様であるので説明を省略する。図10は本実施
例4の演算処理手段5のブロック回路図で、図1と同一
符号はそれぞれ同一または相当部分を示しており、55
は閾値151をもとにして画素の膨張処理を行う膨張手
段、52は膨張後の画像情報154の所定画素にラベル
付けを施すラベル付け手段である。
Since the entire structure of the detection system of the fourth embodiment is similar to that of the conventional example, the description thereof will be omitted. FIG. 10 is a block circuit diagram of the arithmetic processing means 5 of the fourth embodiment, and the same reference numerals as those in FIG. 1 denote the same or corresponding portions, and 55
Is an expanding unit that expands pixels based on the threshold 151, and 52 is a labeling unit that labels predetermined pixels of the expanded image information 154.

【0033】次に、動作について説明する。閾値演算手
段51で閾値151を算出するまで、および、ラベル付
け処理手段52以降の動作は実施例1と同様であるので
説明を省略する。膨張処理手段55では、閾値151以
上の画素について縦方向に所定の画素数だけ膨張させ
る。例えば、現在、図11に示す画素スの位置を走査し
ていた場合、画素スの輝度値が閾値151以上であれ
ば、サ〜スの画素が閾値以上であると以下の処理手段に
伝える。この操作により、図8に示す図形DとE,Eと
F,FとGを互いに癒着させることでき、画像情報10
4の走査線の隙間を埋めることができる。ラベル付け処
理には、この膨張後の画像情報を用いることによって、
走査線の隙間にあたる位置で図形が分断されることなし
に、画像情報104に含まれている各図形をそれぞれ1
個の図形として処理することができる。
Next, the operation will be described. The operations until the threshold value calculation means 51 calculates the threshold value 151 and the operations after the labeling processing means 52 are the same as those in the first embodiment, and therefore the description thereof is omitted. The expansion processing unit 55 expands pixels having a threshold value of 151 or more in the vertical direction by a predetermined number of pixels. For example, when the pixel position shown in FIG. 11 is currently being scanned, if the brightness value of the pixel is equal to or higher than the threshold value 151, it is notified to the following processing means that the pixels of the source are equal to or higher than the threshold value. By this operation, the figures D and E, E and F, and F and G shown in FIG. 8 can be adhered to each other.
It is possible to fill the gap between the four scanning lines. In the labeling process, by using the image information after this expansion,
Each figure included in the image information 104 is set to 1 without being divided at a position corresponding to a gap between scanning lines.
It can be processed as an individual figure.

【0034】実施例5.上記実施例4では、表示装置が
シャドウマスク付きの直視型表示装置,液晶を用いた表
示装置,背面投射型表示装置等であった場合、それぞ
れ、シャドウマスク,液晶の駆動用の電極,レンチキュ
ラースクリーンのブラックストライプ等の陰影の影響
で、図12に示すように表示した図形が細かく分断され
てしまい、縦方向の膨張だけでは分断した図形を1個の
連続した図形に復元することは困難である。そこで、本
実施例5では、ラベル付けを行う前に各画素について縦
方向および横方向の膨張を行い、細かく分断された図形
であっても図13に示すように図形の隙間を埋めること
により、映像を分断している陰影によって図形の認識が
阻害されるのを排除することができる。
Example 5. In the fourth embodiment, when the display device is a direct-view display device with a shadow mask, a display device using liquid crystal, a rear projection display device, or the like, a shadow mask, electrodes for driving the liquid crystal, and a lenticular screen, respectively. Due to the effect of shadows such as black stripes, the figure displayed as shown in FIG. 12 is finely divided, and it is difficult to restore the divided figure into one continuous figure only by expanding in the vertical direction. . In view of this, in the fifth embodiment, by expanding each pixel in the vertical direction and the horizontal direction before performing labeling, even a finely divided figure is filled with a figure gap as shown in FIG. It is possible to exclude that the recognition of the figure is hindered by the shadow that divides the image.

【0035】本実施例5の検出システム全体の構成、お
よび、検出システムにおける演算処理手段5の内部構成
は実施例4と同様であるので説明を省略する。
Since the entire structure of the detection system of the fifth embodiment and the internal structure of the arithmetic processing means 5 in the detection system are the same as those of the fourth embodiment, the description thereof will be omitted.

【0036】次に、動作について説明する。図10にお
いて、閾値演算手段51で閾値151を算出するまで、
および、ラベル付け処理手段52以降の動作は実施例4
と同様であるので説明を省略する。膨張処理手段55で
は、閾値151以上の画素について図形を縦および横方
向に所定画素膨張させる。例えば、現在、図14に示す
画素ニの位置を走査していた場合、画素ニの輝度値が閾
値151以上であれば、画素セ〜ニが閾値以上であると
以下の処理手段に伝える。この操作により、図12に示
す細かく分断されている図形を互いに癒着させることが
でき、画像情報104に含まれている図形の陰影による
隙間を埋めることができる。ラベル付け処理には、この
膨張後の画像情報を用いることによって、陰影の位置で
図形が分断されることなしに、画像情報104に含まれ
ている各図形をそれぞれ1個の図形として処理すること
ができる。
Next, the operation will be described. In FIG. 10, until the threshold value calculation means 51 calculates the threshold value 151,
The operation after the labeling processing means 52 is the fourth embodiment.
The description is omitted because it is similar to the above. The expansion processing unit 55 expands the figure for a pixel having a threshold value of 151 or more in the vertical and horizontal directions by a predetermined number of pixels. For example, when the position of the pixel D shown in FIG. 14 is being scanned at present, if the brightness value of the pixel D is equal to or higher than the threshold 151, it is notified to the processing means below that the pixels SE to D are equal to or higher than the threshold. By this operation, the finely divided figures shown in FIG. 12 can be fused to each other, and the gap due to the shadow of the figures included in the image information 104 can be filled. By using the expanded image information in the labeling process, each figure included in the image information 104 is processed as one figure without dividing the figure at the position of the shadow. You can

【0037】実施例6.上記実施例5では、2次元的な
膨張処理のみを行っているため、表示装置2とCCDカ
メラ3の垂直走査周波数が異なる場合、または、表示装
置2とCCDカメラ3の間を一時的に遮光物が通過した
場合等、目標図形102を完全な形で撮影できない場合
がある。そこで本実施例6では、目標図形102を複数
回撮影して複数の画像情報104を得、各画像情報10
4の各画素にラベル付けを行う前に縦方向、横方向、お
よび時間軸方向の3方向にわたって膨張を行うことによ
り、一時的に欠落した図形を時間的に補間することによ
って一個の図形と認識することにより、一時的な図形の
隠蔽の影響を避けるようにしたものである。
Example 6. In the fifth embodiment, since only the two-dimensional expansion process is performed, when the display device 2 and the CCD camera 3 have different vertical scanning frequencies, or the display device 2 and the CCD camera 3 are temporarily shielded from light. In some cases, such as when an object passes, the target figure 102 cannot be captured in a perfect shape. Therefore, in the sixth embodiment, the target graphic 102 is photographed a plurality of times to obtain a plurality of image information 104, and each image information 10 is acquired.
Before each 4 pixel is labeled, it is expanded in three directions of the vertical direction, the horizontal direction, and the time axis direction, and the temporarily missing figure is temporally interpolated and recognized as one figure. By doing so, the effect of temporary hiding of the figure is avoided.

【0038】本実施例6の検出システム全体の構成、お
よび、検出システムにおける演算処理手段5の内部構成
は実施例4と同様であるので説明を省略する。
Since the entire structure of the detection system of the sixth embodiment and the internal structure of the arithmetic processing means 5 in the detection system are the same as those of the fourth embodiment, the description thereof will be omitted.

【0039】次に、動作について説明する。図10にお
いて、閾値演算手段51で閾値151を算出するまで、
および、ラベル付け処理手段52以降の動作は他の実施
例と同様であるので説明を省略する。膨張処理手段55
では、閾値151以上の画素について縦、横、および時
間軸方向に所定画素数および所定時間だけ膨張させる。
例えば、現在、図15に示す画素ヌの位置を走査してい
た場合、画素ヌの輝度値が閾値151以上であれば、画
素ネ〜ノが閾値以上であると以下の処理手段に伝える。
この操作により、膨張済みの3次元画像が得られ、目標
図形の一時的な隠蔽による隙間を埋めることができる。
ラベル付け処理には、この膨張後の画像情報を用いるこ
とによって、一時的に隠蔽された時点で図形が分断され
ることなしに、目標図形を1個の図形として処理するこ
とができる。さらに、図形抽出の条件に時間的な制約も
加わるため、一時的に発生する雑音等の影響も抑えるこ
とができる。
Next, the operation will be described. In FIG. 10, until the threshold value calculation means 51 calculates the threshold value 151,
Also, since the operation of the labeling processing means 52 and thereafter is similar to that of the other embodiments, the description thereof will be omitted. Expansion processing means 55
Then, the pixels having the threshold value 151 or more are expanded in the vertical, horizontal, and time axis directions by a predetermined number of pixels and for a predetermined time.
For example, when the position of the pixel number shown in FIG. 15 is being scanned at present, if the luminance value of the pixel number is equal to or higher than the threshold value 151, it is notified to the following processing means that the pixel numbers are equal to or higher than the threshold value.
By this operation, an expanded three-dimensional image can be obtained, and the gap due to the temporary concealment of the target figure can be filled.
By using the image information after the expansion for the labeling process, the target graphic can be processed as one graphic without being divided at the time of being temporarily hidden. Furthermore, since time constraints are added to the figure extraction conditions, it is possible to suppress the effects of noise and the like that are temporarily generated.

【0040】実施例7.上記実施例4から実施例6で
は、膨張処理手段55と、ラベル付け手段52を別々の
処理として説明したが、ラベル付けと膨張処理を同時に
行うことができる。ここでは、実施例5に示した2次元
の膨張処理の場合を例に説明する。
Example 7. Although the expansion processing means 55 and the labeling means 52 are described as separate processing in the above-described fourth to sixth embodiments, the labeling and the expansion processing can be performed at the same time. Here, the case of the two-dimensional expansion processing shown in the fifth embodiment will be described as an example.

【0041】本実施例7の検出システム全体の構成、お
よび、検出システムにおける演算処理手段5の内部構成
は、膨張処理をラベル付け手段52の中に取り込んだと
考えると、実施例1と同様になるので説明を省略する。
Considering that the expansion processing is incorporated in the labeling means 52, the overall construction of the detection system of the seventh embodiment and the internal construction of the arithmetic processing means 5 in the detection system are the same as those of the first embodiment. Therefore, the description is omitted.

【0042】次に、動作について説明する。図1におい
て、閾値演算手段51で閾値151を算出するまで、お
よび、図形抽出手段53以降の動作は他の実施例と同様
であるので説明を省略する。ラベル付け手段52では、
図16に示す画素ヨを現在走査している画素とし、ラベ
ル付けを施す所定画素を水平,垂直方向ともに1画素単
位、また、膨張する範囲を上方向および左方向ともに2
画素とすると、ヨを目標画素、ハ〜ヘを参照画素、ホ〜
ヨを目標領域として他の実施例同様のラベル付けを行
う。この結果、ラベル付けを行いながら、同時に、上方
向および左方向にそれぞれ2画素ずつ膨張される。この
膨張処理とラベル付けを同時に行うことにより、処理手
段の規模、または処理に要する時間を小さくすることが
できる。
Next, the operation will be described. In FIG. 1, the operation until the threshold value calculation means 51 calculates the threshold value 151 and the operation after the graphic extraction means 53 are the same as those in the other embodiments, and therefore the description thereof will be omitted. In the labeling means 52,
The pixel Y shown in FIG. 16 is set as the pixel currently being scanned, and the predetermined pixel to be labeled is set in units of one pixel in the horizontal and vertical directions, and the expansion range is 2 in the upward and left directions.
Assuming pixels, yo is the target pixel, ha is the reference pixel, and ho is the target pixel.
Labeling is performed in the same manner as in the other embodiments with yo as the target area. As a result, while performing labeling, two pixels are simultaneously expanded in the upward and leftward directions. By performing the expansion processing and the labeling at the same time, the scale of the processing means or the time required for the processing can be reduced.

【0043】ところで、上記各実施例では、この発明を
表示図形の重心位置算出に適用した場合について述べた
が、輝度値、色温度、フォーカス等、他の特徴量の算出
にも同様に利用できることはいうまでもない。
By the way, in each of the above-described embodiments, the case where the present invention is applied to the calculation of the position of the center of gravity of the display graphic has been described, but the invention can be similarly applied to the calculation of other characteristic amounts such as the brightness value, the color temperature, the focus and the like. Needless to say.

【0044】[0044]

【発明の効果】この発明は、以上説明したように構成さ
れているので、以下に示すような効果を奏する。
Since the present invention is constructed as described above, it has the following effects.

【0045】撮影した画像情報の各画素を閾値と比較し
てラベル付けを施し、このラベル付けされた図形を前記
映像信号の目標図形と比較して最も近似する図形を目標
図形として抽出して目標図形の特徴量の演算を行うよう
に構成したので、目標図形の特徴量を精度良く検出すこ
とができる。
Each pixel of the photographed image information is compared with a threshold value for labeling, the labeled figure is compared with the target figure of the video signal, and the most approximate figure is extracted as the target figure and the target figure is obtained. Since the feature amount of the figure is configured to be calculated, the feature amount of the target figure can be accurately detected.

【0046】また、表示手段に表示された目標図形を撮
影手段で複数回撮影して複数の画像情報を得、前画面の
ラベルが付された画素と同じ位置の現画面の画素が閾値
を超えているときは前画面の画素に付されたラベルと同
じラベルを付し、閾値を超えていないときはラベル付け
を行わないようにし、全ての画像情報中に存在する図形
を目標図形として抽出するようにしたので、一時的に発
生する雑音や表示面に映り込んだ図形などによる影響を
排除することができる。
Further, the target figure displayed on the display means is photographed a plurality of times by the photographing means to obtain a plurality of image information, and the pixel of the current screen at the same position as the pixel labeled the previous screen exceeds the threshold value. If it is, the same label as the label attached to the pixel of the previous screen is attached, and if it does not exceed the threshold, labeling is not performed, and the figure existing in all image information is extracted as the target figure. Since this is done, it is possible to eliminate the effects of noise that is temporarily generated and figures reflected on the display surface.

【0047】また、表示手段に目標図形を表示している
場合と表示していない場合にそれぞれ1回以上画像情報
を得てこれらの画像情報の各画素にラベル付けを施し、
各画像情報に含まれている図形のうち目標図形を表示し
ている場合だけ存在する図形を目標図形として抽出する
ようにしたので、目標図形以外の図形を排除することが
できる。
Further, when the target graphic is displayed on the display means and when the target graphic is not displayed, the image information is obtained at least once, and each pixel of the image information is labeled.
Since a figure existing only when the target figure is displayed among the figures included in each image information is extracted as the target figure, figures other than the target figure can be excluded.

【0048】また、撮影した画像情報の各画素にラベル
付けを施す前に、画像情報の各画素を単一方向または複
数方向に膨張処理を施すようにしたので、目標図形が空
間的に、または時間的に分断されている場合でも、1個
の図形として抽出することができる。
Moreover, since each pixel of the image information is subjected to expansion processing in a single direction or in a plurality of directions before labeling each pixel of the photographed image information, the target figure is spatially or Even if they are divided in time, they can be extracted as one figure.

【0049】また、画像情報の各画素に単一方向または
複数方向の膨張処理を施す手段とラベル付けを施す手段
とを一体に構成したので、処理手段の回路規模を小さく
でき、処理速度の向上、および部品点数の削減が可能と
なる。
Further, since the means for subjecting each pixel of the image information to the expansion processing in a single direction or a plurality of directions and the means for labeling are integrated, the circuit scale of the processing means can be reduced and the processing speed can be improved. , And the number of parts can be reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】 この発明の実施例1の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of a first embodiment of the present invention.

【図2】 実施例1のラベル付けされる画素と周辺の画
素との関係を示す図である。
FIG. 2 is a diagram showing a relationship between a pixel to be labeled and a peripheral pixel according to the first embodiment.

【図3】 実施例1のラベル付けの手順を示すフローチ
ャートである。
FIG. 3 is a flowchart illustrating a labeling procedure according to the first embodiment.

【図4】 実施例1のラベル付けされた画像情報を示す
図である。
FIG. 4 is a diagram showing labeled image information according to the first embodiment.

【図5】 この発明の実施例2のラベル付けされる画素
と参照画素との関係を示す図である。
FIG. 5 is a diagram showing a relationship between labeled pixels and reference pixels according to a second embodiment of the present invention.

【図6】 実施例2の図形抽出の原理を示す図である。FIG. 6 is a diagram showing the principle of figure extraction according to the second embodiment.

【図7】 この発明の実施例3の図形抽出の原理を示す
図である。
FIG. 7 is a diagram showing the principle of figure extraction according to the third embodiment of the present invention.

【図8】 この発明の実施例4の膨張を行う前の画像情
報を示す図である。
FIG. 8 is a diagram showing image information before expansion according to the fourth embodiment of the present invention.

【図9】 実施例4の膨張を行った後の画像情報を示す
図である。
FIG. 9 is a diagram showing image information after expansion according to the fourth embodiment.

【図10】 実施例4の演算処理手段の構成を示す図で
ある。
FIG. 10 is a diagram showing a configuration of an arithmetic processing means according to a fourth embodiment.

【図11】 実施例4の膨張を行う画素の関係を示す図
である。
FIG. 11 is a diagram showing a relationship of pixels to be expanded according to the fourth embodiment.

【図12】 この発明の実施例5の膨張を行う前の画像
情報を示す図である。
FIG. 12 is a diagram showing image information before expansion according to the fifth embodiment of the present invention.

【図13】 実施例5の膨張を行った後の画像情報を示
す図である。
FIG. 13 is a diagram showing image information after expansion according to the fifth embodiment.

【図14】 実施例5の膨張を行う画素の関係を示す図
である。
FIG. 14 is a diagram showing the relationship of pixels to be expanded according to the fifth embodiment.

【図15】 この発明の実施例6の膨張を行う画素の関
係を示す図である。
FIG. 15 is a diagram showing a relationship of pixels to be expanded in Example 6 of the present invention.

【図16】 この発明の実施例7の膨張を行う画素の関
係を示す図である。
FIG. 16 is a diagram showing a relationship of pixels to be expanded in Example 7 of the present invention.

【図17】 従来の検出システムの構成を示すブロック
図である。
FIG. 17 is a block diagram showing a configuration of a conventional detection system.

【図18】 従来例の閾値以上の画像情報を示す図であ
る。
FIG. 18 is a diagram showing image information that is equal to or larger than a threshold value in the conventional example.

【符号の説明】[Explanation of symbols]

1 映像信号発生装置、2 表示装置、3 CCDカメ
ラ、4 フレームメモリ、5 演算処理手段、6 シス
テム制御手段、51 閾値演算手段、52 ラベル付け
手段、53 図形抽出手段、54 重心演算手段、55
膨張処理手段、101 映像信号、102 目標図
形、103 映像信号、104 画像情報、105 重
心情報、151 閾値、152 ラベル付け後の画像情
報、153図形抽出後の画像情報、154 膨張後の画
像情報。
DESCRIPTION OF SYMBOLS 1 video signal generator, 2 display device, 3 CCD camera, 4 frame memory, 5 arithmetic processing means, 6 system control means, 51 threshold value arithmetic means, 52 labeling means, 53 graphic extraction means, 54 barycenter arithmetic means, 55
Expansion processing means, 101 video signal, 102 target graphic, 103 video signal, 104 image information, 105 center of gravity information, 151 threshold value, 152 image information after labeling, 153 image information after graphic extraction, 154 image information after expansion.

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 表示装置に表示された図形の特徴量を検
出する特徴量検出システムにおいて、特徴量を検出しよ
うとする目標図形の映像信号を表示装置に出力する映像
信号発生手段と、前記表示装置に表示された前記目標図
形を含む領域を取得する入力手段と、この取得した画像
情報を保持する記憶手段と、この記憶手段から画像情報
の所定画素を閾値と比較してラベル付けを施す手段と、
このラベル付けされた図形を前記映像信号の目標図形と
比較して最も近似する図形を目標図形として抽出する手
段と、この抽出された目標図形の特徴量の演算を行う手
段とを備えたことを特徴とする表示図形の特徴量検出シ
ステム。
1. A feature amount detection system for detecting a feature amount of a graphic displayed on a display device, and a video signal generating means for outputting a video signal of a target graphic whose feature amount is to be detected to the display device, and the display. Input means for acquiring an area including the target graphic displayed on the apparatus, storage means for holding the acquired image information, and means for labeling predetermined pixels of the image information from the storage means by comparing them with a threshold value. When,
The labeled figure is compared with the target figure of the video signal to extract the closest figure as the target figure, and the means for calculating the feature amount of the extracted target figure is provided. A feature amount detection system for a featured display figure.
【請求項2】 表示された目標図形を入力手段で複数回
取得して複数の画像情報を得、これらの画像情報に含ま
れている図形のうち複数回存在する図形を目標図形とし
て抽出するようにしたことを特徴とする請求項1記載の
表示図形の特徴量検出システム。
2. The displayed target figure is acquired by the input means a plurality of times to obtain a plurality of image information, and a figure which exists a plurality of times among the figures included in the image information is extracted as the target figure. The display pattern feature amount detection system according to claim 1, wherein:
【請求項3】 表示手段に目標図形が表示されている場
合と、表示されていない場合をそれぞれ1回以上入力手
段で取得して複数の画像情報を得、これらの画像情報に
含まれている図形のうち前記目標図形を表示している場
合のみ存在する図形を目標図形として抽出するようにし
たことを特徴とする請求項1記載の表示図形の特徴量検
出システム。
3. A plurality of pieces of image information are acquired by the input means at least once each of a case where the target graphic is displayed on the display means and a case where the target graphic is not displayed, which are included in these image information. The feature quantity detection system for a display figure according to claim 1, wherein a figure existing only when the target figure is displayed is extracted as the target figure.
【請求項4】 取得した画像情報の所定画素にラベル付
けを施す前に、前記画像情報の所定画素に単一方向また
は複数方向の膨張処理を施す手段を備えたことを特徴と
する請求項1ないし請求項3のいずれかに記載の表示図
形の特徴量検出システム。
4. A means for performing expansion processing in a single direction or in a plurality of directions on predetermined pixels of the image information before labeling the predetermined pixels of the acquired image information. A feature detection system for a display graphic according to claim 3.
【請求項5】 画像情報の所定画素に単一方向または複
数方向の膨張処理を施す手段とラベル付けを施す手段と
を一体に構成したことを特徴とする請求項1ないし請求
項3のいずれかに記載の表示図形の特徴量検出システ
ム。
5. A means for performing expansion processing in a single direction or a plurality of directions and a means for performing labeling on a predetermined pixel of image information are integrally configured. The display pattern feature amount detection system described in 1.
JP13507695A 1995-06-01 1995-06-01 Feature detection system for displayed figures Expired - Fee Related JP3677816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP13507695A JP3677816B2 (en) 1995-06-01 1995-06-01 Feature detection system for displayed figures

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP13507695A JP3677816B2 (en) 1995-06-01 1995-06-01 Feature detection system for displayed figures

Publications (2)

Publication Number Publication Date
JPH08329248A true JPH08329248A (en) 1996-12-13
JP3677816B2 JP3677816B2 (en) 2005-08-03

Family

ID=15143285

Family Applications (1)

Application Number Title Priority Date Filing Date
JP13507695A Expired - Fee Related JP3677816B2 (en) 1995-06-01 1995-06-01 Feature detection system for displayed figures

Country Status (1)

Country Link
JP (1) JP3677816B2 (en)

Also Published As

Publication number Publication date
JP3677816B2 (en) 2005-08-03

Similar Documents

Publication Publication Date Title
CN109377469B (en) Processing method, system and storage medium for fusing thermal imaging with visible light image
US6122013A (en) Chromakeying system
US7366359B1 (en) Image processing of regions in a wide angle video camera
Fiala Automatic projector calibration using self-identifying patterns
JP3054681B2 (en) Image processing method
EP2677500A2 (en) Event-based image processing apparatus and method
EP0930585B1 (en) Image processing apparatus
JP2009124685A (en) Method and system for combining videos for display in real-time
JP2003219324A (en) Image correction data calculation method, image correction data calculation apparatus, and multi- projection system
JP2013062741A (en) Image processing apparatus, imaging apparatus, and image processing method
EP0780003B1 (en) Method and apparatus for determining the location of a reflective object within a video field
JPH09153137A (en) Method for recognizing picture
JP3227179B2 (en) Moving object detection and tracking processing method
US11528465B2 (en) Image processing apparatus, image processing method, and storage medium
JP3677816B2 (en) Feature detection system for displayed figures
GB2242590A (en) Visual tracking apparatus
JP2667885B2 (en) Automatic tracking device for moving objects
US6175381B1 (en) Image processing method and image processing apparatus
JP3621256B2 (en) Motion degradation correction processing apparatus and method
JP2003179930A (en) Method and apparatus for extracting dynamic object
JP2900308B2 (en) Image replacement system, image replacement device, and image replacement method
US6700572B1 (en) Three-dimensional display
JPH0534117A (en) Image processing method
JPH10162138A (en) Image processing method
JPH0310384A (en) Moving object recognizing circuit

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040928

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050304

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050419

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050502

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080520

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090520

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100520

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees