JP4390684B2 - Target monitoring device - Google Patents

Target monitoring device Download PDF

Info

Publication number
JP4390684B2
JP4390684B2 JP2004324164A JP2004324164A JP4390684B2 JP 4390684 B2 JP4390684 B2 JP 4390684B2 JP 2004324164 A JP2004324164 A JP 2004324164A JP 2004324164 A JP2004324164 A JP 2004324164A JP 4390684 B2 JP4390684 B2 JP 4390684B2
Authority
JP
Japan
Prior art keywords
image
center
gravity
target
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004324164A
Other languages
Japanese (ja)
Other versions
JP2006135799A (en
Inventor
康俊 三樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Precision Inc
Original Assignee
Seiko Precision Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Precision Inc filed Critical Seiko Precision Inc
Priority to JP2004324164A priority Critical patent/JP4390684B2/en
Publication of JP2006135799A publication Critical patent/JP2006135799A/en
Application granted granted Critical
Publication of JP4390684B2 publication Critical patent/JP4390684B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ターゲット監視装置に関するものである。   The present invention relates to a target monitoring apparatus.

従来より、監視カメラを用いて、侵入者をターゲットとして監視し、侵入者の動きに追従して、監視カメラの撮影方向を制御するようにしたターゲット監視装置がある(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, there is a target monitoring apparatus that uses a monitoring camera to monitor an intruder as a target and controls the shooting direction of the monitoring camera by following the movement of the intruder (see, for example, Patent Document 1). .

また、跳躍競技において、ビデオカメラで踏切板をターゲットとして監視するようにしたターゲット監視装置もある(例えば、特許文献2参照)。このターゲット監視装置は、圧力センサを踏切板に組み込み、ビデオカメラと圧力センサとの信号をモニタして画像を監視し、踏み切り時のファールの有無を判定する。
特開平10−188145号公報(第4頁、図1) 特開平8−229178号公報(第3−4頁、図1)
There is also a target monitoring device that monitors a railroad crossing board as a target in a jumping competition (see, for example, Patent Document 2). This target monitoring device incorporates a pressure sensor into a railroad crossing board, monitors signals from a video camera and a pressure sensor, monitors an image, and determines the presence or absence of a foul at the time of railroad crossing.
Japanese Patent Laid-Open No. 10-188145 (page 4, FIG. 1) JP-A-8-229178 (page 3-4, FIG. 1)

しかし、このようなターゲット監視装置が備える監視カメラには、CCD(Charge Coupled Device;電荷結合素子)が用いられている。   However, a CCD (Charge Coupled Device) is used for a monitoring camera provided in such a target monitoring device.

近年、監視カメラに用いられる撮像素子の能力は向上し、ビデオカメラとして、200万画素の撮像素子を備えたものもある。このように高解像度を有するビデオカメラになると、画像処理時間も増大する。   In recent years, the capabilities of image sensors used in surveillance cameras have improved, and some video cameras have an image sensor with 2 million pixels. In such a video camera having a high resolution, the image processing time also increases.

画像処理時間が増大すると、上記特許文献1のものでは、ターゲットの動きに追従できなくなり、ターゲットを見失う可能性も出てくる。また、特許文献2のものでも、画像処理時間が増大すると、踏み切り時のファールの有無判定を即座に行えなくなってしまう。   When the image processing time is increased, the above-mentioned Patent Document 1 cannot follow the movement of the target and may lose sight of the target. Further, even in the case of Patent Document 2, if the image processing time is increased, it becomes impossible to immediately determine whether or not there is a foul at the time of crossing.

本発明は、このような従来の問題点に鑑みてなされたもので、どのようなターゲットにも追従可能なターゲット監視装置を提供することを目的とする。   The present invention has been made in view of such a conventional problem, and an object thereof is to provide a target monitoring apparatus capable of following any target.

この目的を達成するため、本発明の第1の観点に係るターゲット監視装置は、
監視対象物としてのターゲットを撮影する撮影部と、
前記撮影部によって撮影された前記ターゲットの画像の重心位置を取得する重心取得部と、
前記重心取得部が取得した前記重心位置の変化を監視する重心位置変化監視部と、を備え、
前記重心取得部は、
受光した光の強度に対応する信号レベルの光検出信号に変換する複数の光電変換素子が行列配置されて、前記ターゲットからの光を、前記光電変換素子で受光して前記画像を生成するとともに、前記光電変換素子が出力した光検出信号を2値化して加算演算するセンサ部と、
前記センサ部の前記光電変換素子を選択し、選択した前記光電変換素子の光検出信号の2値化信号を前記センサ部が加算演算して前記画像の0次モーメント量と1次モーメント量とを示す信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記ターゲット画像の重心位置を取得する演算処理部と、備えたものであり、
前記撮影部は、前記ターゲットとして、競技における競技線を撮影し、
前記重心取得部は、前記撮影部によって撮影された前記競技線の画像の重心位置を取得し、
前記重心位置変化監視部は、前記重心取得部が取得した前記競技線画像の重心位置が変化したと判定した場合に前記競技線への競技者による踏み込み有りと判定することを特徴とする。
In order to achieve this object, a target monitoring apparatus according to the first aspect of the present invention includes:
A photographing unit for photographing a target as a monitoring object;
A center-of-gravity acquisition unit that acquires the position of the center of gravity of the image of the target imaged by the imaging unit;
A centroid position change monitoring unit that monitors the change of the centroid position acquired by the centroid acquisition unit, and
The center of gravity acquisition unit
A plurality of photoelectric conversion elements that convert light detection signals of a signal level corresponding to the intensity of received light are arranged in a matrix, and light from the target is received by the photoelectric conversion elements to generate the image, A sensor unit for binarizing and adding the light detection signal output from the photoelectric conversion element;
The photoelectric conversion element of the sensor unit is selected, and the sensor unit adds and calculates the binarized signal of the photodetection signal of the selected photoelectric conversion element to obtain the zero-order moment amount and the primary moment amount of the image. and it controls the sensor unit to output a signal indicative of an arithmetic processing unit for acquiring the center-of-gravity position of the target image based on an output signal of the sensor unit state, and are not provided,
The photographing unit photographs a competition line in the competition as the target,
The center-of-gravity acquisition unit acquires the center-of-gravity position of the image of the competition line imaged by the imaging unit,
The center-of-gravity position change monitoring unit determines that the player has stepped on the competition line when it is determined that the center-of-gravity position of the competition line image acquired by the center-of-gravity acquisition unit has changed .

前記重心位置変化監視部は、前記競技者による前記競技線の踏み込み有りと判定した場合に、前記競技線の画像の重心位置の変化量に基づいて踏み込み位置を特定し、前記競技者による前記競技線の踏み込み位置を拡大撮影するように、前記撮影部を制御するようにしてもよい The center-of-gravity position change monitoring unit identifies a stepping position based on the amount of change in the center-of-gravity position of the image of the competition line when it is determined that the player has stepped on the competition line, and the competition by the athlete You may make it control the said imaging | photography part so that the stepping position of a line may be expanded and imaged .

本発明によれば、短時間で画像処理を行うことができ、どのようなターゲットにも追従できる。   According to the present invention, image processing can be performed in a short time, and any target can be followed.

以下、本発明の実施の形態に係る装置を図面を参照して説明する。
(実施形態1)
実施形態1に係るターゲット監視装置の構成を図1に示す。
実施形態1に係るターゲット監視装置は、ターゲットAを追跡するものであり、ビジョンカメラ101と、ビデオカメラ102と、映像モニタ103と、旋回台104と、旋回台制御装置105と、追跡制御装置106と、を備える。
Hereinafter, an apparatus according to an embodiment of the present invention will be described with reference to the drawings.
(Embodiment 1)
FIG. 1 shows the configuration of the target monitoring apparatus according to the first embodiment.
The target monitoring apparatus according to the first embodiment tracks the target A, and includes a vision camera 101, a video camera 102, a video monitor 103, a swivel base 104, a swivel base control apparatus 105, and a tracking control apparatus 106. And comprising.

ビジョンカメラ101は、監視対象物としてのターゲットAを一定の撮影間隔で撮影するものであり、図2に示すように、光学部111と、重心取得部112を備える。このビジョンカメラ101は、撮影部に対応するものである。光学部111は、ターゲットAからの光を重心取得部112に導くためのものである。   The vision camera 101 shoots the target A as a monitoring object at a constant shooting interval, and includes an optical unit 111 and a center of gravity acquisition unit 112 as shown in FIG. The vision camera 101 corresponds to the photographing unit. The optical unit 111 is for guiding light from the target A to the gravity center acquiring unit 112.

重心取得部112は、ターゲットAからの光を受光して、受光した光によるターゲット画像の重心位置を取得するものである。重心取得部112は、0次モーメント量と1次モーメント量とを取得し、取得した0次モーメント量と1次モーメント量とに基づいて、画像の重心位置を取得する。   The center-of-gravity acquisition unit 112 receives light from the target A and acquires the position of the center of gravity of the target image by the received light. The center-of-gravity acquisition unit 112 acquires the 0th-order moment amount and the first-order moment amount, and acquires the center-of-gravity position of the image based on the acquired 0th-order moment amount and first-order moment amount.

この原理について説明する。一般に、モーメント量mijは、次の数1によって表される。

Figure 0004390684

0次モーメント量m00は、次の数2によって表される。
Figure 0004390684

0次モーメント量m00は、この数2に示すように、画像データI(x,y)の総和を示す。 This principle will be described. In general, the moment amount m ij is expressed by the following equation ( 1).
Figure 0004390684

The zero-order moment amount m 00 is represented by the following equation 2.
Figure 0004390684

The zero-order moment amount m 00 indicates the total sum of the image data I (x, y) as shown in Equation 2.

また、1次モーメント量m10,m01は、次の数3によって表される。

Figure 0004390684
Further, the first moments m 10 and m 01 are expressed by the following equation (3).
Figure 0004390684

画像データI(x,y)の重心位置を(xg,yg)として、重心位置(xg,yg)は、0次モーメント量m00と1次モーメント量m10,m01とから、次の数4に従って求められる。

Figure 0004390684

ここで、整数xを2進数で表すと、整数xは、次の数5によって表される。
Figure 0004390684

1次モーメント量m10は、この数5を用いて、数6によって求められる。
Figure 0004390684
The centroid position of the image data I (x, y) is (xg, yg), and the centroid position (xg, yg) is the following number from the zeroth moment amount m 00 and the first moment amounts m 10 and m 01 4 is obtained.
Figure 0004390684

Here, when the integer x is represented by a binary number, the integer x is represented by the following number 5.
Figure 0004390684

The primary moment amount m 10 is obtained by Equation 6 using Equation 5.
Figure 0004390684

重心取得部112は、この数4,数6に従って重心位置を取得するため、センサ部113と、演算処理部114と、を備える。センサ部113は、ターゲットAからの光を受光し、受光した光の強度に対応する光検出信号を2値化し、2値化した2値画像の0次モーメント量と1次モーメント量とを示す信号を出力するものである。   The center-of-gravity acquisition unit 112 includes a sensor unit 113 and an arithmetic processing unit 114 in order to acquire the center-of-gravity position according to Equations 4 and 6. The sensor unit 113 receives light from the target A, binarizes a light detection signal corresponding to the intensity of the received light, and indicates a zero-order moment amount and a first-order moment amount of a binarized binary image. A signal is output.

センサ部113は、図3に示すように、画像処理部1と、列加算部2と、ロウデコーダ3と、カラムデコーダ4と、を備える。   As shown in FIG. 3, the sensor unit 113 includes an image processing unit 1, a column addition unit 2, a row decoder 3, and a column decoder 4.

画像処理部1は、N×N個の画像検出処理要素(以後、単に「処理要素」と記す。)1_xyからなる。本実施形態では、N=8とする(x=1〜8,y=1〜8)。   The image processing unit 1 includes N × N image detection processing elements (hereinafter simply referred to as “processing elements”) 1_xy. In this embodiment, N = 8 (x = 1 to 8, y = 1 to 8).

ロウデコーダ3は、演算処理部114から信号ROW(y)が供給され、信号ROW(y)に従って処理要素1_xyのいずれかの列を選択するものである。ロウデコーダ3は、供給された信号ROW(y)を、処理要素1_xyの列を選択するため列選択信号yj(j=1〜8)に変換して処理要素1_xyに出力し、処理要素1_xyのいずれかの列を選択する。   The row decoder 3 is supplied with the signal ROW (y) from the arithmetic processing unit 114, and selects any column of the processing elements 1_xy according to the signal ROW (y). The row decoder 3 converts the supplied signal ROW (y) into a column selection signal yj (j = 1 to 8) to select a column of the processing element 1_xy, and outputs it to the processing element 1_xy. Select one of the columns.

カラムデコーダ4は、演算処理部114から信号COL(x)が供給され、信号COL(x)に従って処理要素1_xyのいずれかの行を選択するものである。カラムデコーダ4は、供給された信号COL(x)を、処理要素1_xyの行を選択するための行選択信号xi(i=1〜8)に変換して処理要素1_xyに出力し、処理要素1_xyのいずれかの行を選択する。   The column decoder 4 is supplied with the signal COL (x) from the arithmetic processing unit 114, and selects any row of the processing element 1_xy according to the signal COL (x). The column decoder 4 converts the supplied signal COL (x) into a row selection signal xi (i = 1 to 8) for selecting a row of the processing element 1_xy, and outputs it to the processing element 1_xy. Select one of the rows.

各処理要素1_xyは、取得した画像からの反射光を受光して光検出信号に変換し、変換した光検出信号に対して、それぞれ、画像処理を行うものである。各処理要素1_xyは、図4に示すように、光電変換器(図中、「PD」と記す。)11と、トラッキング部12と、マスク部13と、行加算部14と、を備える。   Each processing element 1_xy receives reflected light from the acquired image, converts it into a light detection signal, and performs image processing on the converted light detection signal. As shown in FIG. 4, each processing element 1_xy includes a photoelectric converter (denoted as “PD” in the drawing) 11, a tracking unit 12, a mask unit 13, and a row addition unit 14.

光電変換器11は、受光した光を、その光強度に対応する信号レベルの光検出信号S1に変換するものである。   The photoelectric converter 11 converts the received light into a light detection signal S1 having a signal level corresponding to the light intensity.

トラッキング部12は、演算処理部114から輝度閾値が供給されて光電変換器11からの光検出信号S1を2値画像に変換し、セルフウィンドウ法に基づいてターゲットトラッキングを行うものである。セルフウィンドウ法は、隣接する処理要素と自らの処理要素において、ターゲットとした前フレームのトラッキング画像からウィンドウ画像を生成し、生成したウィンドウ画像の領域内の2値画像を新たなトラッキング画像として生成する方法である。   The tracking unit 12 is supplied with a luminance threshold from the arithmetic processing unit 114, converts the light detection signal S1 from the photoelectric converter 11 into a binary image, and performs target tracking based on the self-window method. In the self-window method, a window image is generated from a tracking image of a target previous frame in an adjacent processing element and its own processing element, and a binary image in the region of the generated window image is generated as a new tracking image. Is the method.

即ち、前回のトラッキング画像が図5(a)に示すような画像211である場合に、トラッキング部12は、隣接する処理要素と自らの処理要素において生成したトラッキング画像から、図5(b)に示すようなウィンドウ画像212を生成する。今回の2値画像が図5(c)に示すような画像213であった場合、トラッキング部12は、図5(b)に示すウィンドウ画像212と図5(c)に示す2値画像213との論理和を演算して、図5(d)に示すような今回のトラッキング画像214を生成する。   In other words, when the previous tracking image is an image 211 as shown in FIG. 5A, the tracking unit 12 uses the tracking image generated in the adjacent processing element and its own processing element, as shown in FIG. A window image 212 as shown is generated. When the current binary image is an image 213 as shown in FIG. 5C, the tracking unit 12 has a window image 212 shown in FIG. 5B and a binary image 213 shown in FIG. Is calculated to generate the current tracking image 214 as shown in FIG.

言い換えれば、トラッキング部12は、生成したウィンドウ画像の領域外の画像を除外してトラッキング画像を生成する。   In other words, the tracking unit 12 generates a tracking image by excluding images outside the region of the generated window image.

トラッキング部12は、このようなターゲットトラッキングを行うため、光電変換器11によって変換された光検出信号S1の信号レベルと輝度閾値とを比較することにより、2値信号に変換する。   In order to perform such target tracking, the tracking unit 12 compares the signal level of the light detection signal S1 converted by the photoelectric converter 11 with a luminance threshold value, and converts the signal into a binary signal.

トラッキング部12は、隣接する処理要素1_(x-1)y,1_(x+1)y,1_x(y-1),1_x(y+1)のトラッキング部12から、それぞれ、トラッキング信号S2が供給される。トラッキング部12は、変換した2値信号と隣接する処理要素1_(x-1)y,1_(x+1)y,1_x(y-1),1_x(y+1)のトラッキング部12から供給されたトラッキング信号S2との論理積を演算することにより、トラッキング画像信号S3を生成する。
新たにウィンドウ画像信号S2を生成する。
The tracking unit 12 receives tracking signals S2 from the tracking units 12 of the adjacent processing elements 1_ (x-1) y, 1_ (x + 1) y, 1_x (y-1), 1_x (y + 1), respectively. Supplied. The tracking unit 12 is supplied from the tracking unit 12 of the processing elements 1_ (x-1) y, 1_ (x + 1) y, 1_x (y-1), 1_x (y + 1) adjacent to the converted binary signal. The tracking image signal S3 is generated by calculating a logical product with the tracking signal S2 thus generated.
A window image signal S2 is newly generated.

トラッキング部12は、生成したトラッキング画像信号S3をマスク部13に出力する。尚、トラッキング部12は、生成したトラッキング画像信号S3を新たなウィンドウ画像信号S2として、隣接する処理要素1_(x-1)y,1_(x+1)y,1_x(y-1),1_x(y+1)のトラッキング部12に供給するとともに、自らのトラッキング部12にも出力する。   The tracking unit 12 outputs the generated tracking image signal S3 to the mask unit 13. The tracking unit 12 uses the generated tracking image signal S3 as a new window image signal S2, and uses adjacent processing elements 1_ (x-1) y, 1_ (x + 1) y, 1_x (y-1), 1_x. While being supplied to the tracking unit 12 of (y + 1), it is also output to its own tracking unit 12.

マスク部13は、トラッキング部12と行加算部14とを初期化するとともに、トラッキング画像信号S3をビットマスクするためのものである。マスク部13は、カラムデコーダ4から行選択信号xi及びロウデコーダ3から列選択信号yjが供給された場合に、トラッキング画像信号S3をビットマスクする。   The mask unit 13 is for initializing the tracking unit 12 and the row addition unit 14 and bit-masking the tracking image signal S3. The mask unit 13 bit-masks the tracking image signal S3 when the row selection signal xi is supplied from the column decoder 4 and the column selection signal yj is supplied from the row decoder 3.

行加算部14は、行方向のSUM信号を累積加算するためのものであり、トラッキング画像信号S3と、隣接する処理要素1_(x-1)yの行加算部から出力されたSUM信号と、を加算する。   The row addition unit 14 is for accumulating SUM signals in the row direction, and includes a tracking image signal S3, a SUM signal output from the row addition unit of the adjacent processing element 1_ (x−1) y, Is added.

列加算部2は、処理要素1_18〜1_88からそれぞれ出力されたSUM信号を、順次、列方向に加算するものであり、加算部2_1〜2_8からなる。   The column adder 2 sequentially adds the SUM signals output from the processing elements 1_18 to 1_88 in the column direction, and includes adders 2_1 to 2_8.

列加算部2は、加算部2_8が出力したSUM信号を、列加算部2の信号SOUTとして、図2の演算処理部114に出力する。演算処理部114が座標選択を行うことにより、この信号SOUTが0次モーメント量又は1次モーメント量を示す信号になる。   The column addition unit 2 outputs the SUM signal output from the addition unit 2_8 as the signal SOUT of the column addition unit 2 to the arithmetic processing unit 114 in FIG. When the arithmetic processing unit 114 performs coordinate selection, this signal SOUT becomes a signal indicating the zero-order moment amount or the first-order moment amount.

演算処理部114は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等を備え、前述のようにセンサ部113に、各種信号を出力してセンサ部113を制御する。   The arithmetic processing unit 114 includes a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), and the like, and controls the sensor unit 113 by outputting various signals to the sensor unit 113 as described above. To do.

演算処理部114は、まず、センサ部113に初期化のための信号を出力してセンサ部113を初期化する。   First, the arithmetic processing unit 114 initializes the sensor unit 113 by outputting a signal for initialization to the sensor unit 113.

初期化後、演算処理部114は、センサ部113に、処理要素1_xyを1行毎又は1列毎に選択するような信号ROW(y),COL(x)を出力して、センサ部113から、取得した画像の0次モーメント量と1次モーメント量を示す信号SOUTを出力させる。   After initialization, the arithmetic processing unit 114 outputs signals ROW (y) and COL (x) that select the processing element 1_xy for each row or column for the sensor unit 113. Then, a signal SOUT indicating the zeroth moment amount and the first moment amount of the acquired image is output.

そして、演算処理部114は、信号SOUTに基づいて取得した0次モーメント量と1次モーメント量から数4に従い、取得した画像の重心位置(xg,yg)を行毎又は列毎に取得する。演算処理部114は、取得した重心位置(xg,yg)を追跡制御装置106に出力する。   Then, the arithmetic processing unit 114 acquires the center-of-gravity position (xg, yg) of the acquired image for each row or each column according to Equation 4 from the 0th-order moment amount and the first-order moment amount acquired based on the signal SOUT. The arithmetic processing unit 114 outputs the acquired barycentric position (xg, yg) to the tracking control device 106.

次に、従来のCCDの処理時間とセンサ部113の処理時間とを比較する。従来のCCDの処理時間は、通常、30ms程度である。これに対して、センサ部113が重心位置を取得する場合、(4n2+2n+1)サイクルを要する。 Next, the processing time of the conventional CCD and the processing time of the sensor unit 113 are compared. The processing time of the conventional CCD is usually about 30 ms. On the other hand, when the sensor unit 113 acquires the position of the center of gravity, (4n 2 + 2n + 1) cycles are required.

具体的に、N=64として0次モーメント量を取得する場合、センサ部113は、13サイクル数を要し、信号CLOCK2のクロック周波数を約8MHzとして、処理時間は、1.6μs程度である。また、1次モーメント量を取得する場合、センサ部113は、72サイクルを要し、処理時間は、9.2μs程度である。   Specifically, when acquiring the zero-order moment amount with N = 64, the sensor unit 113 requires 13 cycles, the clock frequency of the signal CLOCK2 is about 8 MHz, and the processing time is about 1.6 μs. When acquiring the first moment amount, the sensor unit 113 requires 72 cycles, and the processing time is about 9.2 μs.

そして、重心を取得する場合、センサ部113は、157サイクルを要し、処理時間は、20μsである。このようにCCDと比較して、重心取得部112は、短時間でターゲット画像aの重心位置を検出することができる。   And when acquiring a gravity center, the sensor part 113 requires 157 cycles, and processing time is 20 microseconds. As described above, the center-of-gravity acquisition unit 112 can detect the position of the center of gravity of the target image a in a short time as compared with the CCD.

図1に戻り、ビデオカメラ102は、ターゲットAを撮影するものである。尚、ビジョンカメラ101とビデオカメラ102とは、図6に示すように、監視エリアArea2が同じになるように、旋回台104に載置される。   Returning to FIG. 1, the video camera 102 captures the target A. As shown in FIG. 6, the vision camera 101 and the video camera 102 are mounted on the turntable 104 so that the monitoring area Area2 is the same.

ビデオカメラ102は、追跡制御装置106から、ターゲット画像aを囲む切り出しエリアArea1の情報が供給されて、切り出しエリアArea1の画像の取り込み処理を行う。映像モニタ103は、ビデオカメラ102の撮影によって得られた切り出しエリアArea1内の画像を表示するためのものである。映像モニタ103は、表示部に対応する。   The video camera 102 is supplied with information of the cutout area Area1 surrounding the target image a from the tracking control device 106, and performs an image capturing process of the cutout area Area1. The video monitor 103 is for displaying an image in the cut-out area Area1 obtained by photographing with the video camera 102. The video monitor 103 corresponds to a display unit.

旋回台104と旋回台制御装置105とは、供給された撮影方向制御情報に基づいてビジョンカメラ101の撮影方向を制御するものであり、撮影制御部に対応する。旋回台104は、ビデオカメラ102とビジョンカメラ101とを載置する。この旋回台104は、地面に対して垂直な線と水平な線とを軸として一定の旋回範囲内で回転可能なものである。   The swivel base 104 and the swivel base control device 105 control the photographing direction of the vision camera 101 based on the supplied photographing direction control information, and correspond to a photographing control unit. The swivel base 104 mounts the video camera 102 and the vision camera 101. The swivel base 104 is rotatable within a certain swivel range with a line perpendicular to the ground and a horizontal line as axes.

旋回台制御装置105は、追跡制御装置106からターゲットAの予測位置が供給されて旋回台104を回転制御するものである。旋回台制御装置105は、図6に示す追跡可能旋回エリアArea3をカバーするように、旋回台104を回転制御する。   The swivel base control device 105 is supplied with the predicted position of the target A from the tracking control device 106 and controls the rotation of the swivel base 104. The swivel base control device 105 controls rotation of the swivel base 104 so as to cover the traceable turning area Area3 shown in FIG.

追跡制御装置106は、ビジョンカメラ101の重心取得部112が取得したターゲット画像aの重心位置の変化を監視するものである。そして、追跡制御装置106は、ターゲット画像aの重心位置が変化したと判定した場合に、重心取得部112が取得したターゲット画像aの重心位置に基づいてターゲット画像aを追跡する。この追跡制御装置106は、重心位置変化監視部に対応する。追跡制御装置106は、重心取得部112の演算処理部114と同様に、CPU、ROM、RAM等を備える。   The tracking control device 106 monitors a change in the centroid position of the target image a acquired by the centroid acquisition unit 112 of the vision camera 101. When the tracking control device 106 determines that the gravity center position of the target image a has changed, the tracking control device 106 tracks the target image a based on the gravity center position of the target image a acquired by the gravity center acquisition unit 112. The tracking control device 106 corresponds to a gravity center position change monitoring unit. The tracking control device 106 includes a CPU, a ROM, a RAM, and the like, similar to the arithmetic processing unit 114 of the centroid acquisition unit 112.

追跡制御装置106は、重心取得部112が取得したターゲット画像aの重心位置に基づいてターゲット画像aの切り出しエリアArea1を設定して、映像モニタ103に切り出しエリアArea1の画像を表示させる。   The tracking control device 106 sets the cutout area Area1 of the target image a based on the barycentric position of the target image a acquired by the barycentric acquisition unit 112, and causes the video monitor 103 to display the image of the cutout area Area1.

追跡制御装置106は、ターゲット画像aの重心位置が切り出しエリアArea1の中心となるように切り出しエリアArea1を設定する。追跡制御装置106は、このように設定した切り出しエリアArea1の情報をビデオカメラ102に供給して、切り出しエリアArea1の画像取り込み処理を行わせる。   The tracking control device 106 sets the cutout area Area1 so that the center of gravity of the target image a is the center of the cutout area Area1. The tracking control device 106 supplies the video camera 102 with the information of the cutout area Area1 set in this way, and causes the video camera 102 to perform image capture processing of the cutout area Area1.

また、追跡制御装置106は、ビジョンカメラ101の重心取得部112から取得したターゲット画像aの重心位置の情報に基づいて重心位置の変化を判定する。重心位置の変化を判定するため、追跡制御装置106は、RAMにビジョンカメラ101の重心取得部112から取得したターゲット画像aの重心位置を記憶する。   Further, the tracking control device 106 determines a change in the centroid position based on the information on the centroid position of the target image a acquired from the centroid acquisition unit 112 of the vision camera 101. In order to determine the change in the centroid position, the tracking control device 106 stores the centroid position of the target image a acquired from the centroid acquisition unit 112 of the vision camera 101 in the RAM.

追跡制御装置106は、記憶した重心位置を前回値として、前回値と新たに取得した重心位置とを比較し、一致すれば、重心位置に変化はないと判定し、不一致であれば、重心位置は変化したと判定する。   The tracking control device 106 uses the stored barycentric position as the previous value, compares the previous value with the newly acquired barycentric position, and determines that there is no change in the barycentric position if they match. Is determined to have changed.

重心位置が変化したと判定した場合、ターゲット画像aの重心位置が監視エリアArea2内であれば、追跡制御装置106は、切り出しエリアArea1だけを補正する。追跡制御装置106は、補正した切り出しエリアArea1の情報をビジョンカメラ101とビデオカメラ102とに供給する。   If it is determined that the position of the center of gravity has changed, if the position of the center of gravity of the target image a is within the monitoring area Area2, the tracking control device 106 corrects only the cutout area Area1. The tracking control device 106 supplies the corrected cutout area Area1 information to the vision camera 101 and the video camera 102.

追跡制御装置106は、ターゲット画像aの監視エリアArea2を設定し、重心取得部112が取得したターゲット画像aの重心位置が監視エリアArea2外になった場合、ターゲット画像aの重心位置の変化方向に基づいてターゲット画像aの重心位置を予測し、予測した位置の情報を撮影方向制御情報として旋回台制御装置105に供給する。   The tracking control device 106 sets the monitoring area Area2 of the target image a, and when the centroid position of the target image a acquired by the centroid acquisition unit 112 is outside the monitoring area Area2, the tracking control device 106 moves in the changing direction of the centroid position of the target image a. Based on this, the position of the center of gravity of the target image a is predicted, and information on the predicted position is supplied to the turntable control device 105 as shooting direction control information.

即ち、ターゲット画像aの重心位置が監視エリアArea2外になった場合、追跡制御装置106は、追跡可能旋回エリアArea3内であれば、旋回台104を回転するように旋回台制御装置105を制御する。   That is, when the position of the center of gravity of the target image a is outside the monitoring area Area2, the tracking control device 106 controls the swivel base control device 105 so as to rotate the swivel base 104 within the traceable turning area Area3. .

この場合、RAMに記憶した前回値と新たな重心位置とから、次のターゲットAの位置を予測する。追跡制御装置106は、このような旋回台104の予測制御を行って、ターゲットAの予測位置の情報を旋回台制御装置105に供給する。   In this case, the position of the next target A is predicted from the previous value stored in the RAM and the new center of gravity position. The tracking control device 106 performs such predictive control of the swivel base 104, and supplies information on the predicted position of the target A to the swivel control device 105.

さらに、ターゲット画像aの重心位置が追跡可能旋回エリアArea3外になった場合、追跡制御装置106は、ターゲット画像aの重心位置が追跡可能旋回エリアArea3内になるまで待機する。そして、予め設定された時間が経過しても、ターゲット画像aの重心位置が追跡可能旋回エリアArea3内にならなければ、追跡制御装置106は、画像追跡処理を終了させる。   Furthermore, when the gravity center position of the target image a is outside the traceable turning area Area3, the tracking control device 106 waits until the gravity center position of the target image a is within the traceable turning area Area3. If the position of the center of gravity of the target image a does not fall within the traceable turning area Area3 even after a preset time has elapsed, the tracking control device 106 ends the image tracking process.

予め設定された時間が経過したか否かを判定するため、追跡制御装置106は、タイマを備え、RAMにタイマのカウント値を記憶する。   In order to determine whether or not a preset time has elapsed, the tracking control device 106 includes a timer and stores the count value of the timer in the RAM.

次に実施形態1に係るターゲット監視装置の動作を説明する。
追跡制御装置106は、図7に示すフローチャートに従って、画像追跡処理を実行する。
追跡制御装置106は、重心取得部112から、ターゲット画像aの重心位置を取得する(ステップS11)。
Next, the operation of the target monitoring apparatus according to the first embodiment will be described.
The tracking control device 106 executes image tracking processing according to the flowchart shown in FIG.
The tracking control device 106 acquires the center of gravity position of the target image a from the center of gravity acquisition unit 112 (step S11).

追跡制御装置106は、取得した重心位置をRAMに記憶する(ステップS12)。   The tracking control device 106 stores the acquired barycentric position in the RAM (step S12).

追跡制御装置106は、新たに取得した重心位置とRAMに既に記憶した前回値とを比較して、比較結果に基づいて、ターゲット画像aの重心位置が変化したか否かを判定する(ステップS13)。   The tracking control device 106 compares the newly acquired barycentric position with the previous value already stored in the RAM, and determines whether the barycentric position of the target image a has changed based on the comparison result (step S13). ).

ターゲット画像aの重心位置が変化していないと判定した場合(ステップS13においてNo)、追跡制御装置106は、ビデオカメラ102に監視エリアArea2内の画像の取り込み処理を行わせる(ステップS14)。   When it is determined that the position of the center of gravity of the target image a has not changed (No in step S13), the tracking control device 106 causes the video camera 102 to perform an image capturing process in the monitoring area Area2 (step S14).

一方、画像の重心位置が変化したと判定した場合(ステップS13においてYes)、追跡制御装置106は、画像の重心位置がビデオカメラ102の監視エリアArea2内か否かを判定する(ステップS15)。   On the other hand, if it is determined that the center of gravity position of the image has changed (Yes in step S13), the tracking control device 106 determines whether the center of gravity position of the image is within the monitoring area Area2 of the video camera 102 (step S15).

ターゲット画像aの重心位置がビデオカメラ102の監視エリアArea2内と判定した場合(ステップS15においてYes)、追跡制御装置106は、切り出しエリアArea1の補正を行う(ステップS16)。そして、追跡制御装置106は、補正した切り出しエリアArea1の情報をビデオカメラ102に供給し、ビデオカメラ102に監視エリアArea2内の画像の取り込み処理を行わせる(ステップS14)。   When the barycentric position of the target image a is determined to be within the monitoring area Area2 of the video camera 102 (Yes in step S15), the tracking control device 106 corrects the cutout area Area1 (step S16). Then, the tracking control device 106 supplies the corrected information on the cut-out area Area1 to the video camera 102, and causes the video camera 102 to perform an image capturing process in the monitoring area Area2 (step S14).

画像の重心位置がビデオカメラ102の監視エリアArea2外と判定した場合(ステップS15においてNo)、追跡制御装置106は、タイマを起動する(ステップS17)。追跡制御装置106は、旋回台104の予測制御を行う(ステップS18)。   When it is determined that the position of the center of gravity of the image is outside the monitoring area Area2 of the video camera 102 (No in step S15), the tracking control device 106 starts a timer (step S17). The tracking control device 106 performs predictive control of the turntable 104 (step S18).

追跡制御装置106は、重心取得部112が取得した重心位置に基づいて、ターゲット画像aが監視エリアArea2内か否かを判定する(ステップS19)。ターゲット画像aが監視エリアArea2内と判定した場合(ステップS19においてYes)、追跡制御装置106は、ステップS11〜S16の処理を実行する。   The tracking control device 106 determines whether or not the target image a is within the monitoring area Area2 based on the barycentric position acquired by the barycentric acquiring unit 112 (step S19). When it is determined that the target image a is within the monitoring area Area2 (Yes in step S19), the tracking control device 106 executes the processes of steps S11 to S16.

ターゲット画像aが監視エリアArea2外と判定した場合(ステップS19においてNo)、追跡制御装置106は、タイマをカウントアップ又はカウントダウンする(ステップS20)。   When it is determined that the target image a is outside the monitoring area Area2 (No in step S19), the tracking control device 106 counts up or down the timer (step S20).

追跡制御装置106は、タイマがタイムアウトしたか否かを判定する(ステップS21)。   The tracking control device 106 determines whether or not the timer has timed out (step S21).

タイムアウトしていないと判定した場合(ステップS21においてNo)、ステップS18〜S20の処理を実行する。   When it determines with not having timed out (in step S21 No), the process of step S18-S20 is performed.

タイムアウトしたと判定した場合(ステップS21においてYes)、追跡制御装置106は、この画像追跡処理を終了させる。   If it is determined that a timeout has occurred (Yes in step S21), the tracking control device 106 ends this image tracking process.

次に、ターゲット監視装置の具体的な動作について説明する。
図1に示すように、ターゲット監視装置のビジョンカメラ101とビデオカメラ102とは、監視エリアArea2内のターゲットAを撮影する。
Next, a specific operation of the target monitoring apparatus will be described.
As shown in FIG. 1, the vision camera 101 and the video camera 102 of the target monitoring apparatus shoot the target A in the monitoring area Area2.

図8(a)に示すように、ターゲット画像aが監視エリアArea2内に位置している場合、ビジョンカメラ101の重心取得部112は、ターゲット画像aの重心位置を取得する。追跡制御装置106は、その重心位置を重心取得部112から取得する(ステップS11の処理)   As shown in FIG. 8A, when the target image a is located within the monitoring area Area2, the center-of-gravity acquisition unit 112 of the vision camera 101 acquires the position of the center of gravity of the target image a. The tracking control device 106 acquires the position of the center of gravity from the center of gravity acquisition unit 112 (processing in step S11).

ターゲット画像aが移動しなければ、RAMに記憶した前回値と新たに取得した重心位置とは、一致する。このため、追跡制御装置106は、重心位置に変化はないと判定し、ビデオカメラ102に切り出しエリアArea1内のターゲット画像aの取り込み処理を行わせる(ステップS14の処理)。   If the target image a does not move, the previous value stored in the RAM coincides with the newly acquired barycentric position. For this reason, the tracking control device 106 determines that there is no change in the position of the center of gravity, and causes the video camera 102 to perform the capturing process of the target image a in the cutout area Area1 (processing in step S14).

図8(b)に示すように、ターゲット画像aが左上に移動した場合、その重心位置も変化する。ターゲット画像aの重心位置が監視エリアArea2内であれば、追跡制御装置106は、ターゲット画像aを囲むように切り出しエリアArea1を補正して、補正した切り出しエリアArea1の情報をビデオカメラ102に供給する。そして、追跡制御装置106は、ビデオカメラ102に切り出しエリアArea1の画像の取り込み処理を行わせる(ステップS16の処理)。   As shown in FIG. 8B, when the target image a moves to the upper left, the position of the center of gravity also changes. If the position of the center of gravity of the target image a is within the monitoring area Area2, the tracking control device 106 corrects the cutout area Area1 so as to surround the target image a, and supplies the corrected information about the cutout area Area1 to the video camera 102. . Then, the tracking control device 106 causes the video camera 102 to perform an image capturing process for the cut-out area Area1 (processing in step S16).

同様に、ターゲット画像aが、図8(c)に示すように右下に移動した場合、ターゲット画像aの重心位置が監視エリアArea2内であれば、追跡制御装置106は、ターゲット画像aを囲むように切り出しエリアArea1を右下に補正して、補正した切り出しエリアArea1の情報をビデオカメラ102に供給する。   Similarly, when the target image a moves to the lower right as shown in FIG. 8C, if the center of gravity of the target image a is within the monitoring area Area2, the tracking control device 106 surrounds the target image a. As described above, the cutout area Area1 is corrected to the lower right, and the corrected cutout area Area1 information is supplied to the video camera 102.

ターゲット画像aが図9(a)に示す位置から、図9(b)に示す位置に移動して、ターゲット画像aの重心位置が監視エリアArea2外に移動した場合、追跡制御装置106は、旋回台104の予測制御を行い、旋回台制御装置105に予測位置の情報を供給する(ステップS18の処理)。   When the target image a moves from the position shown in FIG. 9A to the position shown in FIG. 9B and the center of gravity of the target image a moves outside the monitoring area Area2, the tracking control device 106 turns. Predictive control of the platform 104 is performed, and information on the predicted position is supplied to the swivel platform control device 105 (processing in step S18).

予測制御の結果、図9(c)に示すように監視エリアArea2が変化した場合、追跡制御装置106は、再び、ターゲット画像aの重心位置を取得する(ステップS11の処理)。追跡制御装置106は、ターゲット画像aを囲むように、監視エリアArea2内の切り出しエリアArea1を補正して、補正した切り出しエリアArea1の情報をビデオカメラ102に供給する。   As a result of the predictive control, when the monitoring area Area2 changes as shown in FIG. 9C, the tracking control device 106 acquires the position of the center of gravity of the target image a again (processing in step S11). The tracking control device 106 corrects the cutout area Area1 in the monitoring area Area2 so as to surround the target image a, and supplies the corrected information on the cutout area Area1 to the video camera 102.

ターゲット画像aが図9(d)に示す位置に移動した場合、追跡制御装置106は、ターゲット画像aを囲むように、監視エリアArea2内の切り出しエリアArea1を補正して、補正した切り出しエリアArea1の情報をビデオカメラ102に供給する。   When the target image a moves to the position shown in FIG. 9 (d), the tracking control device 106 corrects the cutout area Area1 in the monitoring area Area2 so as to surround the target image a, and the corrected cutout area Area1. Information is supplied to the video camera 102.

次に、ターゲット画像aが図9(e)に示すように監視エリアArea2外に移動した場合、ターゲット画像aの重心位置も監視エリアArea2外になる。この場合、追跡制御装置106は、旋回台104の予測制御を行い、旋回台制御装置105に予測位置の情報を供給する(ステップS18の処理)。   Next, when the target image a moves out of the monitoring area Area2 as shown in FIG. 9 (e), the position of the center of gravity of the target image a is also out of the monitoring area Area2. In this case, the tracking control device 106 performs predictive control of the swivel base 104, and supplies predicted position information to the swivel base control device 105 (step S18).

監視エリアArea2が図9(f)に示す位置に変化した場合、追跡制御装置106は、再び、ターゲット画像aの重心位置を取得する(ステップS11の処理)。追跡制御装置106は、ターゲット画像aを囲むように、監視エリアArea2内の切り出しエリアArea1を補正して、補正した切り出しエリアArea1の情報をビデオカメラ102に供給する。   When the monitoring area Area2 changes to the position shown in FIG. 9F, the tracking control device 106 acquires the position of the center of gravity of the target image a again (processing in step S11). The tracking control device 106 corrects the cutout area Area1 in the monitoring area Area2 so as to surround the target image a, and supplies the corrected information on the cutout area Area1 to the video camera 102.

このように追跡制御装置106は、ターゲットAを追跡し、切り出したターゲット画像aを映像モニタ103に出力する。映像モニタ103は、ビデオカメラ102が撮影した監視エリアArea2の画像を表示する。映像モニタ103には、ターゲットAが移動しても、ターゲット画像aの重心がモニタ中心となるように切り出されたターゲット画像aが表示される。   In this way, the tracking control device 106 tracks the target A and outputs the cut target image a to the video monitor 103. The video monitor 103 displays an image of the monitoring area Area2 captured by the video camera 102. On the video monitor 103, even if the target A moves, the target image a cut out so that the center of gravity of the target image a becomes the center of the monitor is displayed.

以上説明したように、本実施形態1によれば、ビジョンカメラ101の重心取得部112は、ターゲット画像aの重心位置を取得し、追跡制御装置106が重心取得部112からターゲット画像aの重心位置を取得して、この重心位置に基づいて、ターゲット画像aを追跡するようにした。   As described above, according to the first embodiment, the centroid acquisition unit 112 of the vision camera 101 acquires the centroid position of the target image a, and the tracking control device 106 receives the centroid position of the target image a from the centroid acquisition unit 112. And the target image a is tracked based on the position of the center of gravity.

従って、重心取得部112がターゲット画像aの重心位置を短時間で取得できるので、動きの早いターゲットAを追跡することができ、高速でターゲット画像aのみを取り出すことができる。   Therefore, since the center-of-gravity acquisition unit 112 can acquire the position of the center of gravity of the target image a in a short time, it is possible to track the target A that moves quickly, and to extract only the target image a at high speed.

(実施形態2)
実施形態2に係るターゲット監視装置は、陸上競技におけるスタートライン(競技線)をターゲットとして監視し、このスタートラインにおける踏み越し判定を行うようにしたものである。
(Embodiment 2)
The target monitoring apparatus according to the second embodiment monitors a start line (competition line) in an athletic competition as a target, and performs a stepping determination on the start line.

実施形態2に係るターゲット監視装置は、図10に示すように、ビジョンカメラ101と、ハンドフリーマイク201と、スタートピストル202と、スタート信号発生装置203と、ヘッドセット204と、信号灯205と、画像判定装置206と、を備える。   As shown in FIG. 10, the target monitoring apparatus according to the second embodiment includes a vision camera 101, a hand-free microphone 201, a start pistol 202, a start signal generator 203, a headset 204, a signal lamp 205, and an image. And a determination device 206.

ビジョンカメラ101は、実施形態1と同様のものである。但し、実施形態2におけるビジョンカメラ101は、陸上競技におけるスタートラインBをターゲットとして撮影する。   The vision camera 101 is the same as that in the first embodiment. However, the vision camera 101 according to the second embodiment shoots with the start line B in the track and field competition as a target.

例えば、スタンディングスタートによる1500m走、10000m走のように、オープンコースを走る陸上競技では、スタート地点のスタートラインBが曲線になっている。   For example, in an athletics run on an open course, such as 1500m run and 10,000m run by standing start, the start line B of the start point is a curve.

陸上競技が、例えば、1500m競争の場合、スタートラインBは、図11に示すように1〜8レーンまでを横切るように、地面に描かれている。この場合、ビジョンカメラ101は、インからの4レーンと、アウトからの4レーンと、に分けて撮影を行い、重心取得部112は、それぞれのスタートライン画像bの重心位置を取得する。   When the track and field competition is a 1500m competition, for example, the start line B is drawn on the ground so as to cross 1 to 8 lanes as shown in FIG. In this case, the vision camera 101 performs shooting separately for 4 lanes from IN and 4 lanes from OUT, and the centroid acquisition unit 112 acquires the centroid position of each start line image b.

また、陸上競技が、10000m競争の場合、スタートラインBは、図12に示すように、インからの4レーンと、アウトからの4レーンと、に分かれている。この場合、ビジョンカメラ101は、インからの4レーンと、アウトからの4レーンと、に分けて撮影を行い、重心取得部112は、そのスタートライン画像bの重心位置を取得する。   Further, when the track and field competition is a 10000 m competition, the start line B is divided into 4 lanes from the in and 4 lanes from the out as shown in FIG. In this case, the vision camera 101 performs shooting separately for 4 lanes from the IN and 4 lanes from the OUT, and the centroid acquisition unit 112 acquires the centroid position of the start line image b.

ハンドフリーマイク201は、スタータ210の「位置について」といった音声を集音するものであり、スタータ210の口の近傍に配置されて音声を集音する。ハンドフリーマイク201は、スタータ210の音声を集音すると、集音した音声を音声信号に変換して画像判定装置206に供給する。   The hand-free microphone 201 collects sound such as “about the position” of the starter 210, and is arranged near the mouth of the starter 210 to collect sound. When collecting the sound of the starter 210, the hand-free microphone 201 converts the collected sound into a sound signal and supplies the sound signal to the image determination device 206.

スタートピストル202は、競技者に対して音等を発してスタートの合図を行うものであり、スタータ210によって操作される。スタートピストル202は、スタート信号発生装置203に接続され、スタートの合図を行ったときの発射信号をスタート信号発生装置203に出力する。   The start pistol 202 is used to signal the start by making a sound or the like to the competitor, and is operated by the starter 210. The start pistol 202 is connected to the start signal generator 203 and outputs a fire signal when a start signal is given to the start signal generator 203.

スタート信号発生装置203は、スタートピストル202から発射信号が供給されて、スタート信号を発生させるものであり、発生させたスタート信号を画像判定装置206に供給する。   The start signal generator 203 is supplied with a launch signal from the start pistol 202 to generate a start signal, and supplies the generated start signal to the image determination device 206.

ヘッドセット204は、スタータ210に音声で踏み越しがあった旨の通知を行うためのものであり、画像判定装置206に接続される。信号灯205は、踏み越しがあったときに点灯して踏み越しがあったことを知らせるためのものであり、画像判定装置206に接続される。   The headset 204 is used to notify the starter 210 that the starter 210 has been stepped over by voice, and is connected to the image determination device 206. The signal lamp 205 is turned on when there is a stepping over to notify that the stepping over has occurred, and is connected to the image determination device 206.

画像判定装置206は、重心取得部112が取得したスタートライン画像bの重心位置が変化したと判定した場合にスタートラインBへの競技者による踏み込み有りと判定するものである。   The image determination device 206 determines that the player has stepped on the start line B when it is determined that the position of the center of gravity of the start line image b acquired by the center of gravity acquisition unit 112 has changed.

画像判定装置206は、ハンドフリーマイク201から、スタータ210の音声「位置について」を示す音声信号が供給される前に、後述する踏越判定処理を実行し、スタート信号発生装置203からスタート信号が供給されて踏越判定処理を終了させる。   The image determination device 206 executes a stepping determination process, which will be described later, before a sound signal indicating the sound “position” of the starter 210 is supplied from the hand-free microphone 201, and a start signal is received from the start signal generator 203. It is supplied, and the overtaking determination process is terminated.

画像判定装置206は、踏越判定処理において、ハンドフリーマイク201から、スタータ210の音声「位置について」を示す音声信号が供給されると、ビジョンカメラ101の重心取得部112からスタートライン画像bの重心位置の初期値を取得する。   When an audio signal indicating the audio “position” of the starter 210 is supplied from the hand-free microphone 201 in the step-over determination process, the image determination device 206 receives the start line image b from the gravity center acquisition unit 112 of the vision camera 101. Get the initial value of the center of gravity.

1500m走、10000m走のような陸上競技においては、少しでもスタートラインBに競技者の靴がかかると、フライングとなる。位置につく前、競技者がスタートラインBを踏むことはなく、ビジョンカメラ101で撮影したスタートライン画像bは、図13(a)に示すような形状を有する。このときのスタートライン画像bの重心位置を初期値(xg0、yg0)とする。   In athletics such as 1500m run and 10,000m run, if a competitor's shoes hit the start line B, it will be flying. Before reaching the position, the competitor does not step on the start line B, and the start line image b photographed by the vision camera 101 has a shape as shown in FIG. The center of gravity position of the start line image b at this time is set as an initial value (xg0, yg0).

初期値を取得した後、競技者の靴がスタートラインBを踏み越えた場合、スタートライン画像bは、図13(b)に示すように、競技者の踏み越えた靴跡fの分だけ変化し、重心位置も(xg0、yg0)から(xg1、yg1)に変化する。   After the initial value is acquired, when the competitor's shoes have stepped over the start line B, the start line image b changes as much as the shoe mark f that the competitor has stepped over, as shown in FIG. The position of the center of gravity also changes from (xg0, yg0) to (xg1, yg1).

画像判定装置206は、スタートライン画像bの重心位置がこのように変化すると、踏み越しありと判定し、ヘッドセット204に音声で踏み越しがあった旨の通知を行い、信号灯205を点灯する。   When the position of the center of gravity of the start line image b changes in this way, the image determination device 206 determines that there is a stepping over, notifies the headset 204 that there has been a stepping over by voice, and turns on the signal lamp 205.

次に実施形態2に係るターゲット監視装置の動作を説明する。
画像判定装置206は、図14に示すフローチャートに従って、踏越判定処理を実行する。
画像判定装置206は、初期値を入力する(ステップS31)。
Next, the operation of the target monitoring apparatus according to the second embodiment will be described.
The image determination device 206 executes a step-over determination process according to the flowchart shown in FIG.
The image determination device 206 inputs an initial value (step S31).

画像判定装置206は、スタート信号が供給されたか否かを判定する(ステップS32)。スタート信号が供給されなかったと判定した場合(ステップS32においてNo)、画像判定装置206は、ビジョンカメラ101の重心取得部112から、スタートライン画像bの重心位置を取得する(ステップS33)。   The image determination device 206 determines whether or not a start signal is supplied (step S32). If it is determined that the start signal has not been supplied (No in step S32), the image determination device 206 acquires the center of gravity position of the start line image b from the center of gravity acquisition unit 112 of the vision camera 101 (step S33).

画像判定装置206は、取得した重心位置とその初期値とを比較して、重心位置に変化があるか否かを判定する(ステップS34)。   The image determination device 206 compares the acquired barycentric position with its initial value to determine whether or not the barycentric position has changed (step S34).

重心位置に変化がないと判定した場合(ステップS34においてNo)、画像判定装置206は、再度、スタート信号が供給されたか否かを判定する(ステップS32)。   When it is determined that there is no change in the center of gravity position (No in step S34), the image determination device 206 determines again whether a start signal is supplied (step S32).

重心位置に変化があったと判定した場合(ステップS34においてYes)、画像判定装置206は、踏み越しがあった旨の通知を音声でヘッドセット204に行い、信号灯205を点灯する(ステップS35)。   When it is determined that the position of the center of gravity has changed (Yes in step S34), the image determination device 206 notifies the headset 204 by voice that there has been a stepping over, and turns on the signal lamp 205 (step S35).

一方、スタート信号が供給されたと判定した場合(ステップS32においてYes)、画像判定装置206は、この踏越判定処理を終了させる。   On the other hand, when it is determined that the start signal has been supplied (Yes in step S32), the image determination device 206 ends this overtaking determination process.

次に、この踏越判定処理を具体的に説明する。
図15(a)に示すように、時刻t10において、スタータ210の「位置について」の合図があると、画像判定装置206は、スタートライン画像bの初期値をビジョンカメラ101の重心取得部112から取得する(ステップS31の処理)。
Next, this step determination process will be specifically described.
As illustrated in FIG. 15A, when there is a signal about “position” of the starter 210 at time t <b> 10, the image determination device 206 obtains the initial value of the start line image b from the gravity center acquisition unit 112 of the vision camera 101. Obtain (Step S31).

初期値を取得した後、競技者の靴がスタートラインBを踏み越えずに、時刻t11になった場合、画像判定装置206は、この踏越判定処理を終了させる。   When the athlete's shoes do not step over the start line B and the time t11 comes after the initial value is acquired, the image determination device 206 ends this step determination process.

図15(b)に示すように、時刻t12において、競技者の靴がスタートラインBを踏み越えた場合、画像判定装置206は、重心位置に変化があったと判定し、踏み越しがあった旨の通知を音声でヘッドセット204に行い、信号灯205を点灯する(ステップS35の処理)。   As shown in FIG. 15 (b), when the athlete's shoes stepped over the start line B at time t12, the image determination device 206 determines that there has been a change in the center of gravity position, indicating that there was a stepping over. Notification is performed to the headset 204 by voice, and the signal lamp 205 is turned on (processing in step S35).

以上説明したように、本実施形態2によれば、ビジョンカメラ101は、スタートラインBを撮影し、重心取得部112は、スタートライン画像bの重心位置を取得する。そして、画像判定装置206がスタートライン画像bの重心位置が変化したと判定した場合、踏み越しがあった旨の通知を行うようにした。   As described above, according to the second embodiment, the vision camera 101 captures the start line B, and the centroid acquisition unit 112 acquires the centroid position of the start line image b. When the image determination device 206 determines that the position of the center of gravity of the start line image b has changed, a notification that there has been a stepping over is made.

従って、高速で踏越判定を行うことができる。また、スタンディングスタートによる1500m走、10000m走のように、オープンコースを走る陸上競技のように、スタートラインBが曲線になっている場合でも、正確に踏越判定を行うことができる。   Therefore, it is possible to make a stepping determination at high speed. In addition, even when the start line B is curved, such as athletics running on an open course, such as 1500m run and 10,000m run by standing start, it is possible to accurately perform the stepping determination.

(実施形態3)
実施形態3に係るターゲット監視装置は、跳躍競技における踏み切り板をターゲットとして監視し、この踏み切り板における踏み切り判定を行うようにしたものである。
(Embodiment 3)
The target monitoring apparatus according to the third embodiment monitors a crossing board in a jumping competition as a target, and performs a crossing determination on the crossing board.

実施形態3に係るターゲット監視装置の構成を図16に示す。
実施形態3に係るターゲット監視装置はビジョンカメラ101と、ビデオカメラ102と、映像モニタ103と、ビデオレコーダ207と、を備える。
The configuration of the target monitoring apparatus according to the third embodiment is shown in FIG.
The target monitoring apparatus according to the third embodiment includes a vision camera 101, a video camera 102, a video monitor 103, and a video recorder 207.

ビジョンカメラ101とビデオカメラ102と映像モニタ103とは、実施形態1のものと同様のものである。但し、実施形態2におけるビジョンカメラ101とビデオカメラ102とは、跳躍競技における踏切板Cをターゲットとして撮影する。   The vision camera 101, the video camera 102, and the video monitor 103 are the same as those in the first embodiment. However, the vision camera 101 and the video camera 102 in the second embodiment shoot with the crossing board C in the jumping competition as a target.

ビデオレコーダ207は、ビデオカメラ102で撮影された画像を判定用として記録するためのものである。   The video recorder 207 is for recording an image photographed by the video camera 102 for determination.

実施形態3の画像判定装置206は、重心取得部112が取得した踏切板画像cの重心位置が変化したと判定した場合に踏切板Cへの競技者による踏み切り有りと判定する。   The image determination device 206 according to the third embodiment determines that there is a level crossing by the player on the level crossing board C when it is determined that the barycentric position of the level crossing board image c acquired by the barycentric acquisition unit 112 has changed.

画像判定装置206は、競技が始まる直前から、後述する踏み切り判定処理の実行を開始し、予め設定された時間が経過すると、この踏み切り判定処理を終了させる。画像判定装置206は、踏み切り判定処理において、競技者の跳躍前に、重心取得部112から、踏切板画像cの重心位置の初期値を取得する。   The image determination device 206 starts execution of a crossing determination process, which will be described later, immediately before the competition starts, and ends the crossing determination process when a preset time has elapsed. In the crossing determination process, the image determination device 206 acquires an initial value of the barycentric position of the crossing board image c from the barycentric acquisition unit 112 before the athlete jumps.

跳躍競技においては、実施形態2と同様、少しでも競技者の靴が踏切板Cをはみ出して踏み切ると、ファールとなる。競技者の跳躍前であれば、競技者の靴は、踏切板Cには入らず、踏切板画像cは、図17(a)に示すような画像になる。このときの踏切板画像cの重心位置を(xg0,yg0)とする。   In the jumping competition, as in the second embodiment, when the athlete's shoes protrude from the railroad crossing plate C even a little, a foul is formed. If it is before the competitor's jump, the athlete's shoes do not enter the crossing board C, and the crossing board image c is an image as shown in FIG. The gravity center position of the crossing board image c at this time is defined as (xg0, yg0).

初期値を取得した後、競技者の靴が踏切板Cに足がかかった場合、スタートライン画像bは、図17(b)に示すように、競技者の踏み越えた靴跡fの分だけ変化し、重心位置も(xg0、yg0)から(xg0+Δx、yg1+Δy)に変化する。   After the initial value is acquired, when the athlete's shoes hit the crossing board C, the start line image b changes by the amount of the shoe mark f that the athlete has stepped over, as shown in FIG. Then, the position of the center of gravity also changes from (xg0, yg0) to (xg0 + Δx, yg1 + Δy).

また、画像判定装置206は、競技者による踏切板Cの踏み込み有りと判定した場合に、踏切板画像cの重心位置の変化量に基づいて踏み込み位置を特定し、競技者による踏切板Cの踏み込み位置を拡大撮影するように、ビデオカメラ102を制御する。   Further, when the image determination device 206 determines that the level crossing board C has been stepped on by the competitor, the image determination device 206 specifies the stepping position based on the amount of change in the center of gravity position of the level crossing board image c, and the player steps on the level crossing board C. The video camera 102 is controlled so that the position is magnified.

即ち、画像判定装置206は、踏切板画像cの重心位置がこのように変化すると、踏み切りありと判定し、取得した重心位置に基づいて競技者の靴fが認識された位置を算出し、監視エリアを算出する。画像判定装置206は、ビデオカメラ102を制御して、図18に示すように、踏切時に撮影された映像から踏切判定を行うために、算出した監視エリアを撮影させ、競技者の靴Fを拡大撮影させる。   That is, when the gravity center position of the crossing board image c changes in this way, the image determination device 206 determines that there is a crossing, calculates the position at which the athlete's shoe f is recognized based on the acquired gravity center position, and monitors it. Calculate the area. The image determination device 206 controls the video camera 102 to shoot the calculated monitoring area and enlarge the athlete's shoes F in order to determine the level crossing from the video taken at the level crossing as shown in FIG. Let them shoot.

次に実施形態3に係るターゲット監視装置の動作を説明する。
画像判定装置206は、図19に示すフローチャートに従って踏切判定処理を実行する。
Next, the operation of the target monitoring apparatus according to the third embodiment will be described.
The image determination device 206 executes a crossing determination process according to the flowchart shown in FIG.

画像判定装置206は、競技者が跳躍する前の踏切板画像cの重心位置の初期値を重心取得部112から取得する(ステップS41)。   The image determination device 206 acquires the initial value of the center of gravity position of the crossing board image c before the player jumps from the center of gravity acquisition unit 112 (step S41).

画像判定装置206は、予め設定された判定時間が経過したか否かを判定する(ステップS42)。   The image determination device 206 determines whether or not a predetermined determination time has elapsed (step S42).

判定時間が経過していないと判定した場合(ステップS42においてNo)、画像判定装置206は、踏切板画像cの重心位置を重心取得部112から取得する(ステップS43)。   If it is determined that the determination time has not elapsed (No in step S42), the image determination device 206 acquires the position of the center of gravity of the crossing board image c from the center of gravity acquisition unit 112 (step S43).

画像判定装置206は、取得した踏切板画像cの重心位置とその初期値とを比較して重心位置が変化したか否かを判定する(ステップS44)。   The image determination device 206 determines whether or not the center of gravity position has changed by comparing the center of gravity position of the obtained level crossing board image c with its initial value (step S44).

重心位置が変化していないと判定した場合(ステップS44においてNo)、画像判定装置206は、再び、判定時間が経過したか否かを判定し、判定時間が経過していないと判定した場合、踏切板画像cの重心位置を取得する(ステップS42〜S43)。   If it is determined that the position of the center of gravity has not changed (No in step S44), the image determination device 206 determines again whether the determination time has elapsed, and if it has determined that the determination time has not elapsed, The barycentric position of the crossing board image c is acquired (steps S42 to S43).

重心位置が変化したと判定した場合(ステップS44においてYes)、画像判定装置206は、取得した重心位置に基づいて競技者の靴fが認識された位置を算出し、監視エリアを算出する。そして、画像判定装置206は、切り出し領域を設定する(ステップS45)。   When it is determined that the position of the center of gravity has changed (Yes in step S44), the image determination device 206 calculates a position where the athlete's shoe f is recognized based on the acquired position of the center of gravity, and calculates a monitoring area. Then, the image determination device 206 sets a cutout area (step S45).

画像判定装置206は、設定した切り出し領域の撮影対象を拡大撮影するようにビデオカメラ102を制御して、映像モニタ103にその画像を表示させる(ステップS46)。   The image determination device 206 controls the video camera 102 so as to magnify the subject to be captured in the set clipping region, and displays the image on the video monitor 103 (step S46).

そして、判定時間が経過したと判定した場合(ステップS42においてYes)、画像判定装置206は、この処理を終了させる。   If it is determined that the determination time has elapsed (Yes in step S42), the image determination device 206 ends this process.

画像判定装置206がこのような踏切判定処理を実行することにより、踏み切り板に競技者の靴がかかった場合、ビデオカメラ102は、図18に示すように、競技者の靴Fを拡大撮影する。そして、映像モニタ103は、この競技者の靴の画像fを拡大表示し、踏切板Cに競技者の靴Fがかかったことが視認される。   When the image determination device 206 executes such a crossing determination process and the athlete's shoes are put on the crossing board, the video camera 102 shoots the athlete's shoes F as shown in FIG. . Then, the video monitor 103 enlarges and displays the image f of the athlete's shoes, and it is visually recognized that the athlete's shoes F are applied to the crossing board C.

以上説明したように、本実施形態3によれば、ビジョンカメラ101は、踏切板Cを撮影し、重心取得部112は、踏切板画像cの重心位置を取得する。そして、画像判定装置206が踏切板画像cの重心位置が変化したと判定した場合、競技者の靴の画像fを拡大撮影するように制御した。   As described above, according to the third embodiment, the vision camera 101 captures the railroad crossing board C, and the gravity center acquisition unit 112 acquires the gravity center position of the railroad crossing board image c. Then, when the image determination device 206 determines that the position of the center of gravity of the crossing board image c has changed, control is performed so that the image f of the athlete's shoe is magnified.

従って、高速で踏切判定を行うことができる。また、踏切板画像cの重心位置に基づいて監視エリアを算出し、その監視エリアを撮影するようにビデオカメラ102を制御することによって、この踏切の有無を分かり易く表示させることができる。   Therefore, it is possible to make a crossing determination at high speed. Further, by calculating the monitoring area based on the position of the center of gravity of the crossing board image c and controlling the video camera 102 so as to photograph the monitoring area, the presence or absence of the crossing can be displayed in an easily understandable manner.

尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施の形態に限られるものではない。
例えば、上記実施形態1,3では、ビジョンカメラ101とビデオカメラ102とを備えるようにした。しかし、カメラを1つにして、カメラ内で光軸を2つに分けて、一方の光を、センサ部113に導き、もう一方の光を映像モニタ103への表示用にしてもよい。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in the first and third embodiments, the vision camera 101 and the video camera 102 are provided. However, the number of optical axes may be divided into two in the camera, one light may be guided to the sensor unit 113, and the other light may be used for display on the video monitor 103.

また、上記実施形態2においても、ビデオカメラ102を備えるようにしてもよい。   Also in the second embodiment, the video camera 102 may be provided.

上記実施形態2では、スタートラインBが曲線になっている場合について説明した。しかし、これに限られるものではなく、スタートラインBが直線の場合でも、実施形態2を適用できる。   In the second embodiment, the case where the start line B is a curve has been described. However, the present invention is not limited to this, and the second embodiment can be applied even when the start line B is a straight line.

本発明の実施形態1に係るターゲット監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target monitoring apparatus which concerns on Embodiment 1 of this invention. 図1に示すビジョンカメラの構成を示す図である。It is a figure which shows the structure of the vision camera shown in FIG. 図2に示すセンサ部の構成を示す図である。It is a figure which shows the structure of the sensor part shown in FIG. 図3に示す処理要素の構成を示す図である。It is a figure which shows the structure of the processing element shown in FIG. 図4に示すトラッキング部の動作を示す図である。It is a figure which shows operation | movement of the tracking part shown in FIG. 切り出しエリアと監視エリアと追跡可能旋回エリアを示す図である。It is a figure which shows a cut-out area, a monitoring area, and a traceable turning area. 図1に示す追跡制御装置が実行する画像追跡処理を示すフローチャートである。It is a flowchart which shows the image tracking process which the tracking control apparatus shown in FIG. 1 performs. 実施形態1に係るターゲット監視装置の具体的な動作(1)を示す図である。It is a figure which shows the specific operation | movement (1) of the target monitoring apparatus which concerns on Embodiment 1. FIG. 実施形態1に係るターゲット監視装置の具体的な動作(2)を示す図である。It is a figure which shows the specific operation | movement (2) of the target monitoring apparatus which concerns on Embodiment 1. FIG. 本発明の実施形態2に係るターゲット監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target monitoring apparatus which concerns on Embodiment 2 of this invention. 実施形態2に係るスタートラインの例として、1500m走のスタートラインを示す図である。It is a figure which shows the start line of 1500 m run as an example of the start line which concerns on Embodiment 2. FIG. 実施形態2に係るスタートラインの例として、10000m走のスタートラインを示す図である。It is a figure which shows the start line of 10,000 m run as an example of the start line which concerns on Embodiment 2. FIG. 図10に示す画像判定装置の踏越判定の方法を示す図である。It is a figure which shows the method of the passing determination of the image determination apparatus shown in FIG. 図10に示す画像判定装置が実行する踏越判定処理を示すフローチャートである。It is a flowchart which shows the passing determination process which the image determination apparatus shown in FIG. 10 performs. 図10に示す画像判定装置が実行する踏越判定処理を示すタイミングチャートである。It is a timing chart which shows the passing determination process which the image determination apparatus shown in FIG. 10 performs. 本発明の実施形態3に係るターゲット監視装置の構成を示すブロック図である。It is a block diagram which shows the structure of the target monitoring apparatus which concerns on Embodiment 3 of this invention. 図16に示す画像判定装置が実行する踏み切り判定の方法を示す図である。It is a figure which shows the method of the crossing determination which the image determination apparatus shown in FIG. 16 performs. 図16に示す画像判定装置の踏み切り判定後のビデオカメラの撮影エリアを示す図である。It is a figure which shows the imaging | photography area of the video camera after the crossing determination of the image determination apparatus shown in FIG. 図16に示す画像判定装置が実行する踏み切り判定処理を示すフローチャートである。It is a flowchart which shows the crossing determination process which the image determination apparatus shown in FIG. 16 performs.

符号の説明Explanation of symbols

101 ビジョンカメラ
102 ビデオカメラ
103 映像モニタ
104 旋回台
105 旋回台制御装置
106 追跡制御装置
112 重心取得部
113 センサ部
114 演算処理部
206 画像判定装置
DESCRIPTION OF SYMBOLS 101 Vision camera 102 Video camera 103 Image | video monitor 104 Pivot stand 105 Pivot stand control apparatus 106 Tracking control apparatus 112 Center of gravity acquisition part 113 Sensor part 114 Operation processing part 206 Image determination apparatus

Claims (2)

監視対象物としてのターゲットを撮影する撮影部と、
前記撮影部によって撮影された前記ターゲットの画像の重心位置を取得する重心取得部と、
前記重心取得部が取得した前記重心位置の変化を監視する重心位置変化監視部と、を備え、
前記重心取得部は、
受光した光の強度に対応する信号レベルの光検出信号に変換する複数の光電変換素子が行列配置されて、前記ターゲットからの光を、前記光電変換素子で受光して前記画像を生成するとともに、前記光電変換素子が出力した光検出信号を2値化して加算演算するセンサ部と、
前記センサ部の前記光電変換素子を選択し、選択した前記光電変換素子の光検出信号の2値化信号を前記センサ部が加算演算して前記画像の0次モーメント量と1次モーメント量とを示す信号を出力するように前記センサ部を制御して、前記センサ部の出力信号に基づいて前記ターゲット画像の重心位置を取得する演算処理部と、備えたものであり、
前記撮影部は、前記ターゲットとして、競技における競技線を撮影し、
前記重心取得部は、前記撮影部によって撮影された前記競技線の画像の重心位置を取得し、
前記重心位置変化監視部は、前記重心取得部が取得した前記競技線画像の重心位置が変化したと判定した場合に前記競技線への競技者による踏み込み有りと判定する、
ことを特徴とするターゲット監視装置。
A photographing unit for photographing a target as a monitoring object;
A center-of-gravity acquisition unit that acquires a center-of-gravity position of the image of the target imaged by the imaging unit;
A centroid position change monitoring unit that monitors the change of the centroid position acquired by the centroid acquisition unit, and
The center of gravity acquisition unit
A plurality of photoelectric conversion elements that convert light detection signals of a signal level corresponding to the intensity of received light are arranged in a matrix, and light from the target is received by the photoelectric conversion elements to generate the image, A sensor unit for binarizing and adding the light detection signal output from the photoelectric conversion element;
The photoelectric conversion element of the sensor unit is selected, and the sensor unit adds and calculates the binarized signal of the photodetection signal of the selected photoelectric conversion element to obtain the zero-order moment amount and the primary moment amount of the image. An arithmetic processing unit that controls the sensor unit to output a signal indicating, and obtains the position of the center of gravity of the target image based on the output signal of the sensor unit,
The photographing unit photographs a competition line in the competition as the target,
The center-of-gravity acquisition unit acquires the center-of-gravity position of the image of the competition line imaged by the imaging unit,
The center-of-gravity position change monitoring unit determines that the player has stepped on the competition line when it is determined that the center-of-gravity position of the competition line image acquired by the center-of-gravity acquisition unit has changed.
A target monitoring device.
前記重心位置変化監視部は、前記競技者による前記競技線の踏み込み有りと判定した場合に、前記競技線の画像の重心位置の変化量に基づいて踏み込み位置を特定し、前記競技者による前記競技線の踏み込み位置を拡大撮影するように、前記撮影部を制御する、
ことを特徴とする請求項1に記載のターゲット監視装置。
The center-of-gravity position change monitoring unit identifies a stepping position based on the amount of change in the center-of-gravity position of the image of the competition line when it is determined that the player has stepped on the competition line, and the competition by the athlete Controlling the photographing unit so as to magnify the stepping position of the line,
The target monitoring apparatus according to claim 1.
JP2004324164A 2004-11-08 2004-11-08 Target monitoring device Expired - Fee Related JP4390684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004324164A JP4390684B2 (en) 2004-11-08 2004-11-08 Target monitoring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004324164A JP4390684B2 (en) 2004-11-08 2004-11-08 Target monitoring device

Publications (2)

Publication Number Publication Date
JP2006135799A JP2006135799A (en) 2006-05-25
JP4390684B2 true JP4390684B2 (en) 2009-12-24

Family

ID=36728899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004324164A Expired - Fee Related JP4390684B2 (en) 2004-11-08 2004-11-08 Target monitoring device

Country Status (1)

Country Link
JP (1) JP4390684B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ITRM20060110A1 (en) * 2006-03-03 2007-09-04 Cnr Consiglio Naz Delle Ricerche METHOD AND SYSTEM FOR THE AUTOMATIC DETECTION OF EVENTS IN SPORTS ENVIRONMENT
JP5339065B2 (en) * 2009-03-17 2013-11-13 大日本印刷株式会社 Object tracking device
JP5547144B2 (en) 2011-09-08 2014-07-09 株式会社東芝 Monitoring device, method thereof, and program thereof

Also Published As

Publication number Publication date
JP2006135799A (en) 2006-05-25

Similar Documents

Publication Publication Date Title
JP4018695B2 (en) Method and apparatus for continuous focusing and exposure adjustment in a digital imaging device
US9367746B2 (en) Image processing apparatus for specifying an image relating to a predetermined moment from among a plurality of images
CN106575027A (en) Image pickup device and tracking method for subject thereof
EP2120450A2 (en) Image capture apparatus and program
JP2009094725A5 (en)
EP3164831A1 (en) Methods and apparatus relating to detection and/or indicating a dirty lens condition
KR101677315B1 (en) Image processing apparatus, method, and computer program storage device
JP2007504562A (en) Method and apparatus for performing iris authentication from a single image
JP2006101186A (en) Camera
JP2003259187A (en) User interface assembly of camera
JP2008099246A (en) Imaging device and subject detection method
KR20060051247A (en) Image processing apparatus and image processing method
KR20170036601A (en) Imaging apparatus, flicker detection method, and program
JP2010039284A (en) Image pick-up apparatus and control method therefor
JP2016127377A (en) Image processing apparatus and image processing method, image reproducer and image reproducing method and program
KR101665175B1 (en) Image acquisition apparatus,image acquisition method and recording medium
EP3599989A1 (en) High speed pupil detection system and method
JP4390684B2 (en) Target monitoring device
JP4594197B2 (en) Automatic tracking device
JPH1021407A (en) Moition detector
JP5380336B2 (en) Imaging apparatus, panoramic image synthesis method and program thereof
JP4716266B2 (en) Image processing apparatus, imaging apparatus, and program thereof
JP4725693B2 (en) Automatic tracking device
JP2017192114A5 (en)
JP4752685B2 (en) Imaging apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090519

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090811

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090828

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090924

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091006

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121016

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131016

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees