JP2006279568A - Image-pickup device - Google Patents

Image-pickup device Download PDF

Info

Publication number
JP2006279568A
JP2006279568A JP2005096158A JP2005096158A JP2006279568A JP 2006279568 A JP2006279568 A JP 2006279568A JP 2005096158 A JP2005096158 A JP 2005096158A JP 2005096158 A JP2005096158 A JP 2005096158A JP 2006279568 A JP2006279568 A JP 2006279568A
Authority
JP
Japan
Prior art keywords
moving object
tag
information
image
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005096158A
Other languages
Japanese (ja)
Inventor
Yasuyuki Nakada
康之 中田
Toru Kamata
徹 鎌田
Koichi Oikawa
浩一 及川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2005096158A priority Critical patent/JP2006279568A/en
Publication of JP2006279568A publication Critical patent/JP2006279568A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Studio Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image-pickup device in which attribute information on a mobile object is provided automatically to an image region occupied by the mobile object by detecting the mobile object caught within a visual field of a camera whose position and posture are fixed with respect to the image-pickup device for taking an image of the mobile object. <P>SOLUTION: The image-pickup device includes an image-pickup device 5 for generating image information, an RF tag 1 that is mounted to the mobile object to hold unique information on the mobile object, a directive antenna for enabling a position of the RF tag 1 to be recognized by performing radio communication, an RF tag reader/writer 3 for performing reading-in or the like of the RF tag 1 and unique information on the mobile object via the antenna 2, a mobile object detecting means 6 for detecting a mobile-object region from the image information, a clipped region/scaling ratio calculating means 7 for extracting a clipped portion containing the mobile-object region and then calculating the scaling ratio depending on the outline size of a contour of the clipped region to make the scaling ratio calculated correspond to the clipped region, and attribute information providing means 4, 8 each generating attribute information based on the unique information output from the RF tag reader/writer 3 to provide the attribute information made to correspond to the clipped portion and outputting video information attached with the attribute provided with the attribute information and scaling ratio information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、動体撮影を行う撮影装置に関し、特に撮影時に映像の各場面の属性情報を自動的に生成することで、映像の編集作業を簡略化させる撮影装置に関する。   The present invention relates to an imaging apparatus that performs moving body imaging, and more particularly to an imaging apparatus that simplifies video editing work by automatically generating attribute information of each scene of the video during shooting.

近年、インターネット回線などを使用することで、デジタルコンテンツの配信・放送が容易になるに従い、大量の映像素材を短時間で加工・編集できる装置が求められている。例えば、スポーツ映像などで、ライブ中継を行なうと同時に、ハイライト場面などを切出して、リプレイ映像を生成するための装置などが該当する。   In recent years, there has been a demand for an apparatus capable of processing and editing a large amount of video material in a short time as digital contents can be easily distributed and broadcast by using an Internet line or the like. For example, it corresponds to a device for generating a replay video by cutting out a highlight scene etc. at the same time as performing a live broadcast on a sports video or the like.

従来から、映像編集の代表的な装置として、ノンリニア編集装置がある。本装置では、ビデオカメラで取得した映像やテープに録画されている映像をデジタルデータへ変換し、パソコンのハードディスクなどに取り込んで加工・編集する。例えば、サッカーのゴールシーンを切り出すには、ハードディスクに格納されている映像を再生し、切出しの開始位置と終了位置とを人手で設定し、該当区間を別のデータファイルとして保存またはビデオテープへ記録するなどして、リプレイ映像を作成する。しかしながら、ノンリニア編集装置では、切出し区間の指定やリプレイ映像の保存などの編集作業を人手で行なう必要があるため、多大な手間とコストを要する。   Conventionally, there is a nonlinear editing apparatus as a typical apparatus for video editing. In this device, the video captured by the video camera and the video recorded on the tape are converted into digital data, which is taken into a hard disk of a personal computer and processed and edited. For example, to cut out a soccer goal scene, play the video stored on the hard disk, set the start and end positions of the cut manually, and save the section as a separate data file or record it on videotape. To create replay video. However, in the non-linear editing apparatus, it is necessary to manually perform editing operations such as specifying a cut-out section and storing a replay video, which requires a great deal of labor and cost.

そこで、映像内の各場面に属性情報を与え、その属性情報を検索することで自動的に切出し区間を特定する方法が、幾つか提案されている。   In view of this, several methods have been proposed in which attribute information is given to each scene in a video and the extracted section is automatically specified by searching the attribute information.

例えばその1つに、撮影対象に装着した赤外線LED(Light Emitting Diode)から発せられるID(Identification)信号を認識し、蓄積されるビデオデータに実時間でインデックス付けする方法がある(例えば、非特許文献1)。しかしながら、LEDを信号源として用いているため、発光方向に受光器が存在しない、あるいはLEDと受光器との間に遮る障害物がある場合などには、ID情報を受け取れないという問題がある。   For example, as one of them, there is a method of recognizing an ID (Identification) signal emitted from an infrared LED (Light Emitting Diode) attached to an object to be photographed and indexing the accumulated video data in real time (for example, non-patent) Reference 1). However, since the LED is used as a signal source, there is a problem that the ID information cannot be received when there is no light receiver in the light emitting direction or when there is an obstacle between the LED and the light receiver.

他の1つに、カメラ画像を記録する際、同時に被写体に装着されたRF(Radio Frequency)タグなどのID情報を読み取って画像データと共に保存することで、画像の改ざんを防止する方法がある(例えば、特許文献1)。また、同発明は、指向性アンテナによってカメラが向いているRFタグからのみ信号を受信するものである。しかし、指向性アンテナとカメラ視野とを関連付ける方法に関する具体的な手段は無い。つまり、RFタグのID情報が記録されている場合でも、該当する撮影対象が映っているかどうかが保証されないという問題がある。   As another method, when recording a camera image, there is a method for preventing falsification of an image by simultaneously reading ID information such as an RF (Radio Frequency) tag attached to a subject and storing it together with image data ( For example, Patent Document 1). In the invention, a signal is received only from an RF tag to which the camera is directed by a directional antenna. However, there is no specific means regarding a method for associating the directional antenna with the camera field of view. That is, there is a problem that even if ID information of the RF tag is recorded, it is not guaranteed whether or not the corresponding photographing target is shown.

また他の1つに、指向性アンテナを用いて、RFタグの方向を検出し、同方向へLEDなどのビーム光を照射することで、所望の物品を見つけやすくする方法がある(例えば、特許文献2)。しかし、指向性アンテナを用いるものの、アンテナとカメラとを関連付けたり、RFタグのID情報と移動物体とを関連付けたりする手段は無い。   As another method, there is a method of making it easy to find a desired article by detecting the direction of the RF tag using a directional antenna and irradiating light beams such as LEDs in the same direction (for example, patents). Reference 2). However, although a directional antenna is used, there is no means for associating the antenna with the camera or associating the RF tag ID information with the moving object.

更に他の1つに、局所相関法などの画像処理手法を用いて、移動物体が映像内のどこの領域に存在しているかを追跡する方法がある(例えば、非特許文献2)。しかし、各移動物体がどのような属性を持っているかを、リアルタイムで自動的に与えることはできないといった問題があった。
特開2000−261751号公報 特開2002−271229号公報 角、伊藤、松口、SIDney Fels、内海、鈴木、中原、岩澤、小暮、間瀬、萩田著、「複数センサ群による協調的なインタラクションの記録」、インタラクション2003論文集 情報処理学会、pp。255-262。 森田、「局所相関演算による動きの検知と追跡」、 電子情報通信学会論文誌 D-II、 Vol。J84-D-II、 No。2、 pp。299-309、 2001。
Furthermore, there is a method of tracking where a moving object exists in an image using an image processing method such as a local correlation method (for example, Non-Patent Document 2). However, there is a problem that it is impossible to automatically give in real time what kind of attribute each moving object has.
JP 2000-261551 A JP 2002-271229 A Tsuno, Ito, Matsuguchi, SIDney Fels, Utsumi, Suzuki, Nakahara, Iwasawa, Kogure, Mase, Tomita, “Collaborative Interaction Recording with Multiple Sensors”, Interaction 2003 Proceedings Information Processing Society of Japan, pp. 255-262. Morita, “Motion Detection and Tracking by Local Correlation”, IEICE Transactions D-II, Vol. J84-D-II, No. 2, pp. 299-309, 2001.

前記した従来の技術あるいはそれらの単なる組合せでは、カメラ視野内にあるRFタグが装着された移動物体を検出できないため、目的とする移動物体が占める画像領域への属性情報付与や、対象移動物体のズーミングおよび追尾撮影、対象移動物体が存在する映像区間の抽出などができないという問題があった。   With the above-described conventional technique or a simple combination of them, a moving object with an RF tag in the camera field of view cannot be detected. Therefore, attribute information can be assigned to an image area occupied by the target moving object, There is a problem that zooming and tracking shooting, extraction of a video section where a target moving object exists cannot be performed.

そこで本発明は、位置と姿勢が固定されたカメラの視野内に映っている移動物体を検出し、その移動物体が占める画像領域に移動物体の属性情報を自動的に付与する撮像装置を提供することを目的とする。   Therefore, the present invention provides an imaging device that detects a moving object reflected in the field of view of a camera whose position and orientation are fixed, and automatically assigns attribute information of the moving object to an image area occupied by the moving object. For the purpose.

第1の発明の撮影装置は、固定された所望の撮影視野を撮影して画像情報を生成する撮像手段を有して成る、映像情報を出力する撮影装置であって、撮影対象である移動物体に装着され、該移動物体の固有情報を保持する無線通信可能なRFタグと、該RFタグと無線通信するとともに、前記RFタグの存在位置を認識可能とする指向性アンテナと、該指向性アンテナを介して前記RFタグと前記固有情報の読取りまたは書込みを行うRFタグリーダ・ライタと、前記撮像手段からの前記画像情報から移動物体領域を検出する移動物体検出手段と、前記画像情報から少なくとも前記移動物体領域を含む切出し領域を抽出するとともに、該切出し領域の輪郭サイズに応じて所望サイズへの拡縮率を算出して該切出し領域に対応付ける切出し領域・拡縮率算出手段と、前記RFタグリーダ・ライタからの前記固有情報に基づき属性情報を生成して前記切出し領域に対応付けて付与し、該属性情報と前記拡縮率情報とが付与された属性付き映像情報を出力する属性情報付与手段とを有する構成とする。   An imaging apparatus according to a first aspect of the present invention is an imaging apparatus for outputting video information, comprising an imaging means for generating image information by imaging a fixed desired field of view, and a moving object that is an imaging target An RF tag that is attached to the wireless tag and that can communicate with the RF tag, and that is capable of recognizing the position of the RF tag, and the directional antenna. An RF tag reader / writer that reads or writes the RF tag and the specific information via a moving object, a moving object detection unit that detects a moving object region from the image information from the imaging unit, and at least the movement from the image information A cutout area that extracts a cutout area including an object area, calculates a scaling ratio to a desired size according to the outline size of the cutout area, and associates the cutout area with the cutout area Attribute-added video to which attribute information is generated based on the unique information from the RF tag reader / writer and attached in association with the cut-out area, and the attribute information and the enlargement / reduction ratio information are assigned. An attribute information adding unit that outputs information is included.

前記第1の発明によれば、移動物体領域を含む切出し領域と、移動物体に装着されたRFタグからの属性情報とを対応付け、更に拡縮率も対応付けた属性付き映像情報として出力することから、付与された属性情報を利用することによって編集作業が容易な属性付き映像情報を得ることができるとともに、追尾撮影された所望の移動物体のズーム映像が得られる。   According to the first aspect of the invention, the cutout area including the moving object area and the attribute information from the RF tag attached to the moving object are associated with each other, and further output as attributed video information associated with the scaling ratio. Therefore, by using the assigned attribute information, it is possible to obtain attribute-added video information that can be easily edited, and to obtain a zoom video of a desired moving object that has been tracked.

第2の発明の撮影装置は、前記第1の発明の撮影装置において、前記移動物体検出手段は、所定の背景差分法により第1の移動物体領域を検出する背景差分法検出手段と、該第1の移動物体領域に基づいて検出対象範囲を限定して所定の局所相関法により第2の移動物体領域を検出する局所相関法検出手段とを有する構成とする。   According to a second aspect of the present invention, there is provided the photographing apparatus according to the first aspect, wherein the moving object detecting means includes a background difference method detecting means for detecting a first moving object region by a predetermined background difference method; The detection target range is limited based on one moving object region, and a local correlation method detecting unit is used to detect the second moving object region by a predetermined local correlation method.

前記第2の発明によれば、背景差分法によって大まかに移動物体領域が求め、次に、その求められた移動物体領域に基づいて移動物体の検出対象範囲を限定し、局所相関法によって、より細かく移動物体領域を決定することから、明るさの変動などのノイズに強く、より短い処理時間にて属性付き映像情報が得られる。   According to the second aspect of the present invention, the moving object region is roughly determined by the background subtraction method, then the detection target range of the moving object is limited based on the determined moving object region, and the local correlation method Since the moving object area is determined finely, it is resistant to noise such as fluctuations in brightness, and image information with attributes can be obtained in a shorter processing time.

第3の発明の撮影装置は、前記第1の発明の撮影装置において、前記切出し領域・拡縮率算出手段は、前記移動物体領域の輪郭内に前記指向性アンテナで位置認識された前記RFタグが存在するとともに、前記移動物体領域内の特定位置の移動速度と移動方向とが前記RFタグの移動速度と移動方向とに一致した場合に、前記移動物体領域と前記固有情報とを対応付けて前記切出し領域を抽出する構成とする。   According to a third aspect of the present invention, there is provided the photographing apparatus according to the first aspect, wherein the cut-out area / enlargement / reduction ratio calculating means includes the RF tag whose position is recognized by the directional antenna within the outline of the moving object area. And when the moving speed and moving direction of the specific position in the moving object area coincide with the moving speed and moving direction of the RF tag, the moving object area and the unique information are associated with each other. A cutout area is extracted.

前記第3の発明によれば、移動物体領域内の特定位置の移動速度と移動方向とが前記RFタグの移動速度と移動方向とに一致した場合に、その切出し領域にRFタグからの属性情報が付与されることから、移動物体とRFタグとが確実に対応の取れた属性付き映像情報を得ることができる。   According to the third aspect, when the moving speed and moving direction of the specific position in the moving object area match the moving speed and moving direction of the RF tag, the attribute information from the RF tag is added to the cut-out area. Thus, it is possible to obtain video information with attributes in which the moving object and the RF tag can reliably correspond to each other.

第4の発明の撮影装置は、前記第1および第2の発明の撮影装置において、前記移動物体検出手段は、予め獲得した前記RFタグの存在位置情報に基づいて、前記画像情報に対する前記移動物体領域の検出対象範囲を限定する構成とする。   According to a fourth aspect of the present invention, there is provided the photographing apparatus according to the first or second aspect, wherein the moving object detecting means is configured to detect the moving object with respect to the image information based on the pre-existing position information of the RF tag. The region detection target range is limited.

前記第4の発明によれば、移動物体領域の検出対象範囲が限定されることから、移動物体領域の検出処理を高速にすることができる。   According to the fourth aspect, since the detection target range of the moving object region is limited, the moving object region detection process can be performed at high speed.

第5の発明の撮影装置は、前記第1の発明の撮影装置において、前記属性情報付与手段は、前記属性付き映像情報を格納する手段を有して、前記属性情報に関連する属性関連情報の設定に基づいて、前記格納された前記属性付き映像情報から前記属性情報に関連付けられた映像区間のみを抽出して出力する構成とする。   According to a fifth aspect of the present invention, there is provided the photographing apparatus according to the first aspect, wherein the attribute information providing means includes means for storing the attribute-added video information, and the attribute-related information related to the attribute information. Based on the setting, only the video section associated with the attribute information is extracted and output from the stored video information with attribute.

前記第5の発明によれば、格納された属性付き映像情報から属性情報に関連付けられた映像区間のみを抽出できることから、所望の撮影対象や映像シーンを選択あるいは抽出する際、付与された属性情報を利用することで編集作業が容易に実施できる。   According to the fifth aspect, since only the video section associated with the attribute information can be extracted from the stored video information with attributes, the attribute information given when selecting or extracting the desired shooting target or video scene Editing can be easily performed by using.

本発明によれば、カメラの視野内に映っている移動物体を検出し、その移動物体が占める画像領域に移動物体の属性情報を自動的に付与できることから、取得した映像情報から所望の撮影対象や映像シーンを選択あるいは抽出する際、付与された属性情報を利用することによって編集作業の自動化が可能となる。   According to the present invention, a moving object reflected in the field of view of a camera can be detected, and attribute information of the moving object can be automatically given to an image area occupied by the moving object. When selecting or extracting video scenes, the editing operation can be automated by using the assigned attribute information.

また、タグを装着した特定の人物などの被写体をズームアップしながら、自動的に追従撮影することができる。   In addition, it is possible to automatically perform follow-up shooting while zooming up on a subject such as a specific person wearing a tag.

(実施例1)
以下、本発明の実施の形態について、図を参照して説明する。図1は、本発明の実施例の撮影装置の構成を示す図である。
Example 1
Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration of a photographing apparatus according to an embodiment of the present invention.

図1において、撮影装置は、RFタグ1と、指向性アンテナ2と、RFタグリーダ・ライタ3と、属性情報生成部4と、撮像部5と、移動物体検出部6と、切出し領域・拡縮率算出部7と、属性付き映像生成部8とを有する構成である。
〔RFタグ1〕
RFタグ1は、少なくともメモリ内蔵(外付けメモリでも良い)のICチップとアンテナ(コイルアンテナなど)とから成り、無線を用いることで、非接触でRFタグリーダ・ライタ3との通信を行なうことができるデバイスである。RFタグ1としては、電池などの電源を内蔵せず、RFリーダ・ライタ3から発信される電磁波から駆動用の電力を生成するタイプのRFタグ(パッシブタグ)、または電池内蔵タイプのRFタグ(アクティブタグ)のいずれを使用であっても構わない。RFタグ1の移動物体への装着場所としては、移動物体の動きが極力少ない場所が望ましく、例えば人の場合では、動きの比較的安定している頭や胸に装着することが望ましい。
In FIG. 1, an imaging apparatus includes an RF tag 1, a directional antenna 2, an RF tag reader / writer 3, an attribute information generation unit 4, an imaging unit 5, a moving object detection unit 6, a cutout area / scale ratio. The calculation unit 7 and the attributed video generation unit 8 are included.
[RF tag 1]
The RF tag 1 includes at least an IC chip with a built-in memory (or an external memory may be used) and an antenna (such as a coil antenna), and can communicate with the RF tag reader / writer 3 in a non-contact manner by using wireless communication. It can be a device. As the RF tag 1, an RF tag (passive tag) of a type that generates driving power from electromagnetic waves transmitted from the RF reader / writer 3 without incorporating a power source such as a battery, or an RF tag of a battery built-in type ( Any of active tags) may be used. The place where the RF tag 1 is attached to the moving object is preferably a place where the movement of the moving object is as small as possible. For example, in the case of a person, the RF tag 1 is preferably attached to the head or chest where the movement is relatively stable.

また、RFタグ1内のメモリには、例えばRFタグ1が装着される撮影対象に応じて、その対象の名称や特徴(色、形状、ID番号など)、仕様など、あるいはそれらが記載されたネットワークアドレスなどの固有情報を予め格納しておく。更に、書込みも可能なRFタグを使用した場合には、カメラで撮影している最中に、RFタグ1内のメモリに格納されたデータ内容を、必要に応じて書き替えることも可能である。
〔指向性アンテナ2〕
指向性アンテナ2は、RFタグ1と無線通信するとともに、RFタグ1の存在位置を認識可能とするために指向性が可変制御できるアンテナである。指向性アンテナ2として、例えば指向性パターンが可変なアダプティブアレーアンテナを用いる。図2に示すように、アダプティブアレーアンテナでは、複数のアンテナ・エレメントで受信した信号に対して重み付けをし、重みを適宜変更することで指向性パターンがコントロールできるものである。
Further, in the memory in the RF tag 1, for example, the name, characteristics (color, shape, ID number, etc.), specifications, or the like of the target are described according to the subject to which the RF tag 1 is attached. Unique information such as a network address is stored in advance. Further, when a writable RF tag is used, it is possible to rewrite the data contents stored in the memory in the RF tag 1 as necessary during shooting with the camera. .
[Directional antenna 2]
The directional antenna 2 is an antenna that can wirelessly communicate with the RF tag 1 and variably control the directivity so that the position of the RF tag 1 can be recognized. As the directional antenna 2, for example, an adaptive array antenna having a variable directivity pattern is used. As shown in FIG. 2, in the adaptive array antenna, the directivity pattern can be controlled by weighting signals received by a plurality of antenna elements and appropriately changing the weights.

指向性アンテナに対するRFタグ1からの電波の到来方向をθとし、アンテナ・エレメントが直線状に等間隔Dで並んでいる場合、基準となるアンテナと比較したときの第i番目のアンテナへの伝播遅延時間τi(θ)は、   When the direction of arrival of radio waves from the RF tag 1 with respect to the directional antenna is θ and the antenna elements are arranged in a straight line at equal intervals D, the propagation to the i-th antenna when compared with the reference antenna Delay time τi (θ) is

Figure 2006279568
で表わされる。なお、cは、伝播速度である。変調信号をm(n)、搬送波の角周波数をω、第i番目のアンテナ出力をxi(n)、nを時間とすると、
Figure 2006279568
It is represented by Note that c is the propagation speed. If the modulation signal is m (n), the angular frequency of the carrier wave is ω, the i-th antenna output is x i (n), and n is time,

Figure 2006279568
となる。
Figure 2006279568
It becomes.

所望の信号波形が既知で参照信号d(n)として利用できる場合、アレーの出力信号y(n)との平均2乗誤差を最小にすることで、重み係数を決定できる。u(n)を干渉や雑音などの誤差成分とする。   When the desired signal waveform is known and can be used as the reference signal d (n), the weighting factor can be determined by minimizing the mean square error with the array output signal y (n). Let u (n) be an error component such as interference or noise.

Figure 2006279568
各アンテナの入力信号xi(n)、重み係数wi(θ)をベクトルで表現し、各エレメントの合成出力をy(n)として、上式に代入する。
Figure 2006279568
The input signal x i (n) and the weighting coefficient w i (θ) of each antenna are expressed by vectors, and the combined output of each element is substituted by y (n) into the above equation.

Figure 2006279568
なお、添え字Tは転置、Hは複素共役転置を表わす。このとき、誤差成分の2乗の期待値Jは次式で表わされる。
Figure 2006279568
Note that the subscript T represents transposition, and H represents complex conjugate transposition. At this time, the expected value J of the square of the error component is expressed by the following equation.

Figure 2006279568

各アンテナの入力信号の自己相関行列をRxx=E{x(n)x(n)H}、参照信号と各アンテナの入力信号との相互相関行列をrxd=E{x(n)d*(n)}と定義すると、最適な重みは、期待値Jを重みベクトルWで偏微分することにより、
Figure 2006279568

The autocorrelation matrix of the input signal of each antenna is R xx = E {x (n) x (n) H }, and the cross correlation matrix of the reference signal and the input signal of each antenna is r xd = E {x (n) d When defined as * (n)}, the optimal weight is obtained by partial differentiation of the expected value J with the weight vector W,

Figure 2006279568

で与えられる。
Figure 2006279568

Given in.

上述のように、電波の飛来方向θと、重み係数W(θ)とを対応付けることができる。そこで、指定した範囲θ1<θ<θ2でアンテナの指向性を変化させるとき、対応する重み係数を、W(θ1)からW(θ2)の範囲内で徐々に変化させることによって、アンテナの方向を走査することができる。例えば、刻み幅Δθでアンテナの方向を振るとき、予め、重み係数を、 As described above, the radio wave arrival direction θ can be associated with the weighting factor W (θ). Therefore, when changing the directivity of the antenna in the specified range θ 1 <θ <θ 2 , by gradually changing the corresponding weighting factor within the range of W (θ 1 ) to W (θ 2 ), The direction of the antenna can be scanned. For example, when the direction of the antenna is swung with a step size Δθ,

Figure 2006279568

のように算出しておき、刻み値k・Δθに応じて、重み係数Wを変化させることで、アンテナの指向性パターンをコントロールすることができる。
Figure 2006279568

The antenna directivity pattern can be controlled by changing the weighting coefficient W according to the step value k · Δθ.

また、指向性アンテナを、八木アンテナなどの指向性パターンが固定されているアンテナを用いて、機械的にアンテナを回転させる機構で構成しても良い。本構成の場合では、アンテナの回転角θを、指定範囲θ1<θ<θ2で変化させることによって、上記のアダプティブアレーアンテナと等価の処理を実現できる。 Further, the directional antenna may be configured by a mechanism that mechanically rotates the antenna using an antenna having a fixed directional pattern such as a Yagi antenna. In the case of this configuration, processing equivalent to the above-described adaptive array antenna can be realized by changing the rotation angle θ of the antenna in the specified range θ 1 <θ <θ 2 .

更に、指向性アンテナとカメラとの位置関係について述べる。検出対象とする移動物体を検出する際、上述した方法で得たRFタグ1からの電波の飛来方向θと、後述するカメラ画像内の注視領域とを対応付ける処理を行う。このとき、移動物体、アンテナおよびカメラが同一直線状にある必要がある。移動物体の位置は不特定であることから、同一直線状という条件を満たすためには、アンテナの中心位置とカメラレンズの焦点位置が鉛直軸上で一致していることが望ましい。
〔RFタグリーダ・ライタ3〕
RFタグリーダ・ライタ3は、RFタグ1からのデータ読込みの場合、指向性アンテナから出力された信号y(n)から、RFタグ1のデータによって変調された信号を復調し、更に、AD変換を施すことによって、RFタグ1に基づく固有のデジタルデータを得る。得られたデジタルデータは、映像に関する属性を表わす元データであり、属性情報生成部4へ出力する。また、RFタグ1へのデータ書込みの場合、データ読込み時とは逆の処理を行なうことによって、デジタルデータをRFタグ1内のメモリに書き込む。
〔属性情報生成部4〕
属性情報生成部4は、RFタグリーダ・ライタ3から出力されたデジタルデータに予め決められた規則を適用し、デジタルデータを属性値へ変換することで、属性データを生成する。属性値への変換例を、図3を参照して説明する。図3は、RFタグの固有データから属性データへの変換例を示す図である。
Furthermore, the positional relationship between the directional antenna and the camera will be described. When detecting a moving object to be detected, a process of associating the direction of radio wave arrival θ from the RF tag 1 obtained by the above-described method with a gaze area in a camera image described later is performed. At this time, the moving object, the antenna, and the camera need to be in the same straight line. Since the position of the moving object is unspecified, it is desirable that the center position of the antenna and the focal position of the camera lens coincide on the vertical axis in order to satisfy the condition of the same straight line.
[RF tag reader / writer 3]
When reading data from the RF tag 1, the RF tag reader / writer 3 demodulates the signal modulated by the data of the RF tag 1 from the signal y (n) output from the directional antenna, and further performs AD conversion. By applying, unique digital data based on the RF tag 1 is obtained. The obtained digital data is original data representing attributes relating to video, and is output to the attribute information generation unit 4. Further, in the case of data writing to the RF tag 1, digital data is written to the memory in the RF tag 1 by performing a process reverse to that at the time of data reading.
[Attribute information generation unit 4]
The attribute information generation unit 4 applies predetermined rules to the digital data output from the RF tag reader / writer 3 and converts the digital data into attribute values, thereby generating attribute data. An example of conversion to an attribute value will be described with reference to FIG. FIG. 3 is a diagram illustrating an example of conversion from unique data of RF tags to attribute data.

例えば撮影装置をマラソン競技に適用する場合、RFタグ1のメモリには、ランナーの固有データであるゼッケン番号、競技日、スタート時刻、種目などのための数値や文字列データが格納されている。これらの数値や文字列データをRFリーダ・ライタ3で読み取った後に、図3のような具体的な属性値へと変換する。なお、RFタグ1のメモリ容量が大きく、属性値そのものの形態(例えばコード化情報)で格納できる場合には、その変換が不要なことは言うまでもない。   For example, when the imaging device is applied to a marathon competition, the memory of the RF tag 1 stores numbers and character string data for a racer's unique data such as a bib number, a competition date, a start time, and an event. After these numerical values and character string data are read by the RF reader / writer 3, they are converted into specific attribute values as shown in FIG. Needless to say, when the RF tag 1 has a large memory capacity and can be stored in the form of the attribute value itself (for example, coded information), the conversion is unnecessary.

なお、属性データは、有効なRFタグ1に対応するデジタルデータからのみ生成するものとする。その場合のRFタグ1の有効または無効は、次のようにして判定する。現在撮影中のカメラの視野角の上下限をθmax、θminとし、 RFタグに対する読み込み操作を行なったときの指向性アンテナの角度をθR(=θ1 +k・Δθ)とする。θRが、次式の Note that attribute data is generated only from digital data corresponding to a valid RF tag 1. In this case, the validity or invalidity of the RF tag 1 is determined as follows. The upper and lower limits of the viewing angle of the camera currently being photographed are θmax and θmin, and the angle of the directional antenna when the reading operation is performed on the RF tag is θ R (= θ 1 + k · Δθ). θ R is

Figure 2006279568
を満たすときに(図4に示すケース)、そのRFタグ1を有効と判定する。
〔撮像部5〕
撮像部5は、固定された所望の撮影視野を撮影して画像データを生成するカメラであり、例えばCCDカメラなどのテレビカメラが使用される。画像データは、一定のサンプリング時間間隔 (例えば、33ms)で取得され、動画像が生成される。
Figure 2006279568
When the condition is satisfied (case shown in FIG. 4), the RF tag 1 is determined to be valid.
[Imaging unit 5]
The imaging unit 5 is a camera that captures a fixed desired field of view and generates image data. For example, a television camera such as a CCD camera is used. The image data is acquired at a constant sampling time interval (for example, 33 ms), and a moving image is generated.

画像データの1つの画素は、カラー画像の場合では、赤成分(R)、緑成分(G)、青成分(B)の階調値で、一方、白黒画像の場合では、輝度の階調値で与えられる。例えば、整数x、yで示される座標(x、y)の画素の赤成分(R)、緑成分(G)、青成分(B)、輝度(I)の階調値はそれぞれ、デジタル値R(x、y)、G(x、y)、B(x、y)、I(x、y)で与えられる。なお、説明の都合上、以降の計算で使用する画素値には、輝度(白黒濃淡値)を用いる。
〔移動物体検出部6〕
移動物体検出部6は、撮像部5から出力された画像データから、その画像データ中に含まれる移動物体の領域である移動物体領域を検出して抽出する。移動物体検出部6は、図5に示すように、所定の背景差分法を利用した背景差分法検出部と所定の局所相関法を利用した局所相関法検出部とを組み合わせる。
One pixel of image data is a gradation value of a red component (R), a green component (G), and a blue component (B) in the case of a color image, while in the case of a monochrome image, the luminance gradation value. Given in. For example, the gradation values of the red component (R), green component (G), blue component (B), and luminance (I) of the pixel at coordinates (x, y) indicated by integers x and y are digital values R, respectively. (X, y), G (x, y), B (x, y), and I (x, y). For convenience of explanation, luminance (monochrome gray value) is used as a pixel value used in the subsequent calculations.
[Moving object detector 6]
The moving object detection unit 6 detects and extracts a moving object region that is a region of a moving object included in the image data from the image data output from the imaging unit 5. As illustrated in FIG. 5, the moving object detection unit 6 combines a background difference method detection unit using a predetermined background difference method and a local correlation method detection unit using a predetermined local correlation method.

背景差分法は、予め移動物体が含まれない画像を背景画像として用意しておき、次に、移動物体が含まれる画像との差分を取り、差の大きい部分を移動物体とする方法である。しかし、本方法は、より短い処理時間で処理可能であるが、明るさの変動などのノイズに弱いという欠点がある。   The background difference method is a method in which an image that does not include a moving object is prepared in advance as a background image, and then a difference from an image that includes a moving object is obtained, and a portion having a large difference is used as a moving object. However, this method can be processed in a shorter processing time, but has a drawback that it is vulnerable to noise such as brightness fluctuations.

他方の局所相関法は、先ず画像を格子状のブロック(例えば、8×8画素)に分割する。次に、或るサンプリング時刻のフレームと次のサンプリング時刻で取得したフレームとの間で、近傍にあるブロック同士の相関値を求め、その値の大小によって、ブロックが移動したか否かを判定する。しかし、本方法は、計算量が多いために、画像サイズを大きくできない、更に相関計算を実施するブロック間の距離が制限されて、動きの早い物体に追従できないなどという欠点があるものの、背景差分法よりもノイズに対する耐性が大きいものである。   In the other local correlation method, an image is first divided into grid-like blocks (for example, 8 × 8 pixels). Next, a correlation value between neighboring blocks is obtained between a frame at a certain sampling time and a frame acquired at the next sampling time, and it is determined whether or not the block has moved according to the magnitude of the value. . However, although this method has a large amount of calculation, the image size cannot be increased, and the distance between blocks for which correlation calculation is performed is limited. It is more resistant to noise than the method.

そこで本発明では、先ず、背景差分法によって大まかに移動物体領域を求め、次に、その求められた移動物体領域に基づいて移動物体の検出対象範囲を限定し、局所相関法によって、より細かく移動物体領域を決定する手順を用いる。次に、それら方法による処理について、説明する。
〔背景差分法〕
先ず、背景差分法によって、取得画像の中から動きのある領域である移動物体領域を検出する。図6は、背景差分法での処理を示すフローチャートであり、同図に沿って、背景差分法によって移動物体領域を検出する処理を説明する。なお、以下のカッコ付き記号は、同図中のカッコ付き記号に対応する。
Therefore, in the present invention, first, a roughly moving object region is obtained by the background subtraction method, and then the detection target range of the moving object is limited based on the obtained moving object region, and more detailed movement is performed by the local correlation method. A procedure for determining the object area is used. Next, processing by these methods will be described.
[Background difference method]
First, a moving object area that is a moving area is detected from the acquired image by the background subtraction method. FIG. 6 is a flowchart showing processing by the background subtraction method, and processing for detecting a moving object region by the background subtraction method will be described with reference to FIG. The following parenthesized symbols correspond to the parenthesized symbols in the figure.

(a) 先ず、撮像部で得られてビットマップ形式とされた画像データを、一定周期(サンプリング時間毎)で取得する。   (a) First, image data obtained by the imaging unit and converted into a bitmap format is acquired at a constant period (every sampling time).

(b) 次に、各画素の時系列データをローパスフィルタに通す。本処理を行なうことで、例えば、低いカットオフ周波数を持つローパスフィルタを用いると(図中(b1))、動きのない物体の画像、つまり、背景画像を得ることができる。また、カットオフ周波数を上記に比べて高くすると(図中(b2))、動きのある物体を残したまま、蛍光灯のちらつきの影響を除いた画像を取得できる。そこで、以降の処理では、低いカットオフ周波数を適用したものを背景画像として使用し、一方、高いカットオフ周波数を適用した画像を現サンプリングの現画像として用いるものとする。   (b) Next, the time-series data of each pixel is passed through a low-pass filter. By performing this processing, for example, when a low-pass filter having a low cut-off frequency is used ((b1) in the figure), an image of an object having no motion, that is, a background image can be obtained. Further, when the cutoff frequency is made higher than the above ((b2) in the figure), it is possible to acquire an image excluding the influence of the flickering of the fluorescent lamp while leaving a moving object. Therefore, in the subsequent processing, an image to which a low cut-off frequency is applied is used as a background image, while an image to which a high cut-off frequency is applied is used as the current image for current sampling.

(c) 現画像と背景画像とをそれぞれ、サブ区画(n×n画素の正方形)で区切り、それぞれの両サブ区画内の同位置にある画素間の差の総和Tを、各サブ区画に対して計算する。その計算式を、次に示す。   (c) The current image and the background image are each divided by sub-partitions (squares of n × n pixels), and the sum T of the differences between pixels at the same position in each sub-partition is calculated for each sub-partition. To calculate. The calculation formula is as follows.

Figure 2006279568
なお、I(x、y)は現画像における画素位置(x、y)の白黒濃淡値を、I(x、y)は
背景画像における画素位置(x、y)の白黒濃淡値を、Rsubはサブ区画を表わす。
Figure 2006279568
Note that I C (x, y) is the black and white gray value of the pixel position (x, y) in the current image, and I B (x, y) is the black and white gray value of the pixel position (x, y) in the background image, R sub represents a sub-partition.

・ 算出された値Tが設定値(閾値)Tth以上のときは、背景画像と異なる物体が存在していることを示しており、動きがあるサブ区画として判定し、抽出する。サブ区画同士の比較を、画像データの全領域について実施することで、動きのある全領域を検出することができる。
〔局所相関法〕
局所相関法では、上述した背景差分法によって動きがあると判定されたサブ区画が、前フレーム画像の、どのサブ区画から移動してきたかを、ブロック同士の相関計算によって探し出す。図7は、サブ区画、サブ区画テンプレートおよび追跡ブロックを示す図である。同図中、取得画像は背景差分法にて一定周期で取得された画像データであり、サブ区画は縦n画素×横n画素の正方形から成るものであり、サブ区画テンプレートは同一物体のサブ区画の集まり(背景差分法で検出された全サブ区画)であって移動物体の領域を示す。
When the calculated value T is equal to or greater than the set value (threshold value) Tth, it indicates that an object different from the background image exists, and it is determined and extracted as a sub-section with motion. By comparing the sub-partitions with respect to all regions of the image data, it is possible to detect all regions with motion.
[Local correlation method]
In the local correlation method, the sub-compartment in which the sub-part determined to have motion by the background subtraction method has moved from which sub-part of the previous frame image is searched by correlation calculation between blocks. FIG. 7 is a diagram showing sub-partitions, sub-partition templates, and tracking blocks. In the figure, the acquired image is image data acquired at a constant cycle by the background subtraction method, the sub-partition is composed of a square of vertical n pixels × horizontal n pixels, and the sub-partition template is a sub-partition of the same object. Of moving objects (all sub-sections detected by the background subtraction method).

また、追跡ブロックは、サブ区画テンプレートを取り囲むように設定(追跡ブロックの境界線がm画素外側になるように配置)した領域であって、局所相関法による探索は追跡ブロックで囲まれた領域の中で実行される。   The tracking block is an area set so as to surround the sub-partition template (arranged so that the boundary line of the tracking block is outside the m pixels), and the search by the local correlation method is performed on the area surrounded by the tracking block. Executed in.

図8は、局所相関法での処理を示すフローチャートであり、同図に沿って、局所相関法によって、動きのあるサブ区画を検出する処理を説明する。なお、以下のカッコ付き記号は、同図中のカッコ付き記号に対応する。   FIG. 8 is a flowchart showing processing by the local correlation method, and processing for detecting a sub-partition having motion by the local correlation method will be described with reference to FIG. The following parenthesized symbols correspond to the parenthesized symbols in the figure.

(a) 局所相関法では、背景差分法で検出した動きのあるサブ区画を対象とする。このような2段階での抽出処理を実行することで、ノイズなどの影響で誤検出したサブ区画を取り除くことができる。   (a) In the local correlation method, the sub-partition with motion detected by the background subtraction method is targeted. By performing such two-stage extraction processing, it is possible to remove sub-partitions erroneously detected due to the influence of noise or the like.

(b) 次に、現フレーム画像の注目しているサブ区画Sp(x、y)が、前フレーム画像のどのサブ区画Sq(x'、y')から移動してきたのかを、相関演算を用いて探索する。サブ区画SpとSqとの相関値Cは、次式によって算出する。 (b) Next, the correlation calculation is performed to determine which sub-section S q (x ′, y ′) of the previous frame image has moved from the sub-section S p (x, y) of interest in the current frame image. Search using. The correlation value C between the sub-partitions S p and S q is calculated by the following equation.

Figure 2006279568

上式において、I(x、y)、I(x’、y’)は各サブ区画Sp、Sq内の画素の白黒濃淡値を、また、Rp、Rqはサブ区画領域内であることを表わす。
Figure 2006279568

In the above formula, I p (x, y) , I q (x ', y') is the sub-zone S p, the black-and-white grayscale value of the pixels in S q, also, R p, R q is sub divided areas Indicates that it is within.

(c) 所定のゼロ比較法によって(前記非特許文献2に記載)、(b)で求めた候補が、移動サブ区画か否かを判定する。ゼロ比較法では、先ず、注目しているサブ区画と同位置にある前フレームのサブ区画との相関値C0と、走査範囲内の全サブ区画との相関計算から求めた相関値の最小値C1、との差Qを求める。   (c) It is determined whether or not the candidate obtained in (b) is a moving sub-partition by a predetermined zero comparison method (described in Non-Patent Document 2). In the zero comparison method, first, the correlation value C0 between the sub-part of the previous frame at the same position as the sub-part of interest and the minimum value C1 of the correlation value obtained from the correlation calculation with all the sub-parts within the scanning range Find the difference Q from.

Figure 2006279568

次に、移動を判定するための設定値(閾値)Mthと比較し、
Figure 2006279568

Next, compared with a set value (threshold value) Mth for determining movement,

Figure 2006279568
であれば、注目しているサブ区画Sp(x、y)が、移動サブ区画であると判定する。
Figure 2006279568
If so, it is determined that the focused sub-partition S p (x, y) is a moving sub-partition.

(d) 移動サブ区画と判定された区画を、有効領域として設定する。   (d) The section determined as the moving sub section is set as an effective area.

(e) 前フレームの移動元のサブ区画と、注目している現フレームのサブ区画の位置関係から、移動の速さおよび方向を算出する。算出した速さと方向を、隣接している上下左右のサブ区画と比較する。このとき、速さおよび方向の相違が一定値以下であるかどうかを調べる。   (e) The speed and direction of movement are calculated from the positional relationship between the sub-part of the previous frame and the sub-part of the current frame of interest. The calculated speed and direction are compared with the adjacent upper, lower, left and right sub-sections. At this time, it is examined whether or not the difference in speed and direction is a certain value or less.

(f) 一定値以下の場合は、同一速度で進んでいると判断し、隣接サブ区画と結合し、1つの追跡ブロックを割り当てる。   (f) If it is less than a certain value, it is determined that the vehicle is moving at the same speed, and is combined with adjacent sub-partitions and assigned one tracking block.

(g) 一定値以上の場合は、それぞれのサブ区画は異なる物体の領域であると判断し、注目しているサブ区画が中心位置になるような新規の追跡ブロックを、サブ区画1つ毎に作成する。   (g) If the value is above a certain value, it is determined that each sub-partition is a region of a different object, and a new tracking block in which the target sub-partition becomes the center position is determined for each sub-partition. create.

(h) 隣接サブ区画同士の集合(以降、サブ区画テンプレートと称す)に対し、追跡ブロックを1個定義する。追跡ブロックの範囲は、サブ区画テンプレートの上下左右端から一定の大きさ(m画素)になるように設定する。   (h) One tracking block is defined for a set of adjacent sub-partitions (hereinafter referred to as a sub-partition template). The range of the tracking block is set so as to be a constant size (m pixels) from the top, bottom, left, and right ends of the sub-partition template.

(h-1) 追跡ブロックの設定方法について説明する。サブ区画テンプレートの上下左右端を、xsub_min、xsub_max、ysub_min、ysub_maxとおく。このとき、追跡ブロックの範囲を、オペレータが予め決めた画素値m(>0)を用いて次のように与える。     (h-1) A tracking block setting method will be described. The upper, lower, left and right ends of the sub partition template are set as xsub_min, xsub_max, ysub_min, and ysub_max. At this time, the range of the tracking block is given as follows using the pixel value m (> 0) predetermined by the operator.

Figure 2006279568

また、追跡ブロックの中心位置を次式で与える。
Figure 2006279568

The center position of the tracking block is given by the following equation.

Figure 2006279568

(h-2) 1つ前のフレームk-1で求めた追跡ブロックの中心位置の移動速さと移動方向ベクトルを、
Figure 2006279568

(h-2) The moving speed and moving direction vector of the center position of the tracking block obtained in the previous frame k-1 are

Figure 2006279568

とおき、現フレームkの追跡ブロックの中心位置の移動速さと移動方向ベクトルを、
Figure 2006279568

And the moving speed and moving direction vector of the center position of the tracking block of the current frame k,

Figure 2006279568
とおく。
Figure 2006279568
far.

(h-3) 移動速さの差が閾値以上、あるいは、移動方向ベクトルの内積が閾値以下のときは、別の追跡ブロックであると見做して、追跡対象から外す。追跡対象条件は、         (h-3) When the difference in the moving speed is equal to or greater than the threshold value or the inner product of the moving direction vectors is equal to or less than the threshold value, it is regarded as another tracking block and is excluded from the tracking target. Tracking target condition is

Figure 2006279568
で与えられる。
Figure 2006279568
Given in.

(h-4) 追跡ブロックが、連続したfokフレームの間、追跡対象条件を満たしたとき、同領域は移動物体であると判定する。例えば、fok=3とすると、3フレーム連続で上記の追跡対象条件を満たせば、移動物体であるとする。 (h-4) When the tracking block satisfies the tracking target condition during a continuous f ok frame, it is determined that the region is a moving object. For example, if fok = 3, it is assumed that the object is a moving object if the above tracking target condition is satisfied for three consecutive frames.

(i) 追跡対象条件を満たした場合、サブ区画テンプレートを移動物体と見做す。   (i) If the tracking target condition is satisfied, the sub-partition template is regarded as a moving object.

以上のような手順を踏むことによって、取得した画像の中から、移動物体領域を抽出することができる。
〔切出し領域・拡縮率算出部7〕
切出し領域・拡縮率算出部7は、画像データから、移動物体検出部6からの移動物体領域を含む切出し領域を抽出し、その切出し領域の輪郭サイズに応じて所望サイズへの拡縮率を算出して切出し領域に対応付ける。先ず、指向性アンテナ2で検出されたRFタグ1と、前述した方法で抽出した移動物体(そのRFタグを装着した走者)領域とを関連付ける方法を、以下に説明する。
By following the above procedure, a moving object region can be extracted from the acquired image.
[Cutout area / scale rate calculator 7]
The cut-out area / enlargement / reduction ratio calculation unit 7 extracts a cut-out area including the moving object area from the moving object detection unit 6 from the image data, and calculates the enlargement / reduction ratio to a desired size according to the outline size of the cut-out area. To associate with the cutout area. First, a method for associating the RF tag 1 detected by the directional antenna 2 with the moving object (runner wearing the RF tag) region extracted by the above-described method will be described below.

図9は、RFタグと移動物体領域との関連付けを説明する図であり、同図(a)の画像サイズとアンテナ方向との関係を示す図は、カメラや、カメラで取得した画像、RFタグのアンテナ検出角度θR、走者などを俯瞰した模式図を示すものである。また、同図(b)のRFタグ位置と移動物体の中心位置との関係を示す図は、同図(a)の画像の部分を拡大した図である。なお、以下の説明では、説明の都合上、水平方向においてRFタグと移動物体とを対応付けるものとしているが、垂直方向においても同様の方法で対応付けることができるため、垂直方向の説明は省略する。 FIG. 9 is a diagram for explaining the association between the RF tag and the moving object region. The diagram showing the relationship between the image size and the antenna direction in FIG. 9A shows a camera, an image acquired by the camera, and an RF tag. FIG. 2 shows a schematic diagram overlooking the antenna detection angle θ R of the vehicle, the runner, and the like. Further, the diagram showing the relationship between the RF tag position and the center position of the moving object in FIG. 10B is an enlarged view of the image portion in FIG. In the following description, for convenience of explanation, the RF tag and the moving object are associated with each other in the horizontal direction. However, since they can be associated with each other in the vertical direction, the description in the vertical direction is omitted.

アンテナ方向θmax、θminは、カメラ視野角の水平方向の上下限に一致しているため、画像の左右端xmax、xminにそれぞれ対応付けられる。画像の左端xminを基準として、移動物体(斜線部)のx方向の中心位置をxgとし、その中心位置xgは、前述した(h-1)のサブ区画テンプレートあるいは追跡ブロックの中心位置に一致する。   Since the antenna directions θmax and θmin coincide with the upper and lower limits of the camera viewing angle in the horizontal direction, they are associated with the left and right ends xmax and xmin of the image, respectively. Using the left end xmin of the image as a reference, the center position in the x direction of the moving object (shaded portion) is xg, and the center position xg matches the center position of the sub-partition template or tracking block described in (h-1). .

Figure 2006279568
移動物体が装着しているRFタグの画像領域における位置との関係から、次式が成立すると考えられる。
Figure 2006279568
From the relationship with the position in the image area of the RF tag attached to the moving object, it is considered that the following equation is established.

Figure 2006279568
Δxは、アンテナの検出誤差や移動物体の検出誤差などに依存する定数である。同様に、画像領域における、移動物体の速度vgと、RFタグの移動速度vθは、
Figure 2006279568
Δx is a constant that depends on the detection error of the antenna, the detection error of the moving object, and the like. Similarly, the velocity vg of the moving object and the velocity v θ of the RF tag in the image area are

Figure 2006279568

のような関係式を満たす。そのことから、移動物体の中心位置xgでの速度vgと、RFタグの検出方向θRでの移動速度vθとが上記の式を満たせば、そのRFタグは、検出された移動物体に装着されているものと見做すことができる。
Figure 2006279568

The relational expression like Since the, the velocity vg at the center position xg of a moving object, if the moving speed v theta in the detection direction theta R of RF tag satisfies the above equation, the RF tag is attached to the detected moving object It can be regarded as being done.

以上のように、RFタグと移動物体とを関連付けたとき、切出し領域(ROI: Region of Interest)を次のように定める。図9の(b)の斜線部に示したような移動物体領域を表わすサブ区画テンプレートの上下左右端を、xsub_min、xsub_max、ysub_min、ysub_maxとおいたとき、切出し領域は、点(xsub_min、ysub_min)、(xsub_min、ysub_max)、(xsub_max、ysub_min)、(xsub_max、ysub_max)を結んだ矩形で表わせる(例えば、図9(b)内の太線枠)。   As described above, when the RF tag and the moving object are associated with each other, the extraction region (ROI: Region of Interest) is determined as follows. When the upper, lower, left and right ends of the sub-partition template representing the moving object region as shown by the hatched portion in FIG. 9B are placed as xsub_min, xsub_max, ysub_min, ysub_max, It can be represented by a rectangle connecting (xsub_min, ysub_max), (xsub_max, ysub_min), (xsub_max, ysub_max) (for example, a thick line frame in FIG. 9B).

また、注目している移動物体をズーミングするときの拡縮率zは、表示画像の表示サイズxdisp_max、xdisp_minを用いて、   The zoom ratio z when zooming the moving object of interest is calculated using the display sizes xdisp_max and xdisp_min of the display image,

Figure 2006279568
のように求まる。
Figure 2006279568
It is obtained like this.

また、表示するときの画像を分割する場合は、分割数に応じて、表示サイズxdisp_max、xdisp_minを変更する。例えば、4分割する場合の表示サイズは、1分割に対し、xdisp_max/2、xdisp_min/2となる。   Further, when the image to be displayed is divided, the display sizes xdisp_max and xdisp_min are changed according to the number of divisions. For example, the display size when dividing into four is xdisp_max / 2 and xdisp_min / 2 for one division.

なお、図9では、走者は1人しか居ないが、複数の走者が居る場合でも同様の方法でRFタグと画像内のサブ区画テンプレートを対応付けることができる。   In FIG. 9, there is only one runner, but even when there are a plurality of runners, the RF tag and the sub-partition template in the image can be associated with each other by the same method.

上述の一連の処理を実行することで、注目している移動物体を追尾して撮影することができる。図10の(a)は、背景差分法+局所相関法を適用して、1フレーム毎に移動物体を検出した例を示した図である。また、図10(b)は、同図(a)に切出し領域・拡縮率算出部を適用し、モニターに追尾した移動物体を表示させたときの例を示す図である。撮像部5であるカメラは固定されているため、移動物体は、同図(a)のように画面上を移動するが、移動物体検出部で検出された移動物体のサブ区画テンプレートを切出して、同領域を拡大すると、各フレームに対して同図(b)のように表示される。以上のようにして、カメラが固定されていても追尾撮影が実現できる。
〔属性付き映像生成部8〕
属性付き映像生成部8は、撮像部5からの画像データと属性情報生成部4から出力されるRFタグの属性データとを関連付けし、属性付き映像データを出力する。なお、映像データの出力先としては、例えば、テレビモニタや、インターネットを利用したストリーミング中継など、更に、DVDやビデオテープ、ハードディスク、CD−ROMなどを記録媒体とする記録再生機器(パソコンも含む)が考えられる。
By executing the above-described series of processing, the moving object of interest can be tracked and photographed. (A) of FIG. 10 is a diagram illustrating an example in which a moving object is detected for each frame by applying the background difference method + local correlation method. FIG. 10B is a diagram showing an example in which the extracted region / scale rate calculation unit is applied to FIG. 10A and the tracked moving object is displayed on the monitor. Since the camera that is the imaging unit 5 is fixed, the moving object moves on the screen as shown in FIG. 5A, and the moving object detection unit detects the sub-partition template of the moving object, When the area is enlarged, each frame is displayed as shown in FIG. As described above, tracking shooting can be realized even when the camera is fixed.
[Attribute-added image generation unit 8]
The attribute-added video generation unit 8 associates the image data from the imaging unit 5 with the attribute data of the RF tag output from the attribute information generation unit 4, and outputs the attributed video data. Note that the output destination of the video data is, for example, a television monitor, streaming relay using the Internet, and a recording / reproducing apparatus (including a personal computer) using a DVD, video tape, hard disk, CD-ROM, or the like as a recording medium. Can be considered.

図11は、映像データと属性データとの関連付けの一例を示す図である。通常、撮像部5からは、適当なサンプリング周期(例えば33ms)で、1画面映像である1フレーム分の画像データが出力される。そこで図11に示すように、例えばフレームの番号(フレームデータ欄)と、属性情報生成部4から出力される有効なRFタグ1に基づく各々の属性データ(タグ1欄およびタグ2欄)とを対応付けた形式で表現する。   FIG. 11 is a diagram illustrating an example of association between video data and attribute data. Usually, the image pickup unit 5 outputs image data for one frame, which is one screen image, at an appropriate sampling period (for example, 33 ms). Therefore, as shown in FIG. 11, for example, the frame number (frame data column) and each attribute data (tag 1 column and tag 2 column) based on the valid RF tag 1 output from the attribute information generation unit 4 are obtained. Express in the associated format.

図11においては、タグ1の属性値(属性データ)D1は、第3、4フレームの映像データに追記され、タグ2の属性値D2は、第4、5フレームの映像データにそれぞれ追記されている。映像データに属性値を追記する際、全てのフレームと関連付けるのではなく、適当な間隔を空けて(例えば10フレーム毎)、属性付き映像データを生成しても良い。また、属性値をそのまま映像データに追記するのではなく、電子透かしなどの方法で、映像データ中に埋め込む方法を取っても良い。   In FIG. 11, the attribute value (attribute data) D1 of the tag 1 is added to the video data of the third and fourth frames, and the attribute value D2 of the tag 2 is added to the video data of the fourth and fifth frames. Yes. When the attribute value is added to the video data, the video data with the attribute may be generated at an appropriate interval (for example, every 10 frames) instead of being associated with all the frames. Further, instead of adding the attribute value directly to the video data, a method of embedding it in the video data by a method such as digital watermarking may be used.

更に、MPEG7などの所定の規格を使用し、RFタグの属性値をMPEG7のメタデータとして記述することで、属性付き映像データを生成しても良い。なお、映像データと属性値とは、例えばハードディスクなどの記録媒体上にそれぞれを別ファイルとして保存しても良い。   Furthermore, the attributed video data may be generated by using a predetermined standard such as MPEG7 and describing the attribute value of the RF tag as MPEG7 metadata. The video data and the attribute value may be stored as separate files on a recording medium such as a hard disk.


〔処理の説明〕
次に、本発明の処理について説明する。図12は、本発明の撮影装置の処理を示すフローチャートである。同図に沿って、撮影装置の処理動作を説明する。なお、以下のカッコ付き記号は、同図中のカッコ付き記号に対応する。
(a) 次の項目を、予めセットする。

[Description of processing]
Next, the processing of the present invention will be described. FIG. 12 is a flowchart showing processing of the photographing apparatus of the present invention. A processing operation of the photographing apparatus will be described with reference to FIG. The following parenthesized symbols correspond to the parenthesized symbols in the figure.
(a) Set the following items in advance.

(1) 指向性アンテナ2(アダプティブアレーアンテナ)の重み係数とアンテナの角度とを、予め用意した参照表(テーブル)などを用いて対応付ける。     (1) The weighting factor of the directional antenna 2 (adaptive array antenna) is associated with the angle of the antenna using a reference table (table) prepared in advance.

(2) RFタグ1内の固有データを属性値に変換するための規則をセットする。     (2) Set a rule for converting unique data in the RF tag 1 into attribute values.

(3) RFタグ1へ、属性値に対応する固有データを書き込む。     (3) Write unique data corresponding to the attribute value to the RF tag 1.

(4) 移動物体領域の検出に用いる閾値Tth(背景差分法)や閾値Mth(局所相関法)、RFタグ1と移動物体の対応付けで用いる判定量Δxなどの各値。
(b) RFタグ1を撮影対象(例えば走者)の適切な位置に装着し、撮影を開始する。
(c) 刻み角に応じて指向性アンテナ2の重み係数を変化させ、アンテナの方向を走査する。
(d) アンテナ方向にRFタグ1が有るか否かを判定する。
(e) 指向性アンテナ2が受信したRFタグ1からの無線信号を、RFタグリーダ・ライタ3にてデジタルデータ(固有データ)へ変換する。
(f) RFタグ1を検出したときのアンテナの角度θRが、カメラの視野角内にあれば、そのRFタグ1は有効であると判定する。
(g) 有効と判定された場合、デジタルデータを予め設定した規則によって属性データへ変換する。なお、無効と判定された場合には、そのデジタルデータを無効とし、前記(c)に戻る。
(h) 移動物体検出部6での背景差分法によって、移動物体領域を検出して候補を抽出する。
(i) 背景差分法により抽出された候補領域に、次は局所相関法を適用して、移動物体領域を決定する。
(j) 切出し領域・拡縮率算出部7は、RFタグ1のアンテナ検出角θRと、決定された移動物体領域の中心位置Xgの関係から、RFタグ1がその移動物体領域内の移動物体に装着されているかを調べる。
(k) RFタグ1が、該当(移動物体領域内に存在)する移動物体に装着されているか否かを判定する。
(l) 装着されていると判定(Yes判定)されたとき、移動物体領域を基に切出し領域を決定するとともに、その拡縮率を算出し、両者を対応付ける。なお、装着されていないと判定(No判定)された場合には、それらを無効とし、前記(c)に戻る。
(m) 該当する切出し領域を抽出し、算出された拡縮率を用いて画像をズーミングする。
(n) カメラで取得した画像データに属性値を追記し、属性付き映像データを出力する。
(4) Values such as threshold Tth (background difference method) and threshold Mth (local correlation method) used for detection of a moving object region, and determination amount Δx used for associating the RF tag 1 with a moving object.
(b) Attach the RF tag 1 to an appropriate position of the subject to be photographed (for example, a runner) and start photographing.
(c) The weighting coefficient of the directional antenna 2 is changed according to the step angle, and the antenna direction is scanned.
(d) It is determined whether or not the RF tag 1 is present in the antenna direction.
(e) A radio signal from the RF tag 1 received by the directional antenna 2 is converted into digital data (specific data) by the RF tag reader / writer 3.
(f) If the angle θR of the antenna when the RF tag 1 is detected is within the viewing angle of the camera, it is determined that the RF tag 1 is effective.
(g) If it is determined to be valid, the digital data is converted into attribute data according to a preset rule. If it is determined as invalid, the digital data is invalidated and the process returns to (c).
(h) A moving object region is detected and a candidate is extracted by the background subtraction method in the moving object detection unit 6.
(i) Next, a local correlation method is applied to candidate regions extracted by the background subtraction method to determine a moving object region.
(j) The cutout region / scale factor calculation unit 7 determines that the RF tag 1 is a moving object in the moving object region based on the relationship between the antenna detection angle θR of the RF tag 1 and the determined center position Xg of the moving object region. Check if it is installed.
(k) It is determined whether or not the RF tag 1 is attached to a corresponding moving object (existing in the moving object region).
(l) When it is determined that it is attached (Yes determination), the cutout area is determined based on the moving object area, the enlargement / reduction ratio is calculated, and the two are associated with each other. In addition, when it determines with not mounting | wearing (No determination), they are invalidated and it returns to said (c).
(m) Extract the corresponding cut-out area and zoom the image using the calculated scaling ratio.
(n) Append the attribute value to the image data acquired by the camera, and output the video data with the attribute.

なお、例えば撮影部5であるカメラ自身によりズーム操作されることで、カメラ視野角がθmax’、θmin’に変化した場合には、属性情報生成部4でのRFタグの有効または無効を判定する範囲を、   Note that, for example, when the camera viewing angle changes to θmax ′ and θmin ′ by a zoom operation by the camera that is the photographing unit 5, the attribute information generation unit 4 determines whether the RF tag is valid or invalid. Range,

Figure 2006279568
とすることで、ズーム操作にも追従させることが可能となる。
Figure 2006279568
By doing so, it is possible to follow the zoom operation.

以上説明した構成と処理によって、カメラ視野内に映っている移動物体が検出され、その移動物体が占める画像領域に移動物体の属性データを自動的に付与できることから、生成された映像データから所望の撮影対象や映像シーンを選択あるいは抽出する際、付与された属性情報を利用することによって編集作業の自動化が可能となる。また、RFタグを装着した撮影対象をズームアップなどしながら、自動的に追尾撮影することができる。   With the configuration and processing described above, a moving object reflected in the camera field of view is detected, and attribute data of the moving object can be automatically assigned to the image area occupied by the moving object. When selecting or extracting a shooting target or a video scene, the editing operation can be automated by using the assigned attribute information. In addition, it is possible to automatically perform tracking shooting while zooming up on a shooting target equipped with an RF tag.

更に、移動物体検出部6において、指向性アンテナ2で検出したRFタグ1の角度(存在位置)に基づき、背景差分法と局所相関法とにおける移動物体領域の探索の走査範囲(検出対象範囲)を限定させることにより、移動物体領域の検出処理を高速化することが可能になる。以下に、その場合について説明する。   Further, based on the angle (existing position) of the RF tag 1 detected by the directional antenna 2 in the moving object detection unit 6, the scanning range (detection target range) for searching the moving object region in the background difference method and the local correlation method. By limiting this, it is possible to speed up the detection process of the moving object region. The case will be described below.

(1) 背景差分法においては、探索の走査範囲を前述では全画面(1画面全体)としていたものを、検出されたRFタグの周りだけとして走査範囲を狭めることから、高速化できる。   (1) In the background subtraction method, since the scanning range of the search is the entire screen (entire screen) in the above description, the scanning range is narrowed only around the detected RF tag, so that the speed can be increased.

(2) 局所相関法においては、追跡ブロックの大きさを狭めることで相関演算の計算回数を少なくすることから、高速化できる。   (2) The local correlation method can be speeded up by reducing the number of correlation calculations by reducing the size of the tracking block.

具体的な処理の流れを、図を参照して説明する。図13は、移動物体領域の検出対象範囲の限定を説明する図である。同図中において、xmax、xmin、θmaxおよびθminは既知の値であり、また、xmax、xminはカメラ視野に対応する画像左右端の最大・最小値であり、θmax、θminはアンテナ方向の上下限値を示す。このとき、移動物体の画像上における位置xtagは、   A specific processing flow will be described with reference to the drawings. FIG. 13 is a diagram for explaining the limitation of the detection target range of the moving object region. In the figure, xmax, xmin, θmax and θmin are known values, and xmax and xmin are the maximum and minimum values at the left and right edges of the image corresponding to the camera field of view, and θmax and θmin are the upper and lower limits of the antenna direction. Indicates the value. At this time, the position xtag on the image of the moving object is

Figure 2006279568
で表わされる。
Figure 2006279568
It is represented by

このとき、走査範囲は、xtagを中心として、移動物体の速さやカメラのズーム倍率を考慮して予め与えた幅のxscanを上下限とする同図中のハッチ部分とする。限定されたその走査範囲(xtag−xscan、xtag+xscan)を、前述した背景差分法の処理の説明(d)で示した画像データの全領域、あるいは局所相関法で設定した追跡ブロックと重なる領域と置き換えることによって、RFタグに関係のない領域を対象とする相関演算が削除できる。   At this time, the scanning range is a hatched portion in the figure with the xscan having a predetermined width in consideration of the speed of the moving object and the zoom magnification of the camera with the xtag as the center. The limited scanning range (xtag−xscan, xtag + xscan) is replaced with the entire region of the image data shown in the description of the background difference method (d) or the region overlapping the tracking block set by the local correlation method. By doing this, it is possible to delete the correlation calculation for a region not related to the RF tag.

また、本発明の撮影装置では、前述したように、画像データとRFタグの属性データとを適当なサンプリング周期で同時に記録する映像データを、生成することができる。その映像データの格納先として、例えばパソコンなどのハードディスクとした場合、パソコンが有する機能を利用して、全映像データの中から、所望の撮影対象が映っている映像区間のみを容易に抽出させることが可能になる。   In addition, as described above, the imaging apparatus of the present invention can generate video data in which image data and RF tag attribute data are simultaneously recorded at an appropriate sampling period. When the video data is stored in a hard disk such as a personal computer, for example, it is possible to easily extract only the video section in which the desired shooting target is shown from all the video data by using the functions of the personal computer. Is possible.

図14は、映像データの一部抽出を説明する図であり、属性付き映像データから、所望の映像区間を抽出する動作を示す。同図に示すように、前述した属性付き映像生成部8に映像抽出部を設けて、映像抽出部に属性付き映像データと、所望の撮影対象に関する属性値とを入力する。映像抽出部は、属性付き映像データに同時に記録された属性値と、入力された属性値とを比較し、属性値が一致した区間のフレーム(同図中、A部分)のみを抽出映像データとして出力する。   FIG. 14 is a diagram for explaining part extraction of video data, and shows an operation of extracting a desired video section from video data with attributes. As shown in the figure, a video extraction unit is provided in the attributed video generation unit 8 described above, and video data with attributes and an attribute value related to a desired shooting target are input to the video extraction unit. The video extraction unit compares the attribute value simultaneously recorded in the attributed video data with the input attribute value, and only the frame in the section where the attribute value matches (A portion in the figure) is used as the extracted video data. Output.

よって、所望の映像区間だけが抽出できる。抽出された抽出映像データは、次段の例えば配信処理部などへ送られ、配信などされる。その抽出映像データは属性データを含んだままであることから、抽出映像データを再度映像抽出部またはそれ相当の機能手段に入力し、他の属性値を入力して抽出させることにより、更なる抽出が行われた抽出映像データが得られることは言うまでもない。   Therefore, only a desired video section can be extracted. The extracted extracted video data is sent to the next stage, for example, a distribution processing unit and distributed. Since the extracted video data still contains the attribute data, further extraction can be performed by inputting the extracted video data again into the video extraction unit or equivalent functional means, and inputting and extracting other attribute values. Needless to say, the extracted video data obtained can be obtained.

本発明の実施例の撮影装置の構成を示す図The figure which shows the structure of the imaging device of the Example of this invention. 本発明の指向性アンテナを説明する図The figure explaining the directional antenna of this invention RFタグの固有データから属性データへの変換例を示す図The figure which shows the example of conversion from the specific data of RF tag to attribute data カメラ視野角とアンテナ方向との関係を示す図Diagram showing the relationship between camera viewing angle and antenna direction 移動物体検出部の構成を示す図Diagram showing the configuration of the moving object detector 背景差分法での処理を示すフローチャートFlow chart showing processing in background subtraction method サブ区画、サブ区画テンプレートおよび追跡ブロックを示す図Diagram showing subpartitions, subpartition templates and tracking blocks 局所相関法での処理を示すフローチャートFlow chart showing processing in local correlation method RFタグと移動物体領域との関連付けを説明する図The figure explaining the correlation with RF tag and a moving object area | region 移動物体領域の検出と追尾撮影とを説明する図Diagram explaining moving object area detection and tracking shooting 映像データと属性データとの関連付けの一例を示す図The figure which shows an example of correlation with video data and attribute data 本発明の撮影装置の処理を示すフローチャートThe flowchart which shows the process of the imaging device of this invention 移動物体領域の検出対象範囲の限定を説明する図The figure explaining limitation of the detection target range of a moving object area 映像データの一部抽出を説明する図Diagram explaining partial extraction of video data

符号の説明Explanation of symbols

1 RFタグ
2 指向性アンテナ
3 RFタグリーダ・ライタ
4 属性情報生成部
5 撮像部
6 移動物体検出部
7 切出し領域・拡縮率算出部
8 属性付き映像生成部
DESCRIPTION OF SYMBOLS 1 RF tag 2 Directional antenna 3 RF tag reader / writer 4 Attribute information generation part 5 Imaging part 6 Moving object detection part 7 Cutout area / scale rate calculation part 8 Image generation part with attribute

Claims (5)

固定された所望の撮影視野を撮影して画像情報を生成する撮像手段を有して成る、映像情報を出力する撮影装置であって、
撮影対象である移動物体に装着され、該移動物体の固有情報を保持する無線通信可能なRFタグと、
該RFタグと無線通信するとともに、前記RFタグの存在位置を認識可能とする指向性アンテナと、
該指向性アンテナを介して前記RFタグと前記固有情報の読取りまたは書込みを行うRFタグリーダ・ライタと、
前記撮像手段からの前記画像情報から移動物体領域を検出する移動物体検出手段と、
前記画像情報から少なくとも前記移動物体領域を含む切出し領域を抽出するとともに、該切出し領域の輪郭サイズに応じて所望サイズへの拡縮率を算出して該切出し領域に対応付ける切出し領域・拡縮率算出手段と、
前記RFタグリーダ・ライタからの前記固有情報に基づき属性情報を生成して前記切出し領域に対応付けて付与し、該属性情報と前記拡縮率情報とが付与された属性付き映像情報を出力する属性情報付与手段と、
を有することを特徴とする撮影装置。
An imaging apparatus for outputting video information, comprising imaging means for imaging a fixed desired field of view and generating image information,
An RF tag attached to a moving object to be imaged and capable of wireless communication holding unique information of the moving object;
A directional antenna capable of wirelessly communicating with the RF tag and recognizing the position of the RF tag;
An RF tag reader / writer that reads or writes the RF tag and the unique information via the directional antenna;
Moving object detection means for detecting a moving object region from the image information from the imaging means;
A cut-out area / scale-ratio calculating means for extracting a cut-out area including at least the moving object area from the image information, calculating an enlargement / reduction ratio to a desired size according to a contour size of the cut-out area, and associating with the cut-out area ,
Attribute information that generates attribute information based on the unique information from the RF tag reader / writer, assigns the attribute information in association with the cut-out area, and outputs attributed video information to which the attribute information and the enlargement / reduction ratio information are added Granting means;
A photographing apparatus comprising:
請求項1記載の撮影装置において、
前記移動物体検出手段は、
所定の背景差分法により第1の移動物体領域を検出する背景差分法検出手段と、
該第1の移動物体領域に基づいて検出対象範囲を限定して所定の局所相関法により第2の移動物体領域を検出する局所相関法検出手段と、
を有することを特徴とする撮影装置。
The imaging device according to claim 1,
The moving object detection means includes
A background difference method detecting means for detecting the first moving object region by a predetermined background difference method;
Local correlation method detection means for limiting the detection target range based on the first moving object region and detecting the second moving object region by a predetermined local correlation method;
A photographing apparatus comprising:
請求項1記載の撮影装置において、
前記切出し領域・拡縮率算出手段は、
前記移動物体領域の輪郭内に前記指向性アンテナで位置認識された前記RFタグが存在するとともに、前記移動物体領域内の特定位置の移動速度と移動方向とが前記RFタグの移動速度と移動方向とに一致した場合に、前記移動物体領域と前記固有情報とを対応付けて前記切出し領域を抽出する
ことを特徴とする撮影装置。
The imaging device according to claim 1,
The cut-out area / scale rate calculation means is:
The RF tag whose position is recognized by the directional antenna exists within the outline of the moving object area, and the moving speed and moving direction of the specific position in the moving object area are the moving speed and moving direction of the RF tag. In the case where the moving object region and the unique information are associated with each other, the cutout region is extracted.
請求項1または請求項2記載の撮影装置において、
前記移動物体検出手段は、
予め獲得した前記RFタグの存在位置情報に基づいて、前記画像情報に対する前記移動物体領域の検出対象範囲を限定する
ことを特徴とする撮影装置。
In the imaging device according to claim 1 or 2,
The moving object detection means includes
An imaging apparatus, wherein a detection target range of the moving object region with respect to the image information is limited based on presence position information of the RF tag acquired in advance.
請求項1記載の撮影装置において、
前記属性情報付与手段は、
前記属性付き映像情報を格納する手段を有して、
前記属性情報に関連する属性関連情報の設定に基づいて、前記格納された前記属性付き映像情報から前記属性情報に関連付けられた映像区間のみを抽出して出力する
ことを特徴とする撮影装置。
The imaging device according to claim 1,
The attribute information giving means is
Means for storing the attributed video information;
An imaging apparatus, wherein based on the setting of attribute-related information related to the attribute information, only the video section associated with the attribute information is extracted from the stored video information with attribute and output.
JP2005096158A 2005-03-29 2005-03-29 Image-pickup device Pending JP2006279568A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005096158A JP2006279568A (en) 2005-03-29 2005-03-29 Image-pickup device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005096158A JP2006279568A (en) 2005-03-29 2005-03-29 Image-pickup device

Publications (1)

Publication Number Publication Date
JP2006279568A true JP2006279568A (en) 2006-10-12

Family

ID=37213837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005096158A Pending JP2006279568A (en) 2005-03-29 2005-03-29 Image-pickup device

Country Status (1)

Country Link
JP (1) JP2006279568A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009181331A (en) * 2008-01-30 2009-08-13 Brother Ind Ltd Rdio tag information reading device
CN101931747A (en) * 2008-09-25 2010-12-29 三洋电机株式会社 Image processing apparatus and electronic equipment
JP2013085200A (en) * 2011-10-12 2013-05-09 Canon Inc Image processing device, image processing method, and program
KR101310226B1 (en) 2006-12-15 2013-09-24 삼성전자주식회사 Method for operating digital imamge processing device having radio frequency identification reader
KR20150079563A (en) * 2012-08-31 2015-07-08 아이디 태그 테크놀로지 그룹 에이에스 Device, system and method for identification of object in an image, and a transponder
JP2017112504A (en) * 2015-12-17 2017-06-22 カシオ計算機株式会社 Imaging apparatus, visible light communication identification information registration method, and program
JP2020135418A (en) * 2019-02-20 2020-08-31 東芝テック株式会社 Article information reading device
WO2021039012A1 (en) * 2019-08-30 2021-03-04 ソニー株式会社 Imaging device, data transmission system, and data transmission method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158377A (en) * 1987-12-16 1989-06-21 New Japan Radio Co Ltd Automatic object tracking apparatus of video camera
JPH1042221A (en) * 1996-07-26 1998-02-13 Digital Vision Lab:Kk Image e communication equipment
JP2002199382A (en) * 2000-12-22 2002-07-12 Mitsubishi Heavy Ind Ltd Moving image processing camera and image processing system using the camera
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004364044A (en) * 2003-06-05 2004-12-24 Sony Corp Image recording apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158377A (en) * 1987-12-16 1989-06-21 New Japan Radio Co Ltd Automatic object tracking apparatus of video camera
JPH1042221A (en) * 1996-07-26 1998-02-13 Digital Vision Lab:Kk Image e communication equipment
JP2002199382A (en) * 2000-12-22 2002-07-12 Mitsubishi Heavy Ind Ltd Moving image processing camera and image processing system using the camera
WO2003092291A1 (en) * 2002-04-25 2003-11-06 Matsushita Electric Industrial Co., Ltd. Object detection device, object detection server, and object detection method
JP2004364044A (en) * 2003-06-05 2004-12-24 Sony Corp Image recording apparatus

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101310226B1 (en) 2006-12-15 2013-09-24 삼성전자주식회사 Method for operating digital imamge processing device having radio frequency identification reader
JP2009181331A (en) * 2008-01-30 2009-08-13 Brother Ind Ltd Rdio tag information reading device
CN101931747A (en) * 2008-09-25 2010-12-29 三洋电机株式会社 Image processing apparatus and electronic equipment
JP2013085200A (en) * 2011-10-12 2013-05-09 Canon Inc Image processing device, image processing method, and program
KR20150079563A (en) * 2012-08-31 2015-07-08 아이디 태그 테크놀로지 그룹 에이에스 Device, system and method for identification of object in an image, and a transponder
JP2015529921A (en) * 2012-08-31 2015-10-08 アイディー タグ テクノロジー グループ エイエス Apparatus, system and method for identifying objects in an image, and transponder
KR102144141B1 (en) * 2012-08-31 2020-08-13 아이디 태그 테크놀로지 그룹 에이에스 Device, system and method for identification of object in an image, and a transponder
JP2017112504A (en) * 2015-12-17 2017-06-22 カシオ計算機株式会社 Imaging apparatus, visible light communication identification information registration method, and program
JP2020135418A (en) * 2019-02-20 2020-08-31 東芝テック株式会社 Article information reading device
WO2021039012A1 (en) * 2019-08-30 2021-03-04 ソニー株式会社 Imaging device, data transmission system, and data transmission method

Similar Documents

Publication Publication Date Title
Zhang et al. Jointly modeling motion and appearance cues for robust RGB-T tracking
JP2006279568A (en) Image-pickup device
KR20230013243A (en) Maintain a fixed size for the target object in the frame
ES2869438T3 (en) Tracker-Assisted Image Capture
JP5269707B2 (en) Image composition apparatus and method
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
JP4622883B2 (en) Video attribute automatic assigning device, video attribute automatic assigning program, and video attribute automatic assigning method
US9563967B2 (en) Photographic subject tracking device and camera
JP4157620B2 (en) Moving object detection apparatus and method
JP2010239605A (en) Video editing device
CN101248454A (en) Image processing method and image processor, digital camera equipment, and recording medium with image processing program stored thereon
JP2005123824A (en) Video object locus composing apparatus, method and program thereof
JP6139447B2 (en) Image processing apparatus, image processing method, and image processing program
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP6610535B2 (en) Image processing apparatus and image processing method
US20180197300A1 (en) Irradiation system, irradiation method, and program storage medium
JP2018078431A (en) Object tracker and its program
JP4607836B2 (en) Apparatus for automatically assigning metadata to image area, method for automatically assigning metadata, and program for automatically assigning metadata
JP6983049B2 (en) Object tracking device and its program
KR20090032908A (en) Imaging system, apparatus and method of discriminative color features extraction thereof
JP2011096081A (en) Image processing method, device and program
US8331667B2 (en) Image forming system, apparatus and method of discriminative color features extraction thereof
JP6869440B2 (en) Teacher data generator, teacher data generation method, and teacher data generation system
CN110706251A (en) Cross-lens tracking method for pedestrians
JP4686773B2 (en) Moving object recognition method and moving object recognition apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100323

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100713