JP2006146823A - Video object trajectory adding system and video object trajectory adding program - Google Patents

Video object trajectory adding system and video object trajectory adding program Download PDF

Info

Publication number
JP2006146823A
JP2006146823A JP2004339606A JP2004339606A JP2006146823A JP 2006146823 A JP2006146823 A JP 2006146823A JP 2004339606 A JP2004339606 A JP 2004339606A JP 2004339606 A JP2004339606 A JP 2004339606A JP 2006146823 A JP2006146823 A JP 2006146823A
Authority
JP
Japan
Prior art keywords
trajectory
video object
image
position information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004339606A
Other languages
Japanese (ja)
Other versions
JP4546810B2 (en
Inventor
Masaki Takahashi
正樹 高橋
Toshihiko Misu
俊彦 三須
Makoto Tadenuma
眞 蓼沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2004339606A priority Critical patent/JP4546810B2/en
Publication of JP2006146823A publication Critical patent/JP2006146823A/en
Application granted granted Critical
Publication of JP4546810B2 publication Critical patent/JP4546810B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a video object trajectory adding system for displaying a trajectory by adapting to a video object trajectory within a frame image and changing the position of the video object trajectory. <P>SOLUTION: The video object trajectory adding means (video object trajectory adding system) 30 comprises a video object positional information storing means 31 for storing the past trajectory positional information which is the positional information of the video object of each trajectory inputted through a video object extracting means (video object detecting device) 10 for detecting the position of the video object from the frame image, a trajectory image position setting means 32 for shifting the position shown by the past trajectory positional information based on the positional information of the video object trajectory in the other frame image by reading out the past trajectory positional information, and an image synthesizing means 33 for synthesizing a trajectory image at the position shifted in the other frame image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、映像制作の技術に係り、特に、映像オブジェクトの軌跡を示した映像を生成する映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムに関する。   The present invention relates to a video production technique, and more particularly to a video object trajectory adding apparatus and a video object trajectory adding program for generating a video showing a trajectory of a video object.

従来、時系列に撮影される、映像を構成する画像(ノンインタレース方式の場合はフレーム画像、インタレース方式の場合はフレーム画像あるいはフィールド画像(以下、単にフレーム画像という))間の差分をとる方法によって、移動する物体の画像である映像オブジェクトを抽出し、その映像オブジェクトを重ね書きすることで、映像オブジェクトの軌跡を映像上に表現する装置が存在する。しかし、この技術では、例えば、野球中継等の映像において、抽出対象となる映像オブジェクトであるボールの軌跡を映像上に表現する場合において、ピッチャの腕やバットなどのボール以外の映像オブジェクトまでが抽出されてしまう。   Conventionally, a difference between images that are captured in time series and that constitute a video (a frame image in the case of a non-interlace method, a frame image or a field image (hereinafter simply referred to as a frame image) in the case of an interlace method) is obtained. There is a device that extracts a video object that is an image of a moving object by a method and expresses the trajectory of the video object on a video by overwriting the video object. However, with this technology, for example, in a video such as a baseball game, when the trajectory of a ball, which is a video object to be extracted, is represented on the video, video objects other than the ball such as a pitcher's arm and bat are extracted. Will be.

そして、特定の映像オブジェクトのみを安定して抽出することができるシステムが開発されている(非特許文献1参照)。このシステムでは、時系列に入力されるフレーム画像ごとに、その直前に入力されたフレーム画像との差分画像と、直後に入力されたフレーム画像との差分画像とを求める。そして、この2つの差分画像で画素値の正負が異符号になる領域を映像オブジェクトの候補とする。更に、フレーム画像内において、誤検出されやすい映像オブジェクトが存在する領域を予めマスク領域として設定しておき、抽出された映像オブジェクトの候補から当該マスク領域内の映像オブジェクトを除外した後に、対象となる映像オブジェクトを選択して軌跡を表示する。   A system that can stably extract only a specific video object has been developed (see Non-Patent Document 1). In this system, for each frame image input in time series, a difference image between the frame image input immediately before and a difference image between the frame image input immediately thereafter are obtained. Then, an area in which the sign of the pixel value is different between the two difference images is set as a video object candidate. Further, an area in the frame image where a video object that is likely to be erroneously detected is set as a mask area in advance, and after the video object in the mask area is excluded from the extracted video object candidates, the target becomes the target. Select a video object and display the trajectory.

そのため、このシステムでは、野球のボールのような高速で移動する映像オブジェクトの軌跡を表示する場合に、低速で移動する映像オブジェクトを除去して対象となる映像オブジェクトを抽出できるとともに、誤検出されやすい映像オブジェクトが存在するマスク領域を除いて映像オブジェクトを抽出することができるため、安定して対象となる映像オブジェクトを追跡することができる。
高橋 正樹、外3名、「野球の投球軌跡表示手法」、映像情報メディア学会技術報告、2004年10月21日、VOL.28、NO.61、p.25〜28
Therefore, in this system, when displaying the trajectory of a video object that moves at high speed, such as a baseball ball, the video object that moves at low speed can be removed to extract the target video object, and it is easy to be erroneously detected. Since the video object can be extracted except for the mask area where the video object exists, the target video object can be tracked stably.
Masaki Takahashi, 3 others, “Baseball pitching trajectory display method”, Technical Report of the Institute of Image Information and Television Engineers, October 21, 2004, VOL. 28, NO. 61, p. 25-28

しかし、非特許文献1のシステムでは、抽出された映像オブジェクトをそのまま他のフレーム画像に合成するものであり、抽出された映像オブジェクトの位置を、合成されるフレーム画像に合わせて自動的に変えることができなかった。例えば、合成されるフレーム画像内の映像オブジェクトの位置に合わせて、それ以前に抽出された異なる軌跡を描く映像オブジェクトの位置を全体的に移動させて表示することはできなかった。   However, in the system of Non-Patent Document 1, the extracted video object is directly combined with another frame image, and the position of the extracted video object is automatically changed according to the frame image to be combined. I could not. For example, the position of the video object that draws a different locus extracted before that cannot be moved as a whole in accordance with the position of the video object in the frame image to be synthesized, and cannot be displayed.

一方で、例えば、野球中継などでは、投球後に球筋を振り返る映像として、スロー映像や軌跡映像を用いている。しかし、これらの映像では、その投球の球筋しか表示できないが、例えば、落差が大きい変化球などを表示する場合には、その変化球との比較対象がなければ、どの程度の落差の変化球なのかが伝わりにくい。そのため、ひとつの投球の軌跡(現在軌跡)だけでなく、更にそれ以前に取得された投球の軌跡(過去軌跡)を同時に表示することが望まれていた。   On the other hand, for example, in a baseball broadcast or the like, a slow video or a trajectory video is used as a video to look back at the ball after a pitch. However, in these images, only the ball of the pitch can be displayed. For example, when displaying a change ball with a large drop, if there is no comparison target with the change ball, how much the change ball of the drop is It is difficult to tell. For this reason, it is desired to display not only one pitching trajectory (current trajectory) but also a pitching trajectory (past trajectory) acquired before that time.

しかし、野球中継で一般的に利用されるセンタ方向から撮影するカメラの映像を利用して軌跡を表示する場合には、投球時には固定撮影されるものの、投球の合間には様々なカメラ操作が行われる。そのため、例えば、カメラアングルが変化した場合には、その後に撮影された映像に過去軌跡を表示すると、現在軌跡と過去軌跡とが、フレーム画像内の異なるところに表示されてしまい、過去軌跡を現在軌跡の比較対照として効果的に表示することはできなかった。   However, when displaying the trajectory using a camera image taken from the center direction that is generally used in baseball broadcasts, various camera operations are performed between pitches, although they are fixedly shot at the time of pitching. Is called. Therefore, for example, when the camera angle changes, if a past trajectory is displayed on a video that is subsequently captured, the current trajectory and the past trajectory are displayed at different locations in the frame image, and the past trajectory is It could not be effectively displayed as a trajectory comparison.

本発明は、前記従来技術の課題を解決するために成されたもので、フレーム画像内の映像オブジェクトの軌跡に合わせて、それ以前に取得された映像オブジェクトの軌跡の表示位置を変えて、当該軌跡を表示できる映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems of the prior art, and changes the display position of the trajectory of the video object acquired before according to the trajectory of the video object in the frame image. An object of the present invention is to provide a video object trajectory adding apparatus and a video object trajectory adding program capable of displaying a trajectory.

前記課題を解決するため、請求項1に記載の映像オブジェクト軌跡付加装置は、時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置から、前記フレーム画像内における前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加する映像オブジェクト軌跡付加装置であって、映像オブジェクト位置情報記憶手段と、軌跡画像位置設定手段と、画像合成手段とを備える構成とした。   In order to solve the above problem, the video object trajectory adding device according to claim 1, wherein the video object in the frame image is detected from a video object detection device that detects a position of the video object in the frame image input in time series. The position information indicating the position of the object is input, and a trajectory image indicating the trajectory of the video object included continuously in the plurality of frame images input in time series is captured from the position where the frame image is captured. A video object trajectory adding apparatus for adding to another frame image is configured to include video object position information storage means, trajectory image position setting means, and image composition means.

かかる構成によれば、映像オブジェクト軌跡付加装置は、映像オブジェクト位置情報記憶手段に、映像オブジェクト検出装置から入力される、複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報である過去軌跡位置情報を、この映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する。また、軌跡画像位置設定手段によって、映像オブジェクト位置情報記憶手段から、任意の軌跡情報に対応する過去軌跡位置情報を読み出して、他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、このシフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する。更に、画像合成手段によって、軌跡画像位置設定手段によって設定された、他のフレーム画像の過去軌跡位置に、軌跡画像を合成する。   According to such a configuration, the video object trajectory adding device includes the past trajectory position which is the positional information of the video object continuously included in the plurality of frame images input from the video object detection device to the video object position information storage unit. Information is stored in correspondence with the trajectory information for specifying the trajectory of the video object. Further, by the trajectory image position setting means, the past trajectory position information corresponding to arbitrary trajectory information is read from the video object position information storage means, and the position information of the video object of another frame image or the trajectory position of the video object is read. Based on the information, a shift amount for shifting the position indicated by the past locus position information is set, and a past locus position obtained by shifting the position indicated by the past locus position information by this shift amount is set. Further, the trajectory image is synthesized with the past trajectory position of another frame image set by the trajectory image position setting means by the image synthesizing means.

これによって、映像オブジェクト軌跡付加装置は、フレーム画像内の映像オブジェクトあるいはこの映像オブジェクトの軌跡の位置に合わせて、以前に検出された映像オブジェクトの軌跡の位置をシフトさせて、当該軌跡をフレーム画像に合成することができる。なお、映像オブジェクトの位置が検出されたフレーム画像と、この位置に基づいて軌跡画像が合成された他のフレーム画像は、同じ位置に設置されたカメラによって撮影されたものであり、撮影したカメラのカメラアングルは異なっていてもよい。そして、映像オブジェクトの位置が検出されたフレーム画像と他のフレーム画像とで、撮影時のカメラアングルが異なることによって、フレーム画像から検出された映像オブジェクトの位置と、他のフレーム画像の映像オブジェクトの位置とが対応しない場合においても、映像オブジェクト軌跡付加装置は、検出された映像オブジェクトの軌跡の位置をシフトさせて、他のフレーム画像の映像オブジェクトの位置と対応する位置に軌跡画像を付加することができる。また、入力される映像信号がインタレース方式で撮影されたものである場合は、映像オブジェクト軌跡付加装置は、各フレーム画像についての操作をフィールド画像について行うこととしてもよい。   Thus, the video object trajectory adding device shifts the position of the trajectory of the previously detected video object in accordance with the position of the video object in the frame image or the trajectory of the video object, and converts the trajectory into the frame image. Can be synthesized. Note that the frame image in which the position of the video object is detected and the other frame image in which the trajectory image is synthesized based on this position are taken by a camera installed at the same position. The camera angle may be different. Then, since the frame image in which the position of the video object is detected differs from the other frame image in the camera angle at the time of shooting, the position of the video object detected from the frame image and the video object of the other frame image Even when the position does not correspond, the video object trajectory adding device shifts the position of the detected video object trajectory and adds the trajectory image to the position corresponding to the position of the video object in the other frame image. Can do. In addition, when the input video signal is captured by the interlace method, the video object trajectory adding device may perform an operation on each frame image on the field image.

また、請求項2に記載の映像オブジェクト軌跡付加プログラムは、時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置によって検出された、時系列に入力される複数のフレーム画像に連続して含まれる前記映像オブジェクトの位置情報である過去軌跡位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶装置から前記過去軌跡位置情報を読み出して、前記軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加するためにコンピュータを、軌跡画像位置設定手段、画像合成手段として機能させることとした。   The video object trajectory addition program according to claim 2 is a plurality of frames input in time series detected by a video object detection device that detects a position of a video object in a frame image input in time series. The past trajectory position information, which is stored in association with the trajectory information for specifying the trajectory of the video object, is stored in correspondence with the trajectory information specifying the trajectory of the video object. The computer is caused to function as a trajectory image position setting unit and an image synthesizing unit to read out and add a trajectory image indicating the trajectory to another frame image captured from the position where the frame image was captured. .

かかる構成によれば、映像オブジェクト軌跡付加プログラムは、軌跡画像位置設定手段によって、この映像オブジェクト位置情報記憶装置から、任意の前記軌跡情報に対応する過去軌跡位置情報を読み出して、他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、このシフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する。また、画像合成手段によって、軌跡画像位置設定手段によって設定された、他のフレーム画像の過去軌跡位置に、軌跡画像を合成する。   According to such a configuration, the video object trajectory addition program reads the past trajectory position information corresponding to the arbitrary trajectory information from the video object position information storage device by the trajectory image position setting means, and stores other frame images. A shift amount for shifting the position indicated by the past trajectory position information is set based on the position information of the video object or the trajectory position information of the video object, and the position indicated by the past trajectory position information is shifted by this shift amount. Set the past trajectory position. The trajectory image is synthesized with the past trajectory position of another frame image set by the trajectory image position setting means by the image compositing means.

これによって、映像オブジェクト軌跡付加プログラムは、フレーム画像内の映像オブジェクトあるいはこの映像オブジェクトの軌跡の位置に合わせて、以前に抽出された映像オブジェクトの軌跡の位置をシフトさせて、当該軌跡をフレーム画像に合成することができる。   As a result, the video object trajectory addition program shifts the position of the trajectory of the previously extracted video object in accordance with the position of the video object in the frame image or the trajectory of the video object, and converts the trajectory into the frame image. Can be synthesized.

本発明に係る映像オブジェクト軌跡付加装置及び映像オブジェクト軌跡付加プログラムでは、以下のような優れた効果を奏する。   The video object trajectory adding apparatus and the video object trajectory adding program according to the present invention have the following excellent effects.

請求項1又は請求項2に記載の発明によれば、映像内の映像オブジェクトや、この映像オブジェクトの軌跡と対比しやすい位置に、それ以前に抽出された映像オブジェクトの軌跡を表示することができる。そのため、過去軌跡を比較対照として、映像内の映像オブジェクトの動きの特徴を効果的に呈示できる映像を提供することができる。   According to the first or second aspect of the present invention, it is possible to display the trajectory of the video object extracted before that in the video object in the video or at a position that can be easily compared with the trajectory of the video object. . Therefore, it is possible to provide a video that can effectively present the characteristics of the motion of the video object in the video using the past trajectory as a comparison and contrast.

以下、本発明の実施の形態について図面を参照して説明する。なお、ここでは、本発明における映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)を、追跡対象となる動きを伴う映像オブジェクトの軌跡(現在軌跡)と、以前に撮影された映像内の映像オブジェクトの軌跡(過去軌跡)とを付加した映像を生成する軌跡付加映像生成装置に適用する場合について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, the video object trajectory adding means (video object trajectory adding device) according to the present invention uses the trajectory (current trajectory) of the video object with the movement to be tracked and the video object in the video previously captured. A case will be described in which the present invention is applied to a trajectory-added video generation apparatus that generates a video to which a trajectory (past trajectory) is added.

[軌跡付加映像生成装置の構成]
まず、図1を参照して、軌跡付加映像生成装置の構成について説明する。図1は本発明の映像オブジェクト軌跡付加手段を備える軌跡付加映像生成装置の構成を示したブロック図である。軌跡付加映像生成装置1は、入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を、その後に入力されたフレーム画像に付加するものである。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10と、映像遅延手段20と、映像オブジェクト軌跡付加手段30とを備える。
[Configuration of locus added video generation device]
First, the configuration of the trajectory-added video generation device will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a trajectory-added video generation apparatus including video object trajectory adding means of the present invention. The trajectory-added video generation device 1 extracts and tracks a video object from a frame image that constitutes an input video, and adds a trajectory image indicating the trajectory of the video object to a subsequently input frame image. is there. The trajectory-added video generation apparatus 1 includes a video object extraction unit 10, a video delay unit 20, and a video object trajectory addition unit 30.

映像オブジェクト抽出手段(映像オブジェクト検出装置)10は、入力された映像から、フレーム画像ごとに追跡対象となる映像オブジェクトを抽出し、追跡するものである。映像オブジェクト抽出手段10は、オブジェクト候補画像生成手段11と、オブジェクト選定手段12と、抽出条件記憶手段13と、位置予測手段14と、探索領域設定手段15と、ID番号付加手段16を備える。   The video object extracting means (video object detection device) 10 extracts and tracks a video object to be tracked for each frame image from the input video. The video object extraction unit 10 includes an object candidate image generation unit 11, an object selection unit 12, an extraction condition storage unit 13, a position prediction unit 14, a search area setting unit 15, and an ID number addition unit 16.

オブジェクト候補画像生成手段11は、入力された映像からフレーム画像ごとに、追跡対象となる映像オブジェクトの候補を抽出したオブジェクト候補画像を生成するものである。ここでは、オブジェクト候補画像生成手段11は、映像オブジェクトの候補の抽出対象となるフレーム画像と、このフレーム画像より1フレーム後に入力されたフレーム画像との差分画像(差分画像1)、及び、抽出対象となるフレーム画像と、このフレーム画像より1フレーム前に入力されたフレーム画像との差分画像(差分画像2)を生成し、これの差分画像(差分画像1、差分画像2)に基づいて、オブジェクト候補画像を生成することとした。オブジェクト候補画像生成手段11は、画像遅延部111、112と、差分画像生成部113、114と、候補画像生成部115とを備える。   The object candidate image generating means 11 generates an object candidate image obtained by extracting video object candidates to be tracked for each frame image from the input video. Here, the object candidate image generation unit 11 includes a difference image (difference image 1) between a frame image from which a candidate for a video object is extracted and a frame image input after one frame from the frame image, and an extraction target. A difference image (difference image 2) between the frame image to be input and a frame image input one frame before this frame image is generated, and an object is generated based on the difference image (difference image 1, difference image 2). A candidate image is generated. The object candidate image generation unit 11 includes image delay units 111 and 112, difference image generation units 113 and 114, and a candidate image generation unit 115.

画像遅延部111、112は、入力された映像信号を1フレーム分遅延させるもので、例えば、一般的な遅延回路からなることとしてもよいし、入力された映像信号を1フレーム単位でデジタルデータとして記憶するメモリ等からなることとしてもよい。ここで、画像遅延部111は、外部から映像信号を入力し、この映像信号を1フレーム分だけ遅延させた映像信号として、画像遅延部112、差分画像生成部113、114及びオブジェクト選定手段12の特徴量解析部122に出力する。また、画像遅延部112は、画像遅延部111から、1フレーム分遅延された映像信号が入力され、この映像信号を更に1フレーム分だけ遅延させることで、2フレーム分遅延された映像信号として、差分画像生成部114に出力する。   The image delay units 111 and 112 delay the input video signal by one frame. For example, the image delay units 111 and 112 may include a general delay circuit, or the input video signal may be converted into digital data in units of one frame. It is good also as consisting of memory etc. which memorize | store. Here, the image delay unit 111 receives a video signal from the outside, and the image delay unit 112, the difference image generation units 113 and 114, and the object selection unit 12 as a video signal obtained by delaying the video signal by one frame. The result is output to the feature amount analysis unit 122. Further, the image delay unit 112 receives a video signal delayed by one frame from the image delay unit 111, and further delays the video signal by one frame to obtain a video signal delayed by two frames. It outputs to the difference image generation unit 114.

差分画像生成部113、114は、入力された2つの映像信号の輝度信号の信号レベルの差分を算出し、フレーム画像ごとに差分画像を生成するもので、一般的な減算回路等から構成することができる。ここで、画像遅延部111によって1フレーム分遅延された映像信号のフレーム画像を映像オブジェクトの候補の抽出対象とした。そして、差分画像生成部113は、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルから、外部から入力された映像信号の輝度信号の信号レベルを減算することによって、差分画像1を生成する。また、差分画像生成部114は、画像遅延部112から入力された2フレーム分遅延された映像信号の輝度信号の信号レベルから、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルを減算することで、差分画像2を生成する。ここで生成された差分画像(差分画像1及び差分画像2)は、候補画像生成部115に出力される。   The difference image generation units 113 and 114 calculate a difference between the signal levels of the luminance signals of the two input video signals and generate a difference image for each frame image, and are configured by a general subtraction circuit or the like. Can do. Here, the frame image of the video signal delayed by one frame by the image delay unit 111 is set as a video object candidate extraction target. Then, the difference image generation unit 113 subtracts the signal level of the luminance signal of the video signal input from the outside from the signal level of the luminance signal of the video signal delayed by one frame input from the image delay unit 111. Thus, the difference image 1 is generated. Further, the difference image generation unit 114 receives the video signal delayed by one frame input from the image delay unit 111 from the signal level of the luminance signal of the video signal delayed by two frames input from the image delay unit 112. The difference image 2 is generated by subtracting the signal level of the luminance signal. The difference images generated here (difference image 1 and difference image 2) are output to the candidate image generation unit 115.

候補画像生成部115は、後記する探索領域設定手段15によって設定された探索領域について、差分画像生成部113、114から入力された差分画像(差分画像1及び差分画像2)の画素値(輝度信号の画素ごとの信号レベル)が所定の条件を満たすかを画素ごとに判定することで、オブジェクト候補画像を生成するものである。ここでは、画素ごとに、当該画素における差分画像1の画素値と差分画像2の画素値とが異符号であり、かつ、絶対値が所定の閾値以上となる場合に、画素値を“1(白)”、それ以外の場合に“0(黒)”とすることでオブジェクト候補画像を生成することとした。これによって、画素値が“1(白)”となる領域を映像オブジェクトの候補として抽出することができる。ここで生成されたオブジェクト候補画像は、オブジェクト選定手段12に出力される。   The candidate image generation unit 115 uses the pixel values (luminance signal) of the difference images (the difference image 1 and the difference image 2) input from the difference image generation units 113 and 114 for the search area set by the search area setting unit 15 described later. The object candidate image is generated by determining for each pixel whether the signal level of each pixel satisfies a predetermined condition. Here, for each pixel, the pixel value of the difference image 1 and the pixel value of the difference image 2 in the pixel are different from each other, and the pixel value is set to “1 ( White) ”, and in other cases“ 0 (black) ”, an object candidate image is generated. As a result, an area where the pixel value is “1 (white)” can be extracted as a candidate video object. The object candidate image generated here is output to the object selection means 12.

オブジェクト選定手段12は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中から、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に基づいて、抽出(追跡)対象となる映像オブジェクトを選定し、その映像オブジェクトの位置及び映像オブジェクトを特徴付ける特徴量を抽出するものである。ここで、オブジェクト選定手段12は、ラベリング部121と、特徴量解析部122と、フィルタ処理部123と、オブジェクト選択部124とを備える。   The object selection unit 12 extracts (tracks) from the object candidate images generated by the object candidate image generation unit 11 based on the extraction condition indicated by the extraction condition information 131 stored in the extraction condition storage unit 13. The target video object is selected, and the position of the video object and the feature quantity characterizing the video object are extracted. Here, the object selection unit 12 includes a labeling unit 121, a feature amount analysis unit 122, a filter processing unit 123, and an object selection unit 124.

ラベリング部121は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中で、映像オブジェクトの候補となる領域に対して番号(ラベル)を付すものである。すなわち、ラベリング部121は、映像オブジェクトの領域である“1(白)”の画素値を持つ連結した領域(連結領域)に対して1つの番号を付す。これによって、オブジェクト候補画像内の映像オブジェクトの候補が番号付けされたことになる。   The labeling unit 121 assigns numbers (labels) to regions that are candidates for video objects in the object candidate images generated by the object candidate image generating unit 11. That is, the labeling unit 121 assigns one number to a connected area (connected area) having a pixel value of “1 (white)” that is an area of the video object. As a result, the video object candidates in the object candidate image are numbered.

特徴量解析部122は、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトの候補を解析し、当該映像オブジェクトの候補の位置及び映像オブジェクトを特徴付ける特徴量を解析するものである。ここで、特徴量解析部122は、オブジェクト候補画像生成手段11の画像遅延部111から入力された、1フレーム遅延されたフレーム画像における、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトに対応する領域の各々について、特徴量を解析する。そして、解析された映像オブジェクトの位置及び特徴量は、フィルタ処理部123に出力される。   The feature amount analysis unit 122 analyzes video object candidates corresponding to the labels labeled by the labeling unit 121, and analyzes the position of the video object candidate and the feature amount characterizing the video object. Here, the feature amount analysis unit 122 corresponds to the video object corresponding to the label labeled by the labeling unit 121 in the frame image delayed by one frame input from the image delay unit 111 of the object candidate image generation unit 11. The feature amount is analyzed for each area to be processed. The analyzed position and feature amount of the video object are output to the filter processing unit 123.

ここで、映像オブジェクトの位置としては、映像オブジェクトの重心位置、多角形近似の頂点座標、スプライン曲線の制御点座標等を用いることができる。また、映像オブジェクトの特徴量には、例えば、映像オブジェクトの面積、輝度、色、円形度を用いることができる。   Here, as the position of the video object, the position of the center of gravity of the video object, the vertex coordinates of the polygon approximation, the control point coordinates of the spline curve, and the like can be used. For example, the area, brightness, color, and circularity of the video object can be used as the feature amount of the video object.

面積は、例えば、映像オブジェクトの画素数を示す。また、輝度は、映像オブジェクトにおける各画素の輝度の平均値を示す。また、色は、映像オブジェクトにおける各画素の色(例えばRGB値)の平均値を示す。なお、この色については、予め背景となる画像の背景色を初期値として、その背景色からの変化量を閾値としてもよい。円形度は、形状の複雑さを示す指標であって、円形に近いほど大きな値を有するものである。この円形度eは、映像オブジェクトの面積をS、周囲長をLとしたとき、以下の式(1)で表される。
e=4πS/L2 …(1)
The area indicates the number of pixels of the video object, for example. Further, the luminance indicates an average value of the luminance of each pixel in the video object. The color indicates an average value of colors (for example, RGB values) of each pixel in the video object. For this color, the background color of the background image may be set as an initial value, and the amount of change from the background color may be set as a threshold value. The circularity is an index indicating the complexity of the shape, and has a larger value as it becomes closer to a circle. The circularity e is expressed by the following equation (1), where S is the area of the video object and L is the perimeter.
e = 4πS / L 2 (1)

フィルタ処理部123は、ラベリング部121で番号付けされた映像オブジェクトの候補毎に、特徴量解析部122から入力された特徴量に基づいて、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に合致する映像オブジェクトかどうかを判定することで、抽出(追跡)対象となる映像オブジェクトを絞り込むものである。ここで選択された映像オブジェクトのラベル及び位置は、オブジェクト選択部124に出力される。なお、抽出条件に適合する映像オブジェクトがない場合には、フィルタ処理部123は、その旨をID番号付加手段16に通知する。   The filter processing unit 123 extracts the extraction condition information 131 stored in the extraction condition storage unit 13 based on the feature amount input from the feature amount analysis unit 122 for each video object candidate numbered by the labeling unit 121. The video objects to be extracted (tracked) are narrowed down by determining whether or not the video objects satisfy the extraction condition indicated by. The label and position of the selected video object are output to the object selection unit 124. If there is no video object that matches the extraction condition, the filter processing unit 123 notifies the ID number adding unit 16 to that effect.

すなわち、このフィルタ処理部123は、映像オブジェクトの候補毎に、抽出条件情報131によって示される抽出条件(例えば、面積、輝度、色及び円形度)や、フィルタ処理(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)を行うことで、抽出条件を満たす映像オブジェクトを選択する。   That is, for each video object candidate, the filter processing unit 123 performs extraction conditions (for example, area, luminance, color, and circularity) indicated by the extraction condition information 131 and filter processing (area filter, luminance filter, color filter). And a circularity filter), a video object that satisfies the extraction condition is selected.

オブジェクト選択部124は、フィルタ処理部123から入力されたラベルの映像オブジェクトの位置に基づいて、後記する位置予測手段14によって、前のフレーム画像の映像オブジェクトの位置に基づいて算出された当該映像オブジェクトの予測位置に最も近い映像オブジェクトを、追跡対象となる映像オブジェクトとして選択するものである。ここで選択された映像オブジェクトの位置は、当該フレーム画像内における映像オブジェクトの軌跡を示す位置情報として、位置予測手段14とID番号付加手段16とに出力される。また、ここで選択された映像オブジェクトの特徴量は、画像合成手段33の作画部331に出力される。   The object selection unit 124 calculates the video object calculated based on the position of the video object of the previous frame image by the position predicting unit 14 described later based on the position of the video object with the label input from the filter processing unit 123. The video object closest to the predicted position is selected as the video object to be tracked. The position of the selected video object is output to the position predicting unit 14 and the ID number adding unit 16 as position information indicating the trajectory of the video object in the frame image. Further, the feature amount of the video object selected here is output to the drawing unit 331 of the image composition unit 33.

抽出条件記憶手段13は、オブジェクト選定手段12によって、抽出(追跡)対象となる映像オブジェクトを選択するための条件を記憶するもので、一般的なハードディスク等の記憶手段からなる。この抽出条件記憶手段13には、種々の抽出条件を示す抽出条件情報131を記憶している。   The extraction condition storage unit 13 stores conditions for selecting a video object to be extracted (tracked) by the object selection unit 12 and includes a general storage unit such as a hard disk. The extraction condition storage unit 13 stores extraction condition information 131 indicating various extraction conditions.

抽出条件情報131は、抽出すべき映像オブジェクトの抽出条件を記述した情報であって、例えば、面積、輝度、色及び円形度の少なくとも1つ以上の抽出条件を記述したものである。この抽出条件情報131は、オブジェクト選定手段12のフィルタ処理部123が、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像から、抽出すべき映像オブジェクトを選択するためのフィルタ(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)の条件となるものである。   The extraction condition information 131 is information describing the extraction condition of the video object to be extracted, and describes, for example, at least one extraction condition of area, luminance, color, and circularity. This extraction condition information 131 is a filter (area filter, luminance filter) for the filter processing unit 123 of the object selection unit 12 to select a video object to be extracted from the object candidate images generated by the object candidate image generation unit 11. , Color filter and circularity filter).

なお、抽出条件情報131には、面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタの条件として、予め定めた初期値と、その許容範囲を示す閾値とを記憶しておく。これによって、閾値外の特徴を持つ映像オブジェクトを抽出すべき映像オブジェクトの候補から外すことができる。   The extraction condition information 131 stores a predetermined initial value and a threshold value indicating an allowable range as conditions for the area filter, the luminance filter, the color filter, and the circularity filter. As a result, video objects having features outside the threshold can be excluded from video object candidates to be extracted.

位置予測手段14は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報に基づいて、次のフレーム画像における映像オブジェクトの予測位置を解析するものである。ここで、位置予測手段14は、線形予測部141と、曲線予測部142と、切替部143とを備える   The position prediction unit 14 analyzes the predicted position of the video object in the next frame image based on the position information of the video object input from the object selection unit 124 of the object selection unit 12. Here, the position prediction unit 14 includes a linear prediction unit 141, a curve prediction unit 142, and a switching unit 143.

線形予測部141は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、線形予測を用いて、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで、線形予測部141は、例えば、重心座標にカルマンフィルタ(Kalman filter)等を適用することで、次のフレーム画像における映像オブジェクトの予測位置を算出することができる。ここで算出された予測位置は、切替部143に出力される。   The linear prediction unit 141 uses the linear prediction to determine the predicted position of the video object in the next frame image based on the position information (centroid coordinates, etc.) of the video object input from the object selection unit 124 of the object selection unit 12. Is to be calculated. Here, the linear prediction unit 141 can calculate the predicted position of the video object in the next frame image, for example, by applying a Kalman filter or the like to the barycentric coordinates. The predicted position calculated here is output to the switching unit 143.

曲線予測部142は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、当該映像オブジェクトの軌跡を2次曲線近似して、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで算出された予測位置は、切替部143に出力される。   The curve prediction unit 142 approximates the trajectory of the video object based on the position information (center of gravity coordinates, etc.) of the video object input from the object selection unit 124 of the object selection unit 12 to obtain the next frame image. The predicted position of the video object in is calculated. The predicted position calculated here is output to the switching unit 143.

切替部143は、線形予測部141から入力された予測位置と、曲線予測部142から入力された予測位置とのいずれか一方を、次のフレーム画像の映像オブジェクトの予測位置として出力するものである。ここで、切替部143は、例えば、既に抽出された映像オブジェクトの位置情報が、曲線予測に必要となる所定数未満である場合には、線形予測部141から入力された予測位置を出力し、所定数以上である場合には、曲線予測部142から入力された予測位置を出力することとしてもよい。また、誤検出等によって、曲線予測部142における軌跡の2次曲線近似における係数の値が大きく変化した場合や、係数が所定値を超えた場合に、曲線予測部142から線形予測部141の予測位置に切り替えて出力することとしてもよい。ここで選択された予測位置は、オブジェクト選定手段12のオブジェクト選択部124と、探索領域設定手段15とに入力される。   The switching unit 143 outputs one of the predicted position input from the linear prediction unit 141 and the predicted position input from the curve prediction unit 142 as the predicted position of the video object of the next frame image. . Here, the switching unit 143 outputs the predicted position input from the linear prediction unit 141, for example, when the position information of the already extracted video object is less than a predetermined number necessary for curve prediction, When the number is greater than or equal to the predetermined number, the predicted position input from the curve prediction unit 142 may be output. Further, when the value of the coefficient in the quadratic curve approximation of the trajectory in the curve prediction unit 142 is largely changed due to erroneous detection or the like, or when the coefficient exceeds a predetermined value, the prediction from the curve prediction unit 142 to the linear prediction unit 141 is performed. It is good also as switching to a position and outputting. The predicted position selected here is input to the object selection unit 124 of the object selection unit 12 and the search area setting unit 15.

探索領域設定手段15は、位置予測手段14によって算出された、次のフレーム画像における映像オブジェクトの予測位置に基づいて、次のフレーム画像における、映像オブジェクトの探索領域を設定するものである。なお、この探索領域とは、オブジェクト候補画像生成手段11によって次のフレーム画像からオブジェクト候補画像が生成される領域である。ここで設定された探索領域の位置と大きさは、オブジェクト候補画像生成手段11の候補画像生成部115に出力される。ここで、探索領域設定手段15は、図示しない入力手段から入力された大きさの領域を設定することとしてもよい。   The search area setting unit 15 sets the search area of the video object in the next frame image based on the predicted position of the video object in the next frame image calculated by the position prediction unit 14. The search area is an area where an object candidate image is generated from the next frame image by the object candidate image generation means 11. The position and size of the search area set here are output to the candidate image generation unit 115 of the object candidate image generation unit 11. Here, the search area setting means 15 may set an area having a size input from an input means (not shown).

ID番号付加手段16は、オブジェクト選定手段12によって時系列に入力されるフレーム画像から連続して追跡された映像オブジェクトの位置情報を、同一の映像オブジェクトの一連の動きの軌跡を構成する位置情報であるとして、この軌跡を示す軌跡番号(軌跡情報)を設定し、更に、軌跡番号ごとに、位置情報に対して時系列に連続番号(ID番号)を付加するものである。ここで、ID番号付加手段16は、フィルタ処理部123から入力される、抽出条件に適合する映像オブジェクトがない通知に基づいて、オブジェクト選定手段12による一連の動きの映像オブジェクトの抽出が終了したと判断することができる。そして、ID番号が付加された位置情報は、映像オブジェクト位置情報記憶手段31に記憶される。   The ID number adding unit 16 uses the position information of the video object continuously tracked from the frame image input in time series by the object selecting unit 12 as the position information constituting the trajectory of a series of movements of the same video object. Assuming that there is a trajectory number (trajectory information) indicating this trajectory, a sequential number (ID number) is added in time series to the position information for each trajectory number. Here, the ID number adding unit 16 determines that the extraction of a series of motion video objects by the object selection unit 12 is completed based on the notification input from the filter processing unit 123 that there is no video object that satisfies the extraction condition. Judgment can be made. The position information to which the ID number is added is stored in the video object position information storage unit 31.

映像遅延手段20は、外部から入力された映像信号のフレーム画像を、後記する画像合成手段33によって合成される軌跡画像と同期させるために、所定数のフレーム分遅延させるものである。ここで遅延された映像信号は、映像オブジェクト軌跡付加手段30の画像合成手段33に出力される。   The video delay means 20 delays the frame image of the video signal input from the outside by a predetermined number of frames in order to synchronize with the trajectory image synthesized by the image synthesis means 33 described later. The video signal delayed here is output to the image synthesizing unit 33 of the video object locus adding unit 30.

映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)30は、映像オブジェクト抽出手段10から入力された映像オブジェクトの位置情報に基づいて、映像遅延手段20から入力された映像信号のフレーム画像である現在フレーム画像より前に撮影された映像オブジェクトの軌跡(過去軌跡)を示す画像である過去軌跡画像(軌跡画像)を現在フレーム画像に合成して、軌跡付加映像を生成するものである。映像オブジェクト軌跡付加手段30は、映像オブジェクト位置情報記憶手段31と、軌跡画像位置設定手段32と、画像合成手段33とを備える。   The video object trajectory adding means (video object trajectory adding apparatus) 30 is a current frame which is a frame image of the video signal input from the video delay means 20 based on the position information of the video object input from the video object extracting means 10. A past trajectory image (trajectory image), which is an image showing a trajectory (past trajectory) of a video object photographed before the image, is combined with the current frame image to generate a trajectory-added video. The video object trajectory adding unit 30 includes a video object position information storage unit 31, a trajectory image position setting unit 32, and an image composition unit 33.

なお、ここでは映像オブジェクト軌跡付加手段30は、過去軌跡画像とともに、現在フレーム画像の映像オブジェクトの軌跡(現在軌跡)を示す現在軌跡画像も現在フレーム画像に合成することとした。そして、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、過去軌跡の表示位置を全体的にずらして合成することとした。更に、映像オブジェクト軌跡付加手段30は、図示しない入力手段から、過去軌跡画像の合成の指令を入力された場合には、過去軌跡画像と現在軌跡画像とを現在フレーム画像に合成することとし、過去軌跡画像の合成の指令が入力されない場合には、現在軌跡画像のみを現在フレーム画像に合成することとした。   Here, the video object trajectory adding means 30 combines the current trajectory image indicating the trajectory (current trajectory) of the video object of the current frame image with the current trajectory image together with the past trajectory image. Then, the display position of the past trajectory is shifted as a whole so that the position of the first video object in the past trajectory coincides with the position of the first video object in the current trajectory. Further, the video object trajectory adding means 30 synthesizes the past trajectory image and the current trajectory image into the current frame image when an instruction for synthesizing the past trajectory image is input from an input means (not shown). When no command for synthesizing the trajectory image is input, only the current trajectory image is synthesized with the current frame image.

映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)31は、ID番号付加手段16から入力された映像オブジェクトの位置情報を記憶するもので、一般的なハードディスク等の記憶媒体である。ここで記憶される位置情報は、オブジェクト選定手段12によって抽出された映像オブジェクトの位置を示す情報であり、例えば、映像オブジェクトの重心位置とする。この位置情報は、軌跡画像位置設定手段32によって、過去軌跡画像を合成する位置を設定する際に、参照されて用いられる。   The video object position information storage means (video object position information storage device) 31 stores the position information of the video object input from the ID number adding means 16 and is a general storage medium such as a hard disk. The position information stored here is information indicating the position of the video object extracted by the object selection means 12, and is, for example, the barycentric position of the video object. This position information is referred to and used by the trajectory image position setting unit 32 when setting the position where the past trajectory image is synthesized.

なお、ここでは、映像オブジェクト位置情報記憶手段31は、映像オブジェクトの位置情報と、軌跡番号(軌跡情報)とを対応させて記憶し、更に、各々の位置情報と、軌跡番号ごとに時系列に付されたID番号とを対応させて記憶することとした。ここで、図2を参照(適宜図1参照)して、映像オブジェクト位置情報記憶手段31に記憶される位置情報について説明する。図2は、映像オブジェクト位置情報記憶手段に記憶された位置情報の例を説明するための説明図、(a)は、1つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例、(b)は、2つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例である。   Here, the video object position information storage means 31 stores the position information of the video object and the trajectory number (trajectory information) in association with each other, and further, in time series for each position information and trajectory number. The assigned ID numbers are stored in correspondence with each other. Here, the position information stored in the video object position information storage means 31 will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining an example of the position information stored in the video object position information storage means, and (a) is a position of the video object when the position information of the video object of one trajectory is input. An example of the position information stored in the information storage means, (b) is an example of the position information stored in the video object position information storage means when the position information of the video object of two trajectories is input.

まず、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16から、ID番号が付加された位置情報が入力される。ここで、映像オブジェクト位置情報記憶手段31に、ID番号付加手段16から、ID番号「1」が付加されている位置情報(x1,y1)が入力されたとする。なお、ここでは、例えば、フレーム画像の左下を原点とし、横方向にx軸、縦方向にy軸を設定したとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、入力された位置情報C1(x1,y1)を軌跡番号「1」(T1)とID番号「1」(I1)とに対応させて記憶する。 First, the position information to which the ID number is added is input from the ID number adding means 16 to the video object position information storage means 31. Here, it is assumed that the position information (x 1 , y 1 ) to which the ID number “1” is added is input from the ID number adding unit 16 to the video object position information storage unit 31. Here, for example, it is assumed that the lower left of the frame image is the origin, the x axis is set in the horizontal direction, and the y axis is set in the vertical direction. Then, as shown in FIG. 2A, the video object position information storage unit 31 uses the input position information C1 (x 1 , y 1 ) as the trajectory number “1” (T1) and the ID number “1” ( And stored in correspondence with I1).

そして、オブジェクト選定手段12によって、連続するフレーム画像から次の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「2」が付加された位置情報(x2,y2)が入力される。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報C2(x2,y2)を軌跡番号「1」(T1)とID番号「2」(I2)とに対応させて記憶する。 When the next video object is extracted from the continuous frame image by the object selection unit 12, the ID number “2” is added to the video object position information storage unit 31 from the ID number addition unit 16. Position information (x 2 , y 2 ) is input. Then, as shown in FIG. 2A, the video object position information storage unit 31 uses the position information C2 (x 2 , y 2 ) as the trajectory number “1” (T1) and the ID number “2” (I2). It memorize | stores corresponding to.

そして、オブジェクト選定手段12によって、連続するフレーム画像から更にn1−2個の映像オブジェクトが順次抽出されたとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、これらの位置情報C3、…、Cn((x3,y3)、…、(xn,yn))を軌跡番号「1」(T1)とID番号「3」、…、「n」(I3、…、In)とに対応させて記憶する。 Then, it is assumed that n 1 −2 video objects are sequentially extracted from the continuous frame images by the object selection unit 12. Then, as shown in FIG. 2A, the video object position information storage unit 31 stores the position information C3,..., Cn ((x 3 , y 3 ),..., (X n , y n )). The trajectory number “1” (T1) and the ID numbers “3”,..., “N” (I3,..., In) are stored in association with each other.

ここで、映像オブジェクト抽出手段10によって、連続するフレーム画像から映像オブジェクトが抽出されなかったとする。そうすると、この通知がID番号付加手段16に入力され、この通知に基づいてID番号付加手段16は、映像オブジェクト位置情報記憶手段31に記憶された各々の軌跡番号に1を加えて書き換える。図2(a)では、映像オブジェクト位置情報記憶手段31に記憶されている軌跡番号「1」(T1)を「2」(図2(b)のT2)に書き換える。これによって、現在フレーム画像の映像オブジェクトの軌跡を示す軌跡番号が常に「1」になる。   Here, it is assumed that the video object is not extracted from the continuous frame images by the video object extraction means 10. Then, this notification is input to the ID number adding means 16, and based on this notification, the ID number adding means 16 adds 1 to each trajectory number stored in the video object position information storage means 31 and rewrites it. In FIG. 2A, the trajectory number “1” (T1) stored in the video object position information storage unit 31 is rewritten to “2” (T2 in FIG. 2B). As a result, the trajectory number indicating the trajectory of the video object of the current frame image is always “1”.

その後、映像オブジェクト抽出手段10によって、異なる軌跡を描く映像オブジェクトのうちの最初の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「1」が付加された位置情報(xn+1,yn+1)が入力される。そして、図2(b)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報Cn+1(xn+1,yn+1)を軌跡番号「1」(T1’)とID番号「1」(In+1)とに対応させて記憶する。以上のようにして、映像オブジェクト位置情報記憶手段31は、軌跡番号と、ID番号とを位置情報に対応させて記憶することができる。 Thereafter, when the video object extraction unit 10 extracts the first video object among video objects that draw different trajectories, the ID number “1” is stored in the video object position information storage unit 31 from the ID number adding unit 16. The position information (x n + 1 , y n + 1 ) to which “is added is input. Then, as shown in FIG. 2B, the video object position information storage unit 31 uses the position information Cn + 1 (x n + 1 , y n + 1 ) as the trajectory number “1” (T1 ′) and the ID number “ 1 "(In + 1). As described above, the video object position information storage unit 31 can store the trajectory number and the ID number in association with the position information.

図1に戻って説明を続ける。軌跡画像位置設定手段32は、過去軌跡画像を、後記する画像合成手段33によって作画して合成する位置を設定するものである。ここで、軌跡画像位置設定手段32は、位置情報読み出し部321と、付加位置設定部322とを備える。   Returning to FIG. 1, the description will be continued. The trajectory image position setting means 32 sets the position where the past trajectory image is drawn and synthesized by the image synthesizing means 33 described later. Here, the trajectory image position setting unit 32 includes a position information reading unit 321 and an additional position setting unit 322.

位置情報読み出し部321は、現在フレーム画像より前に撮影された映像オブジェクトの軌跡の位置情報(過去軌跡位置情報)と、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報とを、映像オブジェクト位置情報記憶手段31から読み出すものである。ここで、位置情報読み出し部321は、図示しない入力手段によって外部から過去軌跡画像の合成の指令とともに入力された軌跡番号に対応する位置情報を、映像オブジェクト位置情報記憶手段31から読み出す。なお、ここでは、位置情報読み出し部321は、過去軌跡画像の合成の指令とともに軌跡番号が入力されなかった場合には、現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号(ここでは軌跡番号「2」)の位置情報を、映像オブジェクト位置情報記憶手段31から読み出すこととした。   The position information reading unit 321 includes the position information of the trajectory of the video object captured before the current frame image (past trajectory position information) and the same trajectory number as the video object of the current frame image (here, the trajectory number “1”). ) Position information is read out from the video object position information storage means 31. Here, the position information reading unit 321 reads position information corresponding to the trajectory number input from the outside together with a command for synthesizing the past trajectory image from an input unit (not shown) from the video object position information storage unit 31. Here, in the case where the trajectory number is not input together with the past trajectory image compositing command, the position information reading unit 321 has a trajectory number indicating the trajectory immediately before the video object of the current frame image (here, The position information of the trajectory number “2”) is read from the video object position information storage unit 31.

また、ここでは、過去軌跡の最初の映像オブジェクトの位置を現在軌跡の最初の映像オブジェクトの位置に一致させるため、位置情報読み出し部321は、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出す。ここで読み出された位置情報は、付加位置設定部322に出力される。   Also, here, in order to match the position of the first video object in the past trajectory with the position of the first video object in the current trajectory, the position information reading unit 321 has position information of the same trajectory number as the video object of the current frame image. Among them, the position information whose ID number is 1 is read. The position information read here is output to the additional position setting unit 322.

付加位置設定部322は、位置情報読み出し部321から入力された位置情報に基づいて、過去軌跡画像の位置を設定するものである。ここで、付加位置設定部322は、位置情報読み出し部321から入力された過去軌跡の映像オブジェクトの位置情報によって示される位置を、現在軌跡の最初の映像オブジェクトの位置に合わせてシフトして、過去軌跡画像の位置を設定する。ここで設定された過去軌跡画像の位置は、画像合成手段33の合成部332に出力される。   The additional position setting unit 322 sets the position of the past trajectory image based on the position information input from the position information reading unit 321. Here, the additional position setting unit 322 shifts the position indicated by the position information of the video object of the past trajectory input from the position information reading unit 321 according to the position of the first video object of the current trajectory. Set the position of the trajectory image. The position of the past trajectory image set here is output to the composition unit 332 of the image composition unit 33.

ここでは、付加位置設定部322は、過去軌跡を示す位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とに基づいて、過去軌跡画像の位置を設定する。ここで、図3を参照(適宜図1参照)して、過去軌跡画像の位置を設定する方法について説明する。図3は、付加位置設定部によって、過去軌跡画像の位置を設定する方法の例を説明するための説明図、(a)は、位置情報読み出し部によって読み出された過去軌跡の映像オブジェクトの位置情報と、現在軌跡の最初の映像オブジェクトの位置情報によって示される位置を模式的に示した模式図、(b)は、付加位置設定部によって設定された過去軌跡画像の位置を模式的に示した模式図である。なお、ここでは、フレーム画像の横方向にx軸、縦方向にy軸を設定している。   Here, the additional position setting unit 322 sets the position of the past locus image based on the position information indicating the past locus and the position information of the first video object in the current locus. Here, a method for setting the position of the past locus image will be described with reference to FIG. 3 (refer to FIG. 1 as appropriate). FIG. 3 is an explanatory diagram for explaining an example of a method of setting the position of the past trajectory image by the additional position setting unit, and (a) is the position of the video object of the past trajectory read by the position information reading unit. Schematic diagram schematically showing the position indicated by the information and the position information of the first video object of the current trajectory, (b) schematically shows the position of the past trajectory image set by the additional position setting unit It is a schematic diagram. Here, the x-axis is set in the horizontal direction and the y-axis is set in the vertical direction of the frame image.

位置情報読み出し部321によって、軌跡番号「k」の位置情報(ここでは重心座標とする)がnk個と、現在軌跡の最初(ID番号が「1」)の映像オブジェクトの位置情報とが読み出された場合に、図3(a)に示すように、軌跡番号が「k」、ID番号が「1」の位置情報Ck1を(xk1,yk1)、ID番号が「2」の位置情報Ck2を(xk2,yk2)、ID番号が「nk」の位置情報Cknkを(xknk,yknk)とし、現在軌跡の最初の映像オブジェクトの位置情報C0を(x0,y0)とする。 The position information reading unit 321 reads n k pieces of position information (here, centroid coordinates) of the trajectory number “k” and the position information of the first video object (ID number “1”) of the current trajectory. 3 (a), the location information Ck1 with the trajectory number “k”, the ID number “1” is (xk1, yk1), and the location information Ck2 with the ID number “2”, as shown in FIG. the (xk2, yk2), ID number is the position information Ckn k of "n k" and (xkn k, ykn k), currently the position information C0 of the first video object trajectory and (x0, y0).

そうすると、付加位置設定部322は、過去軌跡の最初(ID番号が「1」)の位置情報Ck1(xk1,yk1)を、現在軌跡の最初の映像オブジェクトの位置情報C0(x0,y0)に一致させるため、x、y軸方向に(x0−xk1,y0−yk1)だけ移動させて、過去軌跡画像の位置Dk1(x0,y0)に設定する。そして、過去軌跡のその他の位置情報Ck2、…、Cknkの位置も、x、y軸方向に(x0−xk1,y0−yk1)ずつ移動させ、過去軌跡画像の位置Dk2(xk2+x0−xk1,yk2+y0−yk1)、…、Dknk(xknk+x0−xk1,yknk+y0−yk1)とする。 Then, the additional position setting unit 322 matches the position information Ck1 (xk1, yk1) of the first (ID number “1”) of the past locus with the position information C0 (x0, y0) of the first video object of the current locus. Therefore, it is moved by (x0−xk1, y0−yk1) in the x and y axis directions, and set to the position Dk1 (x0, y0) of the past trajectory image. The other location information Ck2 past trajectory, ..., the position of CKN k, x, is moved in the y-axis direction by (x0-xk1, y0-yk1 ), the position of the past trajectory image Dk2 (xk2 + x0-xk1, yk2 + y0 -yk1), ..., and Dkn k (xkn k + x0- xk1, ykn k + y0-yk1).

これによって、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、全体的にずらした位置に過去軌跡画像を合成する位置を設定することができる。   In this way, the additional position setting unit 322 synthesizes the past trajectory image at a position shifted as a whole so that the position of the first video object in the past trajectory matches the position of the first video object in the current trajectory. Can be set.

なお、ここでは、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置を、現在軌跡における最初の映像オブジェクトの位置に設定することとしたが、過去軌跡画像を合成する位置の設定方法はこれに限定されることはない。例えば、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置から所定距離だけ上の位置になるように設定することとしてもよいし、現在フレーム画像の映像オブジェクトとID番号が同一の過去軌跡の映像オブジェクトの位置が、現在フレーム画像の映像オブジェクトの位置になるように設定することととしてもよい。   Here, the additional position setting unit 322 sets the position of the first video object in the past trajectory to the position of the first video object in the current trajectory. Is not limited to this. For example, the position of the first video object in the past trajectory may be set to be a predetermined distance above the position of the first video object in the current trajectory, or the video object and ID number of the current frame image May be set so that the position of the video object of the same past locus becomes the position of the video object of the current frame image.

図1に戻って説明を続ける。画像合成手段33は、映像遅延手段20から入力された映像信号のフレーム画像における、軌跡画像位置設定手段32によって設定された位置に、過去軌跡画像を作画して合成するものである。ここで、画像合成手段33は、作画部331と、合成部332とを備える。   Returning to FIG. 1, the description will be continued. The image synthesizing unit 33 draws and synthesizes the past trajectory image at the position set by the trajectory image position setting unit 32 in the frame image of the video signal input from the video delay unit 20. Here, the image synthesizing unit 33 includes a drawing unit 331 and a synthesizing unit 332.

作画部331は、付加位置設定部322から入力された位置に、過去軌跡画像を生成するとともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報を読み出し、この位置情報によって示される位置に、映像オブジェクト抽出手段10のオブジェクト選定手段12から入力された映像オブジェクトの特徴量に基づいて、現在フレーム画像の映像オブジェクトの軌跡を示す現在軌跡画像を作画するものである。ここで作画された画像は、合成部332に出力される。   The drawing unit 331 generates a past trajectory image at the position input from the additional position setting unit 322 and reads position information of the same trajectory number (here, trajectory number “1”) as the video object of the current frame image. The current trajectory image indicating the trajectory of the video object of the current frame image is drawn based on the feature quantity of the video object input from the object selection unit 12 of the video object extraction unit 10 at the position indicated by the position information. It is. The image drawn here is output to the synthesis unit 332.

合成部332は、作画部331から入力された画像を、映像遅延手段20から入力された映像信号のフレーム画像に合成するものである。ここで合成されたフレーム画像からなる映像は、軌跡付加映像として外部に出力される。   The combining unit 332 combines the image input from the drawing unit 331 with the frame image of the video signal input from the video delay unit 20. The video composed of the frame images synthesized here is output to the outside as a trajectory-added video.

以上、本発明に係る軌跡付加映像生成装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、ここでは、映像オブジェクト抽出手段10は、映像オブジェクトの抽出対象となるフレーム画像と、このフレーム画像より1フレーム前及び後に入力されたフレーム画像との2つの差分画像を生成して、映像オブジェクトを抽出することとしたが、映像オブジェクト抽出手段10の映像オブジェクトの抽出方法はこれに限定されることなく、フレーム画像ごとに映像オブジェクトの位置を検出できればよい。例えば、抽出対象となる映像オブジェクトの形状によって、映像オブジェクトをフレーム画像から検出することとしてもよいし、映像オブジェクトの色によって検出することとしてもよい。   The configuration of the trajectory-added video generation device 1 according to the present invention has been described above, but the present invention is not limited to this. For example, here, the video object extraction means 10 generates two difference images of a frame image from which a video object is to be extracted and a frame image that is input one frame before and after this frame image. However, the video object extraction method of the video object extraction means 10 is not limited to this, and it is sufficient that the position of the video object can be detected for each frame image. For example, the video object may be detected from the frame image depending on the shape of the video object to be extracted, or may be detected based on the color of the video object.

また、ここでは、映像オブジェクト位置情報記憶手段31が、映像オブジェクトの位置情報と、軌跡番号と、ID番号とを対応させて記憶することとし、位置情報読み出し部321が、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出すこととしたが、例えば、映像オブジェクト位置情報記憶手段31が、位置情報と軌跡番号のみを対応させて記憶するこことしてもよい。このとき、位置情報読み出し部321は、例えば、映像オブジェクトが映像中を左から右に移動する場合において、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうちの、x座標の値が一番小さい位置情報を読み出すこととしてもよい。   Here, the video object position information storage unit 31 stores the position information of the video object, the trajectory number, and the ID number in association with each other, and the position information reading unit 321 includes the past trajectory position information. The position information having the ID number 1 is read out from the position information of the same trajectory number as that of the video object of the current frame image. For example, the video object position information storage unit 31 only includes the position information and the trajectory number. May be stored in association with each other. At this time, for example, when the video object moves from left to right in the video, the position information reading unit 321 includes the position information of the past trajectory and the position information of the same trajectory number as the video object of the current frame image. The position information having the smallest x coordinate value may be read out.

更に、ここでは、ID番号付加手段16によって、軌跡番号を設定し、映像オブジェクト位置情報記憶手段31が、この軌跡番号と、映像オブジェクトの位置情報とを対応させて記憶することとしたが、軌跡情報は軌跡を特定できるものであればよい。例えば、軌跡付加映像生成装置1は、ID番号付加手段16を備えず、映像オブジェクト位置情報記憶手段31が、この映像オブジェクトが抽出されたフレーム画像の撮影された時刻等を軌跡情報とし、この軌跡情報と、位置情報とを対応させて記憶することとしてもよい。このとき、例えば、位置情報読み出し部321は、軌跡情報の時刻が連続する位置情報を一連の動きの軌跡を示す位置情報であるとして、外部から入力された指令に基づいて指定された軌跡の位置情報を読み出すことができる。また、映像オブジェクト位置情報記憶手段31が、例えば、位置情報をテキストデータ等として記憶することとし、軌跡ごとに行を変えて記録することとしてもよい。このとき、位置情報読み出し部321は、行番号を軌跡情報として任意の軌跡の位置情報を読み出すことができる。   Further, here, the trajectory number is set by the ID number adding means 16, and the video object position information storage means 31 stores the trajectory number and the position information of the video object in association with each other. Any information may be used as long as the locus can be specified. For example, the trajectory-added video generation apparatus 1 does not include the ID number adding unit 16, and the video object position information storage unit 31 uses the time when the frame image from which the video object is extracted as trajectory information, and the trajectory. Information and position information may be stored in association with each other. At this time, for example, the position information reading unit 321 assumes that the position information in which the time of the locus information is continuous is the position information indicating a series of movement locus, and the position of the locus designated based on the command input from the outside. Information can be read out. Further, the video object position information storage unit 31 may store the position information as text data or the like, for example, and record it by changing the line for each locus. At this time, the position information reading unit 321 can read the position information of an arbitrary locus using the row number as the locus information.

また、ここでは、軌跡が付加される1つの映像を外部から入力し、映像オブジェクト位置情報記憶手段31には、位置情報として、この映像のフレーム画像における映像オブジェクトの2次元座標が記憶されて、付加位置設定部322がこの2次元座標に基づいて過去軌跡画像の位置を設定することとしたが、例えば、異なる場所から撮影された映像を更に外部から入力して、映像オブジェクトの3次元位置(3次元座標)を解析することとしてもよい。このとき、映像オブジェクト抽出手段10が、2つ以上の映像から抽出された映像オブジェクトの2次元座標と、撮影したカメラのカメラパラメータとに基づいて映像オブジェクトの3次元座標を解析して、この3次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとしてもよい。また、映像オブジェクト抽出手段10によって2つ以上の映像から抽出された映像オブジェクトの2次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとし、位置情報読み出し部321が、撮影したカメラのカメラパラメータと、読み出した位置情報とに基づいて3次元座標を解析することとしてもよい。そして、付加位置設定部322は、過去軌跡と現在軌跡の位置に基づいて、過去軌跡の3次元座標をあるシフト量だけシフトさせ、シフトされた3次元座標を透視投影変換等によって、フレーム画像における2次元座標に変換することで、映像に更に正確な過去軌跡を付加することができる。   In addition, here, one video to which a trajectory is added is input from the outside, and the video object position information storage unit 31 stores the two-dimensional coordinates of the video object in the frame image of the video as the position information. The additional position setting unit 322 sets the position of the past trajectory image based on the two-dimensional coordinates. For example, a video captured from a different place is further input from the outside, and the three-dimensional position ( It is also possible to analyze (three-dimensional coordinates). At this time, the video object extracting means 10 analyzes the three-dimensional coordinates of the video object based on the two-dimensional coordinates of the video object extracted from two or more videos and the camera parameters of the photographed camera. The dimensional coordinates may be stored in the video object position information storage unit 31 as position information. Further, the two-dimensional coordinates of the video object extracted from two or more videos by the video object extraction means 10 are stored as the position information in the video object position information storage means 31, and the position information reading unit 321 takes a photographed camera. The three-dimensional coordinates may be analyzed based on the camera parameters and the read position information. Then, the additional position setting unit 322 shifts the three-dimensional coordinates of the past trajectory by a certain shift amount based on the past trajectory and the position of the current trajectory, and converts the shifted three-dimensional coordinates in the frame image by perspective projection conversion or the like. By converting to two-dimensional coordinates, a more accurate past trajectory can be added to the video.

なお、軌跡付加映像生成装置1の映像オブジェクト軌跡付加手段30は、一般的なコンピュータにプログラム(映像オブジェクト軌跡付加プログラム)を実行させ、コンピュータ内の演算装置や記憶装置を動作させることで実現することができる。   Note that the video object trajectory adding means 30 of the trajectory-added video generation device 1 is realized by causing a general computer to execute a program (video object trajectory adding program) and operating a computing device or a storage device in the computer. Can do.

[軌跡付加映像生成装置の動作]
次に、図4及び図5を参照(適宜図1参照)して、本発明における軌跡付加映像生成装置1の動作について説明する。図4は、本発明における軌跡付加映像生成装置が、フレーム画像から被写体の位置を抽出し、このフレーム画像に現在軌跡を示す現在軌跡画像と過去軌跡を示す過去軌跡画像とを付加した軌跡付加映像を生成する動作を示したフローチャートである。図5は、映像オブジェクト抽出手段が、フレーム画像から映像オブジェクトの位置を抽出する動作(映像オブジェクト抽出動作)を示したフローチャートである。
[Operation of locus added video generation device]
Next, with reference to FIGS. 4 and 5 (refer to FIG. 1 as appropriate), the operation of the trajectory-added video generation device 1 according to the present invention will be described. FIG. 4 shows a trajectory-added video in which the trajectory-added video generation apparatus according to the present invention extracts the position of a subject from a frame image and adds a current trajectory image indicating a current trajectory and a past trajectory image indicating a past trajectory to the frame image. It is the flowchart which showed the operation | movement which produces | generates. FIG. 5 is a flowchart showing an operation (video object extraction operation) in which the video object extraction means extracts the position of the video object from the frame image.

まず、図4を参照して、軌跡付加映像生成装置1の動作について説明する。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、後記する映像オブジェクト抽出動作によって、外部から入力されたフレーム画像から映像オブジェクトの位置を検出する(ステップS10)。そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、この映像オブジェクト抽出動作によって映像オブジェクトが抽出されたかを判断する(ステップS11)。そして、抽出されなかった場合には(ステップS11でNo)、そのままステップS23に進む。また、抽出された場合には(ステップS11でYes)、軌跡付加映像生成装置1は、映像オブジェクト軌跡付加手段30の映像オブジェクト位置情報記憶手段31に、ステップS10において抽出された映像オブジェクトの位置情報を記憶する(ステップS12)。   First, the operation of the trajectory-added video generation device 1 will be described with reference to FIG. The trajectory-added video generation apparatus 1 detects the position of the video object from the frame image input from the outside by the video object extraction operation described later by the video object extraction means 10 (step S10). Then, the trajectory-added video generation device 1 determines whether the video object is extracted by the video object extraction operation by the video object extraction means 10 (step S11). If not extracted (No in step S11), the process directly proceeds to step S23. If it is extracted (Yes in step S11), the trajectory-added video generation device 1 stores the video object position information extracted in step S10 in the video object position information storage unit 31 of the video object trajectory adding unit 30. Is stored (step S12).

続いて、軌跡付加映像生成装置1は、軌跡画像位置設定手段32の位置情報読み出し部321によって、フレーム画像への過去軌跡画像の合成の指令を外部から入力したかを判断する(ステップS13)。そして、フレーム画像への過去軌跡画像の合成の指令を外部から入力していない場合には(ステップS13でNo)、軌跡付加映像生成装置1は、画像合成手段33の作画部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出し(ステップS20)、ステップS20において読み出された位置情報によって示される位置に現在軌跡画像を作画して(ステップS21)、ステップS22に進む。   Subsequently, the trajectory-added video generation apparatus 1 determines whether or not a command for synthesizing the past trajectory image to the frame image is input from the outside by the position information reading unit 321 of the trajectory image position setting unit 32 (step S13). Then, when a command for synthesizing the past trajectory image to the frame image is not input from the outside (No in step S13), the trajectory-added video generation device 1 uses the drawing unit 331 of the image compositing unit 33 to perform the video object. The position information of the current locus is read from the position information storage unit 31 (step S20), a current locus image is drawn at the position indicated by the position information read in step S20 (step S21), and the process proceeds to step S22.

一方、過去軌跡画像の合成の指令を入力した場合には(ステップS13でYes)、位置情報読み出し部321は、指令とともに合成する軌跡の軌跡番号を入力したかを判断する(ステップS14)。   On the other hand, when a command for synthesizing past trajectory images is input (Yes in step S13), the position information reading unit 321 determines whether the trajectory number of the trajectory to be combined with the command is input (step S14).

(軌跡画像位置設定ステップ)
そして、軌跡番号を入力していない場合には(ステップS14でNo)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号の位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出し(ステップS15)、ステップS17に進む。また、軌跡番号を入力した場合には(ステップS14でYes)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から、入力された軌跡番号に対応する位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出す(ステップS16)。そして、軌跡付加映像生成装置1は、付加位置設定部322によって、ステップS15又はステップS16において読み出された位置情報に基づいて、現在フレーム画像内に過去軌跡画像を合成する位置を設定する(ステップS17)。
(Track image position setting step)
If no trajectory number has been input (No in step S14), the trajectory-added video generation device 1 uses the position information reading unit 321 to store 1 of the video object of the current frame image from the video object position information storage unit 31. The position information of the track number indicating the previous track and the position information of the first video object of the current track are read (step S15), and the process proceeds to step S17. When the trajectory number is input (Yes in step S14), the trajectory-added video generation device 1 causes the position information reading unit 321 to detect the position corresponding to the input trajectory number from the video object position information storage unit 31. Information and position information of the first video object in the current locus are read (step S16). The trajectory-added video generation device 1 sets a position where the past trajectory image is synthesized in the current frame image based on the position information read in step S15 or step S16 by the additional position setting unit 322 (step S15). S17).

更に、軌跡付加映像生成装置1は、画像合成手段33の作画部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出す(ステップS18)。   Further, the locus-added video generation device 1 reads the position information of the current locus from the video object position information storage means 31 by the drawing unit 331 of the image composition means 33 (step S18).

(画像合成ステップ)
続いて、軌跡付加映像生成装置1は、作画部331によって、ステップS17において設定された位置に過去軌跡画像を作画し、ステップS18において読み出された位置情報によって示される位置に現在軌跡画像を作画する(ステップS19)。更に、軌跡付加映像生成装置1は、合成部332によって、ステップS19又はステップS21において作画された画像を、現在フレーム画像に合成する(ステップS22)。
(Image composition step)
Subsequently, the trajectory-added video generation apparatus 1 draws a past trajectory image at the position set in step S17 by the drawing unit 331, and draws a current trajectory image at the position indicated by the position information read in step S18. (Step S19). Furthermore, the trajectory-added video generation device 1 combines the image drawn in step S19 or step S21 with the current frame image by the combining unit 332 (step S22).

そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、新たなフレーム画像が外部から入力されたかを判断する(ステップS23)。そして、新たな画像が入力された場合には(ステップS23でYes)、ステップS10に戻って、入力されたフレーム画像から映像オブジェクトを抽出する映像オブジェクト抽出動作以降の動作を行う。また、新たなフレーム画像が入力されなかった場合には(ステップS23でNo)、そのまま動作を終了する。   Then, the trajectory-added video generation device 1 determines whether a new frame image is input from the outside by the video object extraction means 10 (step S23). When a new image is input (Yes in step S23), the process returns to step S10, and operations after the video object extraction operation for extracting a video object from the input frame image are performed. If no new frame image is input (No in step S23), the operation is terminated as it is.

[映像オブジェクト抽出動作]
次に図5を参照(適宜図1参照)して、軌跡付加映像生成装置1が映像オブジェクト抽出手段10(映像オブジェクト検出装置)によって、外部から入力されたフレーム画像から映像オブジェクトを抽出する、映像オブジェクト抽出動作(図4のステップS10)について説明する。
[Video object extraction operation]
Next, referring to FIG. 5 (refer to FIG. 1 as appropriate), the trajectory-added video generation device 1 extracts a video object from an externally input frame image by the video object extraction means 10 (video object detection device). The object extraction operation (step S10 in FIG. 4) will be described.

まず、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10の探索領域設定手段15によって、位置予測手段14で、外部から入力されたフレーム画像の2つ前のフレーム画像(抽出対象となるフレーム画像の1つ前のフレーム画像)内の映像オブジェクトの位置から算出された予測位置に基づいて、映像オブジェクトの探索領域を設定する(ステップS40)。なお、抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトについて、位置予測手段14によって予測位置が算出されていない場合には、軌跡付加映像生成装置1は、フレーム画像の全領域、あるいは、指定された領域を設定する。そして、軌跡付加映像生成装置1は、オブジェクト候補画像生成手段11によって、差分画像1及び差分画像2を生成し、外部から入力されたフレーム画像の1つ前のフレーム画像(抽出対象となるフレーム画像)から、ステップS40において設定された探索領域についてオブジェクト候補画像を生成する(ステップS41)。   First, the trajectory-added video generation device 1 uses the search region setting unit 15 of the video object extraction unit 10 to generate a frame image (frame image to be extracted) immediately before the frame image input from the outside by the position prediction unit 14. Based on the predicted position calculated from the position of the video object in the previous frame image), a search area for the video object is set (step S40). When the predicted position is not calculated by the position predicting unit 14 for the video object of the frame image immediately before the frame image to be extracted, the trajectory-added video generation device 1 displays the entire area of the frame image, Alternatively, the specified area is set. Then, the trajectory-added video generation device 1 generates the difference image 1 and the difference image 2 by the object candidate image generation unit 11 and the frame image immediately before the frame image input from the outside (the frame image to be extracted). ) To generate an object candidate image for the search region set in step S40 (step S41).

更に、軌跡付加映像生成装置1は、オブジェクト選定手段12のラベリング部121によって、映像オブジェクトの候補となる領域に対してラベルを付す(ステップS42)。そして、軌跡付加映像生成装置1は、特徴量解析部122によって、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補の位置と特徴量とを解析する(ステップS43)。続いて、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS43において解析された特徴量に基づいて、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補から抽出対象となる映像オブジェクトを絞り込むフィルタ処理を行う(ステップS44)。ここで、フィルタ処理部123は、各々の映像オブジェクトの候補の特徴量が、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に適合するかを判断することで、フィルタ処理を行う。   Further, the locus-added video generation device 1 attaches a label to a region that is a candidate video object by the labeling unit 121 of the object selection unit 12 (step S42). Then, the trajectory-added video generation apparatus 1 analyzes the position and the feature amount of the candidate video object corresponding to the label labeled in step S42 by the feature amount analysis unit 122 (step S43). Subsequently, the trajectory-added video generation device 1 uses the filter processing unit 123 to extract a video object to be extracted from the video object candidates corresponding to the label labeled in step S42 based on the feature amount analyzed in step S43. Filter processing for narrowing down is performed (step S44). Here, the filter processing unit 123 determines whether the feature amount of each video object candidate matches the extraction condition indicated by the extraction condition information 131 stored in the extraction condition storage unit 13. Process.

更に、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS44において行ったフィルタ処理において、抽出条件に適合する映像オブジェクトがないかを判断する(ステップS45)。そして、抽出条件に適合する映像オブジェクトがない場合には(ステップS45でYes)、軌跡付加映像生成装置1は、フィルタ処理部123によって、このフレーム画像内には抽出対象となる映像オブジェクトがないと判断して、そのまま動作を終了する。また、抽出条件に適合する映像オブジェクトがある場合には(ステップS45でNo)、軌跡付加映像生成装置1は、オブジェクト選択部124によって、ステップS44においてフィルタ処理された、抽出条件に適合する映像オブジェクトの中から、抽出対象となる映像オブジェクトを選択する(ステップS46)。ここで、オブジェクト選択部124は、抽出条件に適合する映像オブジェクトのうち、位置予測手段14によって抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトの位置から算出された予測位置に最も近い映像オブジェクトを、抽出対象となる映像オブジェクトとして選択する。   Furthermore, the trajectory-added video generation apparatus 1 determines whether there is a video object that satisfies the extraction condition in the filter processing performed in step S44 by the filter processing unit 123 (step S45). If there is no video object that satisfies the extraction condition (Yes in step S45), the trajectory-added video generation device 1 uses the filter processing unit 123 to indicate that there is no video object to be extracted in this frame image. Judgment is made and the operation is finished as it is. If there is a video object that matches the extraction condition (No in step S45), the trajectory-added video generation device 1 uses the object selection unit 124 to perform the filtering process in step S44 and that matches the extraction condition. A video object to be extracted is selected from the list (step S46). Here, the object selection unit 124 selects the highest predicted position calculated from the position of the video object of the frame image immediately before the frame image to be extracted by the position prediction unit 14 among the video objects that meet the extraction condition. A near video object is selected as a video object to be extracted.

そして、軌跡付加映像生成装置1は、ID番号付加手段16によって、ステップS46において選択された映像オブジェクトの位置を示す位置情報にID番号を付加する(ステップS47)。また、軌跡付加映像生成装置1は、位置予測手段14によって、ステップ45によって選択された映像オブジェクトの位置に基づいて次のフレーム画像における映像オブジェクトの予測位置を算出し(ステップS48)、動作を終了する。なお、ここで算出された予測位置は、探索領域設定手段15によって、次の抽出対象となるフレーム画像において探索領域を設定する際(ステップS40)と、オブジェクト選定手段12のオブジェクト選択部124によって、次の抽出対象となるフレーム画像において映像オブジェクトを選択する際(ステップS46)に用いられる。   The trajectory-added video generation apparatus 1 adds an ID number to the position information indicating the position of the video object selected in step S46 by the ID number adding unit 16 (step S47). Further, the trajectory-added video generation apparatus 1 calculates the predicted position of the video object in the next frame image based on the position of the video object selected in step 45 by the position prediction unit 14 (step S48), and ends the operation. To do. The predicted position calculated here is determined by the search area setting means 15 when the search area is set in the next frame image to be extracted (step S40) and by the object selection section 124 of the object selection means 12. This is used when a video object is selected in the next frame image to be extracted (step S46).

本発明における映像オブジェクト軌跡付加手段を備える軌跡付加映像生成装置の構成を示したブロック図である。It is the block diagram which showed the structure of the locus | trajectory addition image | video production | generation apparatus provided with the image | video object locus | trajectory addition means in this invention. 本発明における軌跡付加映像生成装置の映像オブジェクト位置情報記憶手段に記憶された位置情報の例を説明するための説明図、(a)は、1つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例、(b)は、2つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例である。Explanatory drawing for demonstrating the example of the positional information memorize | stored in the video object positional information storage means of the locus | trajectory addition image generation apparatus in this invention, (a) is the case where the positional information on the image object of one locus | trajectory is input FIG. 5B shows an example of position information stored in the video object position information storage means. FIG. 5B shows position information stored in the video object position information storage means when the position information of the video object of two trajectories is input. It is an example. 本発明における軌跡付加映像生成装置の付加位置設定部によって、過去軌跡画像の位置を設定する方法の例を説明するための説明図、(a)は、位置情報読み出し部によって読み出された過去軌跡の映像オブジェクトの位置情報と、現在軌跡の最初の映像オブジェクトの位置情報によって示される位置を模式的に示した模式図、(b)は、付加位置設定部によって設定された過去軌跡画像の位置を模式的に示した模式図である。Explanatory drawing for demonstrating the example of the method of setting the position of a past locus | trajectory image by the additional position setting part of the locus | trajectory additional image generation apparatus in this invention, (a) is the past locus | trajectory read by the position information reading part. FIG. 6B is a schematic diagram schematically showing the position indicated by the position information of the video object and the position information of the first video object in the current trajectory. FIG. 5B shows the position of the past trajectory image set by the additional position setting unit. It is the schematic diagram shown typically. 本発明における軌跡付加映像生成装置が、フレーム画像から被写体の位置を抽出し、このフレーム画像に現在軌跡を示す現在軌跡画像と過去軌跡を示す過去軌跡画像とを付加した軌跡付加映像を生成する動作を示したフローチャートである。An operation for generating a trajectory-added video in which a trajectory-added video generation apparatus according to the present invention extracts a position of a subject from a frame image and adds a current trajectory image indicating a current trajectory and a past trajectory image indicating a past trajectory to the frame image. It is the flowchart which showed. 本発明における軌跡付加映像生成装置の映像オブジェクト抽出手段が、フレーム画像から映像オブジェクトの位置を抽出する動作(映像オブジェクト抽出動作)を示したフローチャートである。It is the flowchart which showed the operation | movement (video object extraction operation | movement) in which the video object extraction means of the locus | trajectory addition video generation apparatus in this invention extracts the position of a video object from a frame image.

符号の説明Explanation of symbols

1 軌跡付加映像生成装置
10 映像オブジェクト抽出手段(映像オブジェクト検出装置)
20 映像遅延手段
30 映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)
31 映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)
32 軌跡画像位置設定手段
33 画像合成手段
DESCRIPTION OF SYMBOLS 1 Trajectory addition video generation apparatus 10 Video object extraction means (video object detection apparatus)
20 video delay means 30 video object trajectory adding means (video object trajectory adding apparatus)
31 Video object position information storage means (video object position information storage device)
32 Trajectory image position setting means 33 Image composition means

Claims (2)

時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置から、前記フレーム画像内における前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加する映像オブジェクト軌跡付加装置であって、
前記映像オブジェクト検出装置から入力される、前記複数のフレーム画像に連続して含まれる前記映像オブジェクトの位置情報である過去軌跡位置情報を、前記軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶手段と、
この映像オブジェクト位置情報記憶手段から、任意の前記軌跡情報に対応する前記過去軌跡位置情報を読み出して、前記他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて前記過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、前記シフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する軌跡画像位置設定手段と、
前記軌跡画像位置設定手段によって設定された、前記他のフレーム画像の過去軌跡位置に、前記軌跡画像を合成する画像合成手段とを備えることを特徴とする映像オブジェクト軌跡付加装置。
Position information indicating the position of the video object in the frame image is input from a video object detection device that detects the position of the video object in the frame image input in time series, and a plurality of the time-series input A video object trajectory adding apparatus for adding a trajectory image indicating a trajectory of the video object continuously included in a frame image to another frame image captured from a position where the frame image is captured,
Video object for storing past trajectory position information, which is input from the video object detection device, that is position information of the video object continuously included in the plurality of frame images, in association with trajectory information for specifying the trajectory Position information storage means;
The past trajectory position information corresponding to the arbitrary trajectory information is read out from the video object position information storage means, and the video object position information of the other frame image or the position information of the trajectory of the video object is used. A trajectory image position setting unit that sets a shift amount for shifting the position indicated by the past trajectory position information and sets a past trajectory position obtained by shifting the position indicated by the past trajectory position information by the shift amount;
An image object trajectory adding apparatus, comprising: an image compositing means for compositing the trajectory image with a past trajectory position of the other frame image set by the trajectory image position setting means.
時系列に入力されるフレーム画像内の映像オブジェクトの位置を検出する映像オブジェクト検出装置によって検出された、時系列に入力される複数のフレーム画像に連続して含まれる前記映像オブジェクトの位置情報である過去軌跡位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶装置から前記過去軌跡位置情報を読み出して、前記軌跡を示す軌跡画像を、当該フレーム画像が撮影された位置から撮影された他のフレーム画像に付加するためにコンピュータを、
この映像オブジェクト位置情報記憶装置から、任意の前記軌跡情報に対応する前記過去軌跡位置情報を読み出して、前記他のフレーム画像の映像オブジェクトの位置情報あるいは当該映像オブジェクトの軌跡の位置情報に基づいて前記過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、前記シフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する軌跡画像位置設定手段、
前記軌跡画像位置設定手段によって設定された、前記他のフレーム画像の過去軌跡位置に、前記軌跡画像を合成する画像合成手段として機能させることを特徴とする映像オブジェクト軌跡付加プログラム。
The position information of the video object that is continuously included in a plurality of frame images input in time series, detected by a video object detection device that detects the position of the video object in a frame image input in time series. The past trajectory position information is read out from the video object position information storage device that stores the past trajectory position information in correspondence with the trajectory information that specifies the trajectory of the video object, and the trajectory image indicating the trajectory is represented by the frame image. The computer to add to other frame images taken from the location where it was taken,
The past trajectory position information corresponding to the arbitrary trajectory information is read from the video object position information storage device, and the video object position information of the other frame image or the position information of the trajectory of the video object is used. A trajectory image position setting means for setting a shift amount for shifting the position indicated by the past trajectory position information, and for setting a past trajectory position obtained by shifting the position indicated by the past trajectory position information by the shift amount;
A video object trajectory addition program which causes an image composition means for compositing the trajectory image to a past trajectory position of the other frame image set by the trajectory image position setting means.
JP2004339606A 2004-11-24 2004-11-24 Trajectory-added video generation apparatus and trajectory-added video generation program Expired - Fee Related JP4546810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004339606A JP4546810B2 (en) 2004-11-24 2004-11-24 Trajectory-added video generation apparatus and trajectory-added video generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004339606A JP4546810B2 (en) 2004-11-24 2004-11-24 Trajectory-added video generation apparatus and trajectory-added video generation program

Publications (2)

Publication Number Publication Date
JP2006146823A true JP2006146823A (en) 2006-06-08
JP4546810B2 JP4546810B2 (en) 2010-09-22

Family

ID=36626402

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004339606A Expired - Fee Related JP4546810B2 (en) 2004-11-24 2004-11-24 Trajectory-added video generation apparatus and trajectory-added video generation program

Country Status (1)

Country Link
JP (1) JP4546810B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084902A1 (en) * 2009-01-22 2010-07-29 株式会社日立国際電気 Intrusion alarm video processing device
US8918906B2 (en) 2010-10-29 2014-12-23 Panasonic Corporation Communication service system
CN108734049A (en) * 2017-04-13 2018-11-02 佳能株式会社 Image processing method and device and image processing system
CN112887515A (en) * 2021-01-26 2021-06-01 维沃移动通信有限公司 Video generation method and device
CN117557789A (en) * 2024-01-12 2024-02-13 国研软件股份有限公司 Intelligent detection method and system for offshore targets

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105231A (en) * 1992-09-24 1994-04-15 Namco Ltd Picture synthesis device
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06105231A (en) * 1992-09-24 1994-04-15 Namco Ltd Picture synthesis device
JPH07160856A (en) * 1993-12-01 1995-06-23 Mitsui Constr Co Ltd Locus acquiring device of moving object
JP2004164563A (en) * 2002-09-26 2004-06-10 Toshiba Corp Image analysis method, image analysis apparatus, image analysis program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010084902A1 (en) * 2009-01-22 2010-07-29 株式会社日立国際電気 Intrusion alarm video processing device
JP5325899B2 (en) * 2009-01-22 2013-10-23 株式会社日立国際電気 Intrusion alarm video processor
US8918906B2 (en) 2010-10-29 2014-12-23 Panasonic Corporation Communication service system
CN108734049A (en) * 2017-04-13 2018-11-02 佳能株式会社 Image processing method and device and image processing system
CN112887515A (en) * 2021-01-26 2021-06-01 维沃移动通信有限公司 Video generation method and device
CN112887515B (en) * 2021-01-26 2023-09-19 维沃移动通信有限公司 Video generation method and device
CN117557789A (en) * 2024-01-12 2024-02-13 国研软件股份有限公司 Intelligent detection method and system for offshore targets
CN117557789B (en) * 2024-01-12 2024-04-09 国研软件股份有限公司 Intelligent detection method and system for offshore targets

Also Published As

Publication number Publication date
JP4546810B2 (en) 2010-09-22

Similar Documents

Publication Publication Date Title
JP4555690B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
KR101092287B1 (en) Image processing apparatus and image processing method
CN105830009B (en) Method for video processing and equipment
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
TWI352937B (en) Motion compensated frame rate conversion
JP4991101B2 (en) Temporary motion vector filtering
JP5035053B2 (en) Non-linear video playback control method and non-linear video playback control program
US11758082B2 (en) System for automatic video reframing
JP2010239605A (en) Video editing device
JP2006003871A (en) Image frame processing method and device, rendering processor and moving image display method
US20160381290A1 (en) Apparatus, method and computer program
WO2017081839A1 (en) Moving body tracking method, moving body tracking device, and program
JP2009110536A (en) Image frame processing method and device, rendering processor and moving image display method
US20160379682A1 (en) Apparatus, method and computer program
CN111723713B (en) Video key frame extraction method and system based on optical flow method
JP2006244074A (en) Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program
JP2019101892A (en) Object tracking device and program thereof
US10789987B2 (en) Accessing a video segment
JP4490752B2 (en) Video object extraction device, video object trajectory synthesis device, method and program thereof
Chan et al. On the hardware/software design and implementation of a high definition multiview video surveillance system
JP4546810B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
JP4441354B2 (en) Video object extraction device, video object trajectory synthesis device, method and program thereof
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP2007060192A (en) Interpolating frame generator, its method, image display system and program and recording medium
JP2005217902A (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4546810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140709

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees