JP4555690B2 - Trajectory-added video generation apparatus and trajectory-added video generation program - Google Patents

Trajectory-added video generation apparatus and trajectory-added video generation program Download PDF

Info

Publication number
JP4555690B2
JP4555690B2 JP2005003721A JP2005003721A JP4555690B2 JP 4555690 B2 JP4555690 B2 JP 4555690B2 JP 2005003721 A JP2005003721 A JP 2005003721A JP 2005003721 A JP2005003721 A JP 2005003721A JP 4555690 B2 JP4555690 B2 JP 4555690B2
Authority
JP
Japan
Prior art keywords
image
trajectory
video object
video
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005003721A
Other languages
Japanese (ja)
Other versions
JP2006195525A (en
Inventor
正樹 高橋
俊彦 三須
眞 蓼沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2005003721A priority Critical patent/JP4555690B2/en
Publication of JP2006195525A publication Critical patent/JP2006195525A/en
Application granted granted Critical
Publication of JP4555690B2 publication Critical patent/JP4555690B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、映像制作の技術に係り、特に、オブジェクトの軌跡を示した映像を生成する軌跡付加映像生成装置及び軌跡付加映像生成プログラムに関する。 The present invention relates to a video production technique, and more particularly, to a trajectory-added video generation apparatus and a trajectory-added video generation program for generating a video showing a trajectory of an object.

従来、時系列に撮影される、映像を構成する画像[ノンインタレース方式の場合はフレーム画像、インタレース方式の場合はフレーム画像あるいはフィールド画像(以下、単にフレーム画像という)]間の差分をとる方法によって、移動する物体の画像である映像オブジェクトを抽出し、その映像オブジェクトを重ね書きすることで、映像オブジェクトの軌跡を映像上に表現する装置が存在する。しかし、この技術では、例えば、野球中継等の映像において、抽出対象となる映像オブジェクトであるボールの軌跡を映像上に表現する場合に、ピッチャの腕やバットなどのボール以外の映像オブジェクトまでが抽出されてしまう。   Conventionally, a difference is taken between images composing a video taken in time series (a frame image in the case of the non-interlace method, a frame image or a field image (hereinafter simply referred to as a frame image) in the case of the interlace method). There is a device that extracts a video object that is an image of a moving object by a method and expresses the trajectory of the video object on a video by overwriting the video object. However, with this technology, for example, in a video such as a baseball game, when the trajectory of a ball, which is a video object to be extracted, is represented on the video, video objects other than the ball such as a pitcher's arm and bat are extracted. It will be.

そこで、特定の映像オブジェクトのみを安定して抽出する方法が開発されている(非特許文献1参照)。この方法では、時系列に入力されるフレーム画像ごとに、その直前に入力されたフレーム画像との差分画像と、直後に入力されたフレーム画像との差分画像とを求める。そして、この2つの差分画像で画素値の正負が異符号になる領域を映像オブジェクトの候補とする。更に、フレーム画像内において、誤検出されやすい映像オブジェクトが存在する領域を予めマスク領域として設定しておき、抽出された映像オブジェクトの候補から当該マスク領域内の映像オブジェクトを除外した後に、対象となる映像オブジェクトを選択して軌跡を表示する。   Therefore, a method for stably extracting only a specific video object has been developed (see Non-Patent Document 1). In this method, for each frame image input in time series, a difference image between the frame image input immediately before and a difference image between the frame image input immediately thereafter are obtained. Then, an area in which the sign of the pixel value is different between the two difference images is set as a video object candidate. Further, an area in the frame image where a video object that is likely to be erroneously detected is set as a mask area in advance, and after the video object in the mask area is excluded from the extracted video object candidates, the target becomes the target. Select a video object and display the trajectory.

そのため、この方法では、野球のボールのような高速で移動する映像オブジェクトの軌跡を表示する場合に、低速で移動する映像オブジェクトを除去して対象となる映像オブジェクトを抽出できるとともに、誤検出されやすい映像オブジェクトが存在するマスク領域を除いて映像オブジェクトを抽出することができるため、安定して対象となる映像オブジェクトを追跡することができる。
高橋 正樹、外3名、「野球の投球軌跡表示手法」、映像情報メディア学会技術報告、2004年10月21日、VOL.28、NO.61、p.25〜28
Therefore, in this method, when displaying the trajectory of a video object that moves at a high speed, such as a baseball ball, the video object that moves at a low speed can be removed and a target video object can be extracted, and it is easy to be erroneously detected. Since the video object can be extracted except for the mask area where the video object exists, the target video object can be tracked stably.
Masaki Takahashi, 3 others, “Baseball pitching trajectory display method”, Technical Report of the Institute of Image Information and Television Engineers, October 21, 2004, VOL. 28, NO. 61, p. 25-28

しかし、非特許文献1の方法では、抽出された映像オブジェクトをフレーム画像に合成して、この映像オブジェクトの軌跡のみを表示するものであった。例えば、この方法を野球中継に適用した例では、投球後に球筋を振り返る軌跡映像において、各々のフレーム画像からボールが抽出された位置に、ボールの画像や、白い円の画像を合成することで、このボールの軌跡が表示される。しかし、このような軌跡映像からは、視聴者はそのボールの球威を判断することはできなかった。   However, in the method of Non-Patent Document 1, the extracted video object is synthesized with a frame image, and only the trajectory of this video object is displayed. For example, in an example in which this method is applied to a baseball broadcast, by synthesizing a ball image or a white circle image at a position where the ball is extracted from each frame image in a trajectory image that looks back at the ball muscle after the pitch, The trajectory of this ball is displayed. However, from such a trajectory image, the viewer was unable to determine the ball's power.

一方で、従来の野球中継では、ボールのスピードをスピードガンにて計測して、結果を文字スーパで表示していた。しかし、野球に精通している視聴者であれば、表示された数字からボールのスピードを理解することができるが、そうでない視聴者には理解できない可能性があるとともに、スピードガンはある一点での速度しか計測できず、投球中に変化する速度を計測することは不可能であるという問題があった。   On the other hand, in the conventional baseball broadcast, the speed of the ball is measured with a speed gun, and the result is displayed in a character super. However, viewers who are familiar with baseball can understand the speed of the ball from the displayed numbers, but it may not be understood by viewers who are not, and speed guns have a certain point. However, there is a problem that it is impossible to measure the speed that changes during a pitch.

更に、従来の野球中継の投球の軌跡映像において、例えば、落差が大きい変化球の軌跡を表示した場合においても、その動きの特徴や他の投球との違いが示されなければ、どの程度の落差の変化球なのかが伝わりにくい。これによって、軌跡映像によって軌跡が示されても、球種やその投球の特徴は、視聴者には伝わりにくいという問題があった。そのため、視聴者に対してボールの球威や球種などを分かりやすく表示することが望まれていた。   Furthermore, in a conventional baseball broadcast pitch trajectory image, for example, even if a trajectory of a changing ball with a large drop is displayed, if the difference between the characteristics of the movement and other pitches is not indicated, It is difficult to tell if it is a changing ball. As a result, there is a problem that even if the trajectory is shown by the trajectory image, the ball type and the characteristics of the pitching are not easily transmitted to the viewer. For this reason, it has been desired to display the ball's sphere and ball type in an easy-to-understand manner.

また、ある投球と他の投球との違いを示すために、この投球の軌跡映像において他の投球の軌跡も同時に表示する場合において、投球の合間のカメラ操作によってカメラアングルが変化すると、2つの軌跡がフレーム画像内の異なるところに表示されてしまうという問題があった。   In addition, in order to show the difference between a certain pitch and another pitch, when the trajectory of another pitch is also displayed in this pitch trajectory image, if the camera angle changes due to a camera operation between pitches, two trajectories Has been displayed at different locations in the frame image.

本発明は、前記従来技術の問題を解決するために成されたもので、映像オブジェクトの軌跡を表示する際に、映像オブジェクトの移動速度や、動きの特徴を分かりやすく表示できる軌跡付加映像生成装置及び軌跡付加映像生成プログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems of the prior art. When displaying the trajectory of a video object, the trajectory-added video generation apparatus can display the moving speed and motion characteristics of the video object in an easy-to-understand manner. It is another object of the present invention to provide a trajectory-added video generation program.

前記課題を解決するため、請求項1に記載の軌跡付加映像生成装置は、所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、映像オブジェクト検出装置と、映像遅延手段と、映像オブジェクト軌跡付加手段と、を備え、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段と、オブジェクト選定手段と、を備え、前記映像オブジェクト軌跡付加手段は、映像オブジェクト位置情報記憶手段と、軌跡画像情報記憶手段と、軌跡画像形態設定手段と、画像合成手段とを備える構成とした。 In order to solve the above-described problem, the trajectory-added video generation apparatus according to claim 1 extracts and tracks a video object from a frame image that constitutes a video that is captured and input by a camera installed at a predetermined position. A trajectory-added video generation device that generates a trajectory image indicating a trajectory of the video object and adds the generated trajectory image to a frame image that is input after that and is captured by a camera installed at the same position . A video object detecting device; a video delaying unit; and a video object trajectory adding unit. The video object detecting device includes an object candidate image generating unit and an object selecting unit. , a video object position information storage means, and path image information storage means, trace image mode setting means And configured to include an image synthesizing means.

かかる構成によれば、軌跡付加映像生成装置は、映像オブジェクト検出装置によって、時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する。そして、軌跡付加映像生成装置は、映像遅延手段によって、前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する。そして、軌跡付加映像生成装置は、映像オブジェクト軌跡付加手段によって、前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す軌跡画像を、当該フレーム画像に付加する。そして、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段によって、前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成し、オブジェクト選定手段によって、前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出する。そして、映像オブジェクト軌跡付加装置は、映像オブジェクト位置情報記憶手段に、フレーム画像ごとの映像オブジェクトの位置を検出する映像オブジェクト検出装置から入力される映像オブジェクトの位置情報を記憶する。そして、映像オブジェクト軌跡付加装置は、軌跡画像情報記憶手段に、前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する。そして、映像オブジェクト軌跡付加装置は、軌跡画像形態設定手段によって、前記映像オブジェクト位置情報記憶手段から前記映像オブジェクトの位置情報を読み出し、当該位置情報によって示される位置に基づいて、前記複数のフレーム画像の映像オブジェクトの位置の変化量を解析する。ここで、この映像オブジェクトは、外部から時系列に入力される複数のフレーム画像に連続して含まれ、この各々のフレーム画像に対応する当該映像オブジェクトの位置が、映像オブジェクト検出装置から位置情報として入力されて映像オブジェクト位置情報記憶手段に記憶されている。そのため、映像オブジェクト軌跡付加装置は、フレーム画像ごとに、このフレーム画像の映像オブジェクトの位置と、このフレーム画像より前に入力されたフレーム画像の当該映像オブジェクトの位置との変化量を解析する。 With this configuration, the trajectory-added video generation device detects the position of the video object for each frame image input in time series by the video object detection device. Then, the trajectory-added video generation device generates a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames by the video delay means. The trajectory-added video generation device receives position information indicating the position of the video object from the video object detection device by the video object trajectory adding means, and continues to the plurality of frame images input in time series. A trajectory image indicating the trajectory of the video object included is added to the frame image. The video object detection device generates an object candidate image obtained by extracting a partial area of the frame image input in time series as the video object candidate by the object candidate image generation unit, and the object selection unit From the generated object candidate images, a video object to be extracted is selected based on a predetermined extraction condition, and a position of the selected video object and a feature amount characterizing the video object are extracted. . The video object trajectory adding apparatus stores the position information of the video object input from the video object detection apparatus that detects the position of the video object for each frame image in the video object position information storage unit. Then, the video object trajectory adding device stores in the trajectory image information storage means the color of the trajectory image used to indicate that the video object is high speed when the length of the motion vector of the video object exceeds a threshold value. And image data of a high-speed image of a predetermined color and shape indicating the shape, and a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and , Trajectory image information including a condition for defining that the image of the feature amount extracted by the object selecting means is the trajectory image when the length of the motion vector is equal to or less than a threshold value is stored. The video object locus additional devices, by the trace image mode setting means reads out the position information of the video object from the video object position information storage means, based on the position indicated by the position information, of the plurality of frame images Analyzes the amount of change in the position of the video object. Here, the video object is continuously included in a plurality of frame images input in time series from the outside, and the position of the video object corresponding to each frame image is obtained as position information from the video object detection device. Input and stored in the video object position information storage means. Therefore, for each frame image, the video object trajectory adding device analyzes the amount of change between the position of the video object in the frame image and the position of the video object in the frame image input before the frame image.

そして、映像オブジェクト軌跡付加装置は、軌跡画像形態設定手段によって、この変化量に基づいて軌跡画像の色あるいは形を設定し、画像合成手段によって、この軌跡画像形態設定手段によって設定された軌跡画像を、連続して当該映像オブジェクトが含まれる複数のフレーム画像のうちのひとつのフレーム画像の、当該映像オブジェクトの位置情報によって示される位置に合成する。ここで、この位置の変化量は、この映像オブジェクトの所定時間ごとの移動量や、移動する方向を示している。そのため、映像オブジェクト軌跡付加装置は、この変化量に基づいて軌跡画像の色あるいは形を設定して、ひとつのフレーム画像の、各々の軌跡画像に対応する映像オブジェクトが検出された位置に合成することで、当該映像オブジェクトの軌跡を示し、かつ、軌跡画像の各々に対応する映像オブジェクトが撮影された時点における、映像オブジェクトの速度や移動する方向を示すフレーム画像を生成することができる。軌跡画像形態設定手段は、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記軌跡画像の色、形、大きさ、方向を設定する。 The video object trajectory adding device sets the color or shape of the trajectory image based on the amount of change by the trajectory image form setting means, and the trajectory image set by the trajectory image form setting means by the image composition means. Then, one frame image among a plurality of frame images including the video object is continuously synthesized at a position indicated by the position information of the video object. Here, the amount of change in the position indicates the amount of movement of the video object per predetermined time and the direction of movement. Therefore, the video object trajectory adding apparatus sets the color or shape of the trajectory image based on the amount of change, and synthesizes the video object corresponding to each trajectory image in one frame image at the position where the video object is detected. Thus, it is possible to generate a frame image indicating the trajectory of the video object and indicating the speed and moving direction of the video object at the time when the video object corresponding to each of the trajectory images is captured. The trajectory image form setting means calculates the motion vector of the video object and the length of the motion vector from the position of the video object on the frame image and the position of the video object on the frame image immediately before the video object. And determining whether the length of the motion vector exceeds a predetermined threshold based on the amount of change and the trajectory image information stored in the trajectory image information storage unit, and the color of the trajectory image Set the shape, size, and direction.

なお、入力される映像信号がインタレース方式で撮影されたものである場合は、映像オブジェクト軌跡付加装置は、各フレーム画像についての操作をフィールド画像について行うこととしてもよい。また、映像オブジェクト軌跡付加装置は、軌跡画像形態設定手段によって、映像オブジェクトの位置の変化量から所定の方法で算出することで軌跡画像の色や大きさ等を設定することとしてもよいし、映像オブジェクトの位置の変化量に基づいて予め記憶手段に記憶された画像、テクスチャや形状等を選択して軌跡画像の色や形を設定することとしてもよい。   Note that when the input video signal is captured by the interlace method, the video object trajectory adding apparatus may perform an operation on each frame image on the field image. Further, the video object trajectory adding device may set the color, size, etc. of the trajectory image by calculating by a predetermined method from the change amount of the position of the video object by the trajectory image form setting means. The color, shape, and the like of the trajectory image may be set by selecting an image, texture, shape, or the like stored in advance in the storage unit based on the amount of change in the position of the object.

また、請求項2に記載の軌跡付加映像生成装置は、所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、映像オブジェクト検出装置と、映像遅延手段と、映像オブジェクト軌跡付加手段と、を備え、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段と、オブジェクト選定手段と、を備え、前記映像オブジェクト軌跡付加手段は、映像オブジェクト位置情報記憶手段と、軌跡画像情報記憶手段と、軌跡画像位置設定手段と、軌跡画像形態設定手段と、画像合成手段とを備える構成とした。 The trajectory-added video generation apparatus according to claim 2 extracts and tracks a video object from a frame image that constitutes a video that is captured and input by a camera installed at a predetermined position, and tracks the video object. A trajectory-added video generation device that generates a trajectory image indicating the following, and adds the generated trajectory image to a frame image captured by a camera installed at the same position that is input thereafter, and a video object detection device Video object trajectory adding means, and the video object detecting device comprises object candidate image generating means and object selecting means, and the video object trajectory adding means includes video object position information. storage means, the trace image information storage means, and path image position setting means, trajectory image configuration settings And means, and configured to include an image synthesizing means.

かかる構成によれば、軌跡付加映像生成装置は、映像オブジェクト検出装置によって、時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する。そして、軌跡付加映像生成装置は、映像遅延手段によって、前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する。そして、軌跡付加映像生成装置は、映像オブジェクト軌跡付加手段によって、前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡である過去軌跡を示す軌跡画像である過去軌跡画像と、当該フレーム画像が撮影された位置から撮影された他の複数のフレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す他フレーム軌跡画像とを、当該他の複数のフレーム画像のうちのひとつのフレーム画像に付加する。そして、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段によって、前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成し、オブジェクト選定手段によって、前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出する。そして、前記映像オブジェクト軌跡付加手段は、映像オブジェクト位置情報記憶手段に、映像オブジェクト検出装置から入力される映像オブジェクトの位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶し、軌跡画像情報記憶手段に、前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する。そして、軌跡画像位置設定手段によって、前記映像オブジェクト位置情報記憶手段から、過去軌跡を示す軌跡情報に対応する位置情報である過去軌跡位置情報を読み出して、この過去軌跡位置情報によって示される位置を過去軌跡位置とする。 With this configuration, the trajectory-added video generation device detects the position of the video object for each frame image input in time series by the video object detection device. The trajectory-added video generation device generates a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames by the video delay means. The trajectory-added video generation device receives position information indicating the position of the video object from the video object detection device by the video object trajectory adding means, and continues to the plurality of frame images input in time series. The video object that is continuously included in a past trajectory image that is a trajectory image indicating a past trajectory that is a trajectory of the video object included and a plurality of other frame images captured from a position where the frame image is captured. The other frame trajectory image indicating the trajectory is added to one frame image of the other plurality of frame images. The video object detection device generates an object candidate image obtained by extracting a partial area of the frame image input in time series as the video object candidate by the object candidate image generation unit, and the object selection unit From the generated object candidate images, a video object to be extracted is selected based on a predetermined extraction condition, and a position of the selected video object and a feature amount characterizing the video object are extracted. . The video object trajectory adding means stores the video object position information input from the video object detection device in the video object position information storage means in association with the trajectory information for specifying the trajectory of the video object, A predetermined color and shape indicating the color and shape of the trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold value in the trajectory image information storage means Image data of the high-speed image, a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds the threshold, and the length of the motion vector is the threshold It is specified that the feature image extracted by the object selection means is the trajectory image when Storing the path image information including that condition. Then, the trace image position setting means, from said video object position information storage means, reads out the past trajectory position information is position information corresponding to the locus information indicating a past trajectory, the position indicated by the past trajectory position information Past The locus position.

そして、軌跡画像形態設定手段によって、過去軌跡位置に基づいて、当該映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記軌跡画像の色、大きさ、方向を設定するとともに、映像オブジェクト位置情報記憶手段から他の複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報を読み出し、この位置情報によって示される位置である他フレーム軌跡位置に基づいて、当該映像オブジェクトの位置の変化量を同様に解析して、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて他フレーム軌跡画像の色、大きさ、方向を設定する。また、画像合成手段によって、他の複数のフレーム画像のうちのひとつのフレーム画像の過去軌跡位置に、軌跡画像形態設定手段によって設定された過去軌跡画像を合成するとともに、当該フレーム画像の他フレーム軌跡位置に、軌跡画像形態設定手段によって設定された他フレーム軌跡画像を合成する。 Then, based on the past trajectory position by the trajectory image form setting means, as the amount of change in the position of the video object, the position of the video object on the frame image and the video on the frame image immediately before the video object and a position of the object, the motion vector of the image object, and calculates the length of the motion vector, based on a the amount of change and the path image information stored in the storage unit path image information, the motion vector It is determined whether the length exceeds a predetermined threshold, and the color , shape , size, and direction of the trajectory image are set, and are continuously included in a plurality of other frame images from the video object position information storage unit. Read the position information of the video object, and the position of the other frame trajectory that is the position indicated by this position information Based on the change in position of the video object by analyzing similarly, the amount of change and the path image information color other frame path image based on the stored path image information in the storage unit, shape, size Set the direction . Further, the image synthesis means synthesizes the past trajectory image set by the trajectory image form setting means to the past trajectory position of one of the other frame images, and the other frame trajectory of the frame image. The other frame trajectory image set by the trajectory image form setting means is synthesized at the position.

これによって、映像オブジェクト軌跡付加装置は、フレーム画像内の映像オブジェクトの軌跡とともに、以前に検出された映像オブジェクトの軌跡を当該フレーム画像に付加することができるとともに、これらの軌跡を示す他フレーム軌跡画像及び過去軌跡画像を、その各々に対応する映像オブジェクトが撮影された時点での、当該映像オブジェクトの速度や移動する方向を示す色あるいは形に設定して、フレーム画像に合成することができる。   As a result, the video object trajectory adding apparatus can add the trajectory of the video object previously detected together with the trajectory of the video object in the frame image to the frame image, and other frame trajectory images indicating these trajectories. In addition, the past trajectory image can be combined with the frame image by setting the color or shape indicating the speed or moving direction of the video object when the video object corresponding to each of the past trajectory images is captured.

更に、請求項3に記載の軌跡付加映像生成装置は、所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、映像オブジェクト検出装置と、映像遅延手段と、映像オブジェクト軌跡付加手段と、を備え、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段と、オブジェクト選定手段と、を備え、前記映像オブジェクト軌跡付加手段は、映像オブジェクト位置情報記憶手段と、軌跡画像情報記憶手段と、軌跡画像位置設定手段と、軌跡画像形態設定手段と、画像合成手段とを備える構成とした。 Furthermore, the trajectory-added video generation apparatus according to claim 3 extracts and tracks a video object from a frame image that constitutes a video that is captured and input by a camera installed at a predetermined position, and tracks the video object. A trajectory-added video generation device that generates a trajectory image indicating the following, and adds the generated trajectory image to a frame image captured by a camera installed at the same position that is input thereafter, and a video object detection device Video object trajectory adding means, and the video object detecting device comprises object candidate image generating means and object selecting means, and the video object trajectory adding means includes video object position information. storage means, the trace image information storage means, and path image position setting means, trajectory image configuration settings And means, and configured to include an image synthesizing means.

かかる構成によれば、軌跡付加映像生成装置は、映像オブジェクト検出装置によって、時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する。そして、軌跡付加映像生成装置は、映像遅延手段によって、前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する。そして、軌跡付加映像生成装置は、映像オブジェクト軌跡付加手段によって、前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡である過去軌跡を示す軌跡画像である過去軌跡画像と、当該フレーム画像が撮影された位置から撮影された他の複数のフレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す他フレーム軌跡画像とを、当該他の複数のフレーム画像のうちのひとつのフレーム画像に付加する。そして、前記映像オブジェクト検出装置は、オブジェクト候補画像生成手段によって、前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成し、オブジェクト選定手段によって、前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出する。そして、前記映像オブジェクト軌跡付加手段は、映像オブジェクト位置情報記憶手段に、映像オブジェクト検出装置から入力される映像オブジェクトの位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶し、軌跡画像情報記憶手段に、前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する。そして、軌跡画像位置設定手段によって、前記映像オブジェクト位置情報記憶手段から、過去軌跡を示す軌跡情報に対応する位置情報である過去軌跡位置情報と、他の複数のフレーム画像の少なくともひとつの映像オブジェクトの位置情報とを読み出して、これらの位置情報に基づいて過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、このシフト量だけ過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する。 With this configuration, the trajectory-added video generation device detects the position of the video object for each frame image input in time series by the video object detection device. Then, the trajectory-added video generation device generates a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames by the video delay means. The trajectory-added video generation device receives position information indicating the position of the video object from the video object detection device by the video object trajectory adding means, and continues to the plurality of frame images input in time series. The video object that is continuously included in a past trajectory image that is a trajectory image indicating a past trajectory that is a trajectory of the video object included and a plurality of other frame images captured from a position where the frame image is captured. The other frame trajectory image indicating the trajectory is added to one frame image of the other plurality of frame images. The video object detection device generates an object candidate image obtained by extracting a partial area of the frame image input in time series as the video object candidate by the object candidate image generation unit, and the object selection unit From the generated object candidate images, a video object to be extracted is selected based on a predetermined extraction condition, and a position of the selected video object and a feature amount characterizing the video object are extracted. . The video object trajectory adding means stores in the video object position information storage means the position information of the video object input from the video object detection device in association with the trajectory information for specifying the trajectory of the video object, A predetermined color and shape indicating the color and shape of the trajectory image used to indicate that the video object is high speed when the length of the motion vector of the video object exceeds a threshold value in the trajectory image information storage means Image data of the high-speed image, a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and the length of the motion vector is a threshold It is specified that the feature image extracted by the object selection means is the trajectory image when Storing the path image information including that condition. Then, the trace image position setting means, wherein the video object position information storage means, and the past trajectory position information is position information corresponding to the locus information indicating a past trajectory of the at least one video object other plurality of frame images The position information is read, a shift amount for shifting the position indicated by the past locus position information is set based on the position information, and the position indicated by the past locus position information is shifted by this shift amount. Set the position.

そして、軌跡画像形態設定手段によって、過去軌跡位置に基づいて、当該映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記過去軌跡画像の色、大きさ、方向を設定するとともに、映像オブジェクト位置情報記憶手段から他の複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報を読み出し、この位置情報によって示される位置である他フレーム軌跡位置に基づいて、当該映像オブジェクトの位置の変化量を同様に解析して、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて他フレーム軌跡画像の色、大きさ、方向を設定する。また、画像合成手段によって、他の複数のフレーム画像のうちのひとつのフレーム画像の過去軌跡位置に、軌跡画像形態設定手段によって設定された過去軌跡画像を合成するとともに、当該フレーム画像の他フレーム軌跡位置に、軌跡画像形態設定手段によって設定された他フレーム軌跡画像を合成する。 Then, based on the past trajectory position by the trajectory image form setting means, as the amount of change in the position of the video object, the position of the video object on the frame image and the video on the frame image immediately before the video object and a position of the object, the motion vector of the image object, and calculates the length of the motion vector, based on a the amount of change and the path image information stored in the storage unit path image information, the motion vector It is determined whether the length exceeds a predetermined threshold, and the color , shape , size, and direction of the past trajectory image are set, and are continuously included in a plurality of other frame images from the video object position information storage means. The position information of the video object to be read is read, and the other frame locus that is the position indicated by this position information Based on the location, the analyzes in the same manner the amount of change in position of the video object, the other frame path image based on the the variation between the trajectory image information track image information stored in the storage means color, shape, Set the size and direction . Further, the image synthesis means synthesizes the past trajectory image set by the trajectory image form setting means to the past trajectory position of one of the other frame images, and the other frame trajectory of the frame image. The other frame trajectory image set by the trajectory image form setting means is synthesized at the position.

これによって、映像オブジェクト軌跡付加装置は、フレーム画像内の映像オブジェクトあるいはこの映像オブジェクトの軌跡の位置に合わせて、以前に検出された映像オブジェクトの軌跡の位置をシフトさせて、当該軌跡をフレーム画像に合成することができるとともに、これらの軌跡を示す他フレーム軌跡画像及び過去軌跡画像を、その各々に対応する映像オブジェクトが撮影された時点での、当該映像オブジェクトの速度や移動する方向を示す色あるいは形に設定して、フレーム画像に合成することができる。   Thus, the video object trajectory adding device shifts the position of the trajectory of the previously detected video object in accordance with the position of the video object in the frame image or the trajectory of the video object, and converts the trajectory into the frame image. The other frame trajectory image and the past trajectory image indicating these trajectories can be combined, and the color or speed indicating the speed or moving direction of the video object at the time when the video object corresponding to each of the trajectory images is captured. It can be set to a shape and combined with a frame image.

なお、過去軌跡を構成する映像オブジェクトを含む複数のフレーム画像と、軌跡画像が合成される他の複数のフレーム画像は、同じ位置に設置されたカメラによって撮影されたものであり、撮影したカメラのカメラアングルは異なっていてもよい。そして、この2つの軌跡を構成する映像オブジェクトを含む連続したフレーム画像が撮影される合間において、カメラアングルが変化することによって、一方の軌跡の位置と、他方の軌跡の位置とが対応しない場合においても、映像オブジェクト軌跡付加装置は、過去軌跡の位置をシフトさせて、他の複数のフレーム画像の映像オブジェクトの軌跡の位置と対応する位置に過去軌跡画像を付加することができる。   It should be noted that the plurality of frame images including the video object constituting the past trajectory and the other plurality of frame images to which the trajectory image is synthesized are taken by a camera installed at the same position. The camera angle may be different. In the case where a continuous frame image including the video objects constituting these two loci is captured, the position of one locus does not correspond to the position of the other locus due to a change in camera angle. In addition, the video object trajectory adding apparatus can shift the position of the past trajectory and add the past trajectory image to a position corresponding to the position of the trajectory of the video object of another plurality of frame images.

また、請求項4に記載の軌跡付加映像生成プログラムは、所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加するために、前記映像オブジェクト検出装置から入力される前記映像オブジェクトの位置情報を記憶する映像オブジェクト位置情報記憶手段と、前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する軌跡画像情報記憶手段と、を備えたコンピュータを、オブジェクト候補画像生成手段、オブジェクト選定手段、映像遅延手段、軌跡画像形態設定手段、画像合成手段として機能させることとした。 According to a fourth aspect of the present invention, a trail-added video generation program extracts and tracks a video object from a frame image that constitutes a video that is captured and input by a camera installed at a predetermined position, and tracks the video object. The video input from the video object detection device to add the generated trajectory image to a frame image captured by a camera installed at the same position, which is input after that Video object position information storage means for storing the position information of the object, and the color of the trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold; Image data of a high-speed image having a predetermined color and shape indicating the shape, and the length of the motion vector A condition that defines the size and direction of the high-speed image used as a trajectory image when the threshold value is exceeded, and the feature amount extracted by the object selection means when the length of the motion vector is equal to or less than the threshold value. A trajectory image information storage means for storing trajectory image information including a condition for defining the image as the trajectory image , an object candidate image generation means, an object selection means, a video delay means, a trajectory image; It was made to function as a form setting means and an image composition means.

かかる構成によれば、軌跡付加映像生成プログラムは、オブジェクト候補画像生成手段によって、前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成する。そして、オブジェクト選定手段によって、前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出する。そして、映像遅延手段によって、前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する。そして、軌跡付加映像生成プログラムは、軌跡画像形態設定手段によって、映像オブジェクト位置情報記憶装置から映像オブジェクトの位置情報を読み出し、当該位置情報によって示される位置に基づいて、連続して映像オブジェクトが含まれている複数のフレーム画像の映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、軌跡画像の色、大きさ、方向を設定する。更に、軌跡付加映像生成プログラムは、画像合成手段によって、この軌跡画像形態設定手段によって設定された軌跡画像を、複数のフレーム画像のうちのひとつのフレーム画像の、位置情報によって示される位置に合成する。 According to such a configuration, the trajectory-added video generation program generates an object candidate image obtained by extracting a partial region of the frame image input in time series as the video object candidate by the object candidate image generation unit. Then, the object selection means selects a video object to be extracted from the generated object candidate images based on a predetermined extraction condition, and determines the position of the selected video object and the video object. Extract feature quantities to be characterized. Then, a current frame image which is a frame image obtained by delaying the input frame image by a predetermined number of frames is generated by the video delay means. The trajectory-added video generation program reads the position information of the video object from the video object position information storage device by the trajectory image form setting means, and includes video objects continuously based on the position indicated by the position information. As a change amount of the position of the video object in the plurality of frame images, the position of the video object is calculated from the position of the video object on the frame image and the position of the video object on the frame image immediately before the video object. a motion vector, and calculates the length of the motion vector, based on a the amount of change and the path image information stored in the storage unit path image information, or the length of the motion vector exceeds a predetermined threshold value And the color , shape , size, and direction of the trajectory image are set. Further, the trajectory-added video generation program synthesizes the trajectory image set by the trajectory image form setting unit with the position indicated by the position information of one of the plurality of frame images by the image compositing unit. .

これによって、軌跡付加映像生成プログラムは、映像オブジェクトの軌跡を示し、かつ、軌跡画像の各々に対応する映像オブジェクトが撮影された時点における、映像オブジェクトの速度や移動する方向を示すフレーム画像を生成することができる。 As a result, the trajectory-added video generation program generates a frame image indicating the trajectory of the video object and indicating the speed and moving direction of the video object at the time when the video object corresponding to each trajectory image is captured. be able to.

本発明に係る軌跡付加映像生成装置及び軌跡付加映像生成プログラムでは、以下のような優れた効果を奏する。 The trajectory-added video generation apparatus and the trajectory-added video generation program according to the present invention have the following excellent effects.

請求項1又は請求項4に記載の発明によれば、映像オブジェクトの移動速度や、動きの特徴を分かりやすく表示できる映像オブジェクトの軌跡映像を提供することができる。   According to the first or fourth aspect of the present invention, it is possible to provide a trajectory image of a video object that can easily display the moving speed and motion characteristics of the video object.

請求項2に記載の発明によれば、映像内の映像オブジェクトの軌跡とともに、それ以前に抽出された映像オブジェクトの軌跡を表示でき、この両方の軌跡について、移動速度や、動きの特徴を分かりやすく表示することができる。そのため、以前に抽出された映像オブジェクトの軌跡を比較対象として表示して、この映像オブジェクトと、映像内の映像オブジェクトとの速度や動きの特徴の違いを明示でき、これによって、映像内の映像オブジェクトの速度や動きの特徴を視聴者に対して分かりやすく表示できる軌跡映像を提供することができる。   According to the second aspect of the present invention, the trajectory of the video object extracted before the video object trajectory can be displayed together with the trajectory of the video object in the video. Can be displayed. Therefore, the trajectory of the previously extracted video object can be displayed as a comparison target, and the difference in speed and motion characteristics between this video object and the video object in the video can be clearly indicated. It is possible to provide a trajectory image that can easily display the characteristics of the speed and movement of the viewer to the viewer.

請求項3に記載の発明によれば、映像内の映像オブジェクトの軌跡とともに、この映像オブジェクトの軌跡と対比しやすい位置に、それ以前に抽出された映像オブジェクトの軌跡を表示することができ、この軌跡を比較対象として、以前に抽出された映像オブジェクトと、映像内の映像オブジェクトとの速度や動きの特徴の違いを明示できる。これによって、映像内の映像オブジェクトの速度や動きの特徴を視聴者に対して分かりやすく表示できる軌跡映像を提供することができる。   According to the third aspect of the present invention, the trajectory of the video object extracted before can be displayed at a position that can be easily compared with the trajectory of the video object, along with the trajectory of the video object in the video. By using the trajectory as a comparison target, it is possible to clearly show the difference in speed and motion characteristics between the previously extracted video object and the video object in the video. Accordingly, it is possible to provide a trajectory image that can easily display the characteristics of the speed and movement of the image object in the image to the viewer.

以下、本発明の実施の形態について図面を参照して説明する。なお、ここでは、本発明における映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)を、追跡対象となる動きを伴う映像オブジェクトを抽出して追跡し、映像内の映像オブジェクトの軌跡(現在軌跡)と、以前に撮影された映像内の映像オブジェクトの軌跡(過去軌跡)とを付加した映像を生成する軌跡付加映像生成装置に適用する場合について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Here, the video object trajectory adding means (video object trajectory adding device) in the present invention extracts and tracks a video object with a movement to be tracked, and the trajectory (current trajectory) of the video object in the video is recorded. A case will be described in which the present invention is applied to a trajectory-added video generation apparatus that generates a video to which a trajectory (past trajectory) of a video object in a previously captured video is added.

[軌跡付加映像生成装置の構成]
まず、図1を参照して、軌跡付加映像生成装置の構成について説明する。図1は本発明の映像オブジェクト軌跡付加手段を備える軌跡付加映像生成装置の構成を示したブロック図である。軌跡付加映像生成装置1は、入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を、当該映像オブジェクトの位置の変化量に応じた色と形に設定して、フレーム画像に付加するものである。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10と、映像遅延手段20と、映像オブジェクト軌跡付加手段30とを備える。
[Configuration of locus added video generation device]
First, the configuration of the trajectory-added video generation device will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of a trajectory-added video generation apparatus including video object trajectory adding means of the present invention. The trajectory-added video generation device 1 extracts and tracks a video object from a frame image constituting an input video, and the trajectory image indicating the trajectory of the video object is displayed in a color corresponding to the amount of change in the position of the video object. Are added to the frame image. The trajectory-added video generation apparatus 1 includes a video object extraction unit 10, a video delay unit 20, and a video object trajectory addition unit 30.

映像オブジェクト抽出手段(映像オブジェクト検出装置)10は、入力された映像から、フレーム画像ごとに追跡対象となる映像オブジェクトを抽出し、追跡するものである。映像オブジェクト抽出手段10は、オブジェクト候補画像生成手段11と、オブジェクト選定手段12と、抽出条件記憶手段13と、位置予測手段14と、探索領域設定手段15と、ID番号付加手段16を備える。   The video object extracting means (video object detection device) 10 extracts and tracks a video object to be tracked for each frame image from the input video. The video object extraction unit 10 includes an object candidate image generation unit 11, an object selection unit 12, an extraction condition storage unit 13, a position prediction unit 14, a search area setting unit 15, and an ID number addition unit 16.

オブジェクト候補画像生成手段11は、入力された映像からフレーム画像ごとに、追跡対象となる映像オブジェクトの候補を抽出したオブジェクト候補画像を生成するものである。ここでは、オブジェクト候補画像生成手段11は、映像オブジェクトの候補の抽出対象となるフレーム画像と、このフレーム画像より1フレーム後に入力されたフレーム画像との差分画像(差分画像1)、及び、抽出対象となるフレーム画像と、このフレーム画像より1フレーム前に入力されたフレーム画像との差分画像(差分画像2)を生成し、これらの差分画像(差分画像1、差分画像2)に基づいて、オブジェクト候補画像を生成することとした。オブジェクト候補画像生成手段11は、画像遅延部111、112と、差分画像生成部113、114と、候補画像生成部115とを備える。   The object candidate image generating means 11 generates an object candidate image obtained by extracting video object candidates to be tracked for each frame image from the input video. Here, the object candidate image generation unit 11 includes a difference image (difference image 1) between a frame image from which a candidate for a video object is extracted and a frame image input after one frame from the frame image, and an extraction target. A difference image (difference image 2) between the frame image to be input and a frame image input one frame before this frame image, and based on these difference images (difference image 1, difference image 2), A candidate image is generated. The object candidate image generation unit 11 includes image delay units 111 and 112, difference image generation units 113 and 114, and a candidate image generation unit 115.

画像遅延部111、112は、入力された映像信号を1フレーム分遅延させるもので、例えば、一般的な遅延回路からなることとしてもよいし、入力された映像信号を1フレーム単位でデジタルデータとして記憶するメモリ等からなることとしてもよい。ここで、画像遅延部111は、外部から映像信号を入力し、この映像信号を1フレーム分だけ遅延させた映像信号として、画像遅延部112、差分画像生成部113、114及びオブジェクト選定手段12の特徴量解析部122に出力する。また、画像遅延部112は、画像遅延部111から、1フレーム分遅延された映像信号が入力され、この映像信号を更に1フレーム分だけ遅延させることで、2フレーム分遅延された映像信号として、差分画像生成部114に出力する。   The image delay units 111 and 112 delay the input video signal by one frame. For example, the image delay units 111 and 112 may include a general delay circuit, or the input video signal may be converted into digital data in units of one frame. It may be composed of a memory for storing. Here, the image delay unit 111 receives a video signal from the outside, and the image delay unit 112, the difference image generation units 113 and 114, and the object selection unit 12 as a video signal obtained by delaying the video signal by one frame. The result is output to the feature amount analysis unit 122. Further, the image delay unit 112 receives a video signal delayed by one frame from the image delay unit 111, and further delays the video signal by one frame to obtain a video signal delayed by two frames. It outputs to the difference image generation unit 114.

差分画像生成部113、114は、入力された2つの映像信号の輝度信号の信号レベルの差分を算出し、フレーム画像ごとに差分画像を生成するもので、一般的な減算回路等から構成することができる。ここで、画像遅延部111によって1フレーム分遅延された映像信号のフレーム画像を映像オブジェクトの候補の抽出対象とした。そして、差分画像生成部113は、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルから、外部から入力された映像信号の輝度信号の信号レベルを減算することによって、差分画像1を生成する。また、差分画像生成部114は、画像遅延部112から入力された2フレーム分遅延された映像信号の輝度信号の信号レベルから、画像遅延部111から入力された1フレーム分遅延された映像信号の輝度信号の信号レベルを減算することで、差分画像2を生成する。ここで生成された差分画像(差分画像1及び差分画像2)は、候補画像生成部115に出力される。   The difference image generation units 113 and 114 calculate a difference between the signal levels of the luminance signals of the two input video signals and generate a difference image for each frame image, and are configured by a general subtraction circuit or the like. Can do. Here, the frame image of the video signal delayed by one frame by the image delay unit 111 is set as a video object candidate extraction target. Then, the difference image generation unit 113 subtracts the signal level of the luminance signal of the video signal input from the outside from the signal level of the luminance signal of the video signal delayed by one frame input from the image delay unit 111. Thus, the difference image 1 is generated. Further, the difference image generation unit 114 receives the video signal delayed by one frame input from the image delay unit 111 from the signal level of the luminance signal of the video signal delayed by two frames input from the image delay unit 112. The difference image 2 is generated by subtracting the signal level of the luminance signal. The difference images generated here (difference image 1 and difference image 2) are output to the candidate image generation unit 115.

候補画像生成部115は、後記する探索領域設定手段15によって設定された探索領域について、差分画像生成部113、114から入力された差分画像(差分画像1及び差分画像2)の画素値(輝度信号の画素ごとの信号レベル)が所定の条件を満たすかを画素ごとに判定することで、オブジェクト候補画像を生成するものである。ここでは、画素ごとに、当該画素における差分画像1の画素値と差分画像2の画素値とが異符号であり、かつ、絶対値が所定の閾値以上となる場合に、画素値を“1(白)”、それ以外の場合に“0(黒)”とすることでオブジェクト候補画像を生成することとした。これによって、画素値が“1(白)”となる領域を映像オブジェクトの候補として抽出することができる。ここで生成されたオブジェクト候補画像は、オブジェクト選定手段12に出力される。   The candidate image generation unit 115 uses the pixel values (luminance signal) of the difference images (the difference image 1 and the difference image 2) input from the difference image generation units 113 and 114 for the search area set by the search area setting unit 15 described later. The object candidate image is generated by determining for each pixel whether the signal level of each pixel satisfies a predetermined condition. Here, for each pixel, the pixel value of the difference image 1 and the pixel value of the difference image 2 in the pixel are different from each other, and the pixel value is set to “1 ( White) ”, and in other cases“ 0 (black) ”, an object candidate image is generated. As a result, an area where the pixel value is “1 (white)” can be extracted as a candidate video object. The object candidate image generated here is output to the object selection means 12.

オブジェクト選定手段12は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中から、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に基づいて、抽出(追跡)対象となる映像オブジェクトを選定し、その映像オブジェクトの位置及び映像オブジェクトを特徴付ける特徴量を抽出するものである。ここで、オブジェクト選定手段12は、ラベリング部121と、特徴量解析部122と、フィルタ処理部123と、オブジェクト選択部124とを備える。   The object selection unit 12 extracts (tracks) from the object candidate images generated by the object candidate image generation unit 11 based on the extraction condition indicated by the extraction condition information 131 stored in the extraction condition storage unit 13. The target video object is selected, and the position of the video object and the feature quantity characterizing the video object are extracted. Here, the object selection unit 12 includes a labeling unit 121, a feature amount analysis unit 122, a filter processing unit 123, and an object selection unit 124.

ラベリング部121は、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像の中で、映像オブジェクトの候補となる領域に対して番号(ラベル)を付すものである。すなわち、ラベリング部121は、映像オブジェクトの領域である“1(白)”の画素値を持つ連結した領域(連結領域)に対して1つの番号を付す。これによって、オブジェクト候補画像内の映像オブジェクトの候補が番号付けされたことになる。   The labeling unit 121 assigns numbers (labels) to regions that are candidates for video objects in the object candidate images generated by the object candidate image generating unit 11. That is, the labeling unit 121 assigns one number to a connected area (connected area) having a pixel value of “1 (white)” that is an area of the video object. As a result, the video object candidates in the object candidate image are numbered.

特徴量解析部122は、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトの候補を解析し、当該映像オブジェクトの候補の位置及び映像オブジェクトを特徴付ける特徴量を解析するものである。ここで、特徴量解析部122は、オブジェクト候補画像生成手段11の画像遅延部111から入力された、1フレーム遅延されたフレーム画像における、ラベリング部121でラベリングされたラベルに対応する映像オブジェクトに対応する領域の各々について、特徴量を解析する。そして、解析された映像オブジェクトの位置及び特徴量は、フィルタ処理部123に出力される。   The feature amount analysis unit 122 analyzes video object candidates corresponding to the labels labeled by the labeling unit 121, and analyzes the position of the video object candidate and the feature amount characterizing the video object. Here, the feature amount analysis unit 122 corresponds to the video object corresponding to the label labeled by the labeling unit 121 in the frame image delayed by one frame input from the image delay unit 111 of the object candidate image generation unit 11. The feature amount is analyzed for each area to be processed. The analyzed position and feature amount of the video object are output to the filter processing unit 123.

ここで、映像オブジェクトの位置としては、映像オブジェクトの重心位置、多角形近似の頂点座標、スプライン曲線の制御点座標等を用いることができる。また、映像オブジェクトの特徴量には、例えば、映像オブジェクトの面積、輝度、色、円形度を用いることができる。   Here, as the position of the video object, the position of the center of gravity of the video object, the vertex coordinates of polygon approximation, the control point coordinates of the spline curve, and the like can be used. For example, the area, brightness, color, and circularity of the video object can be used as the feature amount of the video object.

面積は、例えば、映像オブジェクトの画素数を示す。また、輝度は、映像オブジェクトにおける各画素の輝度の平均値を示す。また、色は、映像オブジェクトにおける各画素の色(例えばRGB値)の平均値を示す。なお、この色については、予め背景となる画像の背景色を初期値として、その背景色からの変化量を閾値としてもよい。円形度は、形状の複雑さを示す指標であって、円形に近いほど大きな値を有するものである。この円形度eは、映像オブジェクトの面積をS、周囲長をLとしたとき、以下の式(1)で表される。
e=4πS/L2 …(1)
The area indicates the number of pixels of the video object, for example. Further, the luminance indicates an average value of the luminance of each pixel in the video object. The color indicates an average value of colors (for example, RGB values) of each pixel in the video object. For this color, the background color of the background image may be set as an initial value, and the amount of change from the background color may be set as a threshold value. The circularity is an index indicating the complexity of the shape, and has a larger value as it becomes closer to a circle. The circularity e is expressed by the following equation (1), where S is the area of the video object and L is the perimeter.
e = 4πS / L 2 (1)

フィルタ処理部123は、ラベリング部121で番号付けされた映像オブジェクトの候補ごとに、特徴量解析部122から入力された特徴量に基づいて、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に合致する映像オブジェクトかどうかを判定することで、抽出(追跡)対象となる映像オブジェクトを絞り込むものである。ここで選択された映像オブジェクトのラベル及び位置は、オブジェクト選択部124に出力される。なお、抽出条件に適合する映像オブジェクトがない場合には、フィルタ処理部123は、その旨をID番号付加手段16に通知する。   The filter processing unit 123 extracts the extraction condition information 131 stored in the extraction condition storage unit 13 based on the feature amount input from the feature amount analysis unit 122 for each video object candidate numbered by the labeling unit 121. The video objects to be extracted (tracked) are narrowed down by determining whether or not the video objects satisfy the extraction condition indicated by. The label and position of the selected video object are output to the object selection unit 124. If there is no video object that matches the extraction condition, the filter processing unit 123 notifies the ID number adding unit 16 to that effect.

すなわち、このフィルタ処理部123は、映像オブジェクトの候補ごとに、抽出条件情報131によって示される抽出条件(例えば、面積、輝度、色及び円形度)や、フィルタ処理(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)を行うことで、抽出条件を満たす映像オブジェクトを選択する。   That is, for each video object candidate, the filter processing unit 123 performs extraction conditions (for example, area, luminance, color, and circularity) indicated by the extraction condition information 131, and filter processing (area filter, luminance filter, color filter). And a circularity filter), a video object that satisfies the extraction condition is selected.

オブジェクト選択部124は、フィルタ処理部123から入力されたラベルの映像オブジェクトの位置に基づいて、後記する位置予測手段14によって、1フレーム前のフレーム画像の映像オブジェクトの位置に基づいて算出された当該映像オブジェクトの予測位置に最も近い映像オブジェクトを、追跡対象となる映像オブジェクトとして選択するものである。ここで選択された映像オブジェクトの位置は、当該フレーム画像内における映像オブジェクトの軌跡を示す位置情報として、位置予測手段14とID番号付加手段16とに出力される。また、ここで選択された映像オブジェクトの特徴量は、画像合成手段35の作画部351に出力される。   Based on the position of the video object with the label input from the filter processing unit 123, the object selection unit 124 calculates the position calculated by the position prediction unit 14 described later based on the position of the video object of the frame image one frame before. The video object closest to the predicted position of the video object is selected as the video object to be tracked. The position of the selected video object is output to the position predicting unit 14 and the ID number adding unit 16 as position information indicating the trajectory of the video object in the frame image. Further, the feature amount of the video object selected here is output to the drawing unit 351 of the image composition means 35.

抽出条件記憶手段13は、オブジェクト選定手段12によって、抽出(追跡)対象となる映像オブジェクトを選択するための条件を記憶するもので、一般的なハードディスク等の記憶手段からなる。この抽出条件記憶手段13には、種々の抽出条件を示す抽出条件情報131を記憶している。   The extraction condition storage unit 13 stores conditions for selecting a video object to be extracted (tracked) by the object selection unit 12 and includes a general storage unit such as a hard disk. The extraction condition storage unit 13 stores extraction condition information 131 indicating various extraction conditions.

抽出条件情報131は、抽出すべき映像オブジェクトの抽出条件を記述した情報であって、例えば、面積、輝度、色及び円形度の少なくとも1つ以上の抽出条件を記述したものである。この抽出条件情報131は、オブジェクト選定手段12のフィルタ処理部123が、オブジェクト候補画像生成手段11で生成されたオブジェクト候補画像から、抽出すべき映像オブジェクトを選択するためのフィルタ(面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタ)の条件となるものである。   The extraction condition information 131 is information describing the extraction condition of the video object to be extracted, and describes, for example, at least one extraction condition of area, luminance, color, and circularity. This extraction condition information 131 is a filter (area filter, luminance filter) for the filter processing unit 123 of the object selection unit 12 to select a video object to be extracted from the object candidate images generated by the object candidate image generation unit 11. , Color filter and circularity filter).

なお、抽出条件情報131には、面積フィルタ、輝度フィルタ、色フィルタ及び円形度フィルタの条件として、予め定めた初期値と、その許容範囲を示す閾値とを記憶しておく。これによって、閾値外の特徴を持つ映像オブジェクトを抽出すべき映像オブジェクトの候補から外すことができる。   The extraction condition information 131 stores a predetermined initial value and a threshold value indicating an allowable range as conditions for the area filter, the luminance filter, the color filter, and the circularity filter. As a result, video objects having features outside the threshold can be excluded from video object candidates to be extracted.

位置予測手段14は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報に基づいて、次のフレーム画像における映像オブジェクトの予測位置を解析するものである。ここで、位置予測手段14は、線形予測部141と、曲線予測部142と、切替部143とを備える。   The position prediction unit 14 analyzes the predicted position of the video object in the next frame image based on the position information of the video object input from the object selection unit 124 of the object selection unit 12. Here, the position prediction unit 14 includes a linear prediction unit 141, a curve prediction unit 142, and a switching unit 143.

線形予測部141は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、線形予測を用いて、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで、線形予測部141は、例えば、重心座標にカルマンフィルタ(Kalman filter)等を適用することで、次のフレーム画像における映像オブジェクトの予測位置を算出することができる。ここで算出された予測位置は、切替部143に出力される。   The linear prediction unit 141 uses the linear prediction to determine the predicted position of the video object in the next frame image based on the position information (centroid coordinates, etc.) of the video object input from the object selection unit 124 of the object selection unit 12. Is to be calculated. Here, the linear prediction unit 141 can calculate the predicted position of the video object in the next frame image, for example, by applying a Kalman filter or the like to the barycentric coordinates. The predicted position calculated here is output to the switching unit 143.

曲線予測部142は、オブジェクト選定手段12のオブジェクト選択部124から入力された映像オブジェクトの位置情報(重心座標等)に基づいて、当該映像オブジェクトの軌跡を2次曲線近似して、次のフレーム画像における映像オブジェクトの予測位置を算出するものである。ここで算出された予測位置は、切替部143に出力される。   The curve prediction unit 142 approximates the trajectory of the video object based on the position information (center of gravity coordinates, etc.) of the video object input from the object selection unit 124 of the object selection unit 12 to obtain the next frame image. The predicted position of the video object in is calculated. The predicted position calculated here is output to the switching unit 143.

切替部143は、線形予測部141から入力された予測位置と、曲線予測部142から入力された予測位置とのいずれか一方を、次のフレーム画像の映像オブジェクトの予測位置として出力するものである。ここで、切替部143は、例えば、既に抽出された映像オブジェクトの位置情報が、曲線予測に必要となる所定数未満である場合には、線形予測部141から入力された予測位置を出力し、所定数以上である場合には、曲線予測部142から入力された予測位置を出力することとしてもよい。また、誤検出等によって、曲線予測部142における軌跡の2次曲線近似における係数の値が大きく変化した場合や、係数が所定値を超えた場合に、曲線予測部142から線形予測部141の予測位置に切り替えて出力することとしてもよい。ここで選択された予測位置は、オブジェクト選定手段12のオブジェクト選択部124と、探索領域設定手段15とに入力される。   The switching unit 143 outputs one of the predicted position input from the linear prediction unit 141 and the predicted position input from the curve prediction unit 142 as the predicted position of the video object of the next frame image. . Here, the switching unit 143 outputs the predicted position input from the linear prediction unit 141, for example, when the position information of the already extracted video object is less than a predetermined number necessary for curve prediction, When the number is greater than or equal to the predetermined number, the predicted position input from the curve prediction unit 142 may be output. Further, when the value of the coefficient in the quadratic curve approximation of the trajectory in the curve prediction unit 142 is largely changed due to erroneous detection or the like, or when the coefficient exceeds a predetermined value, the prediction from the curve prediction unit 142 to the linear prediction unit 141 is performed. It is good also as switching to a position and outputting. The predicted position selected here is input to the object selection unit 124 of the object selection unit 12 and the search area setting unit 15.

探索領域設定手段15は、位置予測手段14によって算出された、次のフレーム画像における映像オブジェクトの予測位置に基づいて、次のフレーム画像における、映像オブジェクトの探索領域を設定するものである。なお、この探索領域とは、オブジェクト候補画像生成手段11によって次のフレーム画像からオブジェクト候補画像が生成される領域である。ここで設定された探索領域の位置と大きさは、オブジェクト候補画像生成手段11の候補画像生成部115に出力される。ここで、探索領域設定手段15は、図示しない入力手段から入力された大きさの領域を設定することとしてもよい。   The search area setting unit 15 sets the search area of the video object in the next frame image based on the predicted position of the video object in the next frame image calculated by the position prediction unit 14. The search area is an area where an object candidate image is generated from the next frame image by the object candidate image generation means 11. The position and size of the search area set here are output to the candidate image generation unit 115 of the object candidate image generation unit 11. Here, the search area setting means 15 may set an area having a size input from an input means (not shown).

ID番号付加手段16は、オブジェクト選定手段12によって時系列に入力されるフレーム画像から連続して追跡された映像オブジェクトの位置情報を、同一の映像オブジェクトの一連の動きの軌跡を構成する位置情報であるとして、この軌跡を示す軌跡番号(軌跡情報)を設定し、更に、軌跡番号ごとに、位置情報に対して時系列に連続番号(ID番号)を付加するものである。ここで、ID番号付加手段16は、フィルタ処理部123から入力される、抽出条件に適合する映像オブジェクトがない通知に基づいて、オブジェクト選定手段12による一連の動きの映像オブジェクトの抽出が終了したと判断して、軌跡番号を設定することができる。そして、ID番号が付加された位置情報は、映像オブジェクト位置情報記憶手段31に記憶される。   The ID number adding unit 16 uses the position information of the video object continuously tracked from the frame image input in time series by the object selecting unit 12 as the position information constituting the trajectory of a series of movements of the same video object. Assuming that there is a trajectory number (trajectory information) indicating this trajectory, a sequential number (ID number) is added in time series to the position information for each trajectory number. Here, the ID number adding unit 16 determines that the extraction of a series of motion video objects by the object selection unit 12 is completed based on the notification input from the filter processing unit 123 that there is no video object that satisfies the extraction condition. Judgment can be made to set the trajectory number. The position information to which the ID number is added is stored in the video object position information storage unit 31.

映像遅延手段20は、外部から入力された映像信号のフレーム画像を、後記する画像合成手段35によって合成される軌跡画像と同期させるために、所定数のフレーム分遅延させるものである。ここで遅延された映像信号は、映像オブジェクト軌跡付加手段30の画像合成手段35に出力される。   The video delay means 20 delays the frame image of the video signal input from the outside by a predetermined number of frames in order to synchronize with the trajectory image synthesized by the image synthesis means 35 described later. The video signal delayed here is output to the image composition means 35 of the video object locus adding means 30.

映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)30は、映像オブジェクト抽出手段10から入力された映像オブジェクトの位置情報に基づいて、映像遅延手段20から入力された映像信号のフレーム画像である現在フレーム画像に、当該フレーム画像に含まれる映像オブジェクトの軌跡(現在軌跡)を示す軌跡画像である現在軌跡画像(他フレーム軌跡画像)を、当該映像オブジェクトの位置の変化量に応じた色と形に設定して合成し、当該軌跡画像が合成されたフレーム画像から構成される軌跡映像を生成するものである。映像オブジェクト軌跡付加手段30は、映像オブジェクト位置情報記憶手段31と、軌跡画像位置設定手段32と、軌跡画像形態設定手段33と、軌跡画像情報記憶手段34と、画像合成手段35とを備える。   The video object trajectory adding means (video object trajectory adding apparatus) 30 is a current frame which is a frame image of the video signal input from the video delay means 20 based on the position information of the video object input from the video object extracting means 10. The current trajectory image (other frame trajectory image), which is a trajectory image indicating the trajectory (current trajectory) of the video object included in the frame image, is set in the image in a color and shape according to the amount of change in the position of the video object. Thus, a trajectory image composed of a frame image obtained by compositing the trajectory image is generated. The video object trajectory adding means 30 includes video object position information storage means 31, trajectory image position setting means 32, trajectory image form setting means 33, trajectory image information storage means 34, and image composition means 35.

なお、ここでは映像オブジェクト軌跡付加手段30は、図示しない入力手段から過去軌跡画像の合成の指令を入力された場合には、現在軌跡画像とともに、現在フレーム画像より前に撮影された映像オブジェクトの軌跡(過去軌跡)を示す軌跡画像である過去軌跡画像も現在フレーム画像に合成することとした。そして、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、過去軌跡の表示位置を全体的にずらして、過去軌跡の映像オブジェクトの位置の変化量に応じた色と形の過去軌跡画像を合成することとした。また、映像オブジェクト軌跡付加手段30は、図示しない入力手段から過去軌跡画像の合成の指令が入力されない場合には、現在軌跡画像のみを現在フレーム画像に合成することとした。   Here, the video object trajectory adding means 30 receives the trajectory of the video object photographed before the current frame image together with the current trajectory image when a command for synthesizing the past trajectory image is input from an input means (not shown). The past trajectory image, which is a trajectory image indicating (past trajectory), is also synthesized with the current frame image. Then, the amount of change in the position of the video object in the past trajectory is shifted by shifting the display position of the past trajectory as a whole so that the position of the first video object in the past trajectory matches the position of the first video object in the current trajectory. We decided to synthesize past trajectory images with colors and shapes according to the conditions. Further, the video object trajectory adding means 30 synthesizes only the current trajectory image with the current frame image when the command for synthesizing the past trajectory image is not input from the input means (not shown).

映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)31は、ID番号付加手段16から入力された映像オブジェクトの位置情報を記憶するもので、一般的なハードディスク等の記憶媒体である。ここで記憶される位置情報は、オブジェクト選定手段12によって抽出された映像オブジェクトの位置を示す情報であり、例えば、映像オブジェクトの重心位置とする。この位置情報は、軌跡画像位置設定手段32によって、過去軌跡画像を合成する位置を設定する際に参照されて用いられ、また、軌跡画像形態設定手段33によって、現在軌跡画像の色と形を設定する際に参照されて用いられる。   The video object position information storage means (video object position information storage device) 31 stores the position information of the video object input from the ID number adding means 16 and is a general storage medium such as a hard disk. The position information stored here is information indicating the position of the video object extracted by the object selection means 12, and is, for example, the barycentric position of the video object. This position information is referred to and used by the trajectory image position setting means 32 when setting the position where the past trajectory image is to be synthesized, and the trajectory image form setting means 33 sets the color and shape of the current trajectory image. It is used when referred to.

なお、ここでは、映像オブジェクト位置情報記憶手段31は、映像オブジェクトの位置情報と、軌跡番号(軌跡情報)とを対応させて記憶し、更に、各々の位置情報と、軌跡番号ごとに時系列に付されたID番号とを対応させて記憶することとした。ここで、図2を参照(適宜図1参照)して、映像オブジェクト位置情報記憶手段31に記憶される位置情報について説明する。図2は、映像オブジェクト位置情報記憶手段に記憶された位置情報の例を説明するための説明図、(a)は、1つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例、(b)は、2つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例である。   Here, the video object position information storage means 31 stores the position information of the video object and the trajectory number (trajectory information) in association with each other, and further, in time series for each position information and trajectory number. The assigned ID numbers are stored in correspondence with each other. Here, the position information stored in the video object position information storage means 31 will be described with reference to FIG. FIG. 2 is an explanatory diagram for explaining an example of the position information stored in the video object position information storage means, and (a) is a position of the video object when the position information of the video object of one trajectory is input. An example of the position information stored in the information storage means, (b) is an example of the position information stored in the video object position information storage means when the position information of the video object of two trajectories is input.

まず、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16から、ID番号が付加された位置情報が入力される。ここで、映像オブジェクト位置情報記憶手段31に、ID番号付加手段16から、ID番号「1」が付加されている位置情報(x1,y1)が入力されたとする。なお、ここでは、例えば、フレーム画像の左下を原点とし、横方向にx軸、縦方向にy軸を設定したとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、入力された位置情報C1(x1,y1)を軌跡番号「1」(T1)とID番号「1」(I1)とに対応させて記憶する。 First, the position information to which the ID number is added is input from the ID number adding means 16 to the video object position information storage means 31. Here, it is assumed that the position information (x 1 , y 1 ) to which the ID number “1” is added is input from the ID number adding unit 16 to the video object position information storage unit 31. Here, for example, it is assumed that the lower left of the frame image is the origin, the x axis is set in the horizontal direction, and the y axis is set in the vertical direction. Then, as shown in FIG. 2A, the video object position information storage unit 31 uses the input position information C1 (x 1 , y 1 ) as the trajectory number “1” (T1) and the ID number “1” ( And stored in correspondence with I1).

そして、オブジェクト選定手段12によって、連続するフレーム画像から次の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「2」が付加された位置情報(x2,y2)が入力される。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報C2(x2,y2)を軌跡番号「1」(T1)とID番号「2」(I2)とに対応させて記憶する。 When the next video object is extracted from the continuous frame image by the object selection unit 12, the ID number “2” is added to the video object position information storage unit 31 from the ID number addition unit 16. Position information (x 2 , y 2 ) is input. Then, as shown in FIG. 2A, the video object position information storage unit 31 uses the position information C2 (x 2 , y 2 ) as the trajectory number “1” (T1) and the ID number “2” (I2). It memorize | stores corresponding to.

そして、オブジェクト選定手段12によって、連続するフレーム画像から更にn1−2個の映像オブジェクトが順次抽出されたとする。そうすると、図2(a)に示すように、映像オブジェクト位置情報記憶手段31は、これらの位置情報C3、…、Cn((x3,y3)、…、(xn,yn))を軌跡番号「1」(T1)とID番号「3」、…、「n」(I3、…、In)とに対応させて記憶する。 Then, it is assumed that n 1 −2 video objects are sequentially extracted from the continuous frame images by the object selection unit 12. Then, as shown in FIG. 2A, the video object position information storage unit 31 stores the position information C3,..., Cn ((x 3 , y 3 ),..., (X n , y n )). The trajectory number “1” (T1) and the ID numbers “3”,..., “N” (I3,..., In) are stored in association with each other.

ここで、映像オブジェクト抽出手段10によって、連続するフレーム画像から映像オブジェクトが抽出されなかったとする。そうすると、この通知がID番号付加手段16に入力され、この通知に基づいてID番号付加手段16は、映像オブジェクト位置情報記憶手段31に記憶された各々の軌跡番号に1を加えて書き換える。図2(a)では、映像オブジェクト位置情報記憶手段31に記憶されている軌跡番号「1」(T1)を「2」(図2(b)のT2)に書き換える。これによって、現在フレーム画像の映像オブジェクトの軌跡を示す軌跡番号が常に「1」になる。   Here, it is assumed that the video object is not extracted from the continuous frame images by the video object extraction means 10. Then, this notification is input to the ID number adding means 16, and based on this notification, the ID number adding means 16 adds 1 to each trajectory number stored in the video object position information storage means 31 and rewrites it. In FIG. 2A, the trajectory number “1” (T1) stored in the video object position information storage unit 31 is rewritten to “2” (T2 in FIG. 2B). As a result, the trajectory number indicating the trajectory of the video object of the current frame image is always “1”.

その後、映像オブジェクト抽出手段10によって、異なる軌跡を描く映像オブジェクトのうちの最初の映像オブジェクトが抽出された場合には、映像オブジェクト位置情報記憶手段31には、ID番号付加手段16からID番号「1」が付加された位置情報(xn+1,yn+1)が入力される。そして、図2(b)に示すように、映像オブジェクト位置情報記憶手段31は、この位置情報Cn+1(xn+1,yn+1)を軌跡番号「1」(T1’)とID番号「1」(In+1)とに対応させて記憶する。以上のようにして、映像オブジェクト位置情報記憶手段31は、軌跡番号と、ID番号とを位置情報に対応させて記憶することができる。 Thereafter, when the video object extraction unit 10 extracts the first video object among video objects that draw different trajectories, the ID number “1” is stored in the video object position information storage unit 31 from the ID number adding unit 16. The position information (x n + 1 , y n + 1 ) to which “is added is input. Then, as shown in FIG. 2B, the video object position information storage unit 31 uses the position information Cn + 1 (x n + 1 , y n + 1 ) as the trajectory number “1” (T1 ′) and the ID number “ 1 "(In + 1) and stored. As described above, the video object position information storage unit 31 can store the trajectory number and the ID number in association with the position information.

図1に戻って説明を続ける。軌跡画像位置設定手段32は、過去軌跡画像を、後記する画像合成手段35によって作画して合成する位置(過去軌跡位置)を設定するものである。ここで、軌跡画像位置設定手段32は、位置情報読み出し部321と、付加位置設定部322とを備える。   Returning to FIG. 1, the description will be continued. The trajectory image position setting means 32 sets a position (past trajectory position) where the past trajectory image is drawn and synthesized by the image compositing means 35 described later. Here, the trajectory image position setting unit 32 includes a position information reading unit 321 and an additional position setting unit 322.

位置情報読み出し部321は、現在フレーム画像より前に撮影された映像オブジェクトの軌跡の位置情報(過去軌跡位置情報)と、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報とを、映像オブジェクト位置情報記憶手段31から読み出すものである。ここで、位置情報読み出し部321は、図示しない入力手段によって外部から過去軌跡画像の合成の指令とともに入力された軌跡番号に対応する位置情報を、映像オブジェクト位置情報記憶手段31から読み出す。なお、ここでは、位置情報読み出し部321は、過去軌跡画像の合成の指令とともに軌跡番号が入力されなかった場合には、現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号(ここでは軌跡番号「2」)の位置情報を、映像オブジェクト位置情報記憶手段31から読み出すこととした。   The position information reading unit 321 includes the position information of the trajectory of the video object captured before the current frame image (past trajectory position information) and the same trajectory number as the video object of the current frame image (here, the trajectory number “1”). ) Position information is read out from the video object position information storage means 31. Here, the position information reading unit 321 reads position information corresponding to the trajectory number input from the outside together with a command for synthesizing the past trajectory image from an input unit (not shown) from the video object position information storage unit 31. Here, in the case where the trajectory number is not input together with the past trajectory image compositing command, the position information reading unit 321 has a trajectory number indicating the trajectory immediately before the video object of the current frame image (here, The position information of the trajectory number “2”) is read from the video object position information storage unit 31.

また、ここでは、過去軌跡の最初の映像オブジェクトの位置を現在軌跡の最初の映像オブジェクトの位置に一致させるため、位置情報読み出し部321は、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出す。ここで読み出された位置情報は、付加位置設定部322に出力される。   Also, here, in order to match the position of the first video object in the past trajectory with the position of the first video object in the current trajectory, the position information reading unit 321 has position information of the same trajectory number as the video object of the current frame image. Among them, the position information whose ID number is 1 is read. The position information read here is output to the additional position setting unit 322.

付加位置設定部322は、位置情報読み出し部321から入力された位置情報に基づいて、過去軌跡画像の位置(過去軌跡位置)を設定するものである。ここで、付加位置設定部322は、位置情報読み出し部321から入力された過去軌跡の映像オブジェクトの位置情報によって示される位置を、現在軌跡の最初の映像オブジェクトの位置に合わせてシフトして、過去軌跡位置を設定する。ここで設定された過去軌跡位置は、軌跡画像形態設定手段33の位置変化量算出部331と、画像合成手段35の合成部352に出力される。   The additional position setting unit 322 sets the position of the past trajectory image (past trajectory position) based on the position information input from the position information reading unit 321. Here, the additional position setting unit 322 shifts the position indicated by the position information of the video object of the past trajectory input from the position information reading unit 321 according to the position of the first video object of the current trajectory. Set the trajectory position. The past trajectory position set here is output to the position change amount calculation unit 331 of the trajectory image form setting unit 33 and the composition unit 352 of the image composition unit 35.

ここでは、付加位置設定部322は、過去軌跡を示す位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とに基づいて、過去軌跡位置を設定する。ここで、図3を参照(適宜図1参照)して、過去軌跡位置を設定する方法について説明する。図3は、付加位置設定部によって、過去軌跡位置を設定する方法の例を説明するための説明図、(a)は、位置情報読み出し部によって読み出された過去軌跡の映像オブジェクトの位置情報と、現在軌跡の最初の映像オブジェクトの位置情報によって示される位置を模式的に示した模式図、(b)は、付加位置設定部によって設定された過去軌跡位置を模式的に示した模式図である。なお、ここでは、フレーム画像の横方向にx軸、縦方向にy軸を設定している。   Here, the additional position setting unit 322 sets the past locus position based on the position information indicating the past locus and the position information of the first video object in the current locus. Here, referring to FIG. 3 (refer to FIG. 1 as appropriate), a method of setting the past locus position will be described. FIG. 3 is an explanatory diagram for explaining an example of a method for setting the past trajectory position by the additional position setting unit. FIG. 3A shows the position information of the video object of the past trajectory read by the position information reading unit. The schematic diagram schematically showing the position indicated by the position information of the first video object in the current trajectory, and (b) is the schematic diagram schematically showing the past trajectory position set by the additional position setting unit. . Here, the x-axis is set in the horizontal direction and the y-axis is set in the vertical direction of the frame image.

位置情報読み出し部321によって、軌跡番号「k」の位置情報(ここでは重心座標とする)がnk個と、現在軌跡の最初(ID番号が「1」)の映像オブジェクトの位置情報とが読み出された場合に、図3(a)に示すように、軌跡番号が「k」、ID番号が「1」の位置情報Ck1を(xk1,yk1)、ID番号が「2」の位置情報Ck2を(xk2,yk2)、ID番号が「nk」の位置情報Cknkを(xknk,yknk)とし、現在軌跡の最初の映像オブジェクトの位置情報C11を(x11,y11)とする。 The position information reading unit 321 reads n k pieces of position information (here, centroid coordinates) of the trajectory number “k” and the position information of the first video object (ID number “1”) of the current trajectory. 3 (a), the location information Ck1 with the trajectory number “k”, the ID number “1” is (xk1, yk1), and the location information Ck2 with the ID number “2”, as shown in FIG. the (xk2, yk2), ID number is the position information Ckn k of "n k" and (xkn k, ykn k), currently the location information C11 of the first video object trajectory and (x11, y11).

そうすると、付加位置設定部322は、過去軌跡の最初(ID番号が「1」)の位置情報Ck1(xk1,yk1)を、現在軌跡の最初の映像オブジェクトの位置情報C11(x11,y11)に一致させるため、x、y軸方向に(x11−xk1,y11−yk1)だけ移動させて、過去軌跡位置Dk1(x11,y11)に設定する。そして、過去軌跡のその他の位置情報Ck2、…、Cknkによって示される位置も、x、y軸方向に(x11−xk1,y11−yk1)ずつ移動させ、過去軌跡位置Dk2(xk2+x11−xk1,yk2+y11−yk1)、…、Dknk(xknk+x11−xk1,yknk+y11−yk1)とする。 Then, the additional position setting unit 322 matches the position information Ck1 (xk1, yk1) of the first (ID number “1”) of the past locus with the position information C11 (x11, y11) of the first video object of the current locus. Therefore, it is moved in the x and y axis directions by (x11−xk1, y11−yk1), and set to the past locus position Dk1 (x11, y11). The other location information Ck2 past trajectory, ..., a position indicated by CKN k also, x, is moved in the y-axis direction by (x11-xk1, y11-yk1 ), past trajectory position Dk2 (xk2 + x11-xk1, yk2 + y11 −yk1),..., Dkn k (xkn k + x11−xk1, ykn k + y11−yk1).

これによって、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置と一致するように、全体的にずらした位置に過去軌跡画像を合成する位置を設定することができる。   In this way, the additional position setting unit 322 synthesizes the past trajectory image at a position shifted as a whole so that the position of the first video object in the past trajectory matches the position of the first video object in the current trajectory. Can be set.

なお、ここでは、付加位置設定部322は、過去軌跡における最初の映像オブジェクトの位置を、現在軌跡における最初の映像オブジェクトの位置に設定することとしたが、過去軌跡画像を合成する位置の設定方法はこれに限定されることはない。例えば、過去軌跡における最初の映像オブジェクトの位置が、現在軌跡における最初の映像オブジェクトの位置から所定距離だけ上の位置になるように設定することとしてもよいし、現在フレーム画像の映像オブジェクトとID番号が同一の過去軌跡の映像オブジェクトの位置が、現在フレーム画像の映像オブジェクトの位置になるように設定することとしてもよい。   Here, the additional position setting unit 322 sets the position of the first video object in the past trajectory to the position of the first video object in the current trajectory. Is not limited to this. For example, the position of the first video object in the past trajectory may be set to be a predetermined distance above the position of the first video object in the current trajectory, or the video object and ID number of the current frame image May be set so that the position of the video object of the same past locus becomes the position of the video object of the current frame image.

図1に戻って説明を続ける。軌跡画像形態設定手段33は、映像オブジェクト位置情報記憶手段31から読み出された現在フレーム画像の映像オブジェクトの位置情報によって示される位置に基づいて、現在軌跡画像の色と形を設定するとともに、軌跡画像位置設定手段32の付加位置設定部322によって設定された過去軌跡位置に基づいて、過去軌跡画像の色と形を設定するものである。軌跡画像形態設定手段33は、位置変化量算出部331と、形態設定部332とを備える。   Returning to FIG. 1, the description will be continued. The trajectory image form setting means 33 sets the color and shape of the current trajectory image based on the position indicated by the position information of the video object in the current frame image read from the video object position information storage means 31, and Based on the past locus position set by the additional position setting unit 322 of the image position setting means 32, the color and shape of the past locus image are set. The trajectory image form setting unit 33 includes a position change amount calculation unit 331 and a form setting unit 332.

位置変化量算出部331は、現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報を読み出し、この位置情報によって示される位置である現在軌跡位置(他フレーム軌跡位置)に基づいて、当該映像オブジェクトの位置の変化量を算出するとともに、軌跡画像位置設定手段32の付加位置設定部322によって設定された過去軌跡位置に基づいて、過去軌跡の映像オブジェクトの位置の変化量を算出するものである。ここで算出された変化量は、形態設定部332に出力される。また、ここで読み出された現在フレーム画像の映像オブジェクトと同一の軌跡番号(ここでは軌跡番号「1」)の位置情報は、画像合成手段35の作画部351に出力される。   The position change amount calculation unit 331 reads position information of the same trajectory number (here, trajectory number “1”) as the video object of the current frame image, and a current trajectory position (another frame trajectory) that is a position indicated by this positional information. The amount of change in the position of the video object is calculated based on the position), and the position of the video object in the past trajectory is determined based on the past trajectory position set by the additional position setting unit 322 of the trajectory image position setting unit 32. The amount of change is calculated. The amount of change calculated here is output to the form setting unit 332. Further, the position information of the same trajectory number (here, trajectory number “1”) as the video object of the current frame image read out here is output to the drawing unit 351 of the image compositing means 35.

なお、ここでは、映像オブジェクトのフレーム画像上における位置の変化量が、この映像オブジェクトの所定時間当たりの移動距離(速度)に比例すると仮定し、位置変化量算出部331が、現在軌跡あるいは過去軌跡を構成する映像オブジェクトの各々について、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、この映像オブジェクトの動きベクトルBと、この動きベクトルBの長さ|B|を位置の変化量として算出することとした。そして、画面の左下を原点として横方向にx軸を、縦方向にy軸を設定し、映像オブジェクトの位置を(xt,yt)、1フレーム前の映像オブジェクトの位置を(xt-1,yt-1)とすると、動きベクトルBと、この動きベクトルBの長さ|B|は以下の式(2)、(3)によって示される。 Here, it is assumed that the change amount of the position of the video object on the frame image is proportional to the moving distance (speed) of the video object per predetermined time, and the position change amount calculation unit 331 performs the current locus or the past locus. For each of the video objects constituting the video object, from the position of the video object on the frame image and the position of the video object on the frame image immediately before the video object, the motion vector B of the video object and the motion The length | B | of the vector B is calculated as the amount of change in position. Then, the x-axis in the horizontal direction at the lower left of the screen as an origin, sets the y-axis in the vertical direction, the position of the video object (x t, y t), the position of the previous frame of the video object (x t- 1 , y t-1 ), the motion vector B and the length | B | of the motion vector B are expressed by the following equations (2) and (3).

Figure 0004555690
Figure 0004555690

形態設定部332は、位置変化量算出部331によって算出された位置の変化量と、軌跡画像情報記憶手段34に記憶された軌跡画像情報341とに基づいて、軌跡画像(現在軌跡画像及び過去軌跡画像)の色及び形を設定するものである。ここで設定された色及び形の情報は、画像合成手段35の作画部351に出力される。   The form setting unit 332 generates a trajectory image (current trajectory image and past trajectory) based on the position change amount calculated by the position change amount calculation unit 331 and the trajectory image information 341 stored in the trajectory image information storage unit 34. Image) color and shape. The color and shape information set here is output to the drawing unit 351 of the image composition means 35.

ここで、図4及び図5を参照して、形態設定部332によって軌跡画像の色及び形を設定する方法について、野球中継等で映像上に投球の軌跡を表示する場合を例に挙げて説明する。図4は、形態設定部によって設定された現在軌跡画像が合成された現在フレーム画像の例を模式的に示す模式図である。また、図5は、形態設定部によって設定された現在軌跡画像と過去軌跡画像とが合成された現在フレーム画像の例を模式的に示す模式図である。   Here, with reference to FIG. 4 and FIG. 5, a method for setting the color and shape of the trajectory image by the form setting unit 332 will be described by taking as an example the case where the trajectory of the pitch is displayed on the video in a baseball broadcast or the like. To do. FIG. 4 is a schematic diagram schematically illustrating an example of a current frame image obtained by synthesizing the current trajectory image set by the form setting unit. FIG. 5 is a schematic diagram schematically showing an example of a current frame image obtained by synthesizing the current trajectory image and the past trajectory image set by the form setting unit.

なお、ここでは、外部から野球中継等の投球の映像が入力され、位置変化量算出部331によってボールの位置の変化量が算出されることとする。そして、この位置変化量算出部331によって算出された動きベクトルBの長さ|B|は、ボールの速度に比例する。また、ボールが直線的な動きである場合には動きベクトルBのx成分が大きくなり、山なりの動きである場合にはy成分が大きくなる。そのため、ここでは、形態設定部332は、動きベクトルBの長さ|B|とx成分とy成分との各々が所定の閾値を超えているかを判断し、後記する軌跡画像情報記憶手段34に記憶された軌跡画像情報341に基づいて、軌跡画像の色及び形(形状、大きさ、方向)を設定することとした。   Here, it is assumed that an image of a pitch such as a baseball game is input from the outside, and the change amount of the ball position is calculated by the position change amount calculation unit 331. The length | B | of the motion vector B calculated by the position change amount calculation unit 331 is proportional to the velocity of the ball. Further, the x component of the motion vector B increases when the ball moves linearly, and the y component increases when it moves like a mountain. Therefore, here, the form setting unit 332 determines whether each of the length | B | of the motion vector B, the x component, and the y component exceeds a predetermined threshold, and stores it in the trajectory image information storage unit 34 described later. Based on the stored trajectory image information 341, the color and shape (shape, size, direction) of the trajectory image are set.

ここで、例えば、軌跡画像情報記憶手段34には、炎の画像の画像データと、動きベクトルBの長さ|B|が閾値を超えた場合には、軌跡画像の色及び形状を炎の画像とし、かつ、大きさをc・|B|(cは定数)、方向を動きベクトルBの方向とすることと、動きベクトルBの長さ|B|が閾値以下である場合には、特徴量解析部122で解析された特徴量の画像とすることとを軌跡画像情報341として記憶していることとした。   Here, for example, when the image data of the flame image and the length | B | of the motion vector B exceed the threshold value, the trajectory image information storage unit 34 sets the color and shape of the trajectory image to the flame image. If the size is c · | B | (c is a constant), the direction is the direction of the motion vector B, and the length | B | The image of the feature amount analyzed by the analysis unit 122 is stored as the trajectory image information 341.

そして、例えば、現在軌跡位置に基づいて、位置変化量算出部331によって算出された動きベクトルBの長さ|B|が閾値を超えている場合には、形態設定部332は、図4に示すように、動きベクトルBの方向を向き、動きベクトルBの長さ|B|に比例した大きさ(c・|B|)の炎の画像(現在軌跡画像)g、g、…を設定する。このように設定することで、ボールが速球であることや、ボールの移動する方向や、ボールの速度の投球中の変化(例えば、図4ではボールが右に移動するにつれて現在軌跡画像gが大きくなり、次第に速度が大きくなっていることを示す)等を、視聴者に分かりやすく表示することができる。   For example, when the length | B | of the motion vector B calculated by the position change amount calculation unit 331 exceeds the threshold based on the current locus position, the form setting unit 332 shows the configuration shown in FIG. In this manner, the direction of the motion vector B is directed, and flame images (current trajectory images) g, g,... Having a size (c · | B |) proportional to the length | B | By setting in this way, the ball is a fast ball, the direction in which the ball moves, and the change in the ball speed during throwing (for example, the current trajectory image g increases as the ball moves to the right in FIG. 4). It can be displayed in a manner that is easy for the viewer to understand.

更に、例えば、過去軌跡位置に基づいて、位置変化量算出部331によって算出された動きベクトルBの長さ|B|が閾値以下である場合には、形態設定部332は、図5に示すように、図4に示した現在軌跡画像(炎の画像g、g、…)とともに、特徴量解析部122で解析された特徴量の画像(過去軌跡画像)g’、g’、…を設定する。このように設定することで、現在フレーム画像のボールの軌跡(現在軌跡)と過去軌跡の違いや、球威の違い等を、視聴者に分かりやすく表示することができる。   Further, for example, when the length | B | of the motion vector B calculated by the position change amount calculation unit 331 based on the past trajectory position is equal to or smaller than the threshold value, the form setting unit 332 displays the configuration as shown in FIG. In addition to the current trajectory images (flame images g, g,...) Shown in FIG. 4, the feature amount images (past trajectory images) g ′, g ′,. . By setting in this way, the difference between the ball trajectory (current trajectory) and the past trajectory in the current frame image, the difference in ball power, and the like can be easily displayed to the viewer.

また、軌跡画像情報記憶手段34が、映像オブジェクトの動きベクトルのy成分の値が閾値を超えた場合には所定の形状の画像とすることと、この画像の形状や色や大きさ等の情報を軌跡画像情報341として記憶し、形態設定部332が、山なりの動きの映像オブジェクトの軌跡画像を所定の形状の画像に設定することとしてもよい。   Further, when the value of the y component of the motion vector of the video object exceeds the threshold value, the trajectory image information storage unit 34 sets the image to a predetermined shape, and information such as the shape, color, and size of the image May be stored as the trajectory image information 341, and the form setting unit 332 may set the trajectory image of the video object having a mountain-like movement as an image having a predetermined shape.

軌跡画像情報記憶手段34は、形態設定部332によって、軌跡画像の色及び形を設定するための情報を記憶するもので、一般的なハードディスク等の記憶手段からなる。ここでは、軌跡画像情報記憶手段34には、様々な形状の画像やテクスチャ等のデータと、軌跡画像の色及び形をフレーム画像ごとの映像オブジェクトの動きベクトルBの長さ|B|、x成分及びy成分の値に対応させたデータとを軌跡画像情報341として予め記憶している。   The trajectory image information storage unit 34 stores information for setting the color and shape of the trajectory image by the form setting unit 332, and includes a storage unit such as a general hard disk. Here, the trajectory image information storage unit 34 stores data such as images and textures of various shapes, the color and shape of the trajectory image, the length | B |, x component of the motion vector B of the video object for each frame image. And data corresponding to the value of the y component are stored in advance as trajectory image information 341.

図1に戻って説明を続ける。画像合成手段35は、映像遅延手段20から入力されたフレーム画像に、軌跡画像形態設定手段33によって設定された軌跡画像を作画して合成するものである。ここで、画像合成手段35は、作画部351と、合成部352とを備える。   Returning to FIG. 1, the description will be continued. The image synthesizing unit 35 draws and combines the trajectory image set by the trajectory image form setting unit 33 with the frame image input from the video delay unit 20. Here, the image composition unit 35 includes a drawing unit 351 and a composition unit 352.

作画部351は、位置変化量算出部331から入力された、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報によって示される位置に、軌跡画像形態設定手段33によって設定された現在軌跡画像を作画するとともに、付加位置設定部322から入力された位置に、軌跡画像形態設定手段33によって設定された過去軌跡画像を作画するものである。ここで作画された画像は、合成部352に出力される。   The drawing unit 351 receives the current trajectory image set by the trajectory image form setting unit 33 at the position indicated by the position information of the same trajectory number as the video object of the current frame image input from the position change amount calculation unit 331. In addition to drawing, the past trajectory image set by the trajectory image form setting means 33 is drawn at the position input from the additional position setting unit 322. The image drawn here is output to the synthesis unit 352.

合成部352は、作画部351から入力された画像を、映像遅延手段20から入力された映像信号のフレーム画像に合成するものである。ここで合成されたフレーム画像からなる映像は、軌跡映像として外部に出力される。   The combining unit 352 combines the image input from the drawing unit 351 with the frame image of the video signal input from the video delay unit 20. The video composed of the frame images synthesized here is output to the outside as a trajectory video.

以上、本発明に係る軌跡付加映像生成装置1の構成について説明したが、本発明はこれに限定されるものではない。例えば、ここでは、野球中継の映像において、投球の軌跡を表示する場合を例に挙げて説明したが、本発明の軌跡付加映像生成装置は、野球の投球の軌跡に限らず、動きを伴う様々な映像オブジェクトの映像に適用し、その軌跡を、速度や動きの特徴に応じた軌跡画像によって示すことができる。更に、ここでは、映像オブジェクト抽出手段10は、映像オブジェクトの抽出対象となるフレーム画像と、このフレーム画像より1フレーム前及び後に入力されたフレーム画像との2つの差分画像を生成して、映像オブジェクトを抽出することとしたが、映像オブジェクト抽出手段10の映像オブジェクトの検出方法はこれに限定されることなく、フレーム画像ごとに映像オブジェクトの位置を検出できればよい。例えば、抽出対象となる映像オブジェクトの形状によって、映像オブジェクトをフレーム画像から検出することとしてもよいし、映像オブジェクトの色によって検出することとしてもよい。   The configuration of the trajectory-added video generation device 1 according to the present invention has been described above, but the present invention is not limited to this. For example, here, a case where a pitching trajectory is displayed in a baseball broadcast video has been described as an example. However, the trajectory-added video generation device according to the present invention is not limited to a baseball pitching trajectory, and various movements are involved. When applied to a video of a simple video object, the trajectory can be indicated by a trajectory image corresponding to the characteristics of speed and motion. Further, here, the video object extraction means 10 generates two difference images of a frame image from which the video object is to be extracted and a frame image input one frame before and after the frame image, thereby generating a video object. However, the video object detection method of the video object extraction means 10 is not limited to this, and it is sufficient that the position of the video object can be detected for each frame image. For example, the video object may be detected from the frame image depending on the shape of the video object to be extracted, or may be detected based on the color of the video object.

また、ここでは、映像オブジェクト位置情報記憶手段31が、映像オブジェクトの位置情報と、軌跡番号と、ID番号とを対応させて記憶することとし、位置情報読み出し部321が、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうち、ID番号が1である位置情報を読み出すこととしたが、例えば、映像オブジェクト位置情報記憶手段31が、位置情報と軌跡番号のみを対応させて記憶することとしてもよい。このとき、位置情報読み出し部321は、例えば、映像オブジェクトが映像中を左から右に移動する場合において、過去軌跡の位置情報とともに、現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報のうちの、x座標の値が一番小さい位置情報を読み出すこととしてもよい。   Here, the video object position information storage unit 31 stores the position information of the video object, the trajectory number, and the ID number in association with each other, and the position information reading unit 321 includes the past trajectory position information. The position information having the ID number 1 is read out from the position information of the same trajectory number as that of the video object of the current frame image. For example, the video object position information storage unit 31 only includes the position information and the trajectory number. May be stored in association with each other. At this time, for example, when the video object moves from left to right in the video, the position information reading unit 321 includes the position information of the past trajectory and the position information of the same trajectory number as the video object of the current frame image. The position information having the smallest x coordinate value may be read out.

更に、ここでは、ID番号付加手段16によって、軌跡番号を設定し、映像オブジェクト位置情報記憶手段31が、この軌跡番号と、映像オブジェクトの位置情報とを対応させて記憶することとしたが、軌跡情報は軌跡を特定できるものであればよい。例えば、軌跡付加映像生成装置1は、ID番号付加手段16を備えず、映像オブジェクト位置情報記憶手段31が、この映像オブジェクトが抽出されたフレーム画像の撮影された時刻等を軌跡情報とし、この軌跡情報と、位置情報とを対応させて記憶することとしてもよい。このとき、例えば、位置情報読み出し部321は、軌跡情報の時刻が連続する位置情報を一連の動きの軌跡を示す位置情報であるとして、外部から入力された指令に基づいて指定された軌跡の位置情報を読み出すことができる。また、映像オブジェクト位置情報記憶手段31が、例えば、位置情報をテキストデータ等として記憶することとし、軌跡ごとに行を変えて記録することとしてもよい。このとき、位置情報読み出し部321は、行番号を軌跡情報として任意の軌跡の位置情報を読み出すことができる。   Further, here, the trajectory number is set by the ID number adding means 16, and the video object position information storage means 31 stores the trajectory number and the position information of the video object in association with each other. Any information may be used as long as the locus can be specified. For example, the trajectory-added video generation apparatus 1 does not include the ID number adding unit 16, and the video object position information storage unit 31 uses the time when the frame image from which the video object is extracted as trajectory information, and the trajectory. Information and position information may be stored in association with each other. At this time, for example, the position information reading unit 321 assumes that the position information in which the time of the locus information is continuous is the position information indicating a series of movement locus, and the position of the locus designated based on the command input from the outside. Information can be read out. Further, the video object position information storage unit 31 may store the position information as text data or the like, for example, and record it by changing the line for each locus. At this time, the position information reading unit 321 can read the position information of an arbitrary locus using the row number as the locus information.

更に、ここでは、軌跡画像位置設定手段32は、位置情報読み出し部321によって過去軌跡位置情報と現在フレーム画像の映像オブジェクトと同一の軌跡番号の位置情報とを、映像オブジェクト位置情報記憶手段31から読み出し、付加位置設定部322によって、これらの位置情報から過去軌跡位置を設定することとしたが、軌跡画像位置設定手段32は、位置情報読み出し部321によって過去軌跡位置情報を読み出して、付加位置設定部322によって、この過去軌跡位置情報によって示される位置を過去軌跡位置とすることとしてもよい。   Further, here, the trajectory image position setting unit 32 reads the past trajectory position information and the position information of the same trajectory number as the video object of the current frame image from the video object position information storage unit 31 by the position information reading unit 321. The past position is set from the position information by the additional position setting unit 322. However, the trajectory image position setting unit 32 reads the past locus position information by the position information reading unit 321, and adds the additional position setting unit. By 322, the position indicated by the past locus position information may be set as the past locus position.

また、ここでは、軌跡が付加される1つの映像を外部から入力し、映像オブジェクト位置情報記憶手段31には、位置情報として、この映像のフレーム画像における映像オブジェクトの2次元座標が記憶されて、付加位置設定部322がこの2次元座標に基づいて過去軌跡位置を設定するとともに、軌跡画像形態設定手段33がこの2次元座標に基づいて映像オブジェクトの位置の変化量を解析し、軌跡画像の色と形とを設定することとしたが、例えば、異なる場所から撮影された映像を更に外部から入力して、映像オブジェクトの3次元位置(3次元座標)を解析することとしてもよい。   In addition, here, one video to which a trajectory is added is input from the outside, and the video object position information storage unit 31 stores the two-dimensional coordinates of the video object in the frame image of the video as the position information. The additional position setting unit 322 sets the past trajectory position based on the two-dimensional coordinates, and the trajectory image form setting means 33 analyzes the change amount of the position of the video object based on the two-dimensional coordinates, and the color of the trajectory image. However, for example, it is also possible to further input video images taken from different places and analyze the three-dimensional position (three-dimensional coordinates) of the video object.

このとき、映像オブジェクト抽出手段10が、2つ以上の映像から抽出された映像オブジェクトの2次元座標と、撮影したカメラのカメラパラメータとに基づいて映像オブジェクトの3次元座標を解析して、この3次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとしてもよい。また、映像オブジェクト抽出手段10によって2つ以上の映像から抽出された映像オブジェクトの2次元座標を位置情報として映像オブジェクト位置情報記憶手段31に記憶することとし、位置情報読み出し部321及び軌跡画像形態設定手段33の位置変化量算出部331が、撮影したカメラのカメラパラメータと、読み出した位置情報とに基づいて3次元座標を解析することとしてもよい。そして、付加位置設定部322は、過去軌跡と現在軌跡の位置に基づいて、過去軌跡の3次元座標をあるシフト量だけシフトさせ、シフトされた3次元座標を透視投影変換等によって、フレーム画像における2次元座標に変換することで、映像に更に正確な過去軌跡を付加することができる。また、形態設定部332は、3次元座標の位置の変化量に基づいて、軌跡画像の色や形を設定することで、更に正確な速度や動きの特徴を示す画像を軌跡画像として映像に付加することができる。   At this time, the video object extracting means 10 analyzes the three-dimensional coordinates of the video object based on the two-dimensional coordinates of the video object extracted from two or more videos and the camera parameters of the photographed camera. The dimensional coordinates may be stored in the video object position information storage unit 31 as position information. In addition, the two-dimensional coordinates of the video object extracted from two or more videos by the video object extraction unit 10 are stored in the video object position information storage unit 31 as position information, and the position information reading unit 321 and the trajectory image form setting are stored. The position change amount calculation unit 331 of the means 33 may analyze the three-dimensional coordinates based on the camera parameters of the photographed camera and the read position information. Then, the additional position setting unit 322 shifts the three-dimensional coordinates of the past trajectory by a certain shift amount based on the past trajectory and the position of the current trajectory, and converts the shifted three-dimensional coordinates in the frame image by perspective projection conversion or the like. By converting to two-dimensional coordinates, a more accurate past trajectory can be added to the video. In addition, the form setting unit 332 sets the color and shape of the trajectory image based on the amount of change in the position of the three-dimensional coordinates, thereby adding an image showing more accurate speed and motion characteristics to the video as the trajectory image. can do.

更に、ここでは、軌跡画像形態設定手段33が、映像オブジェクトの位置の変化量を算出し、この変化量に対応する軌跡画像の色と形とを、軌跡画像情報記憶手段34に記憶された軌跡画像情報341を参照して設定することとしたが、本発明の映像オブジェクト付加装置は、軌跡画像形態設定手段によって、映像オブジェクトの位置の変化量に基づいて色あるいは形のいずれかのみを設定することとしてもよい。例えば、軌跡画像形態設定手段が、軌跡画像を、所定の色の円形の画像として、動きベクトルBの大きさ|B|に応じて大きさのみを変えて設定することとしてもよいし、あるいは、所定の大きさの所定の形状の画像として、動きベクトルBの大きさ|B|に応じて色のみを変えて設定することとしてもよい。更に、本発明の映像オブジェクト付加装置は、軌跡画像情報記憶手段34を必ずしも備えている必要はなく、映像オブジェクトの位置の変化量から直接、軌跡画像の色や形を算出して設定することとしてもよい。   Further, here, the trajectory image form setting unit 33 calculates the change amount of the position of the video object, and the color and shape of the trajectory image corresponding to the change amount are stored in the trajectory image information storage unit 34. The video object adding apparatus according to the present invention sets only one of color and shape based on the change amount of the position of the video object by the trajectory image form setting unit. It is good as well. For example, the trajectory image form setting means may set the trajectory image as a circular image of a predetermined color, changing only the magnitude according to the magnitude | B | of the motion vector B, or An image having a predetermined size and a predetermined shape may be set by changing only the color according to the magnitude | B | of the motion vector B. Furthermore, the video object adding device of the present invention does not necessarily include the trajectory image information storage unit 34, and calculates and sets the color and shape of the trajectory image directly from the amount of change in the position of the video object. Also good.

なお、軌跡付加映像生成装置1の映像オブジェクト軌跡付加手段30は、一般的なコンピュータにプログラム(映像オブジェクト軌跡付加プログラム)を実行させ、コンピュータ内の演算装置や記憶装置を動作させることで実現することができる。   Note that the video object trajectory adding means 30 of the trajectory-added video generation device 1 is realized by causing a general computer to execute a program (video object trajectory adding program) and operating a computing device or a storage device in the computer. Can do.

[軌跡付加映像生成装置の動作]
次に、図6及び図7を参照(適宜図1参照)して、本発明における軌跡付加映像生成装置1の動作について説明する。図6は、本発明における軌跡付加映像生成装置が、フレーム画像から被写体の位置を抽出し、このフレーム画像に現在軌跡を示す現在軌跡画像と過去軌跡を示す過去軌跡画像とを付加した画像から構成される軌跡映像を生成する動作を示したフローチャートである。図7は、映像オブジェクト抽出手段が、フレーム画像から映像オブジェクトの位置を抽出する動作(映像オブジェクト抽出動作)を示したフローチャートである。
[Operation of locus added video generation device]
Next, with reference to FIG. 6 and FIG. 7 (refer to FIG. 1 as appropriate), the operation of the trajectory-added video generation device 1 according to the present invention will be described. FIG. 6 is a diagram illustrating an image generated by adding a trajectory position of a subject from a frame image and adding a current trajectory image indicating a current trajectory and a past trajectory image indicating a past trajectory to the frame image. It is the flowchart which showed the operation | movement which produces | generates the locus | trajectory image | video performed. FIG. 7 is a flowchart showing an operation (video object extraction operation) in which the video object extraction means extracts the position of the video object from the frame image.

まず、図6を参照して、軌跡付加映像生成装置1の動作について説明する。軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、後記する映像オブジェクト抽出動作によって、外部から入力されたフレーム画像から映像オブジェクトの位置及び特徴量を抽出する(ステップS10)。そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、この映像オブジェクト抽出動作によって映像オブジェクトが抽出されたかを判断する(ステップS11)。そして、抽出されなかった場合には(ステップS11でNo)、そのままステップS25に進む。また、抽出された場合には(ステップS11でYes)、軌跡付加映像生成装置1は、映像オブジェクト軌跡付加手段30の映像オブジェクト位置情報記憶手段31に、ステップS10において抽出された映像オブジェクトの位置情報を記憶する(ステップS12)。   First, the operation of the trajectory-added video generation device 1 will be described with reference to FIG. The trajectory-added video generation device 1 uses the video object extraction means 10 to extract the position and feature amount of the video object from the frame image input from the outside by the video object extraction operation described later (step S10). Then, the trajectory-added video generation device 1 determines whether the video object is extracted by the video object extraction operation by the video object extraction means 10 (step S11). If not extracted (No in step S11), the process directly proceeds to step S25. If it is extracted (Yes in step S11), the trajectory-added video generation device 1 stores the video object position information extracted in step S10 in the video object position information storage unit 31 of the video object trajectory adding unit 30. Is stored (step S12).

続いて、軌跡付加映像生成装置1は、軌跡画像位置設定手段32の位置情報読み出し部321によって、フレーム画像への過去軌跡画像の合成の指令が外部から入力されたかを判断する(ステップS13)。そして、フレーム画像への過去軌跡画像の合成の指令が外部から入力されていない場合には(ステップS13でNo)、軌跡付加映像生成装置1は、軌跡画像形態設定手段33の位置変化量算出部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出す(ステップS14)。そして、軌跡付加映像生成装置1は、位置変化量算出部331によって、ステップS14において読み出された位置情報に基づいて映像オブジェクトの位置の変化量を算出して、この変化量と軌跡画像情報記憶手段34に記憶された軌跡画像情報341とに基づいて、現在軌跡画像の色と形とを設定する(ステップS15)。更に、軌跡付加映像生成装置1は、画像合成手段35の作画部351によって、ステップS14において読み出された位置情報によって示される位置に、ステップS15において設定された現在軌跡画像を作画して(ステップS16)、ステップS24に進む。   Subsequently, the trajectory-added video generation apparatus 1 determines whether a command for synthesizing the past trajectory image to the frame image is input from the outside by the position information reading unit 321 of the trajectory image position setting unit 32 (step S13). Then, when the command for synthesizing the past trajectory image to the frame image is not input from the outside (No in step S13), the trajectory-added video generation device 1 includes the position change amount calculation unit of the trajectory image form setting unit 33. By 331, the position information of the current locus is read from the video object position information storage means 31 (step S14). Then, the trajectory-added video generation device 1 calculates the change amount of the position of the video object based on the position information read in step S14 by the position change amount calculation unit 331, and stores the change amount and the trajectory image information. Based on the trajectory image information 341 stored in the means 34, the color and shape of the current trajectory image are set (step S15). Further, the trajectory-added video generation device 1 draws the current trajectory image set in step S15 at the position indicated by the position information read in step S14 by the drawing unit 351 of the image compositing means 35 (step S15). S16), the process proceeds to step S24.

一方、過去軌跡画像の合成の指令を入力した場合には(ステップS13でYes)、位置情報読み出し部321は、指令とともに合成する軌跡の軌跡番号を入力したかを判断する(ステップS17)。   On the other hand, when a command for combining past trajectory images is input (Yes in step S13), the position information reading unit 321 determines whether the trajectory number of the trajectory to be combined with the command is input (step S17).

そして、軌跡番号を入力していない場合には(ステップS17でNo)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から現在フレーム画像の映像オブジェクトの1つ前の軌跡を示す軌跡番号の位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出し(ステップS18)、ステップS20に進む。また、軌跡番号を入力した場合には(ステップS17でYes)、軌跡付加映像生成装置1は、位置情報読み出し部321によって、映像オブジェクト位置情報記憶手段31から、入力された軌跡番号に対応する位置情報と、現在軌跡の最初の映像オブジェクトの位置情報とを読み出す(ステップS19)。そして、軌跡付加映像生成装置1は、付加位置設定部322によって、ステップS18又はステップS19において読み出された位置情報に基づいて、現在フレーム画像内に過去軌跡画像を合成する位置を設定する(ステップS20)。   If no trajectory number has been input (No in step S17), the trajectory-added video generation device 1 uses the position information reading unit 321 to store 1 of the video object of the current frame image from the video object position information storage unit 31. The position information of the track number indicating the previous track and the position information of the first video object of the current track are read (step S18), and the process proceeds to step S20. When the trajectory number is input (Yes in step S17), the trajectory-added video generation device 1 uses the position information reading unit 321 to detect the position corresponding to the input trajectory number from the video object position information storage unit 31. Information and position information of the first video object in the current locus are read (step S19). The trajectory-added video generation device 1 sets a position where the past trajectory image is synthesized in the current frame image based on the position information read out in step S18 or step S19 by the additional position setting unit 322 (step S18). S20).

更に、軌跡付加映像生成装置1は、軌跡画像形態設定手段33の位置変化量算出部331によって、映像オブジェクト位置情報記憶手段31から現在軌跡の位置情報を読み出す(ステップS21)。そして、軌跡付加映像生成装置1は、位置変化量算出部331によって、ステップS21において読み出された位置情報によって示される位置に基づいて映像オブジェクトの位置の変化量を算出して、この変化量と軌跡画像情報記憶手段34に記憶された軌跡画像情報341とに基づいて、現在軌跡画像の色と形とを設定するとともに、ステップS18又はステップS19において読み出された位置に基づいて映像オブジェクトの位置の変化量を算出して、この変化量と軌跡画像情報記憶手段34に記憶された軌跡画像情報341とに基づいて、過去軌跡画像の色と形とを設定する(ステップS22)。   Further, the trajectory-added video generation device 1 reads the position information of the current trajectory from the video object position information storage unit 31 by the position change amount calculation unit 331 of the trajectory image form setting unit 33 (step S21). Then, the trajectory-added video generation device 1 uses the position change amount calculation unit 331 to calculate the change amount of the position of the video object based on the position indicated by the position information read in step S21. The color and shape of the current trajectory image are set based on the trajectory image information 341 stored in the trajectory image information storage unit 34, and the position of the video object is determined based on the position read in step S18 or step S19. Is calculated, and the color and shape of the past trajectory image are set based on the amount of change and the trajectory image information 341 stored in the trajectory image information storage unit 34 (step S22).

続いて、軌跡付加映像生成装置1は、作画部351によって、ステップS21において読み出された位置情報によって示される位置に、ステップS22において設定された現在軌跡画像を作画し、ステップS20において設定された位置に、ステップS22において設定された過去軌跡画像を作画する(ステップS23)。更に、軌跡付加映像生成装置1は、合成部352によって、ステップS16又はステップS23において作画された画像を、現在フレーム画像に合成する(ステップS24)。   Subsequently, the trajectory-added video generation device 1 draws the current trajectory image set in step S22 at the position indicated by the position information read in step S21 by the drawing unit 351, and is set in step S20. The past trajectory image set in step S22 is drawn at the position (step S23). Furthermore, the trajectory-added video generation device 1 combines the image drawn in step S16 or step S23 with the current frame image by the combining unit 352 (step S24).

そして、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10によって、新たなフレーム画像が外部から入力されたかを判断する(ステップS25)。そして、新たな画像が入力された場合には(ステップS25でYes)、ステップS10に戻って、入力されたフレーム画像から映像オブジェクトを抽出する映像オブジェクト抽出動作以降の動作を行う。また、新たなフレーム画像が入力されなかった場合には(ステップS25でNo)、そのまま動作を終了する。   Then, the trajectory-added video generation device 1 determines whether a new frame image has been input from the outside by the video object extraction means 10 (step S25). When a new image is input (Yes in step S25), the process returns to step S10, and operations after the video object extraction operation for extracting a video object from the input frame image are performed. If no new frame image is input (No in step S25), the operation ends.

[映像オブジェクト抽出動作]
次に図7を参照(適宜図1参照)して、軌跡付加映像生成装置1が映像オブジェクト抽出手段10(映像オブジェクト検出装置)によって、外部から入力されたフレーム画像から映像オブジェクトを抽出する、映像オブジェクト抽出動作(図6のステップS10)について説明する。
[Video object extraction operation]
Next, referring to FIG. 7 (refer to FIG. 1 as appropriate), the trajectory-added video generation device 1 extracts a video object from a frame image input from the outside by the video object extraction means 10 (video object detection device). The object extraction operation (step S10 in FIG. 6) will be described.

まず、軌跡付加映像生成装置1は、映像オブジェクト抽出手段10の探索領域設定手段15によって、位置予測手段14で、外部から入力されたフレーム画像の2つ前のフレーム画像(抽出対象となるフレーム画像の1つ前のフレーム画像)内の映像オブジェクトの位置から算出された予測位置に基づいて、映像オブジェクトの探索領域を設定する(ステップS40)。なお、抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトについて、位置予測手段14によって予測位置が算出されていない場合には、軌跡付加映像生成装置1は、フレーム画像の全領域、あるいは、指定された領域を設定する。そして、軌跡付加映像生成装置1は、オブジェクト候補画像生成手段11によって、差分画像1及び差分画像2を生成し、外部から入力されたフレーム画像の1つ前のフレーム画像(抽出対象となるフレーム画像)から、ステップS40において設定された探索領域についてオブジェクト候補画像を生成する(ステップS41)。   First, the trajectory-added video generation device 1 uses the search region setting unit 15 of the video object extraction unit 10 to generate a frame image (frame image to be extracted) immediately before the frame image input from the outside by the position prediction unit 14. Based on the predicted position calculated from the position of the video object in the previous frame image), a search area for the video object is set (step S40). When the predicted position is not calculated by the position predicting unit 14 for the video object of the frame image immediately before the frame image to be extracted, the trajectory-added video generation device 1 displays the entire area of the frame image, Alternatively, the specified area is set. Then, the trajectory-added video generation device 1 generates the difference image 1 and the difference image 2 by the object candidate image generation unit 11 and the frame image immediately before the frame image input from the outside (the frame image to be extracted). ) To generate an object candidate image for the search region set in step S40 (step S41).

更に、軌跡付加映像生成装置1は、オブジェクト選定手段12のラベリング部121によって、映像オブジェクトの候補となる領域に対してラベルを付す(ステップS42)。そして、軌跡付加映像生成装置1は、特徴量解析部122によって、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補の位置と特徴量とを解析する(ステップS43)。続いて、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS43において解析された特徴量に基づいて、ステップS42においてラベリングされたラベルに対応する映像オブジェクトの候補から抽出対象となる映像オブジェクトを絞り込むフィルタ処理を行う(ステップS44)。ここで、フィルタ処理部123は、各々の映像オブジェクトの候補の特徴量が、抽出条件記憶手段13に記憶されている抽出条件情報131によって示される抽出条件に適合するかを判断することで、フィルタ処理を行う。   Further, the locus-added video generation device 1 attaches a label to a region that is a candidate video object by the labeling unit 121 of the object selection unit 12 (step S42). Then, the trajectory-added video generation apparatus 1 analyzes the position and the feature amount of the candidate video object corresponding to the label labeled in step S42 by the feature amount analysis unit 122 (step S43). Subsequently, the trajectory-added video generation device 1 uses the filter processing unit 123 to extract a video object to be extracted from the video object candidates corresponding to the label labeled in step S42 based on the feature amount analyzed in step S43. Filter processing for narrowing down is performed (step S44). Here, the filter processing unit 123 determines whether the feature amount of each video object candidate matches the extraction condition indicated by the extraction condition information 131 stored in the extraction condition storage unit 13. Process.

更に、軌跡付加映像生成装置1は、フィルタ処理部123によって、ステップS44において行ったフィルタ処理において、抽出条件に適合する映像オブジェクトがないかを判断する(ステップS45)。そして、抽出条件に適合する映像オブジェクトがない場合には(ステップS45でYes)、軌跡付加映像生成装置1は、フィルタ処理部123によって、このフレーム画像内には抽出対象となる映像オブジェクトがないと判断して、そのまま動作を終了する。また、抽出条件に適合する映像オブジェクトがある場合には(ステップS45でNo)、軌跡付加映像生成装置1は、オブジェクト選択部124によって、ステップS44においてフィルタ処理された、抽出条件に適合する映像オブジェクトの中から、抽出対象となる映像オブジェクトを選択する(ステップS46)。ここで、オブジェクト選択部124は、抽出条件に適合する映像オブジェクトのうち、位置予測手段14によって抽出対象となるフレーム画像の1つ前のフレーム画像の映像オブジェクトの位置から算出された予測位置に最も近い映像オブジェクトを、抽出対象となる映像オブジェクトとして選択する。   Furthermore, the trajectory-added video generation apparatus 1 determines whether there is a video object that satisfies the extraction condition in the filter processing performed in step S44 by the filter processing unit 123 (step S45). If there is no video object that satisfies the extraction condition (Yes in step S45), the trajectory-added video generation device 1 uses the filter processing unit 123 to indicate that there is no video object to be extracted in this frame image. Judgment is made and the operation is finished as it is. If there is a video object that matches the extraction condition (No in step S45), the trajectory-added video generation device 1 uses the object selection unit 124 to perform the filtering process in step S44 and that matches the extraction condition. A video object to be extracted is selected from the list (step S46). Here, the object selection unit 124 selects the highest predicted position calculated from the position of the video object of the frame image immediately before the frame image to be extracted by the position prediction unit 14 among the video objects that meet the extraction condition. A near video object is selected as a video object to be extracted.

そして、軌跡付加映像生成装置1は、ID番号付加手段16によって、ステップS46において選択された映像オブジェクトの位置を示す位置情報にID番号を付加する(ステップS47)。また、軌跡付加映像生成装置1は、位置予測手段14によって、ステップ45において選択された映像オブジェクトの位置に基づいて次のフレーム画像における映像オブジェクトの予測位置を算出し(ステップS48)、動作を終了する。なお、ここで算出された予測位置は、探索領域設定手段15によって、次の抽出対象となるフレーム画像において探索領域を設定する際(ステップS40)と、オブジェクト選定手段12のオブジェクト選択部124によって、次の抽出対象となるフレーム画像において映像オブジェクトを選択する際(ステップS46)に用いられる。   The trajectory-added video generation apparatus 1 adds an ID number to the position information indicating the position of the video object selected in step S46 by the ID number adding unit 16 (step S47). Further, the trajectory-added video generation apparatus 1 calculates the predicted position of the video object in the next frame image based on the position of the video object selected in step 45 by the position prediction unit 14 (step S48), and ends the operation. To do. The predicted position calculated here is determined by the search area setting means 15 when the search area is set in the next frame image to be extracted (step S40) and by the object selection section 124 of the object selection means 12. This is used when a video object is selected in the next frame image to be extracted (step S46).

本発明における映像オブジェクト軌跡付加手段を備える軌跡付加映像生成装置の構成を示したブロック図である。It is the block diagram which showed the structure of the locus | trajectory addition image | video production | generation apparatus provided with the image | video object locus | trajectory addition means in this invention. 本発明における軌跡付加映像生成装置の映像オブジェクト位置情報記憶手段に記憶された位置情報の例を説明するための説明図、(a)は、1つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例、(b)は、2つの軌跡の映像オブジェクトの位置情報が入力された場合の、映像オブジェクト位置情報記憶手段に記憶された位置情報の例である。Explanatory drawing for demonstrating the example of the positional information memorize | stored in the video object positional information storage means of the locus | trajectory addition image generation apparatus in this invention, (a) is the case where the positional information on the image object of one locus | trajectory is input FIG. 5B shows an example of position information stored in the video object position information storage means. FIG. 5B shows position information stored in the video object position information storage means when the position information of the video object of two trajectories is input. It is an example. 本発明における軌跡付加映像生成装置の付加位置設定部によって、過去軌跡位置を設定する方法の例を説明するための説明図、(a)は、位置情報読み出し部によって読み出された過去軌跡の映像オブジェクトの位置情報と、現在軌跡の最初の映像オブジェクトの位置情報によって示される位置を模式的に示した模式図、(b)は、付加位置設定部によって設定された過去軌跡位置を模式的に示した模式図である。Explanatory drawing for demonstrating the example of the method of setting a past locus position by the additional position setting part of the locus | trajectory addition image generation apparatus in this invention, (a) is the image | video of the past locus read by the position information reading part. Schematic diagram schematically showing the position indicated by the position information of the object and the position information of the first video object of the current trajectory, (b) schematically shows the past trajectory position set by the additional position setting unit. It is a schematic diagram. 本発明における軌跡付加映像生成装置の形態設定部によって設定された現在軌跡画像が合成された現在フレーム画像の例を模式的に示す模式図である。It is a schematic diagram which shows typically the example of the present frame image with which the present locus image set by the form setting part of the locus | trajectory addition image generation apparatus in this invention was synthesize | combined. 本発明における軌跡付加映像生成装置の形態設定部によって設定された現在軌跡画像と過去軌跡画像とが合成された現在フレーム画像の例を模式的に示す模式図である。It is a schematic diagram which shows typically the example of the present frame image by which the present locus image set by the form setting part of the locus | trajectory addition image generation apparatus in this invention and the past locus image were synthesize | combined. 本発明における軌跡付加映像生成装置が、フレーム画像から被写体の位置を抽出し、このフレーム画像に現在軌跡を示す現在軌跡画像と過去軌跡を示す過去軌跡画像とを付加した軌跡映像を生成する動作を示したフローチャートである。The trajectory-added video generation apparatus according to the present invention extracts the position of the subject from the frame image, and generates a trajectory video in which the current trajectory image indicating the current trajectory and the past trajectory image indicating the past trajectory are added to the frame image. It is the shown flowchart. 本発明における軌跡付加映像生成装置の映像オブジェクト抽出手段が、フレーム画像から映像オブジェクトの位置を抽出する動作(映像オブジェクト抽出動作)を示したフローチャートである。It is the flowchart which showed the operation | movement (video object extraction operation | movement) in which the video object extraction means of the locus | trajectory addition video generation apparatus in this invention extracts the position of a video object from a frame image.

符号の説明Explanation of symbols

1 軌跡付加映像生成装置
10 映像オブジェクト抽出手段(映像オブジェクト検出装置)
20 映像遅延手段
30 映像オブジェクト軌跡付加手段(映像オブジェクト軌跡付加装置)
31 映像オブジェクト位置情報記憶手段(映像オブジェクト位置情報記憶装置)
32 軌跡画像位置設定手段
33 軌跡画像形態設定手段
35 画像合成手段
DESCRIPTION OF SYMBOLS 1 Trajectory addition video generation apparatus 10 Video object extraction means (video object detection apparatus)
20 video delay means 30 video object trajectory adding means (video object trajectory adding apparatus)
31 Video object position information storage means (video object position information storage device)
32 Trajectory image position setting means 33 Trajectory image form setting means 35 Image composition means

Claims (4)

所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、
時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する映像オブジェクト検出装置と、
前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する映像遅延手段と、
前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す軌跡画像を、当該フレーム画像に付加する映像オブジェクト軌跡付加手段と、を備え、
前記映像オブジェクト検出装置は、
前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成するオブジェクト候補画像生成手段と、
前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出するオブジェクト選定手段と、を備え、
前記映像オブジェクト軌跡付加手段は、
前記映像オブジェクト検出装置から入力される前記映像オブジェクトの位置情報を記憶する映像オブジェクト位置情報記憶手段と、
前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する軌跡画像情報記憶手段と、
前記映像オブジェクト位置情報記憶手段から前記映像オブジェクトの位置情報を読み出し、当該位置情報によって示される位置に基づいて、前記複数のフレーム画像の映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記軌跡画像の色、大きさ、方向を設定する軌跡画像形態設定手段と、
この軌跡画像形態設定手段によって設定された軌跡画像を、前記複数のフレーム画像のうちのひとつのフレーム画像の、前記位置情報によって示される位置に合成する画像合成手段とを備えることを特徴とする軌跡付加映像生成装置。
A video object is extracted and tracked from a frame image that constitutes an image captured and input by a camera installed at a predetermined position, and a trajectory image indicating the trajectory of the video object is generated, and then input the same A trajectory-added video generation device that adds the generated trajectory image to a frame image photographed by a camera installed at a position,
A video object detection device for detecting the position of a video object for each frame image input in time series ;
Video delay means for generating a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames;
Position information indicating the position of the video object is input from the video object detection device , and a trajectory image indicating a trajectory of the video object included in succession in the plurality of frame images input in time series is obtained from the frame. Video object trajectory adding means for adding to the image ,
The video object detection device includes:
Object candidate image generation means for generating an object candidate image obtained by extracting a partial area of the frame image input in time series as a candidate for the video object;
An object that selects a video object to be extracted from the generated object candidate images based on a predetermined extraction condition, and extracts a position of the selected video object and a feature amount that characterizes the video object A selection means,
The video object trajectory adding means is
Video object position information storage means for storing position information of the video object input from the video object detection device;
Image data of a high-speed image of a predetermined color and shape indicating the color and shape of a trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold value And a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and the object when the length of the motion vector is equal to or less than the threshold. Trajectory image information storage means for storing trajectory image information including conditions for defining the image of the feature amount extracted by the selection means as the trajectory image;
The position information of the image object is read from the image object position information storage means, and the image object on the frame image is obtained as a change amount of the position of the image object of the plurality of frame images based on the position indicated by the position information. And the motion vector of the video object and the length of the motion vector are calculated from the position of the video object and the position of the video object on the previous frame image of the video object, and the amount of change and the trajectory image information storage are calculated. Based on the trajectory image information stored in the means, it is determined whether the length of the motion vector exceeds a predetermined threshold, and the trajectory image form setting for setting the color , shape , size, and direction of the trajectory image Means,
A trajectory characterized by comprising: a trajectory image set by the trajectory image form setting means; and an image compositing means for synthesizing the trajectory image at a position indicated by the position information of one of the plurality of frame images. Additional video generation device.
所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、
時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する映像オブジェクト検出装置と、
前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する映像遅延手段と、
前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡である過去軌跡を示す軌跡画像である過去軌跡画像と、当該フレーム画像が撮影された位置から撮影された他の複数のフレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す他フレーム軌跡画像とを、当該他の複数のフレーム画像のうちのひとつのフレーム画像に付加する映像オブジェクト軌跡付加手段と、を備え、
前記映像オブジェクト検出装置は、
前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成するオブジェクト候補画像生成手段と、
前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出するオブジェクト選定手段と、を備え、
前記映像オブジェクト軌跡付加手段は、
前記映像オブジェクト検出装置から入力される前記映像オブジェクトの位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶手段と、
前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する軌跡画像情報記憶手段と、
前記映像オブジェクト位置情報記憶手段から、前記過去軌跡を示す軌跡情報に対応する位置情報である過去軌跡位置情報を読み出して、この過去軌跡位置情報によって示される位置を過去軌跡位置とする軌跡画像位置設定手段と、
前記過去軌跡位置に基づいて、当該映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記軌跡画像の色、大きさ、方向を設定するとともに、前記映像オブジェクト位置情報記憶手段から前記他の複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報を読み出し、この位置情報によって示される位置である他フレーム軌跡位置に基づいて、当該映像オブジェクトの位置の変化量を同様に解析して、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて前記他フレーム軌跡画像の色、大きさ、方向を設定する軌跡画像形態設定手段と、
前記他の複数のフレーム画像のうちのひとつのフレーム画像の前記過去軌跡位置に、前記軌跡画像形態設定手段によって設定された過去軌跡画像を合成するとともに、当該フレーム画像の前記他フレーム軌跡位置に、前記軌跡画像形態設定手段によって設定された他フレーム軌跡画像を合成する画像合成手段とを備えることを特徴とする軌跡付加映像生成装置。
A video object is extracted and tracked from a frame image that constitutes an image captured and input by a camera installed at a predetermined position, and a trajectory image indicating the trajectory of the video object is generated, and then input the same A trajectory-added video generation device that adds the generated trajectory image to a frame image photographed by a camera installed at a position,
A video object detection device for detecting the position of a video object for each frame image input in time series ;
Video delay means for generating a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames;
A trajectory image indicating a past trajectory that is a trajectory of the video object that is continuously included in the plurality of frame images input in time series, by inputting position information indicating the position of the video object from the video object detection device. A past trajectory image, and another frame trajectory image indicating the trajectory of the video object continuously included in the other plurality of frame images captured from the position where the frame image was captured. Video object locus adding means for adding to one of the frame images ,
The video object detection device includes:
Object candidate image generation means for generating an object candidate image obtained by extracting a partial area of the frame image input in time series as a candidate for the video object;
An object that selects a video object to be extracted from the generated object candidate images based on a predetermined extraction condition, and extracts a position of the selected video object and a feature amount that characterizes the video object A selection means,
The video object trajectory adding means is
Video object position information storage means for storing position information of the video object input from the video object detection device in association with trajectory information for specifying the trajectory of the video object;
Image data of a high-speed image of a predetermined color and shape indicating the color and shape of a trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold value And a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and the object when the length of the motion vector is equal to or less than the threshold. Trajectory image information storage means for storing trajectory image information including conditions for defining the image of the feature amount extracted by the selection means as the trajectory image;
The past trajectory position information, which is position information corresponding to the trajectory information indicating the past trajectory, is read from the video object position information storage means, and the trajectory image position setting with the position indicated by the past trajectory position information as the past trajectory position is set. Means,
Based on the past trajectory position, as the amount of change in the position of the video object, from the position of the video object on the frame image and the position of the video object on the frame image immediately before the video object, the video The motion vector of the object and the length of the motion vector are calculated, and the length of the motion vector exceeds a predetermined threshold based on the amount of change and the trajectory image information stored in the trajectory image information storage unit. And setting the color , shape , size, and direction of the trajectory image, and the position information of the video object continuously included in the plurality of other frame images from the video object position information storage means. Based on the position of the other frame trajectory that is the position indicated by this position information, And similarly analyzed the amount of change in position of the defect, the other frame color locus image, shape, size, direction set based on the the variation between the trajectory image information storage means the stored path image information Trajectory image form setting means to perform,
The past trajectory image set by the trajectory image form setting means is combined with the past trajectory position of one of the other frame images, and the other frame trajectory position of the frame image is combined. A trajectory-added video generation apparatus comprising: an image compositing unit that synthesizes a trajectory image of another frame set by the trajectory image form setting unit .
所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加する軌跡付加映像生成装置であって、
時系列に入力されるフレーム画像ごとの映像オブジェクトの位置を検出する映像オブジェクト検出装置と、
前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する映像遅延手段と、
前記映像オブジェクト検出装置から、前記映像オブジェクトの位置を示す位置情報を入力し、時系列に入力される複数の前記フレーム画像に連続して含まれる前記映像オブジェクトの軌跡である過去軌跡を示す軌跡画像である過去軌跡画像と、当該フレーム画像が撮影された位置から撮影された他の複数のフレーム画像に連続して含まれる前記映像オブジェクトの軌跡を示す他フレーム軌跡画像とを、当該他の複数のフレーム画像のうちのひとつのフレーム画像に付加する映像オブジェクト軌跡付加手段と、を備え、
前記映像オブジェクト検出装置は、
前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成するオブジェクト候補画像生成手段と、
前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出するオブジェクト選定手段と、を備え、
前記映像オブジェクト軌跡付加手段は、
前記映像オブジェクト検出装置から入力される前記映像オブジェクトの位置情報を、当該映像オブジェクトの軌跡を特定する軌跡情報と対応させて記憶する映像オブジェクト位置情報記憶手段と、
前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する軌跡画像情報記憶手段と、
前記映像オブジェクト位置情報記憶手段から、前記過去軌跡を示す軌跡情報に対応する位置情報である過去軌跡位置情報と、前記他の複数のフレーム画像の少なくともひとつの映像オブジェクトの位置情報とを読み出して、これらの位置情報に基づいて前記過去軌跡位置情報によって示される位置をシフトさせるシフト量を設定するとともに、前記シフト量だけ当該過去軌跡位置情報によって示される位置をシフトさせた過去軌跡位置を設定する軌跡画像位置設定手段と、
前記過去軌跡位置に基づいて、当該映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記過去軌跡画像の色、大きさ、方向を設定するとともに、前記映像オブジェクト位置情報記憶手段から前記他の複数のフレーム画像に連続して含まれる映像オブジェクトの位置情報を読み出し、この位置情報によって示される位置である他フレーム軌跡位置に基づいて、当該映像オブジェクトの位置の変化量を同様に解析して、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて前記他フレーム軌跡画像の色、大きさ、方向を設定する軌跡画像形態設定手段と、
前記他の複数のフレーム画像のうちのひとつのフレーム画像の前記過去軌跡位置に、前記軌跡画像形態設定手段によって設定された過去軌跡画像を合成するとともに、当該フレーム画像の前記他フレーム軌跡位置に、前記軌跡画像形態設定手段によって設定された他フレーム軌跡画像を合成する画像合成手段とを備えることを特徴とする軌跡付加映像生成装置。
A video object is extracted and tracked from a frame image that constitutes an image captured and input by a camera installed at a predetermined position, and a trajectory image indicating the trajectory of the video object is generated, and then input the same A trajectory-added video generation device that adds the generated trajectory image to a frame image photographed by a camera installed at a position,
A video object detection device for detecting the position of a video object for each frame image input in time series ;
Video delay means for generating a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames;
A trajectory image indicating a past trajectory that is a trajectory of the video object that is continuously included in the plurality of frame images input in time series, by inputting position information indicating the position of the video object from the video object detection device. A past trajectory image, and another frame trajectory image indicating the trajectory of the video object continuously included in the other plurality of frame images captured from the position where the frame image was captured. Video object locus adding means for adding to one of the frame images ,
The video object detection device includes:
Object candidate image generation means for generating an object candidate image obtained by extracting a partial area of the frame image input in time series as a candidate for the video object;
An object that selects a video object to be extracted from the generated object candidate images based on a predetermined extraction condition, and extracts a position of the selected video object and a feature amount that characterizes the video object A selection means,
The video object trajectory adding means is
Video object position information storage means for storing position information of the video object input from the video object detection device in association with trajectory information for specifying the trajectory of the video object;
Image data of a high-speed image of a predetermined color and shape indicating the color and shape of a trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold value And a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and the object when the length of the motion vector is equal to or less than the threshold. Trajectory image information storage means for storing trajectory image information including conditions for defining the image of the feature amount extracted by the selection means as the trajectory image;
From the video object position information storage means, read the past trajectory position information that is position information corresponding to the trajectory information indicating the past trajectory, and the position information of at least one video object of the other plurality of frame images, A trajectory that sets a shift amount for shifting the position indicated by the past trajectory position information based on the position information and sets a past trajectory position by shifting the position indicated by the past trajectory position information by the shift amount. Image position setting means;
Based on the past trajectory position, as the amount of change in the position of the video object, from the position of the video object on the frame image and the position of the video object on the frame image immediately before the video object, the video The motion vector of the object and the length of the motion vector are calculated, and the length of the motion vector exceeds a predetermined threshold based on the amount of change and the trajectory image information stored in the trajectory image information storage unit. And setting the color , shape , size, and direction of the past trajectory image, and the position information of the video object continuously included in the other frame images from the video object position information storage means Is read out, and based on the other frame trajectory position, which is the position indicated by this position information, The amount of change in the position of the object by analyzing the same manner, the other frame color locus image, shape, size, direction set based on the the variation between the trajectory image information storage means the stored path image information Trajectory image form setting means to perform,
The past trajectory image set by the trajectory image form setting means is combined with the past trajectory position of one of the other frame images, and the other frame trajectory position of the frame image is combined. A trajectory-added video generation apparatus comprising: an image compositing unit that synthesizes a trajectory image of another frame set by the trajectory image form setting unit .
所定位置に設置されたカメラによって撮影されて入力される映像を構成するフレーム画像から映像オブジェクトを抽出して追跡し、この映像オブジェクトの軌跡を示す軌跡画像を生成し、その後に入力された、同じ位置に設置されたカメラによって撮影されたフレーム画像に前記生成した軌跡画像を付加するために、
前記映像オブジェクト検出装置から入力される前記映像オブジェクトの位置情報を記憶する映像オブジェクト位置情報記憶手段と、
前記映像オブジェクトの動きベクトルの長さが閾値を超えたときに当該映像オブジェクトが高速であることを示すために用いられる軌跡画像の色および形状を示す所定の色及び形状の高速用画像の画像データと、前記動きベクトルの長さが閾値を超えた場合に軌跡画像として用いる前記高速用画像の大きさおよび方向を規定する条件、および、前記動きベクトルの長さが閾値以下である場合に前記オブジェクト選定手段で抽出された特徴量の画像を前記軌跡画像とすることを規定する条件を含む軌跡画像情報とを記憶する軌跡画像情報記憶手段と、を備えたコンピュータを、
前記時系列に入力されるフレーム画像の一部の領域を前記映像オブジェクトの候補として抽出したオブジェクト候補画像を生成するオブジェクト候補画像生成手段、
前記生成されたオブジェクト候補画像の中から、予め定められた抽出条件に基づいて、抽出対象となる映像オブジェクトを選定し、前記選定した映像オブジェクトの位置及び当該映像オブジェクトを特徴付ける特徴量を抽出するオブジェクト選定手段、
前記入力されたフレーム画像を所定数のフレーム分遅延させたフレーム画像である現在フレーム画像を生成する映像遅延手段、
前記映像オブジェクト位置情報記憶手段から前記映像オブジェクトの位置情報を読み出し、当該位置情報によって示される位置に基づいて、前記複数のフレーム画像の映像オブジェクトの位置の変化量として、フレーム画像上における当該映像オブジェクトの位置と、その映像オブジェクトの1つ前のフレーム画像上における映像オブジェクトの位置とから、前記映像オブジェクトの動きベクトルと、この動きベクトルの長さとを算出し、当該変化量と前記軌跡画像情報記憶手段に記憶された軌跡画像情報とに基づいて、前記動きベクトルの長さが所定の閾値を超えているかを判断し、前記軌跡画像の色、大きさ、方向を設定する軌跡画像形態設定手段、
この軌跡画像形態設定手段によって設定された軌跡画像を、前記複数のフレーム画像のうちのひとつのフレーム画像の、前記位置情報によって示される位置に合成する画像合成手段として機能させることを特徴とする軌跡付加映像生成プログラム。
A video object is extracted and tracked from a frame image that constitutes an image captured and input by a camera installed at a predetermined position, and a trajectory image indicating the trajectory of the video object is generated, and then input the same In order to add the generated trajectory image to the frame image taken by the camera installed at the position ,
Video object position information storage means for storing position information of the video object input from the video object detection device;
Image data of a high-speed image of a predetermined color and shape indicating the color and shape of a trajectory image used to indicate that the video object is high-speed when the length of the motion vector of the video object exceeds a threshold value And a condition that defines the size and direction of the high-speed image used as a trajectory image when the length of the motion vector exceeds a threshold, and the object when the length of the motion vector is equal to or less than the threshold. A trajectory image information storage unit that stores trajectory image information including a condition for defining that the image of the feature amount extracted by the selection unit is the trajectory image ;
Object candidate image generation means for generating an object candidate image obtained by extracting a partial region of the frame image input in time series as a candidate for the video object;
An object that selects a video object to be extracted from the generated object candidate images based on a predetermined extraction condition, and extracts a position of the selected video object and a feature amount that characterizes the video object Selection means,
Video delay means for generating a current frame image that is a frame image obtained by delaying the input frame image by a predetermined number of frames;
The position information of the image object is read from the image object position information storage means, and the image object on the frame image is obtained as a change amount of the position of the image object of the plurality of frame images based on the position indicated by the position information. And the motion vector of the video object and the length of the motion vector are calculated from the position of the video object and the position of the video object on the previous frame image of the video object, and the amount of change and the trajectory image information storage are calculated. Based on the trajectory image information stored in the means, it is determined whether the length of the motion vector exceeds a predetermined threshold, and the trajectory image form setting for setting the color , shape , size, and direction of the trajectory image means,
A trajectory characterized by causing the trajectory image set by the trajectory image form setting means to function as an image synthesizing means for synthesizing the trajectory image at a position indicated by the position information of one of the plurality of frame images. Additional video generation program.
JP2005003721A 2005-01-11 2005-01-11 Trajectory-added video generation apparatus and trajectory-added video generation program Expired - Fee Related JP4555690B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005003721A JP4555690B2 (en) 2005-01-11 2005-01-11 Trajectory-added video generation apparatus and trajectory-added video generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005003721A JP4555690B2 (en) 2005-01-11 2005-01-11 Trajectory-added video generation apparatus and trajectory-added video generation program

Publications (2)

Publication Number Publication Date
JP2006195525A JP2006195525A (en) 2006-07-27
JP4555690B2 true JP4555690B2 (en) 2010-10-06

Family

ID=36801588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005003721A Expired - Fee Related JP4555690B2 (en) 2005-01-11 2005-01-11 Trajectory-added video generation apparatus and trajectory-added video generation program

Country Status (1)

Country Link
JP (1) JP4555690B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7860162B2 (en) * 2005-09-29 2010-12-28 Panasonic Corporation Object tracking method and object tracking apparatus
JP4752685B2 (en) * 2006-08-31 2011-08-17 カシオ計算機株式会社 Imaging apparatus and program
JP4877186B2 (en) * 2007-10-16 2012-02-15 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP5047103B2 (en) * 2008-09-01 2012-10-10 エヌ・ティ・ティ・コムウェア株式会社 Three-dimensional moving image reproducing apparatus, three-dimensional moving image reproducing method and program thereof
JP5750864B2 (en) * 2010-10-27 2015-07-22 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5712734B2 (en) * 2011-03-31 2015-05-07 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
JP6028972B2 (en) * 2012-10-03 2016-11-24 国立研究開発法人産業技術総合研究所 Image processing apparatus, image processing method, and image processing program
JP6609112B2 (en) * 2015-05-19 2019-11-20 日本放送協会 Multi-view video expression device and program thereof
JP6700937B2 (en) * 2015-10-02 2020-05-27 キヤノン株式会社 Image processing apparatus, control method thereof, and program
JP2022047548A (en) * 2019-01-16 2022-03-25 ソニーグループ株式会社 Image processing device, image processing method, and program
JP7470997B2 (en) 2020-12-31 2024-04-19 ブロテイン インコーポレイテッド Putting Guide System

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196680A (en) * 1985-02-26 1986-08-30 Nippon Hoso Kyokai <Nhk> Movement display system of games of the like in television video display
JPH06105231A (en) * 1992-09-24 1994-04-15 Namco Ltd Picture synthesis device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61196680A (en) * 1985-02-26 1986-08-30 Nippon Hoso Kyokai <Nhk> Movement display system of games of the like in television video display
JPH06105231A (en) * 1992-09-24 1994-04-15 Namco Ltd Picture synthesis device

Also Published As

Publication number Publication date
JP2006195525A (en) 2006-07-27

Similar Documents

Publication Publication Date Title
JP4555690B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
KR101092287B1 (en) Image processing apparatus and image processing method
US10600157B2 (en) Motion blur simulation
CN105830009B (en) Method for video processing and equipment
JP5035053B2 (en) Non-linear video playback control method and non-linear video playback control program
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
JP4733651B2 (en) Position detection apparatus, position detection method, and position detection program
US11758082B2 (en) System for automatic video reframing
US20180018510A1 (en) Information processing apparatus, method and computer program product
JP2006003871A (en) Image frame processing method and device, rendering processor and moving image display method
JP2005182829A (en) Temporal motion vector filtering
KR20090006068A (en) Method and apparatus for modifying a moving image sequence
US9773523B2 (en) Apparatus, method and computer program
US20160381290A1 (en) Apparatus, method and computer program
KR100580172B1 (en) De-interlacing method, apparatus, video decoder and reproducing apparatus thereof
JP2009110536A (en) Image frame processing method and device, rendering processor and moving image display method
WO2017081839A1 (en) Moving body tracking method, moving body tracking device, and program
JP4496992B2 (en) Animal up-frame detection method, program, and storage medium storing program, and animal up-shot detection method, animal up-frame or shot detection method, program, and storage medium
JPWO2015156149A1 (en) Image processing apparatus and image processing method
JP2019101892A (en) Object tracking device and program thereof
US10789987B2 (en) Accessing a video segment
JP4546810B2 (en) Trajectory-added video generation apparatus and trajectory-added video generation program
JP2006215655A (en) Method, apparatus, program and program storage medium for detecting motion vector
JP4441354B2 (en) Video object extraction device, video object trajectory synthesis device, method and program thereof
JP2007060192A (en) Interpolating frame generator, its method, image display system and program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070409

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100511

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100716

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130723

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4555690

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140723

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees