JP2007226761A - Locus image composition device for image object, locus image display device for image object, and program therefor - Google Patents

Locus image composition device for image object, locus image display device for image object, and program therefor Download PDF

Info

Publication number
JP2007226761A
JP2007226761A JP2006192540A JP2006192540A JP2007226761A JP 2007226761 A JP2007226761 A JP 2007226761A JP 2006192540 A JP2006192540 A JP 2006192540A JP 2006192540 A JP2006192540 A JP 2006192540A JP 2007226761 A JP2007226761 A JP 2007226761A
Authority
JP
Japan
Prior art keywords
image
trajectory
video
camera
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006192540A
Other languages
Japanese (ja)
Other versions
JP4758842B2 (en
Inventor
Masaki Takahashi
正樹 高橋
Toshihiko Misu
俊彦 三須
Masato Fujii
真人 藤井
Nobuyuki Yagi
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2006192540A priority Critical patent/JP4758842B2/en
Publication of JP2007226761A publication Critical patent/JP2007226761A/en
Application granted granted Critical
Publication of JP4758842B2 publication Critical patent/JP4758842B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To generate a composite image, in which a movement locus of an image object is superimposed on a camera image, by using one camera. <P>SOLUTION: This locus image composition device is provided with an object extraction means 4 acquiring an image coordinate of the image object corresponding to an object from an image frame photographing the moving object, an object position calculation means 5 converting the image coordinate into a sight line vector based on a camera parameter in photographing the image frame, an object position storage means 6 storing a group of sight line vectors acquired from a series of image frames photographing the movement locus, a locus image generation means 7 generating a locus image in the image coordinate corresponding to the camera parameter during photographing based on the group of sight line vectors, and a locus image composition means 10 combining the locus image and the camera image together. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、移動する被写体をカメラで撮影して軌跡画像を作成し、軌跡画像とカメラで撮影した映像を合成する映像オブジェクトの軌跡画像合成装置、その合成画像を表示する映像オブジェクトの軌跡画像表示装置およびそのプログラムに関する。   The present invention relates to a trajectory image composition device for a video object that shoots a moving subject with a camera to create a trajectory image and combines the trajectory image with the video captured by the camera, and a trajectory image display of the video object that displays the composite image. The present invention relates to a device and a program thereof.

スポーツ番組等において、カメラが被写体を望遠で捉えながら撮影すると、被写体の全体的な動きが視聴者に伝わりにくい場合がある。例えば、ゴルフ中継番組でショートホール第一打のシーンでは一般にグリーン付近に設置されたカメラの映像が放送されるが、ゴルフボールは小さく、広角映像ではほとんど確認できないため、望遠でボールを追いながら撮影される。この望遠映像ではボールの部分的な動きは分るものの、落下点までどのようなコースで飛んできたのか、どれくらいの高さまで上がったのかといった全体的なボール軌道を把握することは難しい。   In a sports program or the like, when a camera captures a subject at a telephoto position, it may be difficult to convey the overall movement of the subject to the viewer. For example, in the first shot of a short hole in a golf broadcast program, the video of a camera installed near the green is generally broadcast, but the golf ball is small and can hardly be confirmed in a wide-angle video, so shooting while chasing the ball with telephoto Is done. Although this telephoto image shows the partial movement of the ball, it is difficult to grasp the overall ball trajectory such as what course the ball has flew to and the height of the ball.

そこで、昨今のスポーツ中継番組では、カメラのパン・チルト・ズーム等のカメラの姿勢情報を基に、様々なバーチャル映像が制作されている。例えばゴルフ中継では、グリーン上でボールとカップ間の距離を表示したり、第一打の落下地点にバーチャルCG(コンピュータ・グラフィックス)で距離線を引いたりして、カメラ映像だけでは伝わり難い距離感を分かりやすくする工夫がなされている。
ボールの軌跡を表示する装置として、非特許文献1においては、2台のカメラで打球を追いかけ、打球と2台のカメラを頂点とする三角形の内角と、2台のカメラ間の距離とに基づき、三角測量の原理によって、打球の3次元位置を適宜な時間間隔で計算する。そして、飛行中のボールの軌跡をリアルタイムに可視化するとともに、飛距離とカップまでの残り距離とを表示する装置が開示されている。
また、特許文献1においては、2台のカメラの位置、光軸方向、および画角に基づき、三角測量の原理によって、飛行するボールの3次元位置座標を算出する手法が開示されている。
さらに、特許文献2においては、ゴルフコース内の複数箇所に設置された電波レーダを用いて、電波をゴルフボールに当て、反射波のドップラー周波数および位相差からボールの飛行速度、距離を求め、三角測量の原理によって、ボールの3次元位置座標を算出する手法が開示されている。
Therefore, in recent sports broadcast programs, various virtual images are produced based on camera posture information such as camera pan, tilt and zoom. For example, in golf relay, the distance between the ball and the cup is displayed on the green, or a distance line is drawn by virtual CG (computer graphics) at the point of the first hit, making it difficult to convey only with camera images. The device is designed to make the feeling easier to understand.
As a device for displaying the trajectory of a ball, Non-Patent Document 1 uses two cameras to follow a hit ball, and based on the inner angle of a triangle having the hit ball and two cameras as vertices and the distance between the two cameras. Based on the principle of triangulation, the three-dimensional position of the hit ball is calculated at an appropriate time interval. And the apparatus which displays the locus | trajectory of the ball | bowl in flight in real time, and displays a flight distance and the remaining distance to a cup is disclosed.
Patent Document 1 discloses a method for calculating the three-dimensional position coordinates of a flying ball based on the triangulation principle based on the positions of two cameras, the optical axis direction, and the angle of view.
Further, in Patent Document 2, using radio wave radars installed at a plurality of locations in a golf course, the radio wave is applied to the golf ball, the flight speed and distance of the ball are obtained from the Doppler frequency and phase difference of the reflected wave, and the triangle A method for calculating the three-dimensional position coordinates of a ball by the principle of surveying is disclosed.

特開2003−42716号公報(段落0032〜段落0034、図3)Japanese Patent Laying-Open No. 2003-42716 (paragraphs 0032 to 0034, FIG. 3) 特開平8−266701号公報(段落0039〜段落0040、図3)JP-A-8-266701 (paragraphs 0039 to 0040, FIG. 3) 山内、加藤、野口、安部、榎並,“飛翔体の軌跡表示システム「ショットビュー」ゴルフボールの3次元位置の可視化”,情報処理学会研究報告,Vol.1995, No.063, pp31-36Yamauchi, Kato, Noguchi, Abe, Minami, “3D position visualization of flying object trajectory display system“ Shot View ”, Information Processing Society of Japan, Vol.1995, No.063, pp31-36

しかしながら、中継番組で使用する場合、既存の中継設備の範囲を超えないことが望ましい。すなわち、新たなセンサーカメラやカメラマンを追加することなく運用しなければならない。一般にゴルフ中継では1つのホールにつき1台のバーチャルカメラで運用している。非特許文献1および特許文献1によるボールの位置計測手法では、2台のカメラによるボールの撮影が必要であるため、カメラが2台必要であるとともに、それぞれのカメラを操作するために2人のカメラマンが必要となる。また、特許文献2によるボールの位置計測手法では、ゴルフ場の複数箇所に電波レーダ装置という特別な装置を設置する必要がある。   However, when used in a relay program, it is desirable not to exceed the range of existing relay facilities. That is, it must be operated without adding a new sensor camera or photographer. In general, golf relay is operated with one virtual camera per hole. In the ball position measurement method according to Non-Patent Document 1 and Patent Document 1, since shooting of a ball by two cameras is necessary, two cameras are required and two people are required to operate each camera. A photographer is required. Further, in the ball position measurement method disclosed in Patent Document 2, it is necessary to install special devices called radio wave radar devices at a plurality of locations on a golf course.

そこで本発明では、このような問題点に鑑み、1台のカメラで運用可能であり、全体的な動きを把握することが困難な小さな映像オブジェクトの移動軌跡をカメラ映像上へ重畳した画像を合成する映像オブジェクトの軌跡画像合成装置、その合成画像を表示する映像オブジェクトの軌跡画像表示装置およびそのプログラムを提供することを目的とする。   Therefore, in the present invention, in view of such a problem, an image in which a moving trajectory of a small video object that can be operated by one camera and it is difficult to grasp the overall movement is superimposed on the camera video is synthesized. An object of the present invention is to provide a trajectory image synthesis device for a video object, a trajectory image display device for a video object that displays the synthesized image, and a program thereof.

本発明は前記目的を達成するためになされたものであり、請求項1に記載の映像オブジェクトの軌跡画像合成装置は、移動する被写体をカメラにより撮影したときの映像信号と前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの軌跡を計測し、その計測した映像オブジェクトの軌跡を表わす軌跡画像と前記カメラによって撮影される映像とを合成する映像オブジェクトの軌跡画像合成装置であって、オブジェクト抽出手段と、オブジェクト位置算出手段と、オブジェクト位置記憶手段と、軌跡画像作成手段と、軌跡画像合成手段と、を備える構成とした。   The present invention has been made to achieve the above object, and the video object trajectory image composition device according to claim 1, when a moving subject is photographed by a camera and a video signal and the subject is photographed. A trajectory of a video object corresponding to the subject is measured from camera parameters including information on the posture and angle of view of the camera, a trajectory image representing the trajectory of the measured video object, and a video shot by the camera Is an image object trajectory image synthesizing apparatus comprising an object extracting means, an object position calculating means, an object position storing means, a trajectory image creating means, and a trajectory image synthesizing means.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、移動する被写体を撮影したときの映像信号およびその被写体を撮影したときのカメラの姿勢、すなわちカメラの撮影方向を示すパン角・チルト角、および画角に関するズーム量等の情報を含むカメラパラメータを入力する。例えば、ゴルフボールのように小さな被写体の移動軌跡の撮影においては、カメラマンは被写体に対応する映像オブジェクトの位置を精度よく計測できるよう、被写体につめた画角に(ズーム量を望遠側に)設定して追跡撮影する。
そして、軌跡画像合成装置は、オブジェクト抽出手段によって、ゴルフボール等の被写体に対応する映像オブジェクトの移動軌跡を計測するために、撮影した各映像フレームから画像処理手法を用いて映像オブジェクトを抽出し、映像フレーム内における映像オブジェクトの2次元座標(画像座標)を取得する。
According to such a configuration, the video object trajectory image composition device includes a video signal when a moving subject is photographed and a camera posture when the subject is photographed, that is, a pan angle / tilt angle indicating a photographing direction of the camera, And camera parameters including information such as the zoom amount relating to the angle of view. For example, when shooting a moving trajectory of a small subject such as a golf ball, the cameraman sets the angle of view (zoom amount on the telephoto side) of the subject so that the position of the video object corresponding to the subject can be accurately measured. Then follow the shooting.
Then, the trajectory image composition device extracts a video object from each captured video frame using an image processing method in order to measure the movement trajectory of the video object corresponding to the subject such as a golf ball by the object extraction unit, The two-dimensional coordinates (image coordinates) of the video object in the video frame are acquired.

そして、軌跡画像合成装置は、オブジェクト位置算出手段によって、オブジェクト抽出手段が取得した映像オブジェクトの画像座標を、その画像座標を取得した映像フレームを撮影したときのカメラパラメータに基づいて、カメラの位置を原点とする2次元の視線ベクトル、すなわちカメラ位置から見た映像オブジェクトの観察方向を示す位置座標に変換する。この変換においては、まず画角情報に基づいて、カメラの撮影方向(光軸方向)である映像フレームの中心からの変位を画像座標として算出する。そして、カメラの撮影方向を示すカメラの姿勢情報(パン角・チルト角)で表わされる位置座標(視線ベクトル)と、この変位とを加算することで、映像オブジェクトの正確な位置座標(視線ベクトル)を取得することができる。   Then, the trajectory image synthesizing device determines the position of the camera based on the camera parameters when the image frame obtained by acquiring the image coordinates of the image object obtained by the object extraction means is captured by the object position calculating means. A two-dimensional line-of-sight vector as an origin, that is, a position coordinate indicating the viewing direction of the video object viewed from the camera position is converted. In this conversion, first, based on the angle of view information, a displacement from the center of the video frame that is the shooting direction (optical axis direction) of the camera is calculated as image coordinates. Then, by adding the position coordinates (line-of-sight vector) represented by camera posture information (pan angle / tilt angle) indicating the shooting direction of the camera and the displacement, the accurate position coordinates (line-of-sight vector) of the video object are added. Can be obtained.

このように取得した映像オブジェクトの視線ベクトルを、オブジェクト位置記憶手段に記憶する。移動する被写体を撮影した一連の映像フレーム群に対して、このような視線ベクトルの取得処理を順次行うことで、オブジェクト位置記憶手段に、映像オブジェクトの一連の軌跡点に関する情報を視線ベクトル群として得ることができる。
そして、軌跡画像合成装置は、軌跡画像作成手段によって、オブジェクト位置記憶手段に記憶された視線ベクトル群を読み出し、CG(コンピュータ・グラフィックス)の手法を用いて、軌跡画像を合成しようとする映像を撮影したカメラパラメータに対応する画像座標における軌跡画像を作成する。その後、軌跡画像合成手段によって、CGで作成された軌跡画像を、合成の対象としたカメラ映像に重畳することで合成画像を生成し映像として出力する。
The line-of-sight vector of the video object acquired in this way is stored in the object position storage means. By sequentially performing such line-of-sight vector acquisition processing on a series of video frames obtained by shooting a moving subject, information on a series of trajectory points of the video object is obtained as a line-of-sight vector group in the object position storage means. be able to.
Then, the trajectory image composition device reads the line-of-sight vector group stored in the object position storage means by the trajectory image creation means, and uses the CG (computer graphics) method to generate a video to be synthesized with the trajectory image. A trajectory image at the image coordinates corresponding to the captured camera parameter is created. Thereafter, a trajectory image created by CG is superimposed on the camera video to be synthesized by the trajectory image synthesizing means to generate a synthesized image and output it as a video.

また、請求項2に記載の映像オブジェクトの軌跡画像合成装置は、請求項1に記載の映像オブジェクトの軌跡画像合成装置において、前記軌跡画像作成手段が、軌跡曲線生成手段と、画像座標変換手段と、軌跡画像作画手段と、を備える構成とした。   The video object trajectory image composition apparatus according to claim 2 is the video object trajectory image composition apparatus according to claim 1, wherein the trajectory image creation means includes a trajectory curve generation means, an image coordinate conversion means, And a locus image drawing means.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、軌跡画像作成手段の軌跡曲線生成手段によって、オブジェクト位置記憶手段に記憶された視線ベクトル群を読み出して軌跡曲線を生成する。
そして、軌跡画像合成装置は、軌跡画像作成手段の軌跡曲線生成手段によって、高速に移動するため離散的な軌跡点として取得された映像オブジェクトの視線ベクトル群に対して、ベジェ曲線、スプライン曲線、2次曲線等の曲線を軌跡曲線として適用する。これらの曲線を適用して計測で得られた軌跡点間を補間し、軌跡曲線を構成する軌跡構成点の視線ベクトル群を算出する。
According to this configuration, the trajectory image synthesizing apparatus for the video object reads the line-of-sight vector group stored in the object position storage unit and generates the trajectory curve by the trajectory curve generation unit of the trajectory image generation unit.
Then, the trajectory image synthesizing apparatus performs a Bezier curve, a spline curve, 2 on the line-of-sight vector group of the video object acquired as a discrete trajectory point for moving at high speed by the trajectory curve generating means of the trajectory image creating means. A curve such as a secondary curve is applied as a trajectory curve. By applying these curves, the locus points obtained by the measurement are interpolated to calculate a line-of-sight vector group of the locus constituting points constituting the locus curve.

そして、軌跡画像合成装置は、軌跡画像作成手段の画像座標変換手段によって、軌跡画像を重畳すべき映像を撮影したときのカメラパラメータ(パン角・チルト角・画角)に対応して、軌跡点を構成する視線ベクトル群を画像座標群に変換する。
さらに、軌跡画像合成装置は、軌跡画像作成手段の軌跡画像作画手段によって、軌跡点を構成する画像座標群のデータに基づいて、軌跡画像の色・線種・太さ・アニメーション表示等の条件を加味し、重畳すべき軌跡画像を作画する。
Then, the trajectory image synthesis device corresponds to the camera parameters (pan angle / tilt angle / view angle) when the video to be superimposed with the trajectory image is captured by the image coordinate conversion unit of the trajectory image generation unit. Is converted into an image coordinate group.
Furthermore, the trajectory image composition device uses the trajectory image creation means of the trajectory image creation means to set conditions such as the color, line type, thickness, and animation display of the trajectory image based on the data of the image coordinate group constituting the trajectory point. In consideration, a trajectory image to be superimposed is created.

また、請求項3に記載の映像オブジェクトの軌跡画像合成装置は、請求項1に記載の映像オブジェクトの軌跡画像合成装置において、前記軌跡画像作成手段が、軌跡曲線生成手段と、軌跡構成点記憶手段と、画像座標変換手段と、軌跡画像作画手段と、を備える構成とした。   According to a third aspect of the present invention, there is provided the video object trajectory image synthesizing apparatus according to the first aspect, wherein the trajectory image creating means includes a trajectory curve generating means and a trajectory composing point storage means. And image coordinate conversion means and trajectory image drawing means.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、軌跡曲線生成手段で生成された軌跡構成点の視線ベクトル群を軌跡構成点記憶手段に一旦記憶する。そして、軌跡画像合成装置は、画像座標変換手段によって、軌跡画像を重畳する映像のカメラパラメータに対応する画像座標群に変換する際に、視線ベクトル群を軌跡構成点記憶手段から読み出して用いる。軌跡画像を重畳すべき映像のカメラパラメータが変更された場合は、画像座標変換手段が、軌跡構成点記憶手段から視線ベクトル群を再度読み出し、軌跡構成点の視線ベクトル群から画像座標群へ変換し、軌跡画像作画手段が軌跡画像作画を作画する。   According to this configuration, the trajectory image synthesizing apparatus for the video object temporarily stores the line-of-sight vector group of the trajectory constituent points generated by the trajectory curve generating means in the trajectory constituent point storage means. The trajectory image composition device reads the eye vector group from the trajectory composing point storage means and uses it when converting the image coordinate group corresponding to the camera parameters of the video on which the trajectory image is superimposed by the image coordinate conversion means. When the camera parameter of the video on which the trajectory image is to be superimposed is changed, the image coordinate conversion means reads the line-of-sight vector group from the trajectory constituent point storage means again, and converts the line-of-sight vector group of the trajectory constituent point into the image coordinate group. The locus image drawing means draws a locus image drawing.

さらに、請求項4に記載の映像オブジェクトの軌跡画像合成装置は、請求項1ないし請求項3の何れか一項に記載の映像オブジェクトの軌跡画像合成装置において、さらに、オブジェクト指定手段を備える構成とした。   The video object trajectory image composition apparatus according to claim 4 is the video object trajectory image composition apparatus according to any one of claims 1 to 3, further comprising an object designation unit. did.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、オブジェクト指定手段によって、任意の映像フレーム内において所望の点を軌跡点として指定し、その映像フレーム内の画像座標を取得する。その取得した指定点の画像座標は、指定に用いた映像フレームを撮影したときのカメラパラメータに基づいて、オブジェクト位置算出手段によって視線ベクトルに変換される。そして、指定点の視線ベクトルは、オブジェクト抽出手段によって取得されてオブジェクト位置記憶手段に記憶される視線ベクトル群に追加記憶される。   According to such a configuration, the trajectory image composition device for a video object designates a desired point as a trajectory point in an arbitrary video frame by the object designation unit, and acquires image coordinates in the video frame. The acquired image coordinates of the designated point are converted into a line-of-sight vector by the object position calculation means based on the camera parameters when the video frame used for the designation is photographed. The line-of-sight vector at the designated point is additionally stored in the line-of-sight vector group acquired by the object extraction unit and stored in the object position storage unit.

また、請求項5に記載の映像オブジェクトの軌跡画像合成装置は、請求項1ないし請求項4の何れか一項に記載の映像オブジェクトの軌跡画像合成装置において、前記オブジェクト位置算出手段が、2次元直交座標で表わされる画像座標を、2次元極座標で表わされる視線ベクトルに変換する構成とした。   The video object trajectory image composition apparatus according to claim 5 is the video object trajectory image composition apparatus according to any one of claims 1 to 4, wherein the object position calculation means is a two-dimensional object. An image coordinate represented by orthogonal coordinates is converted into a line-of-sight vector represented by two-dimensional polar coordinates.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、オブジェクト位置算出手段によって、オブジェクト抽出手段で取得した2次元直交座標で表わされた画像座標を、その画像座標を取得した映像フレームを撮影したときのカメラパラメータに含まれる画角情報に基づいて、映像フレーム内の2次元極座標に変換する。なお、カメラの光軸方向(撮影方向)を示すパン角・チルト角は、撮影される映像フレームの中心の方向の2次元極座標の水平座標(水平角)・垂直座標(垂直角)に相当するから、パン角、チルト角を、それぞれ映像オブジェクトの前記映像フレーム内の2次元極座標の水平座標、垂直座標に加算することで、映像オブジェクトの視線ベクトルを算出することができる。   According to such a configuration, the trajectory image composition device for a video object captures a video frame obtained by acquiring the image coordinates represented by the two-dimensional orthogonal coordinates obtained by the object extracting means by the object position calculating means. Based on the angle-of-view information included in the camera parameters at that time, it is converted into two-dimensional polar coordinates in the video frame. The pan angle / tilt angle indicating the optical axis direction (shooting direction) of the camera corresponds to the horizontal coordinate (horizontal angle) / vertical coordinate (vertical angle) of the two-dimensional polar coordinate in the direction of the center of the image frame to be shot. Thus, the line-of-sight vector of the video object can be calculated by adding the pan angle and tilt angle to the horizontal and vertical coordinates of the two-dimensional polar coordinates in the video frame of the video object, respectively.

また、請求項6に記載の映像オブジェクトの軌跡画像合成装置は、請求項1ないし請求項5の何れか一項に記載の映像オブジェクトの軌跡画像合成装置において、さらに、位置予測手段と、落下点検出手段と、座標変換手段と、を備える構成とした。   The video object trajectory image composition device according to claim 6 is the video object trajectory image composition device according to any one of claims 1 to 5, further comprising a position predicting means, drop inspection, and the like. An output means and a coordinate conversion means are provided.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、位置予測手段によって、映像フレームごとの映像オブジェクトの画像座標および大きさに基づいて、被写体の3次元位置を逐次予測する。この予測には、例えば、拡張カルマンフィルタを用いることができる。そして、軌跡画像合成装置は、落下点検出手段によって、位置予測手段で予測された3次元位置と、カメラの位置に基づいて予め定めた3次元空間座標とに基づいて、被写体の地面への落下点を検出する。すなわち、落下点検出手段は、被写体の位置が、3次元空間座標で予め定めた地面の座標平面に到達した段階で地面に落下したと判断する。
そして、軌跡画像合成装置は、座標変換手段によって、映像フレームを撮影したときのカメラパラメータに基づいて、落下点検出手段で検出された落下点を、映像フレーム内での2次元の画像座標に変換する。これによって、軌跡画像合成装置は、被写体の落下点を検出し、軌跡画像として合成することができる。
According to such a configuration, the video object trajectory image synthesis apparatus sequentially predicts the three-dimensional position of the subject based on the image coordinates and the size of the video object for each video frame by the position predicting unit. For this prediction, for example, an extended Kalman filter can be used. Then, the trajectory image synthesizing apparatus drops the subject onto the ground based on the three-dimensional position predicted by the position predicting unit by the drop point detecting unit and the three-dimensional spatial coordinates determined in advance based on the camera position. Detect points. That is, the fall point detection means determines that the subject has fallen to the ground when it has reached the coordinate plane of the ground determined in advance in three-dimensional space coordinates.
The trajectory image synthesizer converts the drop point detected by the drop point detection means into two-dimensional image coordinates in the video frame based on the camera parameters when the video frame is captured by the coordinate conversion means. To do. Thereby, the trajectory image composition device can detect the drop point of the subject and synthesize it as a trajectory image.

さらに、請求項7に記載の映像オブジェクトの軌跡画像合成装置は、請求項6に記載の映像オブジェクトの軌跡画像合成装置において、被写体移動開始検出手段を備え、前記位置予測手段が、被写体移動開始検出手段により前記被写体の移動の開始を検出したときに、被写体の位置の予測を開始する構成とした。   The video object trajectory image composition device according to claim 7 is the video object trajectory image composition device according to claim 6, further comprising subject movement start detection means, wherein the position prediction means detects subject movement start detection. When the start of the movement of the subject is detected by the means, the prediction of the position of the subject is started.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、被写体移動開始検出手段によって、被写体を撮影しているカメラのカメラパラメータの変化量と予め定めた閾値との差分に基づいて、被写体の移動の開始を検出する。すなわち、カメラマンが被写体を撮影する際に、被写体の移動開始時に大きくカメラの向きが変化するため、その変化量が予め定めた閾値よりも大きくなった段階で、被写体が移動を開始したと判断する。
そして、軌跡画像合成装置は、位置予測手段によって、被写体が移動を開始したと判断した映像フレーム以降において、被写体の3次元位置を予測する。
According to this configuration, the trajectory image composition device for the video object uses the subject movement start detection unit to move the subject based on the difference between the change amount of the camera parameter of the camera capturing the subject and the predetermined threshold value. Detect the start of That is, when the photographer takes a picture of the subject, the direction of the camera changes greatly when the subject starts to move. Therefore, it is determined that the subject has started to move when the amount of change becomes larger than a predetermined threshold. .
The trajectory image synthesizing apparatus predicts the three-dimensional position of the subject after the video frame in which the subject is determined to have started to move by the position predicting unit.

また、請求項8に記載の映像オブジェクトの軌跡画像表示装置は、請求項1ないし請求項7の何れか一項に記載の軌跡画像合成装置と、前記軌跡画像合成装置で合成された合成画像の映像を表示する画像表示手段と、を備える構成とした。   According to an eighth aspect of the present invention, there is provided a trajectory image display device for a video object, wherein the trajectory image composition device according to any one of the first to seventh aspects and a composite image synthesized by the trajectory image composition device. And image display means for displaying video.

かかる構成によれば、1台のカメラの運用のみで、映像オブジェクトの軌跡画像を作成し、同じカメラで撮影する映像に映像オブジェクトの軌跡画像を重畳した映像を表示することができる。   According to this configuration, it is possible to create a trajectory image of a video object and display a video in which the trajectory image of the video object is superimposed on a video shot by the same camera with only one camera operation.

また、請求項9に記載の映像オブジェクトの軌跡画像表示プログラムは、移動する被写体をカメラにより撮影したときの映像信号と前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの軌跡を計測し、その計測した映像オブジェクトの軌跡を表わす軌跡画像と前記カメラによって撮影される映像とを合成して表示するために、コンピュータを、オブジェクト抽出手段、オブジェクト位置算出手段、軌跡画像作成手段、軌跡画像合成手段として機能させることを特徴とする。   The video object trajectory image display program according to claim 9 is a camera parameter including a video signal when a moving subject is photographed by a camera, and information on an attitude and angle of view of the camera when the subject is photographed. In order to measure the trajectory of the video object corresponding to the subject and to display the synthesized trajectory image representing the trajectory of the measured video object and the video shot by the camera, the object is extracted. It is made to function as a means, an object position calculation means, a locus image creation means, and a locus image synthesis means.

かかる構成によれば、映像オブジェクトの軌跡画像表示プログラムは、移動する被写体を撮影したときの映像信号と撮影時のカメラの姿勢情報および画角情報を含むカメラパラメータとが入力されると、オブジェクト抽出手段によって、映像フレームごとに画像処理的手法を用いて被写体に対応する映像オブジェクトを抽出し、抽出した映像オブジェクトの映像フレーム内の画像座標を取得する。そして、取得された画像座標は、オブジェクト位置算出手段によって、カメラパラメータに基づいて視線ベクトルに変換する。この変換して得られた視線ベクトルはオブジェクト記憶手段に記憶する。   According to such a configuration, the trajectory image display program of the video object receives the video signal when the moving subject is photographed and the camera parameters including the camera posture information and the angle-of-view information at the time of photographing. The means extracts a video object corresponding to the subject using an image processing method for each video frame, and acquires image coordinates in the video frame of the extracted video object. The acquired image coordinates are converted into a line-of-sight vector based on the camera parameters by the object position calculation means. The line-of-sight vector obtained by this conversion is stored in the object storage means.

そして、軌跡画像表示プログラムは、オブジェクト抽出手段、オブジェクト位置算出手段およびオブジェクト位置記憶手段によって、移動する被写体を撮影した一連の映像フレーム群から映像オブジェクトの視線ベクトルを取得すると、映像オブジェクトの軌跡情報として一連の視線ベクトル群を得る。そして、軌跡画像作成手段によって、視線ベクトル群に基づいて、軌跡画像を重畳しようとするカメラ映像を撮影したときのカメラパラメータに対応する映像フレームの画像座標おける軌跡画像を作成し、軌跡画像合成手段によって、作成した軌跡画像をカメラ映像に重畳した合成画像の映像として出力する。   Then, the trajectory image display program obtains the line-of-sight vector of the video object from the series of video frames in which the moving subject is photographed by the object extracting unit, the object position calculating unit, and the object position storing unit. A series of line-of-sight vectors is obtained. Then, the trajectory image creating means creates a trajectory image at the image coordinates of the video frame corresponding to the camera parameter when the camera video to be superimposed is captured based on the line-of-sight vector group, and the trajectory image synthesizing means. Thus, the created trajectory image is output as a composite image superimposed on the camera image.

請求項1に記載の発明によれば、映像オブジェクトの軌跡画像合成装置は、1台のカメラによって撮影された被写体の映像から被写体に対応する映像オブジェクトの軌跡を測定し、同じ場所から撮影したカメラ映像に対して、そのカメラパラメータに応じた軌跡画像を作成して合成するため、1台のカメラを用いるだけで、カメラ画像に軌跡画像を重畳した合成画像映像を得ることができる。
また、軌跡画像を重畳する映像を現在撮影中のカメラ映像とした場合、撮影中のカメラ映像に合わせた軌跡画像を作成して重畳表示することができるため、生中継中の映像の視聴者に視点の移動を強要することなく軌跡画像を表示することができるという優れた効果を奏するものである。
According to the first aspect of the present invention, the video object trajectory image synthesizing apparatus measures the trajectory of the video object corresponding to the subject from the video of the subject shot by one camera, and the camera shot from the same location. Since a trajectory image corresponding to the camera parameter is created and combined with the video, a composite image video in which the trajectory image is superimposed on the camera image can be obtained by using only one camera.
In addition, if the video that superimposes the trajectory image is the camera video that is currently being shot, a trajectory image that matches the camera video that is being shot can be created and displayed in a superimposed manner. This provides an excellent effect that the trajectory image can be displayed without forcing the movement of the viewpoint.

請求項2に記載の発明によれば、計測した軌跡点に基づいて軌跡曲線を生成するため、軌跡点の計測に失敗した映像フレームがあっても、間を補間して滑らかな軌跡曲線を得ることができる。   According to the second aspect of the present invention, since a trajectory curve is generated based on the measured trajectory point, even if there is a video frame in which the trajectory point measurement has failed, a smooth trajectory curve is obtained by interpolating between the video frames. be able to.

請求項3に記載の発明によれば、軌跡曲線構成手段で生成された軌跡構成点の視線ベクトル群を軌跡構成点記憶手段に記憶するため、軌跡画像を重畳すべき映像のカメラパラメータが変更された場合は、軌跡構成点記憶手段から軌跡構成点の視線ベクトルを再度読み出して用いることができ、軌跡画像の作成のために必要な演算量が低減できるため、映像の撮影条件の変更に対して軌跡画像の作成を迅速に行うことができる。   According to the third aspect of the present invention, since the line-of-sight vector group of the trajectory constituent points generated by the trajectory curve constituent means is stored in the trajectory constituent point storage means, the camera parameters of the video on which the trajectory image is to be superimposed are changed. In such a case, the line-of-sight vector of the trajectory composing point can be read again from the trajectory composing point storage means and used, and the amount of calculation necessary for creating the trajectory image can be reduced. A trajectory image can be quickly created.

請求項4に記載の発明によれば、オブジェクト指定手段により、軌跡点を追加するように構成したため、例えば、ゴルフボールの打点・落下点・静止点のように背景が複雑なため、オブジェクト抽出手段によって安定した自動抽出が困難な軌跡点についても、移動軌跡を撮影後に追加することができ、断絶のない軌跡画像を作成することができる。   According to the fourth aspect of the present invention, since the trajectory point is added by the object specifying means, the object extraction means, for example, because the background is complicated such as a hitting point / falling point / resting point of a golf ball. Thus, even for trajectory points for which stable automatic extraction is difficult, a moving trajectory can be added after shooting, and a trajectory image without interruption can be created.

請求項5に記載の発明によれば、オブジェクト位置算出手段は、2次元直交座標で表わされる画像座標を2次元極座標で表わされる視線ベクトルに変換するため、画像座標を直交座標から極座標に変換してパン角・チルト角を加算するだけで映像オブジェクトの視線ベクトルを算出することができる。
また、視線ベクトルを極座標で表わすため、カメラの撮影方向を全天の任意の方向に向けた場合でもその位置座標が表現可能であり、被写体が広範囲にわたって移動する場合でも、軌跡画像を生成することができる。
According to the fifth aspect of the present invention, the object position calculation means converts the image coordinates represented by the two-dimensional orthogonal coordinates into the line-of-sight vector represented by the two-dimensional polar coordinates, and therefore converts the image coordinates from the orthogonal coordinates to the polar coordinates. By simply adding the pan angle and tilt angle, the line-of-sight vector of the video object can be calculated.
In addition, since the line-of-sight vector is expressed in polar coordinates, the position coordinates can be expressed even when the shooting direction of the camera is directed to any direction in the sky, and a trajectory image can be generated even when the subject moves over a wide range. Can do.

請求項6に記載の発明によれば、被写体の3次元空間上の位置を予測することで、被写体の地面への落下を検出できる。このため、この検出時を、軌跡画像を生成するタイミングとして用いることができ、手動で軌道画像の生成の開始を指示する場合に比べ、軌道画像を生成するまでの時間を短縮することができる。   According to the invention described in claim 6, it is possible to detect the fall of the subject on the ground by predicting the position of the subject in the three-dimensional space. For this reason, this detection time can be used as the timing for generating the trajectory image, and the time required for generating the trajectory image can be shortened as compared with the case where the start of the generation of the trajectory image is manually instructed.

請求項7に記載の発明によれば、カメラの動きに基づいて、被写体の位置の予測を開始することができる。このため、人手を介して予測開始のタイミングを設定する場合に比べ、確実に、被写体の移動開始を検出することができる。   According to the seventh aspect of the present invention, it is possible to start predicting the position of the subject based on the movement of the camera. For this reason, it is possible to detect the start of movement of the subject more reliably than in the case where the timing for starting the prediction is set manually.

請求項8または請求項9に記載の発明によれば、1台のカメラによって撮影された映像オブジェクトの映像から軌跡を測定し、同じ場所から撮影したカメラ映像に対して、そのカメラパラメータに応じた軌跡画像を作成して重畳表示するため、1台のカメラを用いるだけで、カメラ映像に軌跡画像を重畳した映像を表示することができる。   According to the invention described in claim 8 or claim 9, the trajectory is measured from the video of the video object shot by one camera, and the camera video shot from the same place is determined according to the camera parameter. Since a trajectory image is created and displayed in a superimposed manner, a video in which a trajectory image is superimposed on a camera video can be displayed by using only one camera.

以下、発明を実施するための最良の形態について図面を参照して説明する。なお、ここでは、移動する被写体をゴルフボールとし、カメラにより撮影されたゴルフボール(映像オブジェクト)の軌跡画像を映像に合成し表示する場合を例として説明する。
[第1の実施形態]
(本発明の原理)
はじめに、本発明の原理について説明する。
映像オブジェクトの軌跡を表示する場合、前記した従来技術のように、一般には移動中の被写体(ゴルフボール)の3次元位置座標が必要になる。なお、座標系は直交座標であっても極座標であっても構わないが、カメラを原点とする極座標で考えると、カメラのパン角・チルト角がそのままカメラの光軸の水平角・垂直角に相当するため都合がよい。ただし、カメラのパン軸・チルト軸の交点とレンズの光学主点が一致する理想状態であることとする。残るゴルフボールまでの奥行き情報が分れば3次元の極座標となるが、1台のカメラの情報だけではゴルフボールまでの距離を計算することができない。
The best mode for carrying out the invention will be described below with reference to the drawings. Here, a case where a moving subject is a golf ball and a trajectory image of a golf ball (video object) photographed by a camera is combined with a video and displayed is described as an example.
[First Embodiment]
(Principle of the present invention)
First, the principle of the present invention will be described.
When displaying the trajectory of a video object, the three-dimensional position coordinates of the moving subject (golf ball) are generally required as in the conventional technique described above. The coordinate system may be rectangular or polar. However, when considering the polar coordinates with the camera as the origin, the pan angle and tilt angle of the camera are the same as the horizontal and vertical angles of the optical axis of the camera. Convenient because it corresponds. However, it is assumed that the camera is in an ideal state where the intersection of the pan axis and tilt axis of the camera coincides with the optical principal point of the lens. If the depth information to the remaining golf ball is known, it becomes a three-dimensional polar coordinate, but the distance to the golf ball cannot be calculated only by information from one camera.

また、水平角・垂直角の2次元極座標(視線ベクトル)は3次元座標上では線となる。しかし、その視線ベクトルを計測したカメラ画像上では点として表示される。従って、被写体の位置を計測するカメラと、軌跡を重畳表示する映像を撮影するカメラを同一(撮影するカメラの設置場所を同一)にすれば、被写体までの奥行き情報が得られなくとも軌跡を表示することが可能である。   The two-dimensional polar coordinates (line-of-sight vector) of horizontal and vertical angles are lines on the three-dimensional coordinates. However, it is displayed as a point on the camera image obtained by measuring the line-of-sight vector. Therefore, if the camera that measures the position of the subject is the same as the camera that shoots the video that superimposes the trajectory (the camera is installed at the same location), the trajectory is displayed even if the depth information to the subject cannot be obtained. Is possible.

(軌跡画像表示装置(軌跡画像合成装置を含む)の構成)
次に、図1を参照して、本発明の第1の実施形態に係る映像オブジェクトの軌跡画像表示装置(軌跡画像合成装置を含む)の構成について説明する。図1は本発明の第1の実施形態に係る映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の全体構成を示すブロック図である。ここでは、軌跡画像表示装置2において用いるカメラ3について説明した後、軌跡画像表示装置2の構成について説明を行うこととする。
(Configuration of trajectory image display device (including trajectory image composition device))
Next, the configuration of a video object trajectory image display device (including a trajectory image synthesis device) according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing the overall configuration of a video object trajectory image display apparatus including a video object trajectory image composition apparatus according to the first embodiment of the present invention. Here, after describing the camera 3 used in the trajectory image display device 2, the configuration of the trajectory image display device 2 will be described.

(カメラ)
カメラ3は、ズーム機能を有するカメラレンズ3bを備えたカメラ本体3aと、カメラ本体3aを水平方向および垂直方向にそれぞれ独立して回転自在に支持するカメラ雲台3cから構成される。このカメラ3は、撮影した映像信号に併せて、カメラの撮影方向に関する姿勢情報であるパン角・チルト角、およびカメラの画角に関する情報であるズーム量を間断なく出力する。
(camera)
The camera 3 includes a camera body 3a having a camera lens 3b having a zoom function, and a camera platform 3c that supports the camera body 3a so as to be independently rotatable in the horizontal and vertical directions. The camera 3 continuously outputs a pan angle / tilt angle, which is posture information related to the shooting direction of the camera, and a zoom amount, which is information related to the angle of view of the camera, together with the captured video signal.

ここでは、カメラ3は、カメラ本体3aを支持する雲台の水平方向の回転角および垂直方向の回転角を、それぞれのカメラ雲台3cの回転部に備え付けられた図示しないロータリーエンコーダによって検知し、パン角・チルト角として出力する。なお、このロータリーエンコーダの代わりに、カメラ本体3aにジャイロセンサを搭載して、カメラ動作の水平軸および垂直軸回りの角速度を検出し、検出した角速度を積分することで回転角を算出し、パン角・チルト角を求めるように構成することもできる。
また、カメラ3は、カメラレンズ3bの焦点距離の設定に応じ、ズーム量を出力する。なお、カメラ3は、ズーム機能を有するカメラレンズを備え、映像信号に併せて、カメラ3の撮影方向を表わす姿勢情報と、ズーム量のような画角値に対応する情報とを出力できるものであれば、どのような形態のものでもよい。
Here, the camera 3 detects the horizontal rotation angle and the vertical rotation angle of the camera platform supporting the camera body 3a by a rotary encoder (not shown) provided in the rotation unit of each camera platform 3c, Output as pan and tilt angles. Instead of this rotary encoder, a gyro sensor is mounted on the camera body 3a to detect angular velocities around the horizontal and vertical axes of the camera operation, calculate the rotation angle by integrating the detected angular velocities, and The angle / tilt angle may be obtained.
The camera 3 outputs a zoom amount in accordance with the setting of the focal length of the camera lens 3b. The camera 3 includes a camera lens having a zoom function, and can output posture information indicating a shooting direction of the camera 3 and information corresponding to an angle of view value such as a zoom amount in addition to a video signal. Any form can be used.

(軌跡画像表示装置の構成)
次に、軌跡画像表示装置の構成について説明する。この軌跡画像表示装置2は、カメラ3から入力される映像信号と、被写体が撮影されたときのカメラの姿勢情報(パン角・チルト角)およびカメラの画角に関する情報(ズーム量)を含むカメラパラメータとに基づいて、カメラ3が撮影する被写体(ここでは、ゴルフボール)の軌跡を画像上に合成し、表示するものである。ここでは、軌跡画像表示装置2は、オブジェクト抽出手段4と、オブジェクト位置算出手段5と、オブジェクト位置記憶手段6と、軌跡画像作成手段7と、オブジェクト指定手段8と、画角情報記憶手段9と、軌跡画像合成手段10と、画像表示手段11とを備えている。
(Configuration of locus image display device)
Next, the configuration of the trajectory image display device will be described. The trajectory image display device 2 includes a video signal input from the camera 3, camera posture information (pan angle / tilt angle) when the subject is photographed, and information (zoom amount) regarding the camera angle of view. Based on the parameters, the trajectory of the subject (here, a golf ball) taken by the camera 3 is synthesized and displayed on the image. Here, the trajectory image display device 2 includes an object extraction unit 4, an object position calculation unit 5, an object position storage unit 6, a trajectory image creation unit 7, an object designation unit 8, and an angle of view information storage unit 9. , A trajectory image synthesis means 10 and an image display means 11 are provided.

オブジェクト抽出手段4は、カメラ3で被写体を撮影した映像信号において、映像フレームから画像処理の手法を用いて被写体に対応する映像オブジェクトを抽出するものである。なお、オブジェクト抽出手段4で抽出した映像オブジェクトの座標(画像座標)は、その画像座標を取得した映像フレームに対応したカメラパラメータとともにオブジェクト位置算出手段5に出力される。ただし、オブジェクト抽出手段4は、カメラパラメータの内のズーム量については、画角情報記憶手段9に予め記憶されたズーム量と画角値の関係を表わす画角情報を参照し、ズーム量に対応する映像フレームの画角値に変換してからオブジェクト位置算出手段5に出力する。   The object extraction means 4 extracts a video object corresponding to the subject from the video frame using an image processing method in the video signal obtained by photographing the subject with the camera 3. Note that the coordinates (image coordinates) of the video object extracted by the object extraction unit 4 are output to the object position calculation unit 5 together with the camera parameters corresponding to the video frame from which the image coordinates are acquired. However, the object extracting unit 4 corresponds to the zoom amount by referring to the view angle information indicating the relationship between the zoom amount and the view angle value stored in advance in the view angle information storage unit 9 for the zoom amount in the camera parameters. The angle of view of the video frame to be converted is output to the object position calculation means 5.

ここで、図2を参照して、オブジェクト抽出手段4の構成について詳細に説明する。図2は、オブジェクト抽出手段の構成を示すブロック図である。ここでは、オブジェクト抽出手段4は、クロマキー処理手段41と、フィルタ処理手段42と、重心算出手段43とを備えている。   Here, the configuration of the object extracting means 4 will be described in detail with reference to FIG. FIG. 2 is a block diagram showing the configuration of the object extraction means. Here, the object extraction unit 4 includes a chroma key processing unit 41, a filter processing unit 42, and a centroid calculation unit 43.

クロマキー処理手段41は、クロマキー処理によって映像フレームから映像オブジェクトの候補を抽出するものである。例えば、クロマキー処理手段41は、映像オブジェクトが飛翔中のゴルフボールの場合、ゴルフボールの色と背景となる空の色との違いを利用して映像オブジェクトを構成する画素を抽出する。なお、ここでは、クロマキー処理により映像オブジェクトの候補を抽出することとしたが、フレーム差分抽出等の他の抽出手法を用いても構わない。   The chroma key processing means 41 extracts video object candidates from the video frame by chroma key processing. For example, when the video object is a flying golf ball, the chroma key processing unit 41 extracts pixels constituting the video object using the difference between the color of the golf ball and the background sky color. In this example, video object candidates are extracted by chroma key processing, but other extraction methods such as frame difference extraction may be used.

フィルタ処理手段42は、クロマキー処理手段41で抽出された映像オブジェクト候補から所定の映像オブジェクトを抽出するものである。例えば、フィルタ処理手段42は、映像オブジェクトの形状的特徴(ゴルフボールであれば、球体であるため平面画像上は円形である。)を利用し、2値化した画像や輪郭抽出した画像に対して形状認識処理を施すことで映像オブジェクトを抽出する。なお、フィルタ処理手段42は、形状以外に、色や輝度等によって映像オブジェクトを抽出することとしてもよい。   The filter processing means 42 extracts a predetermined video object from the video object candidates extracted by the chroma key processing means 41. For example, the filter processing unit 42 uses a shape characteristic of a video object (in the case of a golf ball, it is a sphere and thus has a circular shape on a planar image). The video object is extracted by performing shape recognition processing. Note that the filter processing means 42 may extract a video object by color, brightness, etc. in addition to the shape.

重心算出手段43は、フィルタ処理手段42で抽出された映像オブジェクトの画像の重心を算出して映像オブジェクトの映像フレーム内における位置(画像座標)を検出するものである。   The center-of-gravity calculating unit 43 calculates the center of gravity of the image of the video object extracted by the filter processing unit 42 and detects the position (image coordinate) of the video object in the video frame.

ここで、図3および図4を参照(適宜図2参照)して、映像フレームから映像オブジェクトの抽出および位置を検出する手法について説明する。図3は、映像フレームから映像オブジェクトの抽出および位置を検出する手法を説明するための図である。図4は、ゴルフボールを映像フレームから抽出する様子を示した図である。   Here, with reference to FIG. 3 and FIG. 4 (refer to FIG. 2 as appropriate), a method for extracting a video object from a video frame and detecting a position will be described. FIG. 3 is a diagram for explaining a method of extracting a video object and detecting a position from a video frame. FIG. 4 is a diagram showing a state where a golf ball is extracted from a video frame.

図3(a)は、空を背景に、飛翔中のゴルフボールを撮影した映像フレームの様子を示す図である。オブジェクト抽出手段4は、第一段階として背景が青い空であることを利用し、クロマキー処理手段41によって、映像オブジェクト候補を抽出する。第二段階として、フィルタ処理手段42によって、抽出した映像オブジェクト候補に対し、ゴルフボールの色、輝度、形状を抽出するフィルタ処理を行い、特徴の異なる木等の映像オブジェクト候補から所望の映像オブジェクトであるゴルフボールを抽出する。このように映像フレームから抽出された映像オブジェクトOBJの抽出画像を図3(b)に示す。   FIG. 3A is a view showing a state of a video frame in which a golf ball in flight is photographed against the sky. The object extraction unit 4 uses the fact that the background is a blue sky as a first stage, and the chroma key processing unit 41 extracts video object candidates. As a second step, the filter processing means 42 performs filter processing for extracting the color, brightness, and shape of the golf ball on the extracted video object candidate, and selects a desired video object from video object candidates such as trees having different characteristics. A golf ball is extracted. An extracted image of the video object OBJ extracted from the video frame in this way is shown in FIG.

図3(c)は、映像オブジェクトOBJと映像フレームの座標軸との関係を示す図である。ここで画像座標系は、映像フレームの中心を原点とし、水平および垂直方向にそれぞれx軸、y軸を設定した直交座標である。抽出された映像オブジェクトは点ではなく面積を持つため、重心算出手段43によって、この抽出画像の重心を算出することで映像オブジェクトの中心位置を特定し、映像フレーム内における2次元の画像座標を検出する。そして、図3(d)に示すように、この画像座標系における映像オブジェクトOBJの画像座標(200,300)を取得することができる。   FIG. 3C shows the relationship between the video object OBJ and the coordinate axes of the video frame. Here, the image coordinate system is orthogonal coordinates in which the center of the video frame is the origin and the x-axis and y-axis are set in the horizontal and vertical directions, respectively. Since the extracted video object has an area rather than a point, the center of gravity of the extracted image is specified by the center of gravity calculation means 43 to determine the center position of the video object, and the two-dimensional image coordinates in the video frame are detected. To do. Then, as shown in FIG. 3D, the image coordinates (200, 300) of the video object OBJ in this image coordinate system can be acquired.

なお、オブジェクト抽出手段4は、ゴルフのティーショットの映像からゴルフボールを映像オブジェクトとして抽出する場合、図4に示すように、一連の映像フレームF,FB1〜FB17,F,Fごとに順次、ゴルフボールを抽出する。なお、A点は打点、B点(B1〜B17)は飛翔中の各点、C点は落下点、D点は静止点を示している。
図1に戻って、軌跡画像表示装置の構成について説明を続ける。
When the object extracting means 4 extracts a golf ball as a video object from a golf tee shot video, as shown in FIG. 4, a series of video frames F A , F B1 to F B17 , F C , F D The golf balls are extracted sequentially. Note that point A is a hit point, point B (B1 to B17) is a point during flight, point C is a drop point, and point D is a stationary point.
Returning to FIG. 1, the description of the configuration of the trajectory image display device will be continued.

オブジェクト位置算出手段5は、オブジェクト抽出手段4または後記するオブジェクト指定手段8から入力される画像座標と、カメラの姿勢情報であるパン角・チルト角および画角とに基づいて、ゴルフボール(被写体)の検出方向を表わすカメラの位置を原点とする2次元の視線ベクトル(位置座標)を算出するものである。このオブジェクト位置算出手段5で算出された視線ベクトル(位置座標)は、オブジェクト位置記憶手段6に記憶される。
また、ここでは、オブジェクト位置算出手段5は、後記するオブジェクト指定手段8によって指定された挿入先に従って、オブジェクト位置記憶手段6に記憶されている視線ベクトル群に新たな視線ベクトルを追加する。
The object position calculation means 5 is a golf ball (subject) based on image coordinates input from the object extraction means 4 or an object designation means 8 to be described later and a pan angle / tilt angle and an angle of view as camera posture information. A two-dimensional line-of-sight vector (positional coordinates) with the origin at the camera position representing the detection direction is calculated. The line-of-sight vector (position coordinates) calculated by the object position calculation means 5 is stored in the object position storage means 6.
Here, the object position calculation means 5 adds a new line-of-sight vector to the line-of-sight vector group stored in the object position storage means 6 in accordance with the insertion destination designated by the object designation means 8 described later.

なお、視線ベクトルの座標系は、直交座標でも極座標でも、あるいは、他の座標系でもよいが、カメラの位置を原点とする極座標で考えると、カメラのパン角・チルト角がそのままカメラの光軸方向、すなわち映像フレームの中心点の座標値である水平角・垂直角に相当するため都合がよい。そこで、本実施の形態では視線ベクトルの座標系としてカメラの位置を原点とする2次元極座標を用いることとする。
ここでは、オブジェクト位置算出手段5は、画角値に基づいて2次元直交座標で表わされる画像座標を2次元極座標で表わされる誤差角度、すなわち映像フレームの画像中心から映像オブジェクトの位置までの水平・垂直角度に変換し、その誤差角度(水平・垂直角度)を、それぞれパン角・チルト角と加算して2次元極座標で表わされる視線ベクトルを算出することとする。
Note that the coordinate system of the line-of-sight vector may be orthogonal coordinates, polar coordinates, or another coordinate system, but when considering the polar coordinates with the camera position as the origin, the camera pan angle and tilt angle are the same as the optical axis of the camera. This is convenient because it corresponds to the direction, that is, the horizontal and vertical angles which are the coordinate values of the center point of the video frame. Therefore, in the present embodiment, two-dimensional polar coordinates with the camera position as the origin are used as the coordinate system of the line-of-sight vector.
Here, the object position calculation means 5 converts the image coordinates represented by two-dimensional orthogonal coordinates based on the angle-of-view value into an error angle represented by two-dimensional polar coordinates, that is, the horizontal / distance from the image center of the video frame to the position of the video object. The angle of view is converted into a vertical angle, and the error angle (horizontal / vertical angle) is added to the pan angle and tilt angle, respectively, to calculate a line-of-sight vector represented by two-dimensional polar coordinates.

ここで、図6を参照して、オブジェクト位置算出手段5の構成について詳細に説明する。図6は、オブジェクト位置算出手段の構成を示すブロック図である。ここでは、オブジェクト位置算出手段5は、誤差角度算出手段51と、加算手段52とを備えている。
誤差角度算出手段51は、画角値に基づいて画像座標を誤差角度に変換するものである。具体的には、誤差角度算出手段51は、映像フレームの水平方向の画素数をWID、映像オブジェクトの水平方向の座標(映像フレームの画像中心を原点とした2次元直交座標(画像座標))をx、水平方向の画角をFOVとしたとき、水平方向の誤差角度ρを以下の式(1)で算出する。
Here, the configuration of the object position calculation means 5 will be described in detail with reference to FIG. FIG. 6 is a block diagram showing the configuration of the object position calculation means. Here, the object position calculation unit 5 includes an error angle calculation unit 51 and an addition unit 52.
The error angle calculation means 51 converts image coordinates into error angles based on the field angle value. Specifically, the error angle calculation means 51 uses the horizontal pixel number of the video frame as WID and the horizontal coordinate of the video object (two-dimensional orthogonal coordinates (image coordinates) with the image center of the video frame as the origin). x, when the field angle in the horizontal direction is FOV, calculated by the following equation horizontal error angle ρ x (1).

Figure 2007226761
Figure 2007226761

加算手段52は、誤差角度算出手段51で変換された誤差角度と、パン角・チルト角とを加算して視線ベクトルを算出するものである。
具体的には、加算手段52は、以下の式(2)に示すように、誤差角度算出手段51で変換された誤差角度ρと、カメラのパン角ρcamとを加算することで、カメラの位置を原点とした極座標上における映像オブジェクトの水平角度ρobjを算出する。
The adding means 52 calculates the line-of-sight vector by adding the error angle converted by the error angle calculating means 51 and the pan angle / tilt angle.
Specifically, as shown in the following equation (2), the adding unit 52 adds the error angle ρ x converted by the error angle calculating unit 51 and the pan angle ρ cam of the camera, thereby adding the camera. The horizontal angle ρ obj of the video object on the polar coordinates with the position of as the origin is calculated.

Figure 2007226761
Figure 2007226761

なお、映像オブジェクトが常に画像中心にあると仮定した場合、前記の例ではxは常に“0”となる。従って、ρも“0”となるため、映像オブジェクトの水平角度はカメラのパン角に等しくなる。すなわち、映像オブジェクトが常に画像中心にあるとすれば、パン角をそのまま利用することができる。また、映像オブジェクトの垂直角度に関しても、チルト角を用いることで、同様の計算で求めることができる。
以上により、映像オブジェクトの2次元極座標(カメラの位置を原点とした水平・垂直方向の角度)表示された視線ベクトルを得ることができる。
図1に戻って、軌跡画像表示装置の構成について説明を続ける。
When it is assumed that the video object is always at the center of the image, x is always “0” in the above example. Therefore, since ρ x is also “0”, the horizontal angle of the video object is equal to the pan angle of the camera. That is, if the video object is always at the center of the image, the pan angle can be used as it is. The vertical angle of the video object can also be obtained by the same calculation by using the tilt angle.
As described above, the line-of-sight vector displayed on the two-dimensional polar coordinates of the video object (horizontal and vertical angles with the camera position as the origin) can be obtained.
Returning to FIG. 1, the description of the configuration of the trajectory image display device will be continued.

オブジェクト位置記憶手段6は、オブジェクト位置算出手段5で算出された視線ベクトル(位置座標)を記憶するものであって、一般的なハードディスク等の記憶装置である。
このオブジェクト位置記憶手段6は、時系列の情報を保持するために、各視線ベクトルの座標データと軌跡点列における番号とを関係付けて記憶する。なお、後記するオブジェクト指定手段8により、視線ベクトルの追加があった場合は、追加点の番号をその挿入先番号とし、以降の視線ベクトルに対する番号を順次繰り下げてからオブジェクト位置記憶手段6に記憶する。
ただし、カメラ映像に重畳する軌跡画像として、計測した軌跡点のみをプロットした静止画像とする場合は、視線ベクトル間の時系列情報は不要であるので、番号等を付与して記憶しなくともよい。
The object position storage means 6 stores the line-of-sight vector (position coordinates) calculated by the object position calculation means 5, and is a general storage device such as a hard disk.
The object position storage means 6 stores the coordinate data of each line-of-sight vector and the number in the trajectory point sequence in association with each other in order to hold time-series information. When a line-of-sight vector is added by the object designating unit 8 to be described later, the number of the additional point is set as the insertion destination number, and the numbers for the subsequent line-of-sight vectors are sequentially lowered and stored in the object position storage unit 6. .
However, in the case of a still image in which only the measured trajectory points are plotted as the trajectory image to be superimposed on the camera video, the time series information between the line-of-sight vectors is unnecessary, so it is not necessary to assign a number or the like to store it. .

また、オブジェクト位置記憶手段6は、複数の軌跡に対応する視線ベクトル群を軌跡ごとに記憶する。これらの視線ベクトル群のデータは、軌跡画像作成手段7によって読み出される。
このように、視線ベクトル群をオブジェクト位置記憶手段6に記憶することで、後記するオブジェクト指定手段8のような修正手段を用いて、視線ベクトル群の修正が可能である。また、軌跡画像を重畳しようとする映像の場面(カメラパラメータ)を変えても、カメラパラメータに応じて適宜軌跡画像を作成しなおすことができる。さらに、複数の軌跡に対応する視線ベクトル群を読み出し、複数の軌跡を同時に描画することもできる。
The object position storage unit 6 stores a line-of-sight vector group corresponding to a plurality of trajectories for each trajectory. The data of these line-of-sight vectors is read out by the trajectory image creation means 7.
In this way, by storing the line-of-sight vector group in the object position storage unit 6, the line-of-sight vector group can be corrected using a correction unit such as the object designating unit 8 described later. Further, even if the scene (camera parameter) of the video on which the trajectory image is to be superimposed is changed, the trajectory image can be recreated as appropriate according to the camera parameter. Furthermore, it is possible to read a line-of-sight vector group corresponding to a plurality of loci and draw a plurality of loci simultaneously.

軌跡画像作成手段7は、オブジェクト位置記憶手段6から読み出される映像オブジェクトの視線ベクトル群に基づいて、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応した軌跡画像を作成するものである。ここでは、軌跡画像作成手段7は、軌跡曲線生成手段71と、軌跡構成点記憶手段72と、画像座標変換手段73と、軌跡画像作画手段74とを備えている。   The trajectory image creating means 7 creates a trajectory image corresponding to the camera parameter when the video to be superimposed is taken based on the line-of-sight vector group of the video object read from the object position storage means 6. is there. Here, the trajectory image creation means 7 includes a trajectory curve generation means 71, a trajectory composing point storage means 72, an image coordinate conversion means 73, and a trajectory image drawing means 74.

軌跡曲線生成手段71は、オブジェクト位置記憶手段6から1つの軌跡に対応する一連の視線ベクトル群を読み出し、その視線ベクトル群にスプライン曲線、Bスプライン曲線、ベジェ曲線、2次曲線等の曲線関数を適用して軌跡曲線を定義し、その軌跡曲線を構成する点列の視線ベクトル群を算出するものである。
ここでは、曲線関数として3次のベジェ曲線を用いて軌跡曲線を生成する場合について説明する。3次のベジェ曲線は、2個の端点と2個の制御点を、1つの変数tを使用した方程式で表現される曲線であり、端点をP,P、制御点をP,Pとすると、以下の式(3)で表わされる。
The trajectory curve generation means 71 reads a series of line-of-sight vector groups corresponding to one trajectory from the object position storage means 6, and applies a curve function such as a spline curve, a B-spline curve, a Bezier curve, or a quadratic curve to the line-of-sight vector group. By applying this, a trajectory curve is defined, and a line-of-sight vector group of a point sequence constituting the trajectory curve is calculated.
Here, a case where a trajectory curve is generated using a cubic Bezier curve as a curve function will be described. The cubic Bezier curve is a curve expressed by an equation using two end points and two control points using one variable t, and the end points are P 0 and P 3 , and the control points are P 1 and P. When 2 is expressed by the following equation (3).

Figure 2007226761
Figure 2007226761

ここで、オブジェクトの視線ベクトルを4点ずつ式(3)に当てはめることで、それぞれの端点間の任意の点を計算することができ、滑らかな軌跡を描くことができる。そこで、軌跡曲線生成手段71は、定義された曲線関数から数十点の視線ベクトル群をサンプリング(計算)し、それを軌跡構成点の視線ベクトル群として軌跡構成点記憶手段72に記憶する。なお、軌跡曲線生成手段71で算出された軌跡曲線の構成点の視線ベクトル群は、軌跡曲線ごとに管理された状態で軌跡構成点記憶手段72に一旦記憶される。   Here, by applying the line-of-sight vector of the object to equation (3) four points at a time, arbitrary points between the respective end points can be calculated, and a smooth trajectory can be drawn. Accordingly, the trajectory curve generation means 71 samples (calculates) several tens of line-of-sight vector groups from the defined curve function, and stores them in the trajectory constituent point storage means 72 as a line-of-sight vector group of trajectory constituent points. The line-of-sight vector group of the constituent points of the trajectory curve calculated by the trajectory curve generating means 71 is temporarily stored in the trajectory constituent point storage means 72 in a state managed for each trajectory curve.

軌跡構成点記憶手段72は、軌跡曲線生成手段71で算出された軌跡曲線の構成点の視線ベクトル群を記憶するものであって、一般的なハードディスク等の記憶装置である。この軌跡構成点記憶手段72に記憶された視線ベクトル群は、軌跡画像作成手段7によって読み出される。   The trajectory constituent point storage means 72 stores a line-of-sight vector group of constituent points of the trajectory curve calculated by the trajectory curve generating means 71, and is a general storage device such as a hard disk. The line-of-sight vector group stored in the locus composing point storage means 72 is read by the locus image creation means 7.

画像座標変換手段73は、軌跡構成点記憶手段72から読み出される視線ベクトル群の座標値を、極座標から、その視線ベクトル群を現在撮影中のカメラパラメータに対応した画像座標群に変換するものである。なお、カメラパラメータの内のズーム量は、後記する画角情報記憶手段9に予め記憶された画角情報を参照し、ズーム量に対応する映像フレームの画角値に変換して使用することとする。   The image coordinate conversion means 73 converts the coordinate values of the line-of-sight vector group read from the trajectory constituent point storage means 72 from polar coordinates to the image coordinate group corresponding to the camera parameter currently being photographed. . It should be noted that the zoom amount in the camera parameters is used by referring to the view angle information stored in advance in the view angle information storage means 9 to be described later, and converting it to the view angle value of the video frame corresponding to the zoom amount. To do.

ここで、図8を参照して、画像座標変換手段73の構成について詳細に説明する。図8は、画像座標変換手段の構成を示すブロック図である。ここでは、画像座標変換手段73は、減算手段73aと、画像座標算出手段73bとを備えている。
減算手段73aは、視線ベクトルからパン角・チルト角を減算して誤差角度を算出するものである。ここでは、減算手段73aは、軌跡構成点の全点について各点ごとに、視線ベクトルから現在撮影中のカメラのパン角・チルト角を差し引き、各軌跡構成点が軌跡画像を重畳すべき映像フレームの画像中心から水平・垂直方向にそれぞれ何度ずれているかを示す誤差角度を算出する。
具体的には、減算手段73aは、注目する軌跡構成点群の一点の水平角度をρobj、パン角をρcam、水平方向の誤差角度をρsubとしたとき、以下の式(4)により水平方向の誤差角度ρsubを算出する。
Here, the configuration of the image coordinate conversion means 73 will be described in detail with reference to FIG. FIG. 8 is a block diagram showing the configuration of the image coordinate conversion means. Here, the image coordinate conversion means 73 includes a subtraction means 73a and an image coordinate calculation means 73b.
The subtracting means 73a calculates an error angle by subtracting the pan angle / tilt angle from the line-of-sight vector. Here, the subtracting unit 73a subtracts the pan angle / tilt angle of the camera currently being photographed from the line-of-sight vector for each point for all points of the trajectory composing points, and the video frame in which the trajectory composing points should superimpose the trajectory image. An error angle indicating how many times the image center is shifted in the horizontal and vertical directions is calculated.
Specifically, the subtracting unit 73a uses the following formula (4) when the horizontal angle of one point of the locus constituting point group of interest is ρ obj , the pan angle is ρ cam , and the horizontal error angle is ρ sub. An error angle ρ sub in the horizontal direction is calculated.

Figure 2007226761
Figure 2007226761

画像座標算出手段73bは、画角値に基づいて、減算手段73aで算出された誤差角度を画像座標に変換するものである。
具体的には、画像座標算出手段73bは、画角値をFOV、画像の水平方向の画素数をWIDとすると、以下の式(5)により、軌跡構成点の軌跡画像を重畳すべき映像フレーム中に描画すべき位置のx座標を算出する。
The image coordinate calculation means 73b converts the error angle calculated by the subtraction means 73a into image coordinates based on the angle of view value.
Specifically, the image coordinate calculation means 73b is a video frame on which the trajectory image of the trajectory composing point is to be superimposed by the following equation (5), where the angle of view value is FOV and the number of pixels in the horizontal direction of the image is WID. The x coordinate of the position to be drawn inside is calculated.

Figure 2007226761
Figure 2007226761

このように、注目している軌跡構成点の軌跡画像を重畳すべき映像フレーム上における位置のx座標を求めることができる。なお、垂直方向についても同様に計算し、y座標を得ることができる。これをすべての軌跡構成点について計算することで、現在撮影中の映像フレーム上での画像座標群を得ることができる。
図1に戻って、軌跡画像表示装置の構成について説明を続ける。
In this way, the x coordinate of the position on the video frame on which the trajectory image of the trajectory composing point of interest is to be superimposed can be obtained. Note that the y-coordinate can be obtained by calculating the vertical direction in the same manner. By calculating this for all trajectory composing points, it is possible to obtain an image coordinate group on the video frame currently being photographed.
Returning to FIG. 1, the description of the configuration of the trajectory image display device will be continued.

軌跡画像作画手段74は、画像座標変換手段73で算出された軌跡構成点群(画像座標)を用いて、軌跡画像(CG)を作画するものである。この軌跡画像作画手段74は、軌跡構成点群の各点同士を互いにつなぐことで、連続的な軌跡曲線を作画する。
以上、軌跡画像作成手段7の構成について説明したが、カメラ映像に重畳する軌跡画像として、計測した軌跡点のみをプロットした静止画像とする場合は、軌跡曲線生成手段71および軌跡構成点記憶手段72は不要である。また、軌跡画像として計測した軌跡点の静止画像のみを作成するような装置においては、軌跡画像を重畳するカメラ映像のカメラパラメータの変更があると、オブジェクト位置記憶手段6から視線ベクトル群を読み出し、読み出した視線ベクトル群を軌跡画像作成手段7の画像座標変換手段73でカメラパラメータに応じた画像座標群に変換し、この画像座標群の各点を軌跡画像作画手段74によって丸や三角等の適宜な図形として作画(プロット)するように構成すればよい。
The trajectory image drawing means 74 draws a trajectory image (CG) using the trajectory composing point group (image coordinates) calculated by the image coordinate conversion means 73. The trajectory image drawing means 74 draws a continuous trajectory curve by connecting the points of the trajectory constituent point group to each other.
The configuration of the trajectory image creation means 7 has been described above. When the trajectory image to be superimposed on the camera video is a still image in which only the measured trajectory points are plotted, the trajectory curve generation means 71 and the trajectory constituent point storage means 72 are used. Is unnecessary. In addition, in an apparatus that creates only a still image of a trajectory point measured as a trajectory image, when there is a change in the camera parameter of the camera video on which the trajectory image is superimposed, the line-of-sight vector group is read from the object position storage means 6; The read line-of-sight vector group is converted into an image coordinate group corresponding to the camera parameter by the image coordinate converting unit 73 of the trajectory image creating unit 7, and each point of the image coordinate group is appropriately selected by the trajectory image drawing unit 74 such as a circle or a triangle. What is necessary is just to comprise so that it may draw (plot) as a simple figure.

オブジェクト指定手段8は、オブジェクト抽出手段4によって自動的に検出できなかった映像オブジェクトの軌跡点を追加指定するものである。すなわち、オブジェクト指定手段8は、抽出が困難な場面等での映像オブジェクトの位置を手動で指定し、追加するもので、指定点の数や、オブジェクト抽出手段4で抽出に成功した抽出点列に対して、指定点の挿入先を任意に指定するものである。
なお、オブジェクト指定手段8は、追加指定された軌跡点に関する情報として、オブジェクト位置記憶手段6に記憶された視線ベクトル群における挿入先と、画像座標と、その軌跡点を指定したときに参照した映像フレームに対応するカメラパラメータとをオブジェクト位置算出手段5に出力する。ただし、オブジェクト指定手段8は、カメラパラメータの内のズーム量については、オブジェクト抽出手段4と同様に、画角情報記憶手段9に予め記憶された画角情報を参照し、ズーム量に対応する映像フレームの画角値に変換してからオブジェクト位置算出手段5に出力する。
The object designating unit 8 additionally designates a trajectory point of a video object that could not be automatically detected by the object extracting unit 4. That is, the object designating means 8 manually designates and adds the position of the video object in a scene that is difficult to extract, and the number of designated points or the extracted point sequence successfully extracted by the object extracting means 4 is added. On the other hand, the insertion destination of the designated point is arbitrarily designated.
Note that the object designation unit 8 includes, as information on the additionally designated locus point, an insertion destination in the line-of-sight vector group stored in the object position storage unit 6, image coordinates, and a video referred to when the locus point is designated. The camera parameter corresponding to the frame is output to the object position calculation means 5. However, the object designating unit 8 refers to the angle-of-view information stored in the angle-of-view information storage unit 9 in the same way as the object extracting unit 4 for the zoom amount in the camera parameters, and the video corresponding to the zoom amount. The image is converted into a frame angle of view value and then output to the object position calculation means 5.

ここで、図7を参照(適宜図1参照)して、オブジェクト指定手段8の構成について詳細に説明する。図7は、オブジェクト指定手段の構成を示すブロック図である。なお、オブジェクト指定手段8はPC(パーソナル・コンピュータ)を用いて実現することができる。
ここでは、オブジェクト指定手段8は、画像記憶手段81と、カメラパラメータ記憶手段82と、挿入先指定手段83と、オブジェクト位置指定手段84と、カメラパラメータ取得手段85とを備えている。
Here, with reference to FIG. 7 (refer to FIG. 1 as appropriate), the configuration of the object specifying means 8 will be described in detail. FIG. 7 is a block diagram showing the configuration of the object specifying means. The object specifying means 8 can be realized using a PC (personal computer).
Here, the object designation unit 8 includes an image storage unit 81, a camera parameter storage unit 82, an insertion destination designation unit 83, an object position designation unit 84, and a camera parameter acquisition unit 85.

画像記憶手段81は、移動する被写体を撮影した映像を録画(記憶)するものであって、一般的なハードディスク等の記憶装置である。
ここで映像を記憶しておくことで、時間的に順方向に映像フレームを辿って、映像フレーム中から映像オブジェクトを認識することが困難な場合でも、逆方向から遡って観察することで、映像オブジェクトであるボールの位置を認識することができる。
The image storage unit 81 records (stores) a video of a moving subject and is a general storage device such as a hard disk.
By storing the video here, even if it is difficult to recognize the video object from the video frame by tracing the video frame in the forward direction in time, The position of the ball that is the object can be recognized.

カメラパラメータ記憶手段82は、移動する被写体を撮影した映像に対応するカメラパラメータを記憶するものであって、一般的なハードディスク等の記憶装置である。   The camera parameter storage unit 82 stores camera parameters corresponding to an image obtained by photographing a moving subject, and is a general storage device such as a hard disk.

挿入先指定手段83は、オブジェクト抽出手段4によって抽出された映像オブジェクトの軌跡点群(視線ベクトル群)に対して、追加する軌跡点の挿入先を指定するものである。この挿入先指定手段83は、オペレータ(カメラマン)によってPCのキーボード等の入力手段(図示せず)を介して、挿入先の指定を受け、すでに得られている視線ベクトル群に対して追加する軌跡点の挿入先をオブジェクト位置算出手段5に出力する。   The insertion destination designating unit 83 designates the insertion destination of the locus point to be added to the locus point group (line-of-sight vector group) of the video object extracted by the object extracting unit 4. The insertion destination designation means 83 receives a designation of the insertion destination by an operator (cameraman) via an input means (not shown) such as a PC keyboard, and adds a trajectory to be added to the already obtained line-of-sight vector group. The point insertion destination is output to the object position calculation means 5.

オブジェクト位置指定手段84は、映像フレームを参照して追加する軌跡点の画像座標を指定するものである。このオブジェクト位置指定手段84は、所望の映像フレームをPCの表示装置に表示し、マウスをポインティングデバイスとして機能させ、マウスの動作に連動したカーソルを映像フレームが表示された画面上に重畳表示し、マウスに設けられたボタンが押下されたときに、カーソルが表示された点の映像フレーム上の座標を画像座標としてオブジェクト位置算出手段5に出力する。なお、ポインティングデバイスには、マウス以外にも、タッチパッド、トラックボール等でもよいし、表示画面上にタッチパネル設け、直接画面上の点をタッチして指示するように構成してもよい。   The object position designation means 84 designates the image coordinates of the locus point to be added with reference to the video frame. The object position specifying means 84 displays a desired video frame on the display device of the PC, causes the mouse to function as a pointing device, and superimposes a cursor linked to the operation of the mouse on the screen on which the video frame is displayed. When a button provided on the mouse is pressed, the coordinates on the video frame at the point where the cursor is displayed are output to the object position calculation means 5 as image coordinates. In addition to the mouse, the pointing device may be a touch pad, a trackball, or the like. Alternatively, a touch panel may be provided on the display screen, and a point on the screen may be directly touched to indicate.

カメラパラメータ取得手段85は、画像座標を指定したときに参照した映像に対応するカメラパラメータを、カメラパラメータ記憶手段82またはカメラ3から取得するものである。すなわち、カメラパラメータ取得手段85は、画像記憶手段81に記憶した映像フレームを用いる場合、カメラパラメータ記憶手段82からカメラパラメータを取得し、現在撮影中のカメラ映像の映像フレームを用いる場合は、カメラ3から出力されるカメラパラメータを直接取得する。   The camera parameter acquisition unit 85 acquires the camera parameter corresponding to the video referred to when the image coordinates are designated from the camera parameter storage unit 82 or the camera 3. That is, the camera parameter acquisition unit 85 acquires the camera parameter from the camera parameter storage unit 82 when using the video frame stored in the image storage unit 81, and uses the camera frame when using the video frame of the currently captured camera video. Directly obtain the camera parameters output from.

ここで、図4および図5を参照(適宜図7参照)して、オブジェクト指定手段8において、挿入点を指定する手法について説明する。
オブジェクト指定手段8は、オペレータが「打点」を選択した場合、挿入先指定手段83によって、軌跡を構成する視線ベクトル群の一番目の点として指定した点を挿入する。また、オペレータが「静止点」を選択した場合、挿入先指定手段83によって、視線ベクトル群の最後の点として指定した点を追加する。
Here, with reference to FIG. 4 and FIG. 5 (refer to FIG. 7 as appropriate), a method for designating an insertion point in the object designation means 8 will be described.
When the operator selects “spot”, the object designating unit 8 inserts the point designated by the insertion destination designating unit 83 as the first point of the line-of-sight vector group constituting the trajectory. When the operator selects “still point”, the insertion destination designating unit 83 adds the point designated as the last point of the line-of-sight vector group.

例えば、図4において、飛翔中の軌跡点としてB1〜B17が得られている状態で、「打点」を追加する場合、オペレータは「B1の前」を指示することで、挿入先を指定する。また、「落下点」を追加する場合、オペレータは「B17の後」を指示することにより、挿入先を指定する。そして、「静止点」を追加する場合、オペレータは「落下点」を追加した後であれば、「Cの後」を指示することで、最後の点として挿入先を指定することができる。また、飛翔中の軌跡点中の挿入先を指定することも可能である。このように、指定する点の数、挿入先は任意に設定することができる。   For example, in FIG. 4, in the state where B1 to B17 are obtained as the trajectory points in flight, when adding “batting points”, the operator designates the insertion destination by instructing “before B1”. In addition, when adding “falling point”, the operator designates the insertion destination by instructing “after B17”. Then, when adding the “still point”, the operator can designate the insertion destination as the last point by instructing “after C”, after adding the “falling point”. It is also possible to specify an insertion destination in a trajectory point during flight. As described above, the number of points to be specified and the insertion destination can be arbitrarily set.

また、図5は、オブジェクト抽出手段4(図1)によって抽出に成功した飛翔中の軌跡点B1〜B17と、オブジェクト指定手段8によって、すでに追加した打点Aの軌跡画像がその番号とともに表示した例を示している。この場合、オペレータは、次に追加する軌跡点として「落下点」を指定し、画面に表示された映像中にその位置をマウス等の入力手段によって指定する。例えば、オブジェクト指定手段8は、オブジェクト位置指定手段84によって、画面に十字形のカーソルを表示し、マウスを操作されることで所望の位置にカーソルを移動させる。その後、マウスに設けられたボタンを押下することで「落下点」の画像座標が決定される。
なお、図5に表示された映像フレームは、移動軌跡全体を表示できる広角映像であるが、広角映像を参照しながら挿入先を指定した後、所望の望遠画像を表示して軌跡点の位置を指定することとしてもよい。
FIG. 5 shows an example in which the trajectory points B1 to B17 in flight successfully extracted by the object extracting means 4 (FIG. 1) and the trajectory image of the hit point A already added by the object specifying means 8 are displayed together with their numbers. Is shown. In this case, the operator designates “falling point” as the locus point to be added next, and designates the position in the video displayed on the screen by an input means such as a mouse. For example, the object designation means 8 displays a cross-shaped cursor on the screen by the object position designation means 84 and moves the cursor to a desired position by operating the mouse. Thereafter, the image coordinates of the “falling point” are determined by pressing a button provided on the mouse.
The video frame displayed in FIG. 5 is a wide-angle video that can display the entire movement trajectory. However, after specifying the insertion destination while referring to the wide-angle video, the desired telephoto image is displayed and the position of the trajectory point is indicated. It may be specified.

また、ここでは、オブジェクト指定手段8における軌跡点の追加をする機能について説明したが、不要な軌跡点を削除する機能を付加するようにしてもよい。不要な軌跡点を削除する場合は、軌跡点列をその番号とともにPCの画面上に表示し、削除したい軌跡点の番号をキーボードから指定するように構成することができる。
図1に戻って、軌跡画像表示装置の構成について説明を続ける。
Although the function for adding a locus point in the object designating unit 8 has been described here, a function for deleting an unnecessary locus point may be added. When deleting an unnecessary trajectory point, the trajectory point sequence can be displayed on the screen of the PC together with its number, and the number of the trajectory point to be deleted can be designated from the keyboard.
Returning to FIG. 1, the description of the configuration of the trajectory image display device will be continued.

画角情報記憶手段9は、カメラパラメータの内のズーム量と画角値との関係を予め記憶するものであって、一般的なハードディスク等の記憶装置である。例えば、ズーム量としてレンズのワイド端を“0.0”、テレ端を“1.0”とした場合、“0.0”〜“1.0”間のズーム量の値に対して、画角値を記憶しておく。例えば、ズーム量“0.1” の場合、画角値を“50.0”とする。   The angle-of-view information storage means 9 stores in advance the relationship between the zoom amount and the angle-of-view value in the camera parameters, and is a general storage device such as a hard disk. For example, if the zoom end is “0.0” at the wide end and “1.0” at the tele end, the zoom amount between “0.0” and “1.0” The angle value is stored. For example, when the zoom amount is “0.1”, the angle of view value is “50.0”.

軌跡画像合成手段10は、軌跡画像作成手段7から入力された軌跡画像データに基づいて、図示しない軌跡画像用のフレームメモリ上に軌跡画像を描画するものである。この軌跡画像用のフレームメモリに描画された軌跡画像は、軌跡画像をカメラ3が撮影した映像信号と合成され、合成画像の映像信号として出力される。   The trajectory image synthesizing unit 10 draws a trajectory image on a trajectory image frame memory (not shown) based on the trajectory image data input from the trajectory image creation unit 7. The trajectory image drawn in the trajectory image frame memory is combined with a video signal obtained by photographing the trajectory image by the camera 3 and output as a video signal of the composite image.

画像表示手段11は、軌跡画像合成手段10によって軌跡画像が合成された映像信号を表示するものである。具体的には、CRT(カソード・レイ・チューブ)モニタや液晶表示モニタ等の表示装置である。
以上、軌跡画像表示装置2の構成について説明したが、軌跡画像表示装置2から画像表示手段11を省略することで、軌跡画像を生成する軌跡画像合成装置1として構成することもできる。
The image display means 11 displays the video signal in which the trajectory image is synthesized by the trajectory image synthesis means 10. Specifically, it is a display device such as a CRT (cathode ray tube) monitor or a liquid crystal display monitor.
Although the configuration of the trajectory image display device 2 has been described above, the trajectory image synthesis device 1 that generates a trajectory image can be configured by omitting the image display unit 11 from the trajectory image display device 2.

また、映像オブジェクトの軌跡画像合成装置1および映像オブジェクトの軌跡画像表示装置2は、一部またはすべてを専用のハードウェアを作成して実施することができるが、一般的なコンピュータプログラムを実行させ、コンピュータ内の演算装置、記憶装置、入力装置、画像表示装置等を動作させることにより実現することもできる。このプログラム(映像オブジェクトの軌跡画像表示プログラム)は、通信回線を介して配布することも可能であるし、CD−ROM等の記録媒体に書き込んで配布することも可能である。   The video object trajectory image synthesis device 1 and the video object trajectory image display device 2 can be implemented by creating a dedicated hardware part or all of them, but executing a general computer program, It can also be realized by operating an arithmetic device, a storage device, an input device, an image display device and the like in the computer. This program (video object trajectory image display program) can be distributed via a communication line, or can be written on a recording medium such as a CD-ROM for distribution.

(軌跡画像表示装置(軌跡画像合成装置)の動作)
次に、図11を参照(適宜図1参照)して、映像オブジェクトの軌跡画像合成装置1を含む映像オブジェクトの軌跡画像表示装置2の動作を説明する。ここで、図11は、映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の処理の流れを示すフロー図である。
軌跡画像表示装置2は、カメラ3から入力される映像信号(映像フレーム)およびカメラパラメータを映像フレームごとにオブジェクト抽出手段4に入力する(ステップS10)。そして、オブジェクト抽出手段4によって、入力された映像フレームから所定の映像オブジェクトを抽出し、その映像フレーム内での映像オブジェクトの2次元座標(画像座標)を取得する(ステップS11)。そして、オブジェクト抽出手段4は、取得した画像座標を、その画像座標を取得した映像フレームに対応したカメラパラメータとともにオブジェクト位置算出手段5に出力する。ただし、カメラパラメータの内のズーム量は、対応する画角値に変換されてからオブジェクト位置算出手段5に入力される。
(Operation of the trajectory image display device (trajectory image composition device))
Next, referring to FIG. 11 (see FIG. 1 as appropriate), the operation of the video object trajectory image display device 2 including the video object trajectory image synthesis device 1 will be described. FIG. 11 is a flowchart showing a processing flow of the video object trajectory image display apparatus including the video object trajectory image synthesis apparatus.
The trajectory image display device 2 inputs the video signal (video frame) and camera parameters input from the camera 3 to the object extraction unit 4 for each video frame (step S10). Then, the object extraction unit 4 extracts a predetermined video object from the input video frame, and acquires the two-dimensional coordinates (image coordinates) of the video object in the video frame (step S11). Then, the object extraction unit 4 outputs the acquired image coordinates to the object position calculation unit 5 together with camera parameters corresponding to the video frame from which the image coordinates are acquired. However, the zoom amount in the camera parameters is input to the object position calculation means 5 after being converted into the corresponding field angle value.

また、軌跡画像表示装置2は、オブジェクト位置算出手段5によって、オブジェクト抽出手段4から入力される画像座標と、カメラ3の姿勢情報であるパン角・チルト角および画角とに基づいて、視線ベクトルを算出し(ステップS12)、算出した視線ベクトル(オブジェクト位置)をオブジェクト位置記憶手段6に記憶する(ステップS13)。ここで、オブジェクト抽出手段4は、1つの映像フレームから映像オブジェクトの視線ベクトルの算出が完了すると、次の映像フレームがあるか確認する(ステップS14)。次の映像フレームがある場合は(ステップS14でYes)、ステップS10に戻り、次の映像フレームの映像信号と対応するカメラパラメータを入力し、映像オブジェクトの抽出から視線ベクトルの算出・記憶までの処理(ステップS10からステップS13)を繰り返す。   Further, the trajectory image display device 2 uses the line-of-sight vector based on the image coordinates input from the object extraction unit 4 by the object position calculation unit 5 and the pan angle / tilt angle and the angle of view as the posture information of the camera 3. Is calculated (step S12), and the calculated line-of-sight vector (object position) is stored in the object position storage means 6 (step S13). Here, when the calculation of the line-of-sight vector of the video object from one video frame is completed, the object extraction unit 4 checks whether there is a next video frame (step S14). If there is a next video frame (Yes in step S14), the process returns to step S10, the video signal of the next video frame and the corresponding camera parameter are input, and the processing from video object extraction to line-of-sight vector calculation / storage is performed. (Step S10 to Step S13) are repeated.

一方、移動する被写体を撮影した一連の映像フレーム群から被写体に対応する映像オブジェクトの視線ベクトルの取得が終了すると(ステップS14でNo)、オブジェクト指定手段8によって、映像オブジェクトの軌跡点の追加があるかどうかを確認する(ステップS15)。映像オブジェクトの軌跡点の追加がある場合は(ステップS15でYes)、オブジェクト指定手段8によって、オペレータが任意の映像フレームを参照しながら指定して追加する軌跡点に関する情報を取得する(ステップS16)。   On the other hand, when the acquisition of the line-of-sight vector of the video object corresponding to the subject is completed from a series of video frames obtained by photographing the moving subject (No in step S14), the object specifying means 8 adds a trajectory point of the video object. Whether or not (step S15). If there is an additional trajectory point of the video object (Yes in step S15), the object specifying unit 8 acquires information on the trajectory point that is specified and added by the operator with reference to an arbitrary video frame (step S16). .

そして、軌跡画像表示装置2は、オブジェクト指定手段8において、追加指定された軌跡点に関する情報として、オブジェクト位置記憶手段6に記憶された視線ベクトル群における挿入先と、画像座標と、その軌跡点を指定したときに参照した映像フレームに対応するカメラパラメータとをオブジェクト位置算出手段5に出力する。ただし、カメラパラメータの内のズーム量は、画角情報記憶手段9に予め記憶された画角情報を参照し、ズーム量に対応する映像フレームの画角値に変換してからオブジェクト位置算出手段5に入力される。   Then, the trajectory image display device 2 uses the object designation means 8 as the information about the additionally designated trajectory point, the insertion destination in the line-of-sight vector group stored in the object position storage means 6, the image coordinates, and the trajectory point. The camera parameter corresponding to the video frame referred to when it is designated is output to the object position calculation means 5. However, the zoom amount in the camera parameters is converted to the angle value of the video frame corresponding to the zoom amount by referring to the angle information stored in advance in the angle angle information storage unit 9 and then the object position calculating unit 5. Is input.

そして、軌跡画像表示装置2は、オブジェクト位置算出手段5によって、オブジェクト指定手段8から入力された画像座標と、カメラの姿勢情報であるパン角・チルト角および画角とに基づいて視線ベクトルを算出し(ステップS17)、算出した視線ベクトル(オブジェクト位置)を、オブジェクト指定手段8によって指定された視点ベクトル群における挿入先に従って、オブジェクト位置記憶手段6の視線ベクトル群に追加記憶する(ステップS18)。そして、軌跡画像表示装置2は、指定された軌跡点のオブジェクト位置の記憶が終了すると、さらに、映像オブジェクトの軌跡点の追加があるかどうかを確認し(ステップS15)、追加がある場合には(ステップS15でYes)、ステップS16からステップS18の処理を繰り返す。また、軌跡点の追加がない場合は(ステップS15でNo)、軌跡画像作成手段7によって軌跡画像作成処理を行う(ステップS19)。   Then, the trajectory image display device 2 calculates the line-of-sight vector by the object position calculation means 5 based on the image coordinates input from the object designation means 8 and the pan angle / tilt angle and the angle of view, which are camera posture information. Then, the calculated line-of-sight vector (object position) is additionally stored in the line-of-sight vector group of the object position storage means 6 in accordance with the insertion destination in the viewpoint vector group designated by the object designation means 8 (step S18). Then, when the trajectory image display device 2 finishes storing the object position of the designated trajectory point, the trajectory image display device 2 further checks whether or not a trajectory point of the video object has been added (step S15). (Yes in step S15), the processing from step S16 to step S18 is repeated. If no locus point is added (No in step S15), locus image creation processing is performed by the locus image creation means 7 (step S19).

そして、指定点の追加がなくなると(ステップS15でNo)、軌跡画像表示装置2は、軌跡画像作成手段7によって、オブジェクト位置記憶手段6から読み出される映像オブジェクトの視線ベクトル群に基づいて、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応した軌跡画像を作成する(ステップS20)。なお、軌跡画像作成手段7の詳細な動作については後記する。   When the designated point is no longer added (No in step S15), the trajectory image display device 2 uses the trajectory image creation unit 7 based on the line-of-sight vector group of the video object read from the object position storage unit 6. A trajectory image corresponding to the camera parameter when the video to be superimposed is photographed is created (step S20). The detailed operation of the trajectory image creation means 7 will be described later.

続いて、軌跡画像表示装置2は、軌跡画像合成手段10によって、軌跡画像作成手段7により作成された軌跡画像と、カメラ3によって現在撮影中の映像信号とを合成し、合成画像の映像信号として出力する(ステップS20)。   Subsequently, the trajectory image display device 2 synthesizes the trajectory image created by the trajectory image creation means 7 by the trajectory image synthesis means 10 and the video signal currently being photographed by the camera 3 to obtain a video signal of the composite image. Output (step S20).

そして、軌跡画像表示装置2は、軌跡画像合成手段10によって出力された軌跡画像が合成された映像信号を、必要に応じてCRT(カソード・レイ・チューブ)モニタや液晶表示モニタ等の画像表示手段11によって表示する(ステップS21)。なお、この軌跡画像が合成された映像信号は、テレビ放送電波やインターネット回線等を介して送信され、テレビ受像器やPC(パーソナル・コンピュータ)等の受信器側の表示装置に表示される。   Then, the trajectory image display device 2 converts the video signal obtained by synthesizing the trajectory image output by the trajectory image synthesizing unit 10 into an image display unit such as a CRT (cathode ray tube) monitor or a liquid crystal display monitor as necessary. 11 (step S21). The video signal combined with the trajectory image is transmitted via a television broadcast wave, an Internet line, or the like, and is displayed on a display device on the receiver side such as a television receiver or a PC (personal computer).

次に、図11に示したフロー図のサブルーチンについて詳細に説明する。
<オブジェクト抽出ステップ>
オブジェクト抽出ステップS11の詳細について、図12を参照して説明する。ここで、図12はオブジェクト抽出手段の処理の流れを示すフロー図である。
まず、オブジェクト抽出手段4は、第一段階としてクロマキー処理手段41によって、入力された映像フレームから映像オブジェクト候補を抽出する(ステップS30)。そして、第二段階として、フィルタ処理手段42によって、抽出した映像オブジェクト候補に対しフィルタ処理を行い、クロマキー処理手段41により抽出された映像オブジェクト候補から映像オブジェクトを抽出する(ステップS31)。そして、重心算出手段43によって、フィルタ処理手段42により抽出された映像オブジェクトの抽出画像の重心を算出することで映像オブジェクトの中心位置を特定し、映像フレーム内における映像オブジェクトの2次元の画像座標を取得する(ステップS32)。
Next, the subroutine of the flowchart shown in FIG. 11 will be described in detail.
<Object extraction step>
Details of the object extraction step S11 will be described with reference to FIG. Here, FIG. 12 is a flowchart showing the processing flow of the object extracting means.
First, the object extraction unit 4 extracts video object candidates from the input video frame by the chroma key processing unit 41 as a first step (step S30). Then, as a second stage, the filter processing means 42 performs filter processing on the extracted video object candidates, and extracts video objects from the video object candidates extracted by the chroma key processing means 41 (step S31). Then, the center of gravity of the video object extracted by the filter processing means 42 is calculated by the center of gravity calculating means 43 to identify the center position of the video object, and the two-dimensional image coordinates of the video object in the video frame are determined. Obtain (step S32).

<オブジェクト位置算出ステップ>
次に、オブジェクト位置算出ステップ(S12およびS17)の詳細について、図13を参照して説明する。ここで、図13はオブジェクト位置算出手段の処理の流れを示すフロー図である。
まず、軌跡画像表示装置2は、オブジェクト位置算出手段5によって、映像オブジェクトの画像座標とカメラパラメータが入力されると(ステップS40)、カメラパラメータの内のズーム量を、ズーム量と画角値との関係を予め記憶した画角情報記憶手段9を参照し、画角値を取得する(ステップS41)。そして、軌跡画像表示装置2は、オブジェクト位置算出手段5の誤差角度算出手段51によって、その画角値に基づいて、画像座標を誤差角度に変換する(ステップS42)。そして、オブジェクト位置算出手段5の加算手段52によって、誤差角度算出手段51で算出された水平・垂直方向の誤差角度を、それぞれパン角・チルト角値へ加算することで、映像オブジェクトの視線ベクトルを算出する(ステップS43)。
<Object position calculation step>
Next, details of the object position calculating step (S12 and S17) will be described with reference to FIG. Here, FIG. 13 is a flowchart showing the processing flow of the object position calculation means.
First, when the image coordinates of the video object and the camera parameters are input by the object position calculation unit 5 (step S40), the trajectory image display device 2 converts the zoom amount of the camera parameters into the zoom amount and the field angle value. The angle-of-view value is obtained by referring to the angle-of-view information storage means 9 that stores the relationship in advance (step S41). Then, the trajectory image display device 2 converts the image coordinates into an error angle based on the field angle value by the error angle calculation unit 51 of the object position calculation unit 5 (step S42). Then, the addition means 52 of the object position calculation means 5 adds the horizontal and vertical error angles calculated by the error angle calculation means 51 to the pan angle and tilt angle values, respectively, thereby obtaining the line-of-sight vector of the video object. Calculate (step S43).

<オブジェクト指定ステップ>
次に、オブジェクト指定ステップS16の詳細について、図14を参照して説明する。ここで、図14はオブジェクト指定手段の処理の流れを示すフロー図である。
まず、軌跡画像表示装置2は、オブジェクト指定手段8において、挿入先指定手段83によって、オペレータがPCのキーボード等の入力手段を介して行う指定により、すでに得られている視線ベクトル群に対して追加する軌跡点の挿入先を取得する(ステップS50)。
<Object specification step>
Next, details of the object specifying step S16 will be described with reference to FIG. Here, FIG. 14 is a flowchart showing the processing flow of the object designating means.
First, the trajectory image display device 2 is added to the line-of-sight vector group already obtained by the designation by the operator through the input means such as the PC keyboard by the insertion destination designation means 83 in the object designation means 8. The locus point insertion destination is acquired (step S50).

そして、挿入先が指定されると、オブジェクト指定手段8は、軌跡点の位置を特定するために、オブジェクト位置指定手段84に対して、オペレータの選択に従って参照する映像フレームを指示する(ステップS51)。この参照する映像フレームとしては、現在撮影中の映像フレームを参照するか、画像記憶手段81に録画しておいた、対象とする映像オブジェクトを撮影した一連の映像フレーム群から所望の映像フレームを読み出して参照するかを選択できる。   When the insertion destination is designated, the object designating unit 8 instructs the object position designating unit 84 to refer to a video frame according to the operator's selection in order to identify the position of the locus point (step S51). . As the video frame to be referred to, a desired video frame is read out from a series of video frames in which the target video object is captured, which is recorded in the image storage unit 81 with reference to the currently captured video frame. Can be selected.

なお、画像記憶手段81に録画された映像を参照する場合は、追加すべき映像オブジェクトが撮影された映像フレームを参照するのが望ましい。例えば、落下点を追加したい場合は、オブジェクト位置指定手段84は、図4において落下点を撮影した映像フレームFを画像記憶手段81から取得して、PCの表示装置に表示する(ステップS52)。このときオペレータによってコマ送りが選択されると、オブジェクト位置指定手段84は、画像記憶手段81に録画された映像フレームを1枚ずつ読み出して表示するため、オペレータは所望の映像フレームを正確に指定することができる(ステップS51〜ステップS53の繰り返し)。
そして、軌跡画像表示装置2は、オブジェクト位置指定手段84により、所望の映像フレームを取得してPCの画面上に表示すると(ステップS53でYes)、オペレータによるマウスの操作に連動してカーソルを移動させる。そして、オペレータによってマウスのボタンが押下されたときのカーソル表示点の映像フレーム上の座標を、追加する軌跡点の画像座標として取得する(ステップS54)。
In addition, when referring to the video recorded in the image storage unit 81, it is preferable to refer to the video frame in which the video object to be added is captured. For example, if you want to add a drop point, the object position specifying means 84, acquires the video frame F C obtained by photographing the falling point from the image storage unit 81 in FIG. 4, is displayed on the display device of the PC (step S52) . At this time, when frame advance is selected by the operator, the object position specifying unit 84 reads and displays the video frames recorded in the image storage unit 81 one by one, so that the operator specifies the desired video frame accurately. (Repeat step S51 to step S53).
When the trajectory image display device 2 acquires a desired video frame by the object position specifying unit 84 and displays it on the PC screen (Yes in step S53), the trajectory image display device 2 moves the cursor in conjunction with the mouse operation by the operator. Let Then, the coordinates on the video frame of the cursor display point when the mouse button is pressed by the operator are acquired as the image coordinates of the locus point to be added (step S54).

そして、追加する軌跡点の画像座標が指定されると、カメラパラメータ取得手段85によって、参照した映像フレームに対応するカメラパラメータを取得する(ステップS55)。
なお、参照した映像フレームが画像記憶手段81に録画された映像の場合は、カメラパラメータ取得手段85は、カメラパラメータ記憶手段82から参照した映像フレームに対応するカメラパラメータを取得する。
また、参照する映像フレームとして現在撮影中のカメラ映像を用いる場合は、カメラパラメータ取得手段85は、カメラ3から出力されるカメラパラメータを直接取得する。
When the image coordinates of the locus point to be added are designated, the camera parameter acquisition unit 85 acquires camera parameters corresponding to the referenced video frame (step S55).
When the referenced video frame is a video recorded in the image storage unit 81, the camera parameter acquisition unit 85 acquires the camera parameter corresponding to the referenced video frame from the camera parameter storage unit 82.
In addition, when using the camera video currently being shot as the video frame to be referenced, the camera parameter acquisition unit 85 directly acquires the camera parameter output from the camera 3.

また、オブジェクト指定手段8によって取得した、軌跡点として追加する点の画像座標、カメラパラメータおよび視線ベクトル群に対する挿入先の情報は、オブジェクト位置算出手段5に出力され、視線ベクトルが算出されると(図11のステップS17)、オブジェクト位置記憶手段6に記憶された視線ベクトル群に追加記憶される(図11のステップS18)。   Further, the image coordinates of the point to be added as the trajectory point acquired by the object designating unit 8, the camera parameters, and the information on the insertion destination for the line-of-sight vector group are output to the object position calculating unit 5 and the line-of-sight vector is calculated ( Step S17 in FIG. 11 is additionally stored in the line-of-sight vector group stored in the object position storage means 6 (step S18 in FIG. 11).

<軌跡画像作成ステップ>
次に、軌跡画像作成ステップS19の詳細について、図15を参照して説明する。ここで、図15は軌跡画像作成手段の動作の流れを示すフロー図である。
まず、軌跡画像表示装置2は、軌跡画像作成手段7の軌跡曲線生成手段71によって、オブジェクト位置記憶手段6から軌跡に対応する一連の視線ベクトル群を読み出し、その視線ベクトル群にベジェ曲線、スプライン曲線、2次曲線等の曲線関数を適用して軌跡曲線を定義し、その軌跡曲線を構成する点列の視線ベクトル群を算出する(ステップS60)。この算出した視線ベクトル群は、軌跡構成点記憶手段72に一旦記憶される(ステップS61)。
<Track image creation step>
Next, details of the locus image creation step S19 will be described with reference to FIG. Here, FIG. 15 is a flowchart showing the flow of operation of the trajectory image creation means.
First, the trajectory image display device 2 reads a series of line-of-sight vector groups corresponding to the trajectory from the object position storage means 6 by the trajectory curve generation means 71 of the trajectory image creation means 7 and uses the Bezier curves and spline curves as the line-of-sight vector groups. A trajectory curve is defined by applying a curve function such as a quadratic curve, and a line-of-sight vector group of the point sequence constituting the trajectory curve is calculated (step S60). The calculated line-of-sight vector group is temporarily stored in the trajectory composing point storage means 72 (step S61).

そして、軌跡画像表示装置2は、軌跡画像作成手段7の画像座標変換手段73によって、軌跡構成点記憶手段72に記憶された視線ベクトル群のデータを読み出し、極座標で表わされた視線ベクトル群を、現在撮影中のカメラパラメータに対応した画像座標群に変換する(ステップS62)。
さらに、軌跡画像表示装置2は、軌跡画像作成手段7の軌跡画像作画手段74によって、画像座標変換手段73により算出した軌跡構成点群(画像座標)に基づいて、軌跡画像を作画する(ステップS63)。
Then, the trajectory image display device 2 reads the data of the line-of-sight vector group stored in the trajectory composing point storage means 72 by the image coordinate conversion means 73 of the trajectory image creation means 7 and obtains the line-of-sight vector group represented by polar coordinates. Then, it is converted into an image coordinate group corresponding to the camera parameter currently being photographed (step S62).
Further, the trajectory image display device 2 draws a trajectory image based on the trajectory constituent point group (image coordinates) calculated by the image coordinate conversion means 73 by the trajectory image creation means 74 of the trajectory image creation means 7 (step S63). ).

そして、軌跡画像表示装置2は、軌跡画像作成手段7によって、他の軌跡も作画するかどうかを確認し(ステップS64)、さらに作画すべき軌跡がある場合は(ステップS64でYes)、作画すべき軌跡の軌跡構成点群を指定して(ステップS66)、軌跡構成点記憶手段72から読み出した視線ベクトル群から画像座標群への変換処理(ステップS62)と軌跡画像作画処理(ステップS63)を順次行う。一方、他に作画すべき軌跡がない場合は(ステップS64でNo)、軌跡画像作成手段7は、軌跡画像を重畳すべき映像を撮影中のカメラパラメータに変更がないかを確認する(ステップS65)。そして、カメラパラメータの変更がある場合は(ステップS65でYes)、作画すべき軌跡について軌跡構成点記憶手段72から軌跡構成点を読み出し、再度変更されたカメラパラメータに対応する軌跡画像を作画する(ステップS62〜ステップS64、ステップS66)。一方、カメラパラメータの変更がない場合は(ステップS65でNo)処理を終了し、カメラ3で撮像される映像と軌跡画像の合成を行う(図11に示すフロー図のステップS20)。   Then, the trajectory image display device 2 confirms whether or not another trajectory is to be drawn by the trajectory image creating means 7 (step S64). If there is a trajectory to be further drawn (Yes in step S64), the trajectory image display device 2 draws the image. A trajectory constituent point group of the power trajectory is specified (step S66), and a conversion process (step S62) and a trajectory image drawing process (step S63) from the line-of-sight vector group read from the trajectory constituent point storage means 72 to the image coordinate group are performed. Do it sequentially. On the other hand, when there is no other trajectory to be drawn (No in step S64), the trajectory image creating means 7 confirms whether there is a change in the camera parameter during shooting of the video on which the trajectory image is to be superimposed (step S65). ). If the camera parameter has been changed (Yes in step S65), the trajectory constituent point is read from the trajectory constituent point storage means 72 for the trajectory to be drawn, and a trajectory image corresponding to the changed camera parameter is drawn again ( Step S62 to Step S64, Step S66). On the other hand, if the camera parameter has not been changed (No in step S65), the process is terminated, and the video image captured by the camera 3 and the trajectory image are combined (step S20 in the flowchart shown in FIG. 11).

以上の動作によって、映像オブジェクトの軌跡画像合成装置1は、映像オブジェクトの軌跡画像とカメラ映像を合成した合成画像の映像信号を出力し、また、映像オブジェクトの軌跡画像表示装置2は、は、その合成画像の映像を表示することができる。
これによって、軌跡画像表示装置2(軌跡画像合成装置1)は、軌跡画像(CG)を生成し、映像と合成することで、図9に示すような、被写体の軌跡を映像上に軌跡曲線として表示(合成)することができる。
また、この軌跡画像はCGであるため、軌跡の色、形、大きさ、線種等は任意に指定できる。例えば、図10に示すように、ゴルフのティーショットにおいてプレーヤーごとに色を変えれば(図中では、線種を変えている)、選手の弾道の差を明確に示すことができる。また、軌跡画像表示装置2(軌跡画像合成装置1)は、打点から静止点までを徐々に作画することで、動画として表示することも可能である。
Through the above operation, the video object trajectory image synthesis device 1 outputs a video signal of a composite image obtained by synthesizing the video object trajectory image and the camera video, and the video object trajectory image display device 2 A composite image can be displayed.
As a result, the trajectory image display device 2 (trajectory image synthesis device 1) generates a trajectory image (CG) and combines it with the video, so that the trajectory of the subject as shown in FIG. It can be displayed (synthesized).
Further, since the locus image is CG, the color, shape, size, line type, etc. of the locus can be arbitrarily designated. For example, as shown in FIG. 10, if the color is changed for each player in a golf tee shot (the line type is changed in the figure), the difference in the trajectory of the player can be clearly shown. The trajectory image display device 2 (trajectory image composition device 1) can also display a moving image by gradually drawing from the hit point to the stationary point.

なお、本実施の形態では、軌跡画像を重畳する映像は、カメラで現在撮影中の映像を例に説明したが、映像はカメラで撮影中の生映像に限られるものではなく、ハードディスク、光ディスク、ビデオテープ等の記憶手段に録画された映像に対しても、その映像を撮影したときのカメラパラメータを記憶しておき、読み出せる構成として本発明を適用することができる。
また、本実施の形態では、オブジェクト抽出手段4およびオブジェクト指定手段8によって取得された軌跡測定点の視線ベクトル群に基づき、ベジェ曲線等の曲線関数を適用して軌跡曲線を作成し、軌跡曲線を構成する点を再計算して描画するようにしたが、曲線関数を適用することなく、軌跡測定点のみ描画(プロット)するようにしてもよい。
また、業務用テレビカメラを用いて撮影した映像に限らず、パン・チルト・ズームの各機能を有する撮像手段であれば、屋内や市街地等に設置するウェブカメラを用いて撮像した映像にも適用することができる。
なお、本実施の形態ではゴルフ中継でのボール軌跡を例として説明したが、野球やサッカー等の他の競技にも適用することができる。また、競技に限らず、例えば人物や自動車のような移動体についても、映像フレームから抽出可能な移動体の軌跡表示にも適用することができる。
In the present embodiment, the video on which the trajectory image is superimposed has been described by taking the video currently being shot by the camera as an example. However, the video is not limited to the live video being shot by the camera, but a hard disk, an optical disc, The present invention can also be applied to a video recorded on a storage means such as a video tape as a configuration in which camera parameters when the video is shot can be stored and read.
In the present embodiment, a trajectory curve is created by applying a curve function such as a Bezier curve based on the line-of-sight vector group of trajectory measurement points acquired by the object extracting means 4 and the object specifying means 8. Although the constituent points are recalculated and drawn, only the trajectory measurement points may be drawn (plotted) without applying the curve function.
Also, it is not limited to images taken using commercial television cameras, but can be applied to images taken using webcams installed indoors or in urban areas, as long as it is an imaging means with pan, tilt and zoom functions. can do.
In this embodiment, the ball trajectory at the golf relay has been described as an example, but the present invention can be applied to other competitions such as baseball and soccer. Further, the present invention can be applied not only to a competition but also to a moving object such as a person or a car for displaying a trajectory of the moving object that can be extracted from a video frame.

[第2の実施形態]
(本発明の原理)
前記した第1の実施形態においては、図1のオブジェクト指定手段8によって、視線ベクトルの取得が終了した後、軌跡点に関する情報を追加している。この追加作業は、視線ベクトルの取得が終了したタイミングをリアルタイムで検出できれば、その作業を素早く開始することが可能になる。
また、ボールの落下点を追加する場合、落下時刻や落下位置を推定することで作業時間を短縮することができる。
そこで、ここでは、被写体が地面に落下したタイミングおよびその地点を検出することとする。
[Second Embodiment]
(Principle of the present invention)
In the first embodiment described above, after the acquisition of the line-of-sight vector is completed by the object designating unit 8 of FIG. 1, information on the locus point is added. This additional work can be started quickly if the timing when the acquisition of the line-of-sight vector is completed can be detected in real time.
Also, when adding a ball drop point, the work time can be shortened by estimating the drop time and drop position.
Therefore, here, it is assumed that the timing when the subject falls on the ground and its point are detected.

(軌跡画像表示装置の構成)
まず、図16を参照して、本発明の第2の実施形態に係る映像オブジェクトの軌跡画像表示装置(軌跡画像合成装置を含む)の構成について説明する。図16は本発明の第2の実施形態に係る映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の全体構成を示すブロック図である。
図16に示すように、軌跡画像表示装置2Bは、オブジェクト抽出手段4Bと、オブジェクト位置算出手段5と、オブジェクト位置記憶手段6と、軌跡画像作成手段7と、オブジェクト指定手段8と、画角情報記憶手段9と、軌跡画像合成手段10と、画像表示手段11と、オブジェクト落下位置予測手段12とを備えている。オブジェクト抽出手段4Bおよびオブジェクト落下位置予測手段12以外の構成については、図1で説明した軌跡画像表示装置2と同一のものであるため、同一の符号を付し、説明を省略する。
(Configuration of locus image display device)
First, the configuration of a video object trajectory image display device (including a trajectory image synthesis device) according to the second embodiment of the present invention will be described with reference to FIG. FIG. 16 is a block diagram showing the overall configuration of a video object trajectory image display device including a video object trajectory image synthesis device according to the second embodiment of the present invention.
As shown in FIG. 16, the trajectory image display device 2B includes an object extraction unit 4B, an object position calculation unit 5, an object position storage unit 6, a trajectory image creation unit 7, an object designation unit 8, and field angle information. A storage unit 9, a trajectory image synthesis unit 10, an image display unit 11, and an object drop position prediction unit 12 are provided. Since the configuration other than the object extraction unit 4B and the object drop position prediction unit 12 is the same as that of the trajectory image display device 2 described with reference to FIG. 1, the same reference numerals are given and description thereof is omitted.

オブジェクト抽出手段4Bは、映像フレームごとに、映像オブジェクトの2次元座標(画像座標)と、その大きさ(面積)を抽出するものである。ここで、図17を参照(適宜図16参照)して、オブジェクト抽出手段4Bの構成について説明する。図17は、オブジェクト抽出手段の構成を示すブロック図である。
図17に示すように、オブジェクト抽出手段4Bは、クロマキー処理手段41と、フィルタ処理手段42と、重心算出手段43Bとを備えている。なお、重心算出手段43B以外の構成については、図2で説明したオブジェクト抽出手段4と同一のものであるため、同一の符号を付し、説明を省略する。
The object extraction unit 4B extracts the two-dimensional coordinates (image coordinates) and the size (area) of the video object for each video frame. Here, the configuration of the object extraction unit 4B will be described with reference to FIG. 17 (refer to FIG. 16 as appropriate). FIG. 17 is a block diagram showing the configuration of the object extraction means.
As shown in FIG. 17, the object extracting unit 4B includes a chroma key processing unit 41, a filter processing unit 42, and a centroid calculating unit 43B. Since the configuration other than the center-of-gravity calculating unit 43B is the same as that of the object extracting unit 4 described with reference to FIG. 2, the same reference numerals are given and description thereof is omitted.

重心算出手段43Bは、フィルタ処理手段42で抽出された映像オブジェクトの重心の座標(画像座標)を算出し、その映像オブジェクトの面積とともに出力するものである。すなわち、重心算出手段43(図2)では、重心の画像座標のみを出力していたものを、重心算出手段43Bでは、映像オブジェクトの面積を併せて出力することとした。この重心の画像座標および面積はオブジェクト落下位置予測手段12(図16)に出力される。なお、重心の画像座標の他の出力先については、重心算出手段43(図2)で説明した出力先と同様である。
図16に戻って、軌跡画像合成装置1Bの構成について説明を続ける。
The center-of-gravity calculating unit 43B calculates the coordinates (image coordinates) of the center of gravity of the video object extracted by the filter processing unit 42, and outputs it together with the area of the video object. That is, the center of gravity calculating means 43 (FIG. 2) outputs only the image coordinates of the center of gravity, and the center of gravity calculating means 43B outputs the area of the video object together. The image coordinates and area of the center of gravity are output to the object drop position prediction means 12 (FIG. 16). Note that the other output destinations of the image coordinates of the center of gravity are the same as the output destination described in the center of gravity calculation means 43 (FIG. 2).
Returning to FIG. 16, the description of the configuration of the trajectory image composition device 1B will be continued.

オブジェクト落下位置予測手段12は、オブジェクト抽出手段4Bで抽出された映像オブジェクトの重心の画像座標および面積に基づいて、映像オブジェクトとして抽出された被写体であるボールの地面への落下位置(予測落下位置)を予測するものである。このオブジェクト落下位置予測手段で予測された落下位置は、落下点の指定情報としてオブジェクト指定手段8へ出力される。
ここで、図18を参照(適宜図16参照)して、オブジェクト落下位置予測手段12の構成について説明する。図18は、オブジェクト落下位置検出手段の構成を示すブロック図である。
図18に示すように、オブジェクト落下位置予測手段12は、ショット検出手段121と、位置予測手段122と、落下点検出手段123と、座標変換手段124とを備えている。
The object fall position prediction means 12 is based on the image coordinates and area of the center of gravity of the video object extracted by the object extraction means 4B, and the fall position (predicted fall position) of the ball that is the subject extracted as the video object on the ground. Is to predict. The fall position predicted by the object fall position prediction means is output to the object designation means 8 as drop point designation information.
Here, the configuration of the object drop position prediction unit 12 will be described with reference to FIG. 18 (refer to FIG. 16 as appropriate). FIG. 18 is a block diagram showing the configuration of the object drop position detection means.
As shown in FIG. 18, the object drop position prediction unit 12 includes a shot detection unit 121, a position prediction unit 122, a drop point detection unit 123, and a coordinate conversion unit 124.

ショット検出手段(被写体移動開始検出手段)121は、被写体(ゴルフボール)を撮影しているカメラ3のカメラパラメータの変化量と予め定めた閾値との差分に基づいて、被写体の移動の開始を検出するものである。ここでは、被写体をゴルフボールとしているため、ショット検出手段121は、ゴルフボールが打たれたタイミングを検出することとする。ボールが打たれると、映像内にボールを捉えるため、カメラマンが急激にカメラ3を振り上げる動作をする。このとき、カメラパラメータのチルト角が急激に変化する。   The shot detection means (subject movement start detection means) 121 detects the start of movement of the subject based on the difference between the camera parameter change amount of the camera 3 that is photographing the subject (golf ball) and a predetermined threshold value. To do. Here, since the subject is a golf ball, the shot detection means 121 detects the timing at which the golf ball was hit. When the ball is hit, the cameraman suddenly raises the camera 3 in order to catch the ball in the video. At this time, the tilt angle of the camera parameter changes abruptly.

そこで、ここでは、ショット検出手段121は、単位時間(映像フレーム)ごとに、ある時刻tにおける映像フレームのチルト角θと、その直前(t−1)の映像フレームのチルト角θt−1との差が、以下の式(6)に示すように、予め定めた閾値Tよりも大きくなった段階で、ゴルフボールが打たれたことを検出する。このショット検出手段121によって、ゴルフボールが打たれたことを検出した旨が、位置予測手段122に通知され、位置予測手段122が動作を開始する。 Therefore, here, the shot detection means 121, for each unit time (video frame), the tilt angle theta t of the video frame at a certain time t, immediately before (t-1) of the video frame of the tilt angle theta t-1 As shown in the following formula (6), when a difference from the above becomes larger than a predetermined threshold T, it is detected that the golf ball has been hit. The shot predicting means 121 notifies the position predicting means 122 that the golf ball has been hit, and the position predicting means 122 starts operating.

Figure 2007226761
Figure 2007226761

位置予測手段122は、オブジェクト抽出手段4Bで抽出された映像オブジェクトの重心の画像座標および面積と、その抽出されたときのカメラパラメータとに基づいて、被写体であるボールの3次元位置を予測するものである。ここでは、位置予測手段122は、拡張カルマンフィルタを用いてボールの3次元位置を逐次推定する。
ここで、以下の式(7)に示すように、拡張カルマンフィルタの状態量Xを、3次元直交座標上でのボールの位置座標(x,y,z)、速度(v,v,v)、加速度(a,a,a)とし、観測量Yを、オブジェクト抽出手段4Bで抽出された映像オブジェクトの重心の画像座標(X,Y)および面積(A)とする。なお、上付き添え字Tは行列の転置を表している。
The position predicting means 122 predicts the three-dimensional position of the ball as the subject based on the image coordinates and area of the center of gravity of the video object extracted by the object extracting means 4B and the camera parameters at the time of extraction. It is. Here, the position predicting means 122 sequentially estimates the three-dimensional position of the ball using an extended Kalman filter.
Here, as shown in the following equation (7), the state quantity X of the extended Kalman filter is expressed by the position coordinates (x, y, z) of the ball on the three-dimensional orthogonal coordinates, and the velocity (v x , v y , v z), the acceleration (a x, a y, and a z), the observation amount Y, the image coordinates of the center of gravity of the video objects extracted by the object extraction unit 4B (X g, and Y g) and area (a) . The superscript T represents the transposition of the matrix.

Figure 2007226761
Figure 2007226761

また、ここでは、以下の式(8)に示すように、1フレームを単位時間とした状態遷移行列をFとし、一定の重力gのもとでの放物運動にシステムノイズvを加えたものを運動モデルとした。なお、システムノイズvの共分散行列をQとする。また、I,Oをそれぞれ3×3の単位行列、零行列とし、tをフレーム数とする。また、Eは期待値を示している。 In addition, here, as shown in the following equation (8), the state transition matrix of one frame unit time and F, were added system noise v t in parabolic motion under certain gravity g Things were used as exercise models. Note that Q is the covariance matrix of the system noise v t . Also, I and O are 3 × 3 unit matrix and zero matrix, respectively, and t is the number of frames. E represents an expected value.

Figure 2007226761
Figure 2007226761

そして、位置予測手段122は、単位時間ごとに以下の式(9)に示す状態推定式に従って、ボールの位置を逐次予測する。ここで、Pは状態量の誤差共分散行列である。なお、オブジェクト抽出手段4Bで抽出に失敗した(観測量が得られない)場合、誤差共分散行列Pの要素値は、システムノイズvの共分散行列Qの値に従い増加することになる。 Then, the position predicting unit 122 sequentially predicts the position of the ball every unit time according to the state estimation formula shown in the following formula (9). Here, P is an error covariance matrix of state quantities. Incidentally, failed extracted by the object extraction unit 4B (not observed quantities are obtained), the element values of the error covariance matrix P would increase as the value of the covariance matrix Q of system noise v t.

Figure 2007226761
Figure 2007226761

また、ここでは、以下の式(10)に示すように、カメラパラメータ(パン角:φ、チルト角:θ、焦点距離:f)による透視投影h(X)に、共分散行列Rを持つ観測ノイズwを加えたものを観測モデルとした。なお、ボールの初期位置座標(x,y,z)は、撮影前にキャリブレーションにより予め決定しておく。また、ボールの初期速度(v,v,v)および面積式の係数sは、撮影前に予め基準となるショット軌道から決定しておく。 Here, as shown in the following equation (10), an observation having a covariance matrix R in the perspective projection h (X) with camera parameters (pan angle: φ, tilt angle: θ, focal length: f) What added the noise w t was used as an observation model. The initial position coordinates (x, y, z) of the ball are determined in advance by calibration before shooting. The initial velocity (v x , v y , v z ) of the ball and the area formula coefficient s are determined in advance from a reference shot trajectory before imaging.

Figure 2007226761
Figure 2007226761

ここで、オブジェクト抽出手段4Bで抽出に成功した(観測量が得られた)場合、位置予測手段122は、以下の式(11)に示した更新式に従って、状態量Xおよび誤差共分散行列Pの要素を更新する。なお、Hは観測感度行列である。   Here, when the object extraction unit 4B succeeds in the extraction (observation amount is obtained), the position prediction unit 122 performs the state quantity X and the error covariance matrix P according to the update formula shown in the following formula (11). Update elements of. H is an observation sensitivity matrix.

Figure 2007226761
Figure 2007226761

このように、位置予測手段122は、前記した式(9)に示した状態推定式と、式(11)に示した更新式とに基づいて、観測が得られた際には更新しながら逐次状態推定を行い、ボールの3次元位置を予測する。   As described above, the position predicting unit 122 sequentially updates the observation when the observation is obtained based on the state estimation expression shown in the equation (9) and the update equation shown in the equation (11). State estimation is performed to predict the three-dimensional position of the ball.

落下点検出手段123は、位置予測手段122で予測された3次元位置と、カメラ3の位置に基づいて予め定めた3次元空間座標とに基づいて、被写体(ボール)の地面への落下点を検出するものである。
すなわち、落下点検出手段123は、位置予測手段122で予測されたボールの位置(状態量Xの要素v)が、カメラ3の位置を原点とする3次元空間座標で、予め地面として設定されている高さ(z軸方向)よりも下回った段階で、ボールが落下したと判定する。この落下点検出手段123で検出された落下点の位置は、座標変換手段124に出力される。
なお、落下点検出手段123は、落下点を検出した映像フレームあるいは時刻を、オブジェクト位置記憶手段6に記憶しておくこととしてもよい。これによって、後からボールの落下時の映像を容易に検索することが可能になる。
The drop point detection means 123 detects the drop point of the subject (ball) on the ground based on the three-dimensional position predicted by the position prediction means 122 and the three-dimensional space coordinates determined in advance based on the position of the camera 3. It is to detect.
In other words, the drop point detection means 123 is set as the ground in advance in the three-dimensional space coordinates in which the position of the ball predicted by the position prediction means 122 (the element v z of the state quantity X) has the position of the camera 3 as the origin. It is determined that the ball has fallen when it falls below the height (z-axis direction). The position of the drop point detected by the drop point detection unit 123 is output to the coordinate conversion unit 124.
The drop point detection means 123 may store the video frame or time at which the drop point is detected in the object position storage means 6. This makes it possible to easily search for an image when the ball falls later.

座標変換手段124は、カメラパラメータに基づいて、落下点検出手段123で検出された落下点(予測落下位置)を、映像フレーム内での画像座標に変換するものである。
すなわち、座標変換手段124は、カメラ3のカメラパラメータ(パン角:φ、チルト角:θ、焦点距離:f)に基づいて、3次元直交座標で示される予測落下位置を、2次元の画像座標に変換する。なお、この画像座標は、前記式(10)で示した透視投影h(X)と同様の変換式を用いることで求めることができる。この予測落下位置を示す画像座標は、オブジェクト指定手段8へ出力される。
The coordinate conversion unit 124 converts the drop point (predicted drop position) detected by the drop point detection unit 123 into image coordinates in the video frame based on the camera parameters.
That is, the coordinate conversion means 124 converts the predicted drop position indicated by the three-dimensional orthogonal coordinates into the two-dimensional image coordinates based on the camera parameters (pan angle: φ, tilt angle: θ, focal length: f) of the camera 3. Convert to The image coordinates can be obtained by using a conversion formula similar to the perspective projection h (X) shown in the formula (10). Image coordinates indicating the predicted drop position are output to the object designating unit 8.

以上説明したように、軌跡画像表示装置2Bは、ボールの落下時とその落下点を予測することができるため、落下を検出した段階で、オペレータ(カメラマン)は、軌跡点の挿入等の指定作業を素早く開始することができる。また、ボールの落下時とその落下点を予測することができるため、画像記憶手段81(図7参照)から落下時の画像を素早く検索でき、落下位置の指定作業時間を短縮することができる。
なお、軌跡画像表示装置2Bは、誤差共分散行列の要素値に応じて、予測落下位置に対して、ボールが存在する可能性が高い範囲を予測範囲として、画面上に重畳表示することとしてもよい。例えば、図19に示すように、予測落下位置Vを表示するとともに、誤差共分散行列の要素値の大きさに基づいて、予測範囲Wを表示する。これによって、オペレータ(カメラマン)は、落下位置の修正を行う場合に、予測範囲Wでボールを探索すればよいため、落下位置を素早く修正することができる。
また、軌跡画像表示装置2Bは、画像表示手段11を省略して軌跡画像合成装置1Bとして構成することもできる。
As described above, since the trajectory image display device 2B can predict when the ball is dropped and its drop point, the operator (cameraman) can specify the designated work such as insertion of the trajectory point at the stage of detecting the fall. Can start quickly. Further, since the ball can be predicted at the time of dropping and the point of dropping, the image at the time of dropping can be quickly retrieved from the image storage means 81 (see FIG. 7), and the time for specifying the dropping position can be shortened.
Note that the trajectory image display device 2B may superimpose and display the predicted range on the screen as a predicted range corresponding to the element value of the error covariance matrix. Good. For example, as shown in FIG. 19, the predicted fall position V is displayed, and the predicted range W is displayed based on the size of the element value of the error covariance matrix. As a result, when the operator (cameraman) needs to search for the ball within the predicted range W when correcting the drop position, the operator can quickly correct the drop position.
The trajectory image display device 2B can be configured as the trajectory image composition device 1B by omitting the image display means 11.

本発明の第1の実施形態に係る映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a video object trajectory image display device including a video object trajectory image synthesis device according to a first embodiment of the present invention; FIG. オブジェクト抽出手段の構成を示すブロック図である。It is a block diagram which shows the structure of an object extraction means. 映像フレームから映像オブジェクトの抽出および位置の検出をする様子を説明するための図である。(a)は映像オブジェクトと背景が撮影された映像フレームの原画像である。(b)は映像フレームから映像オブジェクトを抽出した様子を示す図である。(c)は抽出した映像オブジェクトと映像フレーム内の座標軸の関係を示す図である。(d)は抽出した映像オブジェクトの画像座標を示す図である。It is a figure for demonstrating a mode that a video object is extracted and a position is detected from a video frame. (A) is an original image of a video frame in which a video object and a background are photographed. (B) is a figure which shows a mode that the video object was extracted from the video frame. (C) is a diagram showing the relationship between the extracted video object and the coordinate axes in the video frame. (D) is a figure which shows the image coordinate of the extracted video object. 移動する被写体と、その被写体を追跡撮影する映像フレームの様子を示す図である。It is a figure which shows the mode of the to-be-moved subject and the image | video frame which carries out the tracking imaging | photography of the subject. 移動する被写体を撮影した映像から計測した映像オブジェクトの軌跡点に対して、軌跡点の追加を指定する様子を示す図である。It is a figure which shows a mode that addition of a locus | trajectory point is designated with respect to the locus | trajectory point of the video object measured from the image | video which image | photographed the moving subject. オブジェクト位置算出手段の構成を示すブロック図である。It is a block diagram which shows the structure of an object position calculation means. オブジェクト指定手段の構成を示すブロック図である。It is a block diagram which shows the structure of an object designation | designated means. 画像座標変換手段の構成を示すブロック図である。It is a block diagram which shows the structure of an image coordinate transformation means. 本発明に係る映像オブジェクトの軌跡表示装置による軌跡画像を重畳した映像を示す画面例である。It is an example of a screen which shows the image | video which superimposed the locus image by the locus | trajectory display apparatus of the video object which concerns on this invention. 本発明に係る映像オブジェクトの軌跡表示装置による複数の軌跡を重畳した映像を示す画面例である。It is an example of a screen which shows the image | video which superimposed the several locus | trajectory by the locus | trajectory display apparatus of the video object which concerns on this invention. 本発明に係る映像オブジェクトの軌跡画像作成装置、映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of the locus | trajectory image display apparatus of the video object containing the locus | trajectory image production apparatus of the video object which concerns on this invention, and the locus | trajectory image synthetic | combination apparatus of a video object. オブジェクト抽出手段の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of an object extraction means. オブジェクト位置算出手段の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of an object position calculation means. オブジェクト指定手段の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of an object designation | designated means. 軌跡画像作成手段の処理の流れを示すフロー図である。It is a flowchart which shows the flow of a process of a locus | trajectory image creation means. 本発明の第2の実施形態に係る映像オブジェクトの軌跡画像合成装置を含む映像オブジェクトの軌跡画像表示装置の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the locus | trajectory image display apparatus of the video object containing the locus | trajectory image synthesis apparatus of the video object which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係るオブジェクト抽出手段の構成を示すブロック図である。It is a block diagram which shows the structure of the object extraction means which concerns on the 2nd Embodiment of this invention. オブジェクト落下位置予測手段の構成を示すブロック図である。It is a block diagram which shows the structure of an object fall position prediction means. 本発明に係る映像オブジェクトの軌跡表示装置による予測落下位置および予測範囲を重畳した映像を示す画面例である。It is an example of a screen which shows the image | video which superimposed the predicted fall position and the prediction range by the locus | trajectory display apparatus of the video object which concerns on this invention.

符号の説明Explanation of symbols

1 軌跡画像合成装置
2 軌跡画像表示装置
3 カメラ
4 オブジェクト抽出手段
5 オブジェクト位置算出手段
6 オブジェクト位置記憶手段
7 軌跡画像作成手段
71 軌跡曲線生成手段
72 軌跡構成点記憶手段
73 画像座標変換手段
74 軌跡画像作画手段
8 オブジェクト指定手段
9 画角情報記憶手段
10 軌跡画像合成手段
11 画像表示手段
12 オブジェクト落下位置予測手段
121 ショット検出手段(被写体移動開始検出手段)
122 位置予測手段
123 落下点検出手段
124 座標変換手段
DESCRIPTION OF SYMBOLS 1 Trajectory image synthesis apparatus 2 Trajectory image display apparatus 3 Camera 4 Object extraction means 5 Object position calculation means 6 Object position storage means 7 Trajectory image creation means 71 Trajectory curve generation means 72 Trajectory constituent point storage means 73 Image coordinate conversion means 74 Trajectory image Drawing means 8 Object designation means 9 View angle information storage means 10 Trajectory image synthesis means 11 Image display means 12 Object drop position prediction means 121 Shot detection means (subject movement start detection means)
122 Position prediction means 123 Drop point detection means 124 Coordinate conversion means

Claims (9)

移動する被写体をカメラにより撮影したときの映像信号と前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの軌跡を計測し、その計測した映像オブジェクトの軌跡を表わす軌跡画像と前記カメラによって撮影される映像とを合成する映像オブジェクトの軌跡画像合成装置であって、
前記映像信号における映像フレーム内から前記映像オブジェクトを抽出して、前記映像オブジェクトの前記映像フレーム内での画像座標を取得するオブジェクト抽出手段と、
前記映像オブジェクトの画像座標を、前記映像オブジェクトを抽出した前記映像フレームが撮影されたときのカメラパラメータに基づいて、前記カメラの位置を原点とする視線ベクトルに変換するオブジェクト位置算出手段と、
移動する前記映像オブジェクトを撮影して得られた一連の映像フレーム群から、前記オブジェクト位置算出手段によって得られた複数の視線ベクトルからなる視線ベクトル群を記憶するオブジェクト位置記憶手段と、
前記オブジェクト位置記憶手段に記憶された視線ベクトル群に基づき、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応する画像座標における軌跡画像を作成する軌跡画像作成手段と、
前記軌跡画像作成手段で作成された軌跡画像と前記カメラにより撮影された映像とを合成した合成画像の映像を出力する軌跡画像合成手段と、
を備えていることを特徴とする映像オブジェクトの軌跡画像合成装置。
The trajectory of the video object corresponding to the subject is measured from the video signal when the moving subject is photographed by the camera and the camera parameters including information on the posture and angle of view of the camera when the subject is photographed. A trajectory image synthesis device for a video object that synthesizes a trajectory image representing a trajectory of a measured video object and a video shot by the camera,
Object extraction means for extracting the video object from the video frame in the video signal and obtaining image coordinates of the video object in the video frame;
Object position calculating means for converting the image coordinates of the video object into a line-of-sight vector having the position of the camera as an origin, based on camera parameters when the video frame from which the video object is extracted is captured;
Object position storage means for storing a line-of-sight vector group composed of a plurality of line-of-sight vectors obtained by the object position calculation means from a series of video frame groups obtained by photographing the moving video object;
Based on the line-of-sight vector group stored in the object position storage means, a trajectory image creation means for creating a trajectory image at image coordinates corresponding to camera parameters when a video to be superimposed is taken.
Trajectory image composition means for outputting a composite image obtained by compositing the trajectory image created by the trajectory image creation means and the video taken by the camera;
A trajectory image synthesis apparatus for video objects, comprising:
前記軌跡画像作成手段は、
前記オブジェクト位置記憶手段に記憶された視線ベクトル群に基づき軌跡曲線を生成し、前記軌跡曲線を構成する軌跡構成点の視線ベクトル群を算出する軌跡曲線生成手段と、
前記軌跡曲線生成手段によって算出した軌跡構成点の視線ベクトル群を、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応する画像座標群に変換する画像座標変換手段と、
前記画像座標変換手段によって変換された軌跡構成点の画像座標群に基づいて、軌跡画像を作画する軌跡画像作画手段と、
を備えていることを特徴とする請求項1に記載の映像オブジェクトの軌跡画像合成装置。
The trajectory image creating means includes
A trajectory curve generating means for generating a trajectory curve based on a line-of-sight vector group stored in the object position storage means, and calculating a line-of-sight vector group of trajectory composing points constituting the trajectory curve;
Image coordinate conversion means for converting a line-of-sight vector group of trajectory constituent points calculated by the trajectory curve generation means into an image coordinate group corresponding to a camera parameter when a video to be superimposed with a trajectory image is captured;
A trajectory image drawing means for drawing a trajectory image based on the image coordinate group of the trajectory composing points converted by the image coordinate conversion means;
The trajectory image composition device for a video object according to claim 1, comprising:
前記軌跡画像作成手段は、
前記オブジェクト位置記憶手段に記憶された視線ベクトル群に基づき軌跡曲線を生成し、前記軌跡曲線を構成する軌跡構成点の視線ベクトル群を算出する軌跡曲線生成手段と、
前記軌跡曲線生成手段で生成された軌跡構成点の視線ベクトル群を記憶する軌跡構成点記憶手段と、
前記軌跡曲線生成手段によって算出した軌跡構成点の視線ベクトル群を、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応する画像座標群に変換する画像座標変換手段と、
前記画像座標変換手段によって変換された軌跡構成点の画像座標群に基づいて、軌跡画像を作画する軌跡画像作画手段と、
を備えていることを特徴とする請求項1に記載の映像オブジェクトの軌跡画像合成装置。
The trajectory image creating means includes
A trajectory curve generating means for generating a trajectory curve based on a line-of-sight vector group stored in the object position storage means, and calculating a line-of-sight vector group of trajectory composing points constituting the trajectory curve;
Trajectory constituent point storage means for storing a line-of-sight vector group of trajectory constituent points generated by the trajectory curve generating means;
Image coordinate conversion means for converting a line-of-sight vector group of trajectory constituent points calculated by the trajectory curve generation means into an image coordinate group corresponding to a camera parameter when a video to be superimposed with a trajectory image is captured;
A trajectory image drawing means for drawing a trajectory image based on the image coordinate group of the trajectory composing points converted by the image coordinate conversion means;
The trajectory image composition device for a video object according to claim 1, comprising:
前記カメラにより撮影した映像フレームを参照して映像オブジェクトを指定し、前記指定した映像オブジェクトの画像座標を取得するオブジェクト指定手段を備え、
前記オブジェクト位置算出手段によって、前記オブジェクト指定手段により取得した映像オブジェクトの画像座標を、前記映像オブジェクトを指定したときに参照した前記映像フレームを撮影したときのカメラパラメータに基づいて、前記カメラの位置を原点とする視線ベクトルに変換し、
前記オブジェクト位置記憶手段に記憶された視線ベクトル群に追加記憶すること、
を特徴とする請求項1ないし請求項3の何れか一項に記載の映像オブジェクトの軌跡画像合成装置。
An object designating unit that designates a video object with reference to a video frame photographed by the camera and acquires image coordinates of the designated video object,
Based on the camera parameters when the video frame referred to when the video object is taken, the image coordinates of the video object acquired by the object designating means are determined by the object position calculating means. Convert to the line-of-sight vector as the origin,
Additionally storing in the line-of-sight vector group stored in the object position storage means;
The trajectory image synthesis device for a video object according to any one of claims 1 to 3.
前記オブジェクト位置算出手段は、2次元直交座標で表わされる画像座標を、2次元極座標で表わされる視線ベクトルに変換すること、
を特徴とする請求項1ないし請求項4の何れか一項に記載の映像オブジェクトの軌跡画像合成装置。
The object position calculating means converts image coordinates represented by two-dimensional orthogonal coordinates into a line-of-sight vector represented by two-dimensional polar coordinates;
The trajectory image synthesis apparatus for a video object according to any one of claims 1 to 4, characterized in that:
前記映像フレームごとの前記映像オブジェクトの画像座標および大きさと、前記カメラパラメータとに基づいて、前記被写体の3次元位置を逐次予測する位置予測手段と、
前記位置予測手段で予測された3次元位置と、前記カメラの位置に基づいて予め定めた3次元空間座標とに基づいて、前記被写体の地面への落下点を検出する落下点検出手段と、
前記映像フレームを撮影したときのカメラパラメータに基づいて、前記落下点検出手段で検出された落下点を、前記映像フレーム内での画像座標に変換する座標変換手段と、
を備えていることを特徴とする請求項1ないし請求項5の何れか一項に記載の映像オブジェクトの軌跡画像合成装置。
Position prediction means for sequentially predicting the three-dimensional position of the subject based on the image coordinates and size of the video object for each video frame and the camera parameter;
Drop point detection means for detecting a drop point of the subject on the ground based on the three-dimensional position predicted by the position prediction means and three-dimensional space coordinates determined in advance based on the position of the camera;
Coordinate conversion means for converting the drop point detected by the drop point detection means into image coordinates in the video frame, based on camera parameters when the video frame is shot,
The trajectory image synthesis device for a video object according to any one of claims 1 to 5, further comprising:
前記被写体を撮影しているカメラのカメラパラメータの変化量と予め定めた閾値との差分に基づいて、前記被写体の移動の開始を検出する被写体移動開始検出手段を備え、
前記位置予測手段は、前記被写体移動開始検出手段により前記被写体の移動の開始を検出したときに、前記被写体の位置の予測を開始すること、
を特徴とする請求項6に記載の映像オブジェクトの軌跡画像合成装置。
Subject movement start detection means for detecting the start of movement of the subject based on a difference between a change amount of a camera parameter of a camera that is photographing the subject and a predetermined threshold;
The position predicting means starts predicting the position of the subject when the subject movement start detecting means detects the start of movement of the subject;
The trajectory image synthesis apparatus for a video object according to claim 6.
請求項1ないし請求項7の何れか一項に記載の軌跡画像合成装置と、
前記軌跡画像合成装置で合成された合成画像の映像を表示する画像表示手段と、
を備えていることを特徴とする映像オブジェクトの軌跡画像表示装置。
A trajectory image synthesis device according to any one of claims 1 to 7,
Image display means for displaying an image of a synthesized image synthesized by the trajectory image synthesizer;
A trajectory image display device for a video object, comprising:
移動する被写体をカメラにより撮影したときの映像信号と前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの軌跡を計測し、その計測した映像オブジェクトの軌跡を表わす軌跡画像と前記カメラによって撮影される映像とを合成して表示するために、コンピュータを、
前記映像信号における映像フレーム内から前記映像オブジェクトを抽出して、前記映像オブジェクトの前記映像フレーム内での画像座標を取得するオブジェクト抽出手段、
前記映像オブジェクトの画像座標を、前記映像オブジェクトを抽出した前記映像フレームが撮影されたときのカメラパラメータに基づいて、前記カメラの位置を原点とする視線ベクトルに変換し、オブジェクト位置記憶手段に記憶するオブジェクト位置算出手段、
前記オブジェクト位置記憶手段に記憶された複数の視線ベクトルからなる視線ベクトル群に基づき、軌跡画像を重畳しようとする映像を撮影したときのカメラパラメータに対応する画像座標における軌跡画像を作成する軌跡画像作成手段、
前記軌跡画像作成手段で作成された軌跡画像と前記カメラにより撮影された映像とを合成した合成画像の映像を出力する軌跡画像合成手段、
として機能させることを特徴とする映像オブジェクトの軌跡画像表示プログラム。
The trajectory of the video object corresponding to the subject is measured from the video signal when the moving subject is photographed by the camera and the camera parameters including information on the posture and angle of view of the camera when the subject is photographed. In order to synthesize and display the trajectory image representing the trajectory of the measured video object and the video imaged by the camera,
Object extraction means for extracting the video object from the video frame in the video signal and obtaining image coordinates of the video object in the video frame;
The image coordinates of the video object are converted into a line-of-sight vector with the camera position as the origin based on the camera parameters when the video frame from which the video object was extracted is shot, and stored in the object position storage means Object position calculating means,
Trajectory image creation that creates a trajectory image at image coordinates corresponding to camera parameters when a video to be superimposed with a trajectory image is captured based on a line-of-sight vector group consisting of a plurality of line-of-sight vectors stored in the object position storage means means,
Trajectory image composition means for outputting a composite image obtained by compositing the trajectory image created by the trajectory image creation means and the video photographed by the camera;
A trajectory image display program for video objects, characterized in that
JP2006192540A 2006-01-26 2006-07-13 Video object trajectory image composition device, video object trajectory image display device, and program thereof Expired - Fee Related JP4758842B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006192540A JP4758842B2 (en) 2006-01-26 2006-07-13 Video object trajectory image composition device, video object trajectory image display device, and program thereof

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006017251 2006-01-26
JP2006017251 2006-01-26
JP2006192540A JP4758842B2 (en) 2006-01-26 2006-07-13 Video object trajectory image composition device, video object trajectory image display device, and program thereof

Publications (2)

Publication Number Publication Date
JP2007226761A true JP2007226761A (en) 2007-09-06
JP4758842B2 JP4758842B2 (en) 2011-08-31

Family

ID=38548485

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006192540A Expired - Fee Related JP4758842B2 (en) 2006-01-26 2006-07-13 Video object trajectory image composition device, video object trajectory image display device, and program thereof

Country Status (1)

Country Link
JP (1) JP4758842B2 (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219489A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP2009193274A (en) * 2008-02-13 2009-08-27 Tokyo Electric Power Co Inc:The Flight route measurement system
JP2010072853A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Design verification display device, design verification display method and design verification display computer program
US20110175933A1 (en) * 2009-08-31 2011-07-21 Junichiro Soeda Image display controlling apparatus, image display controlling method and integrated circuit
JP2015503399A (en) * 2011-12-30 2015-02-02 ナイキ イノヴェイト シーヴィー System for tracking a golf ball and displaying an enhanced image of the golf ball
JP2015076738A (en) * 2013-10-09 2015-04-20 カシオ計算機株式会社 Photographed image processing apparatus, photographed image processing method, and program
JP2017515345A (en) * 2014-03-27 2017-06-08 ソニー株式会社 Image generation that combines a base image and a rearranged object from a series of images
KR20180000205A (en) * 2016-06-22 2018-01-02 한국전자통신연구원 Apparatus and method for intelligently analyzing video
JP2018522450A (en) * 2015-05-15 2018-08-09 ワン チャン,ラク Camera, method and system for shooting golf games
US20190042598A1 (en) * 2016-05-24 2019-02-07 Tencent Technology (Shenzhen) Company Limited Picture dynamic display method, electronic equipment and storage medium
CN109388132A (en) * 2017-08-03 2019-02-26 罗伯特·博世有限公司 Method, apparatus and equipment and control unit and machine readable media for track following
JP2020052940A (en) * 2018-09-28 2020-04-02 三菱電機インフォメーションシステムズ株式会社 Method, apparatus and program for predicting motion
CN111127590A (en) * 2019-12-26 2020-05-08 新奥数能科技有限公司 Second-order Bezier curve drawing method and device
US10881329B2 (en) 2015-06-01 2021-01-05 Panasonic Intellectual Property Management Co., Ltd. Motion display system and recording medium
JP2021129646A (en) * 2020-02-18 2021-09-09 株式会社テクノクラフト Ball trajectory tracking system
CN115793862A (en) * 2023-01-05 2023-03-14 东云睿连(武汉)计算技术有限公司 Image target implicit annotation method, system, electronic equipment and storage medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104519240B (en) * 2014-12-20 2017-08-11 福州大学 The IP kernel and method of a kind of foreground target detection

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (en) * 2000-03-23 2001-10-05 Hitachi Ltd Moving object measuring instrument, ball game analytic system and data service system
JP2005123823A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Distance information attaching apparatus, attached video image generating apparatus, attached video information generating method, and distance information attaching program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (en) * 2000-03-23 2001-10-05 Hitachi Ltd Moving object measuring instrument, ball game analytic system and data service system
JP2005123823A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Distance information attaching apparatus, attached video image generating apparatus, attached video information generating method, and distance information attaching program

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219489A (en) * 2007-03-05 2008-09-18 Nippon Hoso Kyokai <Nhk> Trajectory image synthesizer of video object and program therefor
JP4695615B2 (en) * 2007-03-05 2011-06-08 日本放送協会 Video object trajectory image synthesis apparatus and program thereof
JP2009193274A (en) * 2008-02-13 2009-08-27 Tokyo Electric Power Co Inc:The Flight route measurement system
JP2010072853A (en) * 2008-09-17 2010-04-02 Ricoh Co Ltd Design verification display device, design verification display method and design verification display computer program
US20110175933A1 (en) * 2009-08-31 2011-07-21 Junichiro Soeda Image display controlling apparatus, image display controlling method and integrated circuit
US8471872B2 (en) * 2009-08-31 2013-06-25 Panasonic Corporation Image display controlling apparatus, image display controlling method and integrated circuit
JP2015503399A (en) * 2011-12-30 2015-02-02 ナイキ イノヴェイト シーヴィー System for tracking a golf ball and displaying an enhanced image of the golf ball
JP2019162447A (en) * 2011-12-30 2019-09-26 ナイキ イノヴェイト シーヴィーNike Innovate C.V. System to assist user to determine distance between user and landmark
JP2015076738A (en) * 2013-10-09 2015-04-20 カシオ計算機株式会社 Photographed image processing apparatus, photographed image processing method, and program
JP2017515345A (en) * 2014-03-27 2017-06-08 ソニー株式会社 Image generation that combines a base image and a rearranged object from a series of images
JP2018522450A (en) * 2015-05-15 2018-08-09 ワン チャン,ラク Camera, method and system for shooting golf games
US10881329B2 (en) 2015-06-01 2021-01-05 Panasonic Intellectual Property Management Co., Ltd. Motion display system and recording medium
US20190042598A1 (en) * 2016-05-24 2019-02-07 Tencent Technology (Shenzhen) Company Limited Picture dynamic display method, electronic equipment and storage medium
US10860623B2 (en) * 2016-05-24 2020-12-08 Tencent Technology (Shenzhen) Company Limited Picture dynamic display method, electronic equipment and storage medium
KR20180000205A (en) * 2016-06-22 2018-01-02 한국전자통신연구원 Apparatus and method for intelligently analyzing video
KR102407202B1 (en) * 2016-06-22 2022-06-10 한국전자통신연구원 Apparatus and method for intelligently analyzing video
CN109388132A (en) * 2017-08-03 2019-02-26 罗伯特·博世有限公司 Method, apparatus and equipment and control unit and machine readable media for track following
CN109388132B (en) * 2017-08-03 2024-03-19 罗伯特·博世有限公司 Method, apparatus and device for trajectory tracking, control unit and machine readable medium
JP2020052940A (en) * 2018-09-28 2020-04-02 三菱電機インフォメーションシステムズ株式会社 Method, apparatus and program for predicting motion
CN111127590A (en) * 2019-12-26 2020-05-08 新奥数能科技有限公司 Second-order Bezier curve drawing method and device
CN111127590B (en) * 2019-12-26 2023-06-20 新奥数能科技有限公司 Second-order Bezier curve drawing method and device
JP2021129646A (en) * 2020-02-18 2021-09-09 株式会社テクノクラフト Ball trajectory tracking system
JP7252633B2 (en) 2020-02-18 2023-04-05 株式会社テクノクラフト ball trajectory tracking system
CN115793862A (en) * 2023-01-05 2023-03-14 东云睿连(武汉)计算技术有限公司 Image target implicit annotation method, system, electronic equipment and storage medium

Also Published As

Publication number Publication date
JP4758842B2 (en) 2011-08-31

Similar Documents

Publication Publication Date Title
JP4758842B2 (en) Video object trajectory image composition device, video object trajectory image display device, and program thereof
JP6775776B2 (en) Free viewpoint movement display device
EP2779620B1 (en) Image generation device, and image generation method
JP6329343B2 (en) Image processing system, image processing apparatus, image processing program, and image processing method
EP2779621B1 (en) Image generation device, image generation method and program
US10284776B2 (en) Image generation apparatus and image generation method
US9894272B2 (en) Image generation apparatus and image generation method
CN103873758B (en) The method, apparatus and equipment that panorama sketch generates in real time
JP4695615B2 (en) Video object trajectory image synthesis apparatus and program thereof
JP4733651B2 (en) Position detection apparatus, position detection method, and position detection program
JP2023010759A (en) Information processing device, information processing method, and program
WO2016183954A1 (en) Calculation method and apparatus for movement locus, and terminal
JP2019114147A (en) Image processing apparatus, control method for image processing apparatus, and program
JP4881178B2 (en) Odometer image generation device and odometer image generation program
JP2007206807A (en) Image composing device and image composing program
JP2005038021A (en) Image processing apparatus, image input device, image processing method and program for executing the method by computer
JP2005123823A (en) Distance information attaching apparatus, attached video image generating apparatus, attached video information generating method, and distance information attaching program
CN114586335A (en) Image processing apparatus, image processing method, program, and recording medium
JP7324639B2 (en) Subject position estimation device, focus assist device, and programs thereof
CN110785792A (en) 3D modeling method, electronic device, storage medium, and program product
JP7447403B2 (en) Information processing device, information processing system, information processing method and program
JP6374763B2 (en) Video composition apparatus and program thereof
JP2023042257A (en) Image processing device, image processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4758842

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees