JP4695615B2 - Video object trajectory image synthesis apparatus and program thereof - Google Patents

Video object trajectory image synthesis apparatus and program thereof Download PDF

Info

Publication number
JP4695615B2
JP4695615B2 JP2007054357A JP2007054357A JP4695615B2 JP 4695615 B2 JP4695615 B2 JP 4695615B2 JP 2007054357 A JP2007054357 A JP 2007054357A JP 2007054357 A JP2007054357 A JP 2007054357A JP 4695615 B2 JP4695615 B2 JP 4695615B2
Authority
JP
Japan
Prior art keywords
video
subject
video frame
dimensional
trajectory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007054357A
Other languages
Japanese (ja)
Other versions
JP2008219489A (en
Inventor
正樹 高橋
俊彦 三須
昌秀 苗村
真人 藤井
伸行 八木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2007054357A priority Critical patent/JP4695615B2/en
Publication of JP2008219489A publication Critical patent/JP2008219489A/en
Application granted granted Critical
Publication of JP4695615B2 publication Critical patent/JP4695615B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、移動する被写体を撮影した映像に、被写体の軌跡を示す軌跡画像を合成する映像オブジェクトの軌跡画像合成装置およびそのプログラムに関する。   The present invention relates to a trajectory image synthesizing apparatus for a video object that synthesizes a trajectory image indicating a trajectory of a subject with a video obtained by photographing a moving subject, and a program thereof.

従来、ゴルフを始めとするスポーツ番組等において、カメラによって被写体を望遠で捉えながら撮影すると、被写体の全体的な動きが視聴者に伝わりにくい場合がある。例えば、ゴルフ中継番組で、ショートホール第一打のシーンでは一般にグリーン付近に設置されたカメラの映像が放送されるが、ゴルフボールは小さく、広角映像ではほとんど確認できないため、望遠でボールを追いかけながら撮影される。この望遠映像ではボールの部分的な動きは分かるものの、ボールが落下点までどのようなコースで飛んできたのか、どれくらいの高さまで上がったのかといった全体的なボール軌道を把握することは難しい。   Conventionally, in a sports program such as golf, if a subject is captured while being telephoto by a camera, the overall movement of the subject may not be easily transmitted to the viewer. For example, in a golf broadcast program, in the first shot of a short hole, an image of a camera installed near the green is generally broadcast, but the golf ball is small and can hardly be confirmed in a wide-angle image, so while chasing the ball with telephoto Taken. Although this telephoto image shows the partial movement of the ball, it is difficult to grasp the overall ball trajectory such as what course the ball flew to and the height of the ball.

そこで、昨今のスポーツ中継番組では、カメラのパン・チルト・ズームなどのカメラの姿勢情報を基にさまざまなバーチャル映像が製作されている。例えば、ゴルフ中継ではグリーン上でボールとカップ間の距離を表示したり、第一打の落下地点にバーチャルCG(コンピュータ・グラフィックス)で距離線を引いたりして、カメラの映像だけでは伝わりにくい距離感を分かりやすくする工夫がなされている。
例えば、特許文献1においては、2台のカメラの位置、光軸方向、および画角値に基づき、三角測量の原理によって、飛行するボールの3次元位置座標を算出する手法が開示されている。
Therefore, in recent sports broadcast programs, various virtual images are produced based on camera posture information such as camera pan, tilt and zoom. For example, in golf relay, the distance between the ball and the cup is displayed on the green, or the distance line is drawn with virtual CG (computer graphics) at the point of the first hit, making it difficult to convey only with the camera image. The device is designed to make the sense of distance easy to understand.
For example, Patent Document 1 discloses a method for calculating the three-dimensional position coordinates of a flying ball based on the principle of triangulation based on the positions of two cameras, the optical axis direction, and the angle of view value.

さらに、特許文献2においては、ゴルフコース内の複数箇所に設置された電波レーダを用いて、電波をゴルフボールに当てて、反射波のドップラー周波数および位相差からボールの飛行速度、距離を求め、三角測量の原理によって、ボールの3次元位置座標を算出する手法が開示されている。
また2台のカメラの位置、光軸方向および画角値から三角測量法的手法でボールの位置座標を計算し、飛行するボールの3次元位置をフレームごとに計測する装置(非特許文献1)などが存在する。
特開2003−42716号公報(段落0032〜段落0034、図3) 特開平8−266701号公報(段落0039〜段落0040、図3) 山内結子、加藤大一郎、野口英男、阿部一雄、榎並和雄、“飛翔体の軌跡表示システム「ショットビュー」〜ゴルフボールの3次元位置の可視化〜”、情報処理学会研究報告、Vol.1995、No.63、pp31−36
Furthermore, in Patent Document 2, using radio wave radars installed at a plurality of locations in a golf course, the radio wave is applied to the golf ball, and the flight speed and distance of the ball are obtained from the Doppler frequency and phase difference of the reflected wave, A technique for calculating the three-dimensional position coordinates of a ball by the principle of triangulation is disclosed.
Also, a device that calculates the position coordinates of the ball by the triangulation method from the positions of the two cameras, the optical axis direction and the angle of view, and measures the three-dimensional position of the flying ball for each frame (Non-Patent Document 1) Etc. exist.
Japanese Patent Laying-Open No. 2003-42716 (paragraphs 0032 to 0034, FIG. 3) JP-A-8-266701 (paragraphs 0039 to 0040, FIG. 3) Yuko Yamauchi, Daiichiro Kato, Hideo Noguchi, Kazuo Abe, Kazuo Sunami, “Flying object trajectory display system“ shot view ”—Visualization of the three-dimensional position of a golf ball”, Information Processing Society of Japan Research Report, Vol. 1995, No. .63, pp31-36

ゴルフ中継は既存の撮影機材の範囲内で運用することが望ましい。すなわち、新たな機材やカメラマンを追加することなく運用しなければならない。一般にゴルフ中継では1ホールにつきバーチャルカメラ1台で運用されるため、2台のカメラが必要である特許文献1の装置は利用困難である。   It is desirable to operate the golf relay within the range of existing photography equipment. In other words, it must be operated without adding new equipment and photographers. In general, since golf relay is operated with one virtual camera per hole, the device of Patent Document 1 that requires two cameras is difficult to use.

また、1台のカメラで上空から静止するまでの連続して抽出できることが望ましいが、特許文献1および特許文献2の手法や、非特許文献1の装置では、ボールの落下中に背景とボール領域との輝度差が変化することや、着地する直前に地上付近で、ボールに画像特徴が近い前景領域が多数存在すること、などのために、ボールを誤抽出しやすいという問題があった。さらに、ショット直後は、ボール速度が静止している状態から当該ボールが上空に達する際の速度よりも速い初速度まで急激に変化するため、ボールの抽出が困難であること、着地後は、ボールのバウンドにより速度や移動方向の変化が予測困難であること、によってボールを見失いやすいという問題があった。   In addition, it is desirable that one camera can continuously extract from the sky until it stops, but in the methods of Patent Literature 1 and Patent Literature 2 and the device of Non-Patent Literature 1, the background and the ball area are dropped during the fall of the ball. There is a problem that the ball is easy to be erroneously extracted due to a change in the luminance difference between the two and the foreground area near the ground immediately before landing, and a large number of foreground areas close to the image characteristics of the ball. Furthermore, immediately after the shot, the ball speed changes suddenly from the stationary state to the initial speed that is faster than the speed at which the ball reaches the sky, making it difficult to extract the ball. There is a problem that it is easy to lose sight of the ball due to difficulty in predicting changes in speed and moving direction due to bouncing.

例えば、非特許文献1に記載の装置では、地上付近の背景が複雑で抽出が困難な打点、落下点、静止点の3点を手動で指定している。これら各点と上空の抽出点との間には被写体の抽出されていない空白区間が生じるが、スプライン曲線などを用いて滑らかに補間することにより、スムーズな軌道を表示している。しかし上空から落下、静止に至るまでを連続して抽出することで、より正確な軌道を表示することが望まれていた。   For example, in the apparatus described in Non-Patent Document 1, three points of a hitting point, a falling point, and a stationary point that are difficult to extract due to a complicated background near the ground are manually designated. A blank section where no subject is extracted is generated between each of these points and the extracted point in the sky, but a smooth trajectory is displayed by smooth interpolation using a spline curve or the like. However, it has been desired to display a more accurate trajectory by continuously extracting from the sky to falling and stationary.

そこで、本発明では、このような問題点に鑑み、1台のカメラで運用可能であり、全体的な動きを把握することが困難な小さな映像オブジェクトの移動軌跡を、連続的に抽出して、カメラ映像上へ重畳した画像を合成する映像オブジェクトの軌跡画像合成装置およびそのプログラムを提供することを目的とする。   Therefore, in the present invention, in view of such a problem, a moving trajectory of a small video object that can be operated by one camera and difficult to grasp the overall movement is continuously extracted, It is an object of the present invention to provide a video object trajectory image synthesis device for synthesizing an image superimposed on a camera video and a program therefor.

本発明は前記目的を達成するためになされたものであり、請求項1に記載の映像オブジェクトの軌跡画像合成装置は、移動する被写体をカメラにより撮影した映像と、前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの移動軌跡を算出し、その算出した映像オブジェクトの移動軌跡を表す軌跡画像と前記カメラによって撮影された映像とを合成する映像オブジェクトの軌跡画像合成装置であって、探索位置更新設定手段と、閾値決定手段と、オブジェクト領域選定手段と、2次元予測位置算出手段と、オブジェクト3次元位置算出手段と、オブジェクト3次元位置記憶手段と、軌跡画像生成手段と、軌跡画像合成手段と、を備える構成とした。   The present invention has been made to achieve the above object, and the video object trajectory image synthesizing device according to claim 1 is a video obtained by photographing a moving subject with a camera, and the subject when the subject is photographed. A moving trajectory of the video object corresponding to the subject is calculated from camera parameters including information on the posture and angle of view of the camera, a trajectory image representing the calculated moving trajectory of the video object, and a video shot by the camera A trajectory image synthesizing device for a video object for synthesizing a search object, a search position update setting means, a threshold value determination means, an object region selection means, a two-dimensional predicted position calculation means, an object three-dimensional position calculation means, and an object 3 A dimension position storage unit, a trajectory image generation unit, and a trajectory image synthesis unit are provided.

かかる構成によれば、映像オブジェクトの軌跡画像合成装置は、探索位置更新設定手段によって、映像を構成する映像フレーム内における映像オブジェクトの探索範囲を設定する。前記軌跡画像合成装置は、閾値決定手段によって、映像フレームの輝度のヒストグラムである輝度ヒストグラムを生成し、当該輝度ヒストグラムに基づいて、探索位置更新設定手段によって設定された探索範囲から映像オブジェクトを抽出するための輝度に対する閾値と、当該閾値より輝度の高い領域を抽出するか、もしくは、低い領域を抽出するかとを決定し、決定された領域の画像を映像オブジェクトを含む前景画像として抽出する。前記軌跡画像合成装置は、オブジェクト領域選定手段によって、閾値決定手段によって抽出された前景画像から、映像オブジェクトの画像特徴を利用して前記映像オブジェクトを選定する。前記軌跡画像合成装置は、2次元予測位置算出手段によって、オブジェクト領域選定手段によって選定された映像オブジェクトの前記映像フレーム内における位置から、当該映像フレームの次の映像フレーム内における映像オブジェクトの位置を示す2次元予測位置を算出する。前記軌跡画像合成装置は、オブジェクト3次元位置算出手段によって、オブジェクト領域選定手段によって選定された映像オブジェクトの映像フレーム内における位置とカメラパラメータとに基づいて、当該映像フレームが撮影された時点の被写体の実空間における位置を示す3次元位置を算出する。前記軌跡画像合成装置は、オブジェクト3次元位置記憶手段によって、オブジェクト3次元位置算出手段によって得られた3次元位置を記憶する。前記軌跡画像合成装置は、軌跡画像生成手段によって、オブジェクト3次元位置記憶手段に記憶された3次元位置に基づき、軌跡画像を生成する。前記軌跡画像合成装置は、軌跡画像合成手段によって、軌跡画像生成手段で生成された軌跡画像と映像フレームとを合成して出力することができ、さらに、探索位置更新設定手段によって、2次元予測位置算出手段により算出された2次元予測位置に基づいて、前記次の映像フレームの探索範囲を設定する。   According to this configuration, the trajectory image composition device for a video object sets the search range of the video object in the video frame constituting the video by the search position update setting means. The trajectory image synthesis device generates a luminance histogram that is a luminance histogram of a video frame by threshold determination means, and extracts a video object from the search range set by the search position update setting means based on the luminance histogram. A threshold value for luminance and whether to extract a region with higher or lower luminance than the threshold value are determined, and an image of the determined region is extracted as a foreground image including a video object. The trajectory image synthesis device selects the video object by using the image feature of the video object from the foreground image extracted by the threshold value determination unit by the object region selection unit. The trajectory image composition device indicates the position of the video object in the video frame next to the video frame from the position in the video frame of the video object selected by the object area selection unit by the two-dimensional predicted position calculation unit. A two-dimensional predicted position is calculated. The trajectory image synthesizing device uses the object three-dimensional position calculation means to determine the object at the time when the video frame was shot based on the position in the video frame of the video object selected by the object area selection means and the camera parameters. A three-dimensional position indicating a position in the real space is calculated. The trajectory image synthesizing apparatus stores the three-dimensional position obtained by the object three-dimensional position calculation means by the object three-dimensional position storage means. The trajectory image synthesizing apparatus generates a trajectory image based on the three-dimensional position stored in the object three-dimensional position storage unit by the trajectory image generation unit. The trajectory image synthesis device can synthesize and output the trajectory image generated by the trajectory image generation means and the video frame by the trajectory image synthesis means, and can further output the two-dimensional predicted position by the search position update setting means. The search range of the next video frame is set based on the two-dimensional predicted position calculated by the calculation means.

これによって、軌跡画像合成装置は、移動する被写体をカメラにより撮影した映像と、前記カメラの姿勢状態に関する情報を含むカメラパラメータとから、前記輝度ヒストグラムに基づいて映像オブジェクトを抽出し、映像オブジェクトの移動軌跡を算出し、その算出した映像オブジェクトの移動軌跡を表す軌跡画像と前記カメラによって撮影された映像とを合成することができる。   Thereby, the trajectory image composition device extracts a video object based on the luminance histogram from a video obtained by photographing a moving subject with a camera and a camera parameter including information on the posture state of the camera, and moves the video object. A trajectory can be calculated, and a trajectory image representing the calculated movement trajectory of the video object can be combined with the video shot by the camera.

請求項2に記載の映像オブジェクトの軌跡画像合成装置は、請求項1に記載の映像オブジェクトの軌跡画像合成装置において、オブジェクト領域選定手段によって選定された前記映像オブジェクトの前記映像フレーム内における位置と、前記カメラパラメータとから、次の前記映像フレーム内における前記映像オブジェクトに対応する当該被写体の実空間における位置を示す3次元予測位置を逐次予測する3次元予測位置算出手段と、前記3次元予測位置算出手段によって得られた3次元予測位置を投影変換して、当該被写体に対応する前記映像オブジェクトの前記次の映像フレーム内での位置を算出するスクリーン座標変換手段と、前記スクリーン座標変換手段によって得られた前記映像フレーム内における前記位置を示す点の列を、曲線を用いて補間する軌跡曲線補間手段と、を備え、前記オブジェクト領域選定手段が、前記軌跡曲線補間手段によって生成された前記曲線から前記次の映像フレームの前記前景画像に含まれる前記映像オブジェクトの候補となる各々の領域までの距離に基づいて、前記映像オブジェクトを選定する構成とした。   The video object trajectory image composition device according to claim 2 is the video object trajectory image composition device according to claim 1, wherein the position of the video object selected by the object region selection means in the video frame is 3D predicted position calculating means for sequentially predicting a 3D predicted position indicating a position of the subject corresponding to the video object in the next video frame in real space from the camera parameter, and calculating the 3D predicted position Screen coordinate conversion means for projecting and transforming the three-dimensional predicted position obtained by the means to calculate the position of the video object corresponding to the subject in the next video frame, and obtained by the screen coordinate conversion means. A sequence of points indicating the position in the video frame Trajectory curve interpolation means for interpolating using the object area selection means, and the object region selection means includes the video object candidates included in the foreground image of the next video frame from the curve generated by the trajectory curve interpolation means. The video object is selected based on the distance to each area.

これによって、軌跡画像合成装置は、映像オブジェクトの前記映像フレーム内における位置と、前記カメラパラメータとから、逐次予測された3次元予測位置を用いて、この3次元予測位置をスクリーン座標変換して得られた点の列を、曲線で補間して生成された前記曲線を利用して、前記映像オブジェクトを選定する。   As a result, the trajectory image composition device obtains the three-dimensional predicted position by screen coordinate conversion using the three-dimensional predicted position sequentially predicted from the position of the video object in the video frame and the camera parameter. The video object is selected using the curve generated by interpolating the sequence of the determined points with a curve.

請求項3に記載の映像オブジェクトの軌跡画像合成装置は、請求項2に記載の映像オブジェクトの軌跡画像合成装置において、3次元予測位置算出手段によって得られた3次元予測位置に基づいて、前記被写体の実空間における高さが、予め設定された高さに対して下回るかどうかを判定する被写体高さ判定手段と、を備え、前記探索位置更新設定手段は、前記被写体高さ判定手段によって下回ると判定された時点の前記映像フレームの次の前記映像フレーム内において、当該映像フレームの前の映像フレームの前記探索範囲より広い前記探索範囲を設定する構成とした。   The video object trajectory image composition apparatus according to claim 3 is the video object trajectory image composition apparatus according to claim 2, wherein the subject is based on the three-dimensional predicted position obtained by the three-dimensional predicted position calculation means. Subject height determining means for determining whether or not the height in real space is lower than a preset height, and the search position update setting means is less than the subject height determining means. The search range wider than the search range of the video frame preceding the video frame is set in the video frame next to the video frame at the determined time point.

これによって、軌跡画像合成装置は、3次元予測位置に基づいて、前記被写体の実空間における高さが、被写体高さ判定手段によって下回ると判定された時点の映像フレームの次の映像フレーム内において、前の探索範囲より広い探索範囲を設定する。   As a result, the trajectory image synthesis apparatus, based on the three-dimensional predicted position, in the video frame next to the video frame at the time when the height of the subject in the real space is determined to be lower by the subject height determination unit, A search range wider than the previous search range is set.

請求項4に記載の映像オブジェクトの軌跡画像合成装置は、請求項1ないし請求項3に記載の映像オブジェクトの軌跡画像合成装置において、前記映像を記憶する映像記憶手段と、前記カメラパラメータを記憶するカメラパラメータ記憶手段と、を備え、前記探索位置更新設定手段は、前記映像記憶手段に記憶された前記映像を構成する時系列の前記映像フレームを逆の順番に入力して、前記映像フレームにおける前記探索範囲を設定し、前記オブジェクト3次元位置算出手段が、前記カメラパラメータ記憶手段に記憶された時系列の前記カメラパラメータを逆の順番に入力して、前記3次元位置を算出する構成とした。   The video object trajectory image composition apparatus according to claim 4 is the video object trajectory image composition apparatus according to any one of claims 1 to 3, wherein the video image storage means for storing the video image and the camera parameter are stored. Camera parameter storage means, and the search position update setting means inputs the time-series video frames constituting the video stored in the video storage means in reverse order, and the video frames in the video frames A search range is set, and the object three-dimensional position calculation means inputs the time-series camera parameters stored in the camera parameter storage means in reverse order to calculate the three-dimensional position.

これによって、被写体の撮影された映像フレームを、映像を構成する時系列の逆の順番に入力して映像オブジェクトの前記探索範囲を設定し、前記カメラパラメータを前記記憶された時系列の逆の順番に入力して、前記3次元位置を算出することができる。   Accordingly, the video frames in which the subject is photographed are input in the reverse order of the time series constituting the video to set the search range of the video object, and the camera parameters are stored in the reverse order of the stored time series. The three-dimensional position can be calculated.

請求項5に記載の映像オブジェクトの軌跡画像合成プログラムは、移動する被写体をカメラにより撮影した映像と、前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体の実空間における位置を示す3次元位置を算出して、外部に接続された記憶装置に記憶し、この3次元位置に基づいて、前記被写体に対応する映像オブジェクトの移動軌跡を表す軌跡画像を生成した当該軌跡画像と前記カメラによって撮影された映像とを合成するために、コンピュータを、探索位置更新設定手段、閾値決定手段、オブジェクト領域選定手段、2次元予測位置算出手段、オブジェクト3次元位置算出手段、軌跡画像生成手段、軌跡画像合成手段、として機能させることとした。   The video object trajectory image synthesis program according to claim 5, wherein the moving object image is captured by a camera, and the camera parameter includes information on the posture and angle of view of the camera when the object is captured. A three-dimensional position indicating the position of the subject in the real space is calculated and stored in a storage device connected to the outside, and a trajectory image representing a movement locus of the video object corresponding to the subject is calculated based on the three-dimensional position. In order to synthesize the generated trajectory image and the video imaged by the camera, the computer is searched, update position setting means, threshold value determining means, object area selecting means, two-dimensional predicted position calculating means, and object three-dimensional position calculating. And function as a means, a trajectory image generation means, and a trajectory image synthesis means.

かかる構成によれば、映像オブジェクトの軌跡画像合成プログラムは、探索位置更新設定手段によって、前記映像を構成する映像フレーム内における前記映像オブジェクトの探索範囲を設定する。前記軌跡画像合成プログラムは、閾値決定手段によって、前記映像フレームの輝度のヒストグラムである輝度ヒストグラムを生成し、当該輝度ヒストグラムに基づいて、前記探索位置更新設定手段によって設定された探索範囲から前記映像オブジェクトを抽出するための前記輝度に対する閾値と、当該閾値より輝度の高い領域を抽出するか、もしくは、低い領域を抽出するかとを決定し、決定された前記領域の画像を前記映像オブジェクトを含む前景画像として抽出する。前記軌跡画像合成プログラムは、オブジェクト領域選定手段によって、前記閾値決定手段により抽出された前記前景画像から、前記映像オブジェクトの画像特徴を利用して映像オブジェクトを選定する。前記軌跡画像合成プログラムは、2次元予測位置算出手段によって、前記オブジェクト領域選定手段により選定された前記映像オブジェクトの前記映像フレーム内における位置から、次の前記映像フレーム内における前記映像オブジェクトの位置を示す2次元予測位置を算出する。前記軌跡画像合成プログラムは、オブジェクト3次元位置算出手段によって、前記オブジェクト領域選定手段により選定された映像オブジェクトの前記映像フレーム内における位置と前記カメラパラメータとに基づいて、当該映像フレームが撮影された時点の前記被写体の実空間における位置を示す3次元位置を算出して前記記憶装置に記憶する。前記軌跡画像合成プログラムは、軌跡画像生成手段によって、前記記憶装置に記憶された3次元位置に基づき、前記軌跡画像を生成する。前記軌跡画像合成プログラムは、軌跡画像合成手段によって、前記軌跡画像生成手段で生成された前記軌跡画像と前記映像フレームとを合成して出力する。   According to this configuration, the trajectory image composition program of the video object sets the search range of the video object in the video frame constituting the video by the search position update setting unit. The trajectory image synthesis program generates a luminance histogram that is a luminance histogram of the video frame by threshold determination means, and based on the luminance histogram, the video object from the search range set by the search position update setting means A threshold value for extracting the luminance and whether to extract a region with higher or lower luminance than the threshold value, and foreground image including the video object as an image of the determined region Extract as The trajectory image synthesis program selects a video object by using an image feature of the video object from the foreground image extracted by the threshold value determination unit by an object region selection unit. The trajectory image synthesis program indicates the position of the video object in the next video frame from the position in the video frame of the video object selected by the object area selection unit by the two-dimensional predicted position calculation unit. A two-dimensional predicted position is calculated. The locus image synthesizing program is a method in which the object three-dimensional position calculating unit captures the video frame based on the position of the video object selected by the object region selecting unit in the video frame and the camera parameter. The three-dimensional position indicating the position of the subject in real space is calculated and stored in the storage device. The trajectory image synthesis program generates the trajectory image based on the three-dimensional position stored in the storage device by a trajectory image generation means. The trajectory image synthesis program synthesizes and outputs the trajectory image generated by the trajectory image generation means and the video frame by a trajectory image synthesis means.

これによって、軌跡画像合成プログラムは、移動する被写体をカメラにより撮影した映像と、前記カメラの姿勢状態に関する情報を含むカメラパラメータとから、前記輝度ヒストグラムに基づいて映像オブジェクトを抽出し、映像オブジェクトの移動軌跡を算出し、その算出した映像オブジェクトの移動軌跡を表す軌跡画像と前記カメラによって撮影された映像とを合成することができる。   Accordingly, the trajectory image composition program extracts a video object based on the luminance histogram from a video obtained by photographing a moving subject with a camera and a camera parameter including information on the posture state of the camera, and moves the video object. A trajectory can be calculated, and a trajectory image representing the calculated movement trajectory of the video object can be combined with the video shot by the camera.

請求項1に記載の発明によれば、1台のカメラで撮影した映像と当該カメラから得たカメラパラメータを用いるので、1台のカメラで運用可能であり、映像フレームの輝度のヒストグラムである輝度ヒストグラムに基づいて、被写体(映像オブジェクト)を抽出するための輝度に対する閾値と、この閾値よりも高い領域を抽出するか、低い領域を抽出するのかを決定しているので、移動する被写体の輝度よりも、被写体以外の輝度が高くなったり低くなったりしても、被写体を連続的に抽出することができる。このため、この抽出した結果から軌跡画像を生成して、カメラ映像に重畳することができる。   According to the first aspect of the present invention, since the video captured by one camera and the camera parameters obtained from the camera are used, it is possible to operate with one camera and the luminance is a histogram of the luminance of the video frame. Based on the histogram, the threshold value for extracting the subject (video object) and whether to extract a region higher than this threshold value or a lower region are determined. However, the subject can be extracted continuously even if the brightness other than the subject increases or decreases. Therefore, a trajectory image can be generated from the extracted result and superimposed on the camera video.

請求項2に記載の発明によれば、被写体を撮影したカメラの映像信号と、前記カメラの姿勢状態に関する情報を含むカメラパラメータとから、被写体の実空間の3次元予測位置を算出し、被写体の移動軌跡を示す軌跡曲線を生成することで、バウンドが予想できない複雑な地形形状での移動による被写体の抽出エラーを防止することができる。   According to the second aspect of the present invention, the three-dimensional predicted position in the real space of the subject is calculated from the video signal of the camera that has photographed the subject and the camera parameters including information related to the posture state of the camera, and By generating a trajectory curve indicating a movement trajectory, it is possible to prevent an object extraction error due to movement in a complicated terrain shape where bounce cannot be predicted.

請求項3に記載の発明によれば、被写体の実空間の3次元予測位置から予め設定した高さを下回った場合に地上に着地したとすることで、被写体の着地を自動判定し、着地後の探索範囲を広げることによって、被写体が地上に着地した後も、静止点に至るまで高精度に抽出して軌跡曲線を生成できる。   According to the third aspect of the present invention, the landing of the subject is automatically determined by determining that the landing has been made on the ground when the height falls below a preset height from the three-dimensional predicted position in the real space of the subject. By expanding the search range, it is possible to generate a trajectory curve by extracting with high accuracy up to a stationary point even after the subject has landed on the ground.

請求項4に記載の発明によれば、移動する被写体をカメラにより撮影した映像と、前記カメラの姿勢状態に関する情報を含むカメラパラメータとを、被写体が上空に差し掛かった時点の映像フレームを起点にして、記憶装置から時系列で逆の順番に読み出して、映像フレーム内において被写体(映像オブジェクト)の検出が容易な時刻から、被写体の検出が困難な被写体が発射された時点までさかのぼって被写体を追跡することで、被写体が発射された時点(ティーショット時)までの軌跡を、安定して且つ高精度で抽出できる。   According to the fourth aspect of the present invention, an image obtained by photographing a moving subject by a camera and a camera parameter including information on the posture state of the camera are used as a starting point from a video frame when the subject approaches the sky. Reading from the storage device in the reverse order in time series, tracing the subject from the time when the subject (video object) is easily detected in the video frame to the time when the subject that is difficult to detect is fired. Thus, the trajectory up to the time when the subject is fired (during tee shot) can be extracted stably and with high accuracy.

請求項5に記載の発明によれば、1台のカメラで撮影した映像と当該カメラから得たカメラパラメータを用いるので、1台のカメラで運用可能であり、映像フレームの輝度のヒストグラムである輝度ヒストグラムに基づいて、被写体(映像オブジェクト)を抽出するための輝度に対する閾値と、この閾値よりも高い領域を抽出するか、低い領域を抽出するのかを決定しているので、移動する被写体の輝度よりも、被写体以外の輝度が高くなったり低くなったりしても、被写体を連続的に抽出することができる。このため、この抽出した結果から軌跡画像を生成して、カメラ映像に重畳することができる。   According to the fifth aspect of the present invention, since the video captured by one camera and the camera parameters obtained from the camera are used, it is possible to operate with one camera and the luminance is a histogram of the luminance of the video frame. Based on the histogram, the threshold value for extracting the subject (video object) and whether to extract a region higher than this threshold value or a lower region are determined. However, the subject can be extracted continuously even if the brightness other than the subject increases or decreases. Therefore, a trajectory image can be generated from the extracted result and superimposed on the camera video.

次に、本発明を実施するための最良の形態について、適宜、図面を参照して説明する。ここでは、移動する被写体をゴルフボールとし、1台のカメラにより撮影されたゴルフボール(映像オブジェクト)の軌跡画像を映像に合成する場合を例として、説明する。   Next, the best mode for carrying out the present invention will be described with reference to the drawings as appropriate. Here, a case where a moving subject is a golf ball and a trajectory image of a golf ball (video object) photographed by one camera is combined with a video image will be described as an example.

[軌跡画像合成装置の構成(第1の実施形態)]
まず、図1を参照して、本発明の第1の実施形態に係る映像オブジェクトの軌跡画像合成装置の構成について説明する。図1は、本発明の第1の実施形態に係る映像オブジェクトの軌跡画像合成装置の全体構成を示すブロック図である。
図1に示すように、映像オブジェクトの軌跡画像合成装置1は、被写体移動開始検出手段2と、被写体上昇判定手段3と、探索位置更新設定手段4と、閾値決定手段5と、オブジェクト領域選定手段6と、予測曲線算出手段7と、着地判定手段8と、2次元予測位置算出手段9と、オブジェクト3次元位置算出手段10と、映像記憶手段11と、カメラパラメータ記憶手段12と、被写体画像特徴記憶手段13と、オブジェクト3次元位置記憶手段14と、軌跡画像生成手段15と、軌跡画像合成手段16とを備えている。
[Configuration of Trajectory Image Synthesizer (First Embodiment)]
First, the configuration of a video object trajectory image synthesis apparatus according to the first embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an overall configuration of a video object trajectory image synthesis apparatus according to the first embodiment of the present invention.
As shown in FIG. 1, a trajectory image composition device 1 for a video object includes a subject movement start detection unit 2, a subject rise determination unit 3, a search position update setting unit 4, a threshold determination unit 5, and an object region selection unit. 6, prediction curve calculation means 7, landing determination means 8, two-dimensional prediction position calculation means 9, object three-dimensional position calculation means 10, video storage means 11, camera parameter storage means 12, subject image feature A storage unit 13, an object three-dimensional position storage unit 14, a trajectory image generation unit 15, and a trajectory image synthesis unit 16 are provided.

映像オブジェクトの軌跡画像合成装置1は、上空に発射されて移動する被写体をカメラにより撮影したカメラ映像と、被写体を撮影したときのカメラの姿勢および画角に関する情報を含むカメラパラメータとが入力され、映像を構成する映像フレーム内の映像オブジェクトを抽出し、被写体の実空間における位置を示す3次元位置を求めて、映像フレーム内における映像オブジェクトの軌跡画像を生成し、映像オブジェクトの軌跡画像とカメラ映像とを合成するものである。   The trajectory image composition device 1 of a video object receives a camera image obtained by photographing a subject that is launched and moved by the camera, and camera parameters including information on the posture and angle of view of the camera when the subject is photographed. The video object in the video frame constituting the video is extracted, the three-dimensional position indicating the position of the subject in the real space is obtained, the trajectory image of the video object in the video frame is generated, the trajectory image of the video object and the camera video Are synthesized.

被写体移動開始検出手段2は、被写体(ゴルフボール)が上空に発射された時点を、カメラの振り上げ操作による姿勢情報の急激な変化、すなわち、一つ前の映像フレームと現在の映像フレームとのカメラの姿勢情報に関するカメラパラメータ(チルト角)の差分に基づいて、検出するものである。ここでは、被写体をゴルフボールとしているため、被写体移動開始検出手段2は、ゴルフボールが打たれたタイミング(ショット時)を検出することとする。   The subject movement start detection means 2 detects the point in time when the subject (golf ball) is launched into the sky, a sudden change in posture information due to the camera swing-up operation, that is, the camera between the previous video frame and the current video frame. Is detected based on the difference in camera parameters (tilt angle) related to the posture information. Here, since the subject is a golf ball, the subject movement start detection means 2 detects the timing (at the time of shot) when the golf ball is hit.

そして、被写体移動開始検出手段2は、ショット時を検出した際には、ゴルフボールが打たれたことを検出した時点(フレーム番号または時刻)を、被写体上昇判定手段3に通知するとともに、前記カメラ映像と、被写体を撮影したときの前記カメラパラメータとを、被写体上昇判定手段3に出力し、且つ、映像記憶手段11とカメラパラメータ記憶手段12とに、それぞれ前記カメラ映像と前記カメラパラメータとを記憶させる。   When the subject movement start detection means 2 detects the time of a shot, the subject movement start detection means 2 notifies the subject rise determination means 3 of the time (frame number or time) at which it was detected that the golf ball was hit. The video and the camera parameters when the subject is photographed are output to the subject rise determination unit 3, and the camera video and the camera parameters are stored in the video storage unit 11 and the camera parameter storage unit 12, respectively. Let

ここでは、被写体移動開始検出手段2は、単位時間(映像フレームの1周期)ごとに、時刻t(フレーム番号)における映像フレームに対応したカメラパラメータのチルト角θと、1単位時間前の時刻(t−1)の映像フレームのチルト角θt − 1との差が、以下の式(1)に示すように、予め定めた規定値Taより大きくなった段階で、その時刻をゴルフボールが打たれたタイミングとして検出する。 Here, the subject movement start detection means 2 detects the tilt angle θ t of the camera parameter corresponding to the video frame at time t (frame number) and the time one unit time before every unit time (one cycle of the video frame). When the difference between the tilt angle θ t −1 of the video frame at (t−1) becomes larger than a predetermined value Ta as shown in the following formula (1), It is detected as the timing when it was hit.

Figure 0004695615
Figure 0004695615

被写体上昇判定手段3は、被写体移動開始検出手段2から入力された、前記カメラ映像または、前記被写体を撮影したときのカメラパラメータに基づいて、被写体が上空へ差し掛かったか否かを判定し、上空に差し掛かった時点(フレーム番号または時刻t)を検出するものである。被写体上昇判定手段3は、前記検出した時刻tと、前記カメラ映像と、前記被写体を撮影したときのカメラパラメータとを、探索位置更新設定手段4へ出力するとともに、前記時刻情報はカメラパラメータ記憶手段12へ記憶させる。   The subject rise determination unit 3 determines whether or not the subject has entered the sky based on the camera image input from the subject movement start detection unit 2 or the camera parameters when the subject is photographed. The point in time (frame number or time t) is detected. The subject rise determination unit 3 outputs the detected time t, the camera image, and camera parameters when the subject is photographed to the search position update setting unit 4, and the time information is a camera parameter storage unit. 12 is stored.

なお、前記被写体が上空に差し掛かった前記時刻tは、軌跡画像合成装置1B(図2を参照)によって、最初に被写体が上空に発射された時点(ショット時)における映像オブジェクトを抽出するときに、映像フレームとカメラパラメートとの読み出しを開始する時刻としても使用される。   Note that the time t when the subject has approached the sky is when the video object at the time when the subject is first launched into the sky (at the time of the shot) is extracted by the trajectory image synthesis device 1B (see FIG. 2). It is also used as the time to start reading video frames and camera parameters.

被写体上昇判定手段3は、ショット時の直後はボールに似た映像オブジェクトが地上付近に多く存在し、カメラ操作も安定しないためボールの抽出エラーを起こしやすいので、ボールが上空へ差し掛かってからボールの抽出を開始するように、上昇したか否かを判定する。ボールの抽出を開始するタイミングは、カメラのチルト角が、以下の式(2)に示すように、予め定めた規定値T3より大きくなった段階で判定する。   Since the object rise determination means 3 has many video objects resembling the ball near the ground immediately after the shot and the camera operation is not stable, it tends to cause a ball extraction error. It is determined whether or not it has risen to start extraction. The timing for starting the extraction of the ball is determined when the tilt angle of the camera becomes larger than a predetermined value T3 as shown in the following equation (2).

Figure 0004695615
Figure 0004695615

ここでは、被写体上昇判定手段3は、ボールが上空へ差し掛かったか否かを、カメラのチルト角によって判定したが、他の方法として、映像フレーム内の映像信号の輝度のヒストグラムである輝度ヒストグラムに基づいて、背景映像が地上付近であるか、または、既に上空に差し掛かっているかを判定することも可能である。   Here, the subject rise determination unit 3 determines whether or not the ball has approached the sky based on the tilt angle of the camera. As another method, the subject rise determination unit 3 is based on a luminance histogram that is a luminance histogram of the video signal in the video frame. Thus, it is possible to determine whether the background video is near the ground or has already approached the sky.

探索位置更新設定手段4は、被写体上昇判定手段3から入力された、または映像記憶手段11から読み出した、カメラ映像の映像フレーム内に当該ボール(映像オブジェクト)の探索範囲を設定するものである。この探索位置更新設定手段4は、まずカメラパラメータ記憶手段12から読み出した(出力された)被写体(に対する映像オブジェクト)が上空に差し掛かった時刻(フレーム番号)から探索位置を設定する。そして、探索位置更新設定手段4は、被写体上昇判定手段3から、ボールが上空へ差し掛かったことを検出した当該時刻tにおける映像フレーム内の映像信号が入力されたら、探索範囲の設定を開始する。なお、抽出を開始する時のために、ボールの探索範囲の位置・広さの初期条件を指定されている。当該初期条件は、ボールが一般に映像フレーム画面の中央で撮影されることを考慮して、前記画面の中央で広めの探索範囲に設定される。   The search position update setting unit 4 sets the search range of the ball (video object) in the video frame of the camera video input from the subject rise determination unit 3 or read from the video storage unit 11. The search position update setting means 4 first sets the search position from the time (frame number) when the subject (video object for) read (output) from the camera parameter storage means 12 approaches the sky. Then, the search position update setting unit 4 starts setting the search range when the video signal in the video frame at the time t when it is detected from the subject ascent determination unit 3 that the ball has approached the sky is input. In order to start extraction, initial conditions for the position and width of the ball search range are specified. The initial condition is set to a wider search range at the center of the screen in consideration that the ball is generally shot at the center of the video frame screen.

また、探索位置更新設定手段4は、次の時刻t+1以降の映像フレーム内の映像オブジェクトの探索範囲の設定に関して、着地判定手段8によって、被写体が着地していないと判定された映像フレームの次の時刻の映像フレームに対しては、映像オブジェクトの探索範囲を2次元予測位置算出手段9から入力された2次元位置に基づいて設定し、または、被写体が着地したと判定された映像フレームの次の時刻の映像フレームに対しては、映像オブジェクトの探索範囲を、前の映像フレームの探索範囲より拡大して設定する。ここで設定された探索範囲の情報(画像座標、面積)と前記カメラにより撮影された映像信号とは閾値決定手段5に出力される。   Further, the search position update setting unit 4 relates to the setting of the search range of the video object in the video frame after the next time t + 1, and the next determination unit 8 determines that the subject has not landed. For the video frame at the time, the search range of the video object is set based on the two-dimensional position input from the two-dimensional predicted position calculation means 9, or the video frame next to the video frame determined that the subject has landed is set. For the video frame at the time, the video object search range is set larger than the search range of the previous video frame. The information (image coordinates, area) of the search range set here and the video signal photographed by the camera are output to the threshold value determination means 5.

ここまでで、カメラパラメータ記憶手段12には、被写体が上空に発射された時刻(フレーム番号)と被写体が上空に差し掛かった時刻(フレーム番号)とが記憶されている。なお、探索位置更新設定手段4は、ボールが上空に差し掛かった時点から発射された時点までの映像フレーム内の映像オブジェクトをさかのぼって抽出するために、時系列を逆の順番に遡って、映像フレームとカメラパラメータとを、映像記憶手段11とカメラパラメータ記憶手段12とから、それぞれ読み出して、探索範囲を順次更新し設定することもできる。   Up to this point, the camera parameter storage means 12 stores the time (frame number) at which the subject is launched into the sky and the time (frame number) at which the subject has approached the sky. Note that the search position update setting unit 4 goes back in time sequence in the reverse order to extract the video objects in the video frame from the time when the ball approaches the sky to the time when the ball is launched. And the camera parameters can be read out from the video storage unit 11 and the camera parameter storage unit 12, respectively, and the search range can be sequentially updated and set.

閾値決定手段5は、映像信号における映像フレームの輝度のヒストグラムである輝度ヒストグラムを生成し、当該輝度ヒストグラムに基づいて、映像オブジェクトの映像信号の輝度情報に対する少なくとも上空用の閾値(後記する式(3)におけるT1)と地上付近用の閾値(後記する式(3)におけるT2)とを決定するとともに、前景画像と背景画像とを分離するものである。閾値決定手段5は、図3(a)に示すように、輝度ヒストグラム生成手段51と、輝度閾値設定手段52と、前景・背景分離手段53とを備えている。   The threshold value determination means 5 generates a luminance histogram that is a histogram of the luminance of the video frame in the video signal, and based on the luminance histogram, at least a threshold value for the sky with respect to the luminance information of the video signal of the video object (formula (3 described later) ) And a threshold value for the vicinity of the ground (T2 in equation (3) to be described later) and a foreground image and a background image are separated. As shown in FIG. 3A, the threshold value determination unit 5 includes a luminance histogram generation unit 51, a luminance threshold setting unit 52, and a foreground / background separation unit 53.

輝度ヒストグラム生成手段51は、前記探索位置更新設定手段4から入力された映像フレーム内の映像信号から、輝度情報のヒストグラムである輝度ヒストグラムを、映像フレームごとに逐次生成するものである。ここで生成された輝度ヒストグラムは輝度閾値設定手段52に出力される。一般に、上空では高輝度の背景映像に対して映像オブジェクトの領域の輝度は低く、地上では低輝度の背景映像に対して映像オブジェクトの領域の輝度が高い。このように、背景映像と、映像オブジェクト領域(ボール領域)の映像の輝度は、被写体が上昇中に逆転する。   The luminance histogram generation unit 51 sequentially generates a luminance histogram, which is a histogram of luminance information, for each video frame from the video signal in the video frame input from the search position update setting unit 4. The luminance histogram generated here is output to the luminance threshold setting means 52. Generally, in the sky, the luminance of the video object region is low with respect to the high-luminance background video, and on the ground, the luminance of the video object region is high with respect to the low-luminance background video. Thus, the brightness of the background video and the video object area (ball area) is reversed while the subject is rising.

輝度閾値設定手段52は、背景映像と、ボール領域との相対的な輝度がボールの上昇中に逆転することを利用し、前記輝度ヒストグラム生成手段51によって生成された映像オブジェクトの背景映像の前記輝度ヒストグラムを逐次参照して、ボール領域が地上付近であるか、または上空に差し掛かっているか否かを判定し、ボール領域を抽出するための輝度閾値を切り替えるものである。また、輝度閾値設定手段52は、前記輝度ヒストグラムの判定結果に基づいて、ボール領域が上空と判定された場合は、後記する前景・背景分離手段53によって抽出する領域の輝度の範囲を当該閾値より低い範囲に設定し、逆に、ボール領域が地上付近と判定された場合は当該閾値より高い範囲に設定する。   The brightness threshold setting means 52 utilizes the fact that the relative brightness between the background video and the ball area is reversed while the ball is rising, and the brightness of the background video of the video object generated by the brightness histogram generation means 51 is used. By sequentially referring to the histogram, it is determined whether the ball area is near the ground or approaching the sky, and the luminance threshold for extracting the ball area is switched. Further, the luminance threshold value setting means 52 determines the luminance range of the area extracted by the foreground / background separation means 53 described later from the threshold value when the ball area is determined to be sky based on the determination result of the luminance histogram. On the contrary, when the ball area is determined to be near the ground, it is set to a range higher than the threshold value.

ここで厳密に言うと、輝度閾値判定手段52は、高輝度を示す輝度ヒストグラムの度数が、低輝度を示す輝度ヒストグラムの度数よりも大きいか否かによって、ボール領域を示す輝度の範囲を設定しているのであり、この輝度閾値判定手段52はボール領域が実際に上空にさしかかっているか地上付近にあるかを判定しているものではない。例えば、カメラ映像の背景に山やビル等が含まれた場合に、ボール領域が上空にさしかかっていても、当該ボール領域を示す輝度の閾値よりも、背景の輝度が低くなる場合が想定される。しかしながら、この輝度閾値判定手段52は、このような場合であっても、ボール領域が実際に上空にさしかかっているか地上付近にあるかに拘わらず、映像フレームの輝度ヒストグラムに着目して、ボール領域を示す輝度の範囲を設定しているので、以下に続くように、当該装置1では、連続してボール領域を抽出することが出来る。   Strictly speaking, the luminance threshold value determination unit 52 sets the luminance range indicating the ball area depending on whether the frequency of the luminance histogram indicating high luminance is larger than the frequency of the luminance histogram indicating low luminance. Therefore, the brightness threshold value determination means 52 does not determine whether the ball area is actually approaching the sky or near the ground. For example, when the background of a camera image includes a mountain, a building, or the like, even if the ball area is approaching the sky, the background brightness is assumed to be lower than the brightness threshold value indicating the ball area. . However, even in this case, the brightness threshold value determination means 52 pays attention to the brightness histogram of the video frame regardless of whether the ball area is actually approaching the sky or near the ground. Therefore, the apparatus 1 can extract the ball area continuously as described below.

輝度閾値設定手段52は、例えば、地上から上空へボールが移動した場合、高輝度な背景が徐々に支配的になるので、高輝度な背景を示す輝度ヒストグラムの度数が、低輝度な背景を示す輝度ヒストグラムの度数を超えた時点で、ボール領域の輝度範囲を0〜T1とする。逆に、上空から地上へボールが移動した場合、低輝度な背景が徐々に支配的となるので、低輝度な背景を示す輝度ヒストグラムの度数が、高輝度な背景を示す輝度ヒストグラムの度数を超えた時点で、ボール領域の輝度範囲をT2〜255とする。この処理を式(3)に示す。ここで輝度は、0〜255の値を取るものとし、高輝度な背景と低輝度な背景の境界輝度値をT3、輝度iにおける度数をhist(i)とした。   For example, when the ball moves from the ground to the sky, the luminance threshold setting unit 52 gradually becomes dominant in the high-luminance background. Therefore, the frequency of the luminance histogram indicating the high-luminance background indicates the low-luminance background. When the frequency of the luminance histogram is exceeded, the luminance range of the ball area is set to 0 to T1. Conversely, when the ball moves from the sky to the ground, the low brightness background gradually becomes dominant, so the frequency of the brightness histogram indicating the low brightness background exceeds the frequency of the brightness histogram indicating the high brightness background. At this point, the luminance range of the ball area is set to T2 to 255. This process is shown in Equation (3). Here, the luminance takes a value of 0 to 255, the boundary luminance value between the high luminance background and the low luminance background is T3, and the frequency at luminance i is hist (i).

Figure 0004695615
Figure 0004695615

ここでは、輝度閾値設定手段52は、前記輝度ヒストグラムを映像フレームごとに逐次参照して、高輝度な背景と低輝度な背景との度数を比較して閾値の切替えタイミングを判定しているが、一方の度数がある閾値(輝度ヒストグラムの度数に対する閾値)を超えた時点を切り替えタイミングとしてもよい。
また、輝度閾値設定手段52は、ボール領域の輝度範囲を、低い領域の上限値T1と、高い領域の下限値T2とによって決めるが、これらの値は過去に抽出したボール領域の画像特徴として、対象図形である映像オブジェクトの画像面積を、被写体画像特徴記憶手段13から取出して参照することにより、前記輝度範囲の前記上限値T1と、前記下限値T2とを動的に決定することができる。過去のフレームで抽出したボール領域から現フレームでの面積が概算できるため、閾値決定法としてはPタイル法が有効である。
Here, the luminance threshold setting means 52 sequentially refers to the luminance histogram for each video frame, compares the frequency of the high luminance background and the low luminance background, and determines the threshold switching timing. The time when one frequency exceeds a certain threshold value (threshold value for the frequency in the luminance histogram) may be set as the switching timing.
The luminance threshold setting means 52 determines the luminance range of the ball area by an upper limit value T1 of the low area and a lower limit value T2 of the high area. These values are used as image features of the ball area extracted in the past. The upper limit value T1 and the lower limit value T2 of the luminance range can be dynamically determined by taking out the image area of the video object that is the target graphic from the subject image feature storage unit 13 and referring to it. Since the area in the current frame can be estimated from the ball area extracted in the past frame, the P tile method is effective as a threshold value determination method.

輝度閾値設定手段52は、Pタイル法によって、以下の式(4)に示すように、まず画像全体の面積をS、対象図形の面積をS0とし、画像全体に対する対象図形の面積の比率pを求める。   The luminance threshold value setting means 52 uses the P tile method, as shown in the following formula (4), first, the area of the entire image is S, the area of the target graphic is S0, and the ratio p of the area of the target graphic to the entire image is set. Ask.

Figure 0004695615
Figure 0004695615

また、輝度閾値設定手段52は、対象図形が背景よりも明るい場合は輝度値の大きい方から、対象図形が背景よりも暗い場合は輝度値の小さい方から画素数を数えていき、以下の式(5)に示すような値になるときの輝度値を閾値とする。ここで、カウントした画素数をN0、全体の画素数をNとする。   Also, the brightness threshold setting means 52 counts the number of pixels from the larger luminance value when the target graphic is brighter than the background and from the smaller luminance value when the target graphic is darker than the background. The brightness value when the value is as shown in (5) is set as a threshold value. Here, the number of counted pixels is N0, and the total number of pixels is N.

Figure 0004695615
Figure 0004695615

前景・背景分離手段53は、輝度閾値設定手段52によって設定されたボール領域の輝度の範囲に該当する領域を前景領域(前景画像)として抽出するものである。ここで抽出された前景領域の画像情報はオブジェクト領域選定手段6に出力される。これによって、前景・背景分離手段53は、背景が上空、つまり高輝度のときには、閾値より輝度の低い領域を前景領域として抽出し、背景が地上付近、つまり低輝度のときには、閾値より輝度の高い領域を前景領域として抽出する。図1に戻る。   The foreground / background separation unit 53 extracts a region corresponding to the luminance range of the ball region set by the luminance threshold setting unit 52 as a foreground region (foreground image). The image information of the foreground area extracted here is output to the object area selection means 6. Thereby, the foreground / background separation means 53 extracts a region having a lower luminance than the threshold as the foreground region when the background is sky, that is, high luminance, and has a luminance higher than the threshold when the background is near the ground, that is, when the luminance is low. Extract the region as a foreground region. Returning to FIG.

オブジェクト領域選定手段6は、前景・背景分離手段53によって抽出された前景領域に対して、予め過去の映像フレームで作成された映像オブジェクトの大きさ、形などの画像特徴に関するデータを、被写体画像特徴記憶手段13から読み出し参照して、ボール領域を選定するものである。つまり、オブジェクト領域選定手段6は、ボール領域の候補が複数ある場合(前景領域が複数ある場合)、目標とする画像特徴に最も近いボール領域を選択する。カメラ操作によりボールの画像特徴は映像フレームごとに変化するため、過去数フレームにおける画像特徴の平均を目標の画像特徴として出力する。更に、ここでは、オブジェクト領域選定手段6は、予測曲線算出手段7の軌跡曲線補間手段73から入力された予測曲線に対して距離の近い領域を優先して映像オブジェクトとして選定することとした(図3参照、詳細は後記)。   The object area selecting means 6 uses the object image characteristics for the foreground area extracted by the foreground / background separating means 53, with respect to the image characteristics such as the size and shape of the video object created in the past video frame in advance. The ball area is selected by reading from the storage means 13 and referring to it. That is, when there are a plurality of ball area candidates (when there are a plurality of foreground areas), the object area selection unit 6 selects the ball area closest to the target image feature. Since the image feature of the ball changes for each video frame by the camera operation, the average of the image features in the past several frames is output as the target image feature. Further, here, the object region selection unit 6 preferentially selects a region close to the prediction curve input from the trajectory curve interpolation unit 73 of the prediction curve calculation unit 7 as a video object (see FIG. See 3 for details).

このオブジェクト領域選定手段6によってボール領域が選定した映像信号における映像フレーム内のボール領域の位置を示す座標および面積が、オブジェクト領域選定手段6から予測曲線算出手段7と、2次元予測位置算出手段9と、オブジェクト3次元位置算出手段10とに通知される。さらに、オブジェクト領域選定手段6は、被写体画像特徴記憶手段13に、過去数フレームにおける画像特徴を平均したものを出力する。   The coordinates and area indicating the position of the ball area in the video frame in the video signal selected by the object area selecting means 6 from the object area selecting means 6 to the prediction curve calculating means 7 and the two-dimensional predicted position calculating means 9. To the object three-dimensional position calculation means 10. Further, the object area selecting unit 6 outputs an average of the image features in the past several frames to the subject image feature storing unit 13.

予測曲線算出手段7は、オブジェクト領域選定手段6によって得られた映像フレーム内の前記映像オブジェクトの位置を示す座標(2次元予測位置)および面積に基づいて、実空間における3次元位置を予測した3次元位置予測を利用して、予め定められた映像フレーム数だけ先までの映像オブジェクトの位置を予測して、これらの位置を補間した前記映像オブジェクトの予測曲線を算出するものであって、図3(b)に示すように、3次元予測位置算出手段71と、スクリーン座標変換手段72と、軌跡曲線補間手段73とを備えている。   The prediction curve calculation means 7 predicts the three-dimensional position in the real space based on the coordinates (two-dimensional prediction position) and the area indicating the position of the video object in the video frame obtained by the object region selection means 6. The position of the video object up to the predetermined number of video frames is predicted by using the dimensional position prediction, and the prediction curve of the video object obtained by interpolating these positions is calculated. As shown in (b), a three-dimensional predicted position calculation means 71, a screen coordinate conversion means 72, and a trajectory curve interpolation means 73 are provided.

3次元予測位置算出手段71は、オブジェクト領域選定手段6によって抽出された映像オブジェクトに基づいて、映像オブジェクトであるボールの次の映像フレームにおいて対応する3次元予測位置を予測するものである。ここでは、3次元予測位置算出手段71は、拡張カルマンフィルタを用いてボールの3次元予測位置を映像フレームごとに逐次推定する。   The three-dimensional predicted position calculating means 71 predicts the corresponding three-dimensional predicted position in the next video frame of the ball that is the video object, based on the video object extracted by the object area selecting means 6. Here, the three-dimensional predicted position calculation means 71 sequentially estimates the three-dimensional predicted position of the ball for each video frame using an extended Kalman filter.

3次元予測位置算出手段71は、以下の式(6)に示すように、状態量Xを、3次元直交座標空間での位置(x,y,z)、速度(v,v,v)、加速度(a,a,a)とし、観測量yをカメラ映像から抽出した映像オブジェクトの重心を示す画像座標(X,Y)、および面積(A)として定義する。なお、上付き添え字:は行列の転置を表している。 As shown in the following equation (6), the three-dimensional predicted position calculation means 71 converts the state quantity X into a position (x, y, z) and velocity (v x , v y , v) in a three-dimensional orthogonal coordinate space. z), and acceleration (a x, a y, and a z), the image coordinates indicating the center of gravity of the video objects extracted observables y from the camera image (X g, Y g), and defined as the area (a). Superscript: T represents transposition of the matrix.

Figure 0004695615
Figure 0004695615

また、以下の式(7)に示すように、1フレームを単位時間とした状態遷移行列をFとし、一定重力gのもとでの放物運動にシステムノイズvを加えたものを運動モデルとした。なお、システムノイズvの共分散行列をQとする。また、I,Oを3×3の単位行列、零行列とし、tをフレーム番号(時刻)とする。そして、例えば、E[v]はシステムノイズvの期待値を示している。 Further, as shown in the following equation (7), F is a state transition matrix with one frame as a unit time, and a motion model is obtained by adding a system noise v t to a parabolic motion under a constant gravity g. It was. Note that Q is the covariance matrix of the system noise v t . Also, I and O are 3 × 3 unit matrix and zero matrix, and t is a frame number (time). For example, E [v t ] indicates an expected value of the system noise v t .

Figure 0004695615
Figure 0004695615

そして、3次元予測位置算出手段71は、単位時間ごとに以下の式(8)に示す状態推定式にしたがって、運動モデルに従うボールの位置を逐次予測する。ここで、Pは状態量の誤差共分散行列である。   Then, the three-dimensional predicted position calculation means 71 sequentially predicts the position of the ball according to the motion model according to the state estimation formula shown in the following formula (8) every unit time. Here, P is an error covariance matrix of state quantities.

Figure 0004695615
Figure 0004695615

また、ここでは、以下の式(9)に示すように、3次元位置をスクリーンへ射影する関数h(X)に、共分散行列Rを持つ観測ノイズwを加えたものを観測モデルYとした。なお、ボールの初期位置座標(x,y,z)は、撮影前にキャリブレーションを行うことにより予め決定する。ボールの初期速度(v,v,v)および面積式の係数sに関しては、撮影前に基準となるショット軌道から決定する。また、カメラパラメータのパン角をφ、チルト角をθ、焦点距離をfとした。 Here, as shown in the following equation (9), an observation model Y obtained by adding an observation noise w t having a covariance matrix R to a function h (X t ) for projecting a three-dimensional position onto a screen. t . Note that the initial position coordinates (x, y, z) of the ball are determined in advance by performing calibration before photographing. The initial velocity (v x , v y , v z ) of the ball and the area formula coefficient s are determined from a reference shot trajectory before imaging. Further, the pan angle of the camera parameters is φ, the tilt angle is θ, and the focal length is f.

Figure 0004695615
Figure 0004695615

3次元予測位置算出手段71は、観測量が得られた場合、以下の式(10)に示した更新式に従って、状態量Xおよび状態量の誤差共分散行列Pの要素を更新し、更新後の状態量をX´および更新後の状態量の誤差共分散行列をP´とする。なお、Hは観測感度行列である。   When the observed amount is obtained, the three-dimensional predicted position calculating unit 71 updates the state quantity X and the elements of the error covariance matrix P of the state quantity according to the update formula shown in the following formula (10), and after the update Let X ′ be the state quantity, and P ′ be the error covariance matrix of the updated state quantity. H is an observation sensitivity matrix.

Figure 0004695615
Figure 0004695615

このように、3次元予測位置算出手段71は、前記した式(8)に示した状態推定式と、式(10)に示した更新式とに基づいて、観測が得られた場合には更新しながら運動モデルに従う状態推定を行い、逐次ボールの3次元予測位置を予測する。
また、3次元予測位置算出手段71により得られたボール(被写体)の3次元予測位置は、着地判定手段8へ出力される。
As described above, the three-dimensional predicted position calculation means 71 updates the observation when observation is obtained based on the state estimation expression shown in Expression (8) and the update expression shown in Expression (10). While estimating the state according to the motion model, the three-dimensional predicted position of the ball is predicted sequentially.
Further, the three-dimensional predicted position of the ball (subject) obtained by the three-dimensional predicted position calculating means 71 is output to the landing determining means 8.

スクリーン座標変換手段72は、3次元予測位置算出手段71によって得られたボール(被写体)のフレームごとの3次元予測位置を、次の映像フレーム内での位置(画像座標)へ投影変換するものである。スクリーン座標変換手段72は、3次元予測位置算出手段71によって算出されたフレームごとのボールの3次元予測位置を映像フレーム内における位置に対応するスクリーン座標へ投影し、現映像フレーム内に配置された複数の予測点の列から成る予測点列を得て、軌跡曲線補間手段73へ前記予測点列の画像座標を出力する。   The screen coordinate conversion means 72 projects and converts the three-dimensional predicted position for each frame of the ball (subject) obtained by the three-dimensional predicted position calculation means 71 to a position (image coordinate) in the next video frame. is there. The screen coordinate conversion unit 72 projects the three-dimensional predicted position of the ball for each frame calculated by the three-dimensional predicted position calculation unit 71 to the screen coordinates corresponding to the position in the video frame, and is arranged in the current video frame. A prediction point sequence including a plurality of prediction point sequences is obtained, and the image coordinates of the prediction point sequence are output to the trajectory curve interpolation unit 73.

軌跡曲線補間手段73は、前記したスクリーン座標変換手段72により得られた映像オブジェクト(ボール)の現スクリーン座標上での予測点列を、例えば、2次曲線などで補間して予測曲線を得るものである。そして、軌跡曲線補間手段73は、オブジェクト領域選定手段6へ、当該予測曲線の画像座標を出力する。   The trajectory curve interpolation unit 73 obtains a prediction curve by interpolating the prediction point sequence on the current screen coordinates of the video object (ball) obtained by the screen coordinate conversion unit 72 with, for example, a quadratic curve. It is. Then, the trajectory curve interpolation unit 73 outputs the image coordinates of the prediction curve to the object region selection unit 6.

着地判定手段8は、映像信号における映像フレーム内の映像オブジェクトに対して、3次元予測位置算出手段71によって算出された映像オブジェクトの3次元予測位置に基づいて、ボール(被写体)が地面に着地したか否かを判定するものであって、図3(c)に示すように、被写体高さ判定手段81と、着地時刻判定手段82と、座標変換手段83とを備えている。   The landing determining means 8 has landed the ball (subject) on the ground based on the three-dimensional predicted position of the video object calculated by the three-dimensional predicted position calculating means 71 for the video object in the video frame in the video signal. As shown in FIG. 3C, the apparatus includes a subject height determination unit 81, a landing time determination unit 82, and a coordinate conversion unit 83.

被写体高さ判定手段81は、予測曲線算出手段7によって得られた被写体(ボール)の3次元予測位置に基づいて、当該被写体の高度が基準値に対して下回るかどうかを判定するものである。すなわち、被写体高さ判定手段81は、映像フレームごとに3次元予測位置算出手段71で逐次予測されたボールの位置(状態量xの位置座標(x,y,z))から高さ要素(z)が、以下の式(11)に示すように、予め地面の高さとして定められた高さ基準値Hよりも下回った段階で、ボールが着地したと判定し、着地点の位置は、座標変換手段83に出力される。 The subject height determination unit 81 determines whether the altitude of the subject is below the reference value based on the three-dimensional predicted position of the subject (ball) obtained by the prediction curve calculation unit 7. That is, the subject height determination unit 81 determines the height element (z) from the position of the ball (position coordinates (x, y, z) of the state quantity x) sequentially predicted by the three-dimensional predicted position calculation unit 71 for each video frame. t), as shown in equation (11) below, at the stage where falls below the height reference value H G defined in advance as the ground level, it is determined that the ball has landed, the position of the landing point And output to the coordinate conversion means 83.

着地時刻判定手段82は、被写体高さ判定手段81から、当該ボールが着地したか否か判定された結果が入力され、もし、着地したという結果の場合、当該映像フレームのフレーム番号、あるいは時刻tの情報を、探索位置更新設定手段4へ出力する。 The landing time determination means 82 receives from the subject height determination means 81 the result of determining whether or not the ball has landed. If the result is that the ball has landed, the frame number of the video frame or the time t The information of g is output to the search position update setting means 4.

Figure 0004695615
Figure 0004695615

座標変換手段83は、被写体高さ判定手段81によって判定されたボールの着地点の3次元予測位置を、映像フレーム内での画像座標に変換するものである。そして、座標変換手段83は、この着地点を示す映像フレーム内の画像座標を、探索位置更新設定手段4へ出力する。   The coordinate conversion unit 83 converts the three-dimensional predicted position of the landing point of the ball determined by the subject height determination unit 81 into image coordinates in the video frame. Then, the coordinate conversion unit 83 outputs the image coordinates in the video frame indicating the landing point to the search position update setting unit 4.

2次元予測位置算出手段9は、オブジェクト領域選定手段6によって選定された映像オブジェクトの位置を示す座標および面積に基づいて、次の映像フレーム内での映像オブジェクトの2次元予測位置(画像座標)を予測し、探索位置更新設定手段4へ出力するものである。2次元予測位置算出手段9は、2次元予測位置の算出に際して、前記式(8)で示した状態推定式および前記式(10)で示した更新式を用いてボールの位置を予測した3次元直交座標で表現された位置座標に対して、スクリーンへ射影する関数h(x)、すなわち、前記式(9)を用いることで3次元位置を2次元位置(画像座標)へ変換して、2次元予測位置を算出することができる。 Based on the coordinates and area indicating the position of the video object selected by the object region selection means 6, the two-dimensional predicted position calculation means 9 determines the two-dimensional predicted position (image coordinates) of the video object in the next video frame. This is predicted and output to the search position update setting means 4. The two-dimensional predicted position calculation means 9 calculates the two-dimensional predicted position by using the state estimation formula shown by the formula (8) and the update formula shown by the formula (10). Using the function h (x t ) that is projected onto the screen with respect to the position coordinates expressed in the Cartesian coordinates, that is, the expression (9), the three-dimensional position is converted into the two-dimensional position (image coordinates), A two-dimensional predicted position can be calculated.

また、2次元予測位置算出手段9は、オブジェクト領域選定手段6によって選定された映像オブジェクトの位置を示す座標および面積に基づいて、次の映像フレーム内での映像オブジェクトの2次元予測位置を算出するに際して、前記したように拡張カルマンフィルタを用いて算出する方法だけに限定されず、線形予測を利用して算出することもできる。   The two-dimensional predicted position calculation means 9 calculates the two-dimensional predicted position of the video object in the next video frame based on the coordinates and area indicating the position of the video object selected by the object region selection means 6. At this time, as described above, the calculation is not limited to the method using the extended Kalman filter, and the calculation can also be performed using linear prediction.

2次元予測位置算出手段9は、線形予測で映像オブジェクトであるボールの2次元予測位置を予測する場合、2つ前までの時刻(t−1、およびt−2)の映像フレームで求めた映像オブジェクトの画像座標Pt−1、およびPt−2を用いて、時刻tにおける映像フレームの映像オブジェクトの画像座標P^=[x、y]を、以下の式(12)にしたがって、予測することもできる。 The two-dimensional predicted position calculation means 9 predicts the two-dimensional predicted position of the ball, which is a video object, by linear prediction, and the video obtained from the video frames at the previous two times (t−1 and t−2). Using the image coordinates P t−1 and P t−2 of the object, the image coordinates P t = [x, y] T of the video object of the video frame at time t are expressed by the following equation (12): It can also be predicted.

Figure 0004695615
Figure 0004695615

オブジェクト3次元位置算出手段10は、オブジェクト領域選定手段6によって選定された映像フレームごとの映像オブジェクトの位置を示す座標および面積、並びにカメラパラメータ記憶手段12から読み出したカメラパラメータに基づいて、映像フレーム内での映像オブジェクトであるボールの3次元位置座標を算出し、この3次元位置座標をオブジェクト3次元位置記憶手段14に記憶させるものである。   Based on the coordinates and area indicating the position of the video object for each video frame selected by the object area selection unit 6 and the camera parameters read from the camera parameter storage unit 12, the object three-dimensional position calculation unit 10 The three-dimensional position coordinates of the ball, which is a video object, are calculated, and the three-dimensional position coordinates are stored in the object three-dimensional position storage means 14.

映像記憶手段11は、前記被写体移動開始検出手段2によって得られた、前記カメラにより撮影された映像フレームの映像信号を時系列にしたがって記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶された映像フレームの映像信号は、時系列に対して、探索位置更新設定手段4および軌跡画像合成手段16によって、順方向または逆方向に読み出される。   The video storage means 11 stores the video signals of the video frames taken by the camera obtained by the subject movement start detection means 2 in time series, and is constituted by a general storage means such as a hard disk. Is done. The video signal of the video frame stored here is read out in the forward or reverse direction by the search position update setting unit 4 and the trajectory image synthesis unit 16 with respect to time series.

カメラパラメータ記憶手段12は、前記被写体移動開始検出手段2によって得られた、前記カメラにより撮影された映像フレームの姿勢状態に関するカメラパラメータを時系列にしたがって記憶するとともに、被写体移動開始検出手段2から出力された被写体が上空へ発射された時刻(フレーム番号)と被写体上昇判定手段3から出力された被写体が上空に差し掛かった時刻(フレーム番号)とを記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶されたカメラパラメータは、時系列に対して、探索位置更新設定手段4および軌跡画像生成手段15によって、順方向または逆方向に読み出される。   The camera parameter storage unit 12 stores the camera parameters obtained by the subject movement start detection unit 2 and related to the posture state of the video frame taken by the camera in time series, and is output from the subject movement start detection unit 2. The time (frame number) when the captured subject is launched into the sky and the time (frame number) when the subject output from the subject ascent determination means 3 reaches the sky are stored. Consists of means. The camera parameters stored here are read out in the forward or reverse direction by the search position update setting unit 4 and the trajectory image generation unit 15 with respect to time series.

被写体画像特徴記憶手段13は、前記オブジェクト領域選定手段6によって得られた、過去数フレームの映像フレーム内における映像オブジェクトの画像特徴の平均化されたもの(目標画像特徴:大きさ、形状、輝度など)と、輝度閾値情報として低輝度な背景の輝度の上限値T1と、高輝度な背景の輝度の下限値T2と、高輝度な背景と低輝度な背景の境界輝度値をT3とを記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶された映像オブジェクトの画像特徴は、時系列に対して、閾値決定手段5およびオブジェクト領域選定手段6によって、順方向または逆方向に読み出される。   The subject image feature storage unit 13 is obtained by averaging the image features of the video objects in the past several frames obtained by the object region selection unit 6 (target image features: size, shape, luminance, etc. ), The upper limit value T1 of the luminance of the low luminance background, the lower limit value T2 of the luminance of the high luminance background, and the boundary luminance value T3 of the high luminance background and the low luminance background are stored as luminance threshold information. It is constituted by general storage means such as a hard disk. The image features of the video object stored here are read out in the forward direction or the reverse direction by the threshold value determination means 5 and the object area selection means 6 with respect to time series.

オブジェクト3次元位置記憶手段(記憶装置)14は、前記オブジェクト3次元位置算出手段10によって算出された、前記映像フレーム内における映像オブジェクトの3次元位置座標を記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶された映像フレーム内における映像オブジェクトの3次元位置座標は、時系列に対して、軌跡画像生成手段15によって、順方向または逆方向に読み出される。   The object three-dimensional position storage means (storage device) 14 stores the three-dimensional position coordinates of the video object in the video frame calculated by the object three-dimensional position calculation means 10. It is constituted by a storage means. The three-dimensional position coordinates of the video object stored in the video frame stored here are read in the forward direction or the reverse direction by the trajectory image generation means 15 with respect to time series.

軌跡画像生成手段15は、前記オブジェクト3次元位置記憶手段14に記憶された前記映像フレーム内における映像オブジェクトの3次元位置座標と、前記カメラパラメータ記憶手段12に記憶された前記カメラパラメータとを読み出して、前記映像フレームごとに軌跡画像を生成し、軌跡画像合成手段16に前記軌跡画像を出力するものである。   The trajectory image generation means 15 reads out the three-dimensional position coordinates of the video object in the video frame stored in the object three-dimensional position storage means 14 and the camera parameters stored in the camera parameter storage means 12. A trajectory image is generated for each video frame, and the trajectory image is output to the trajectory image synthesis means 16.

軌跡画像合成手段16は、前記軌跡画像生成手段15によって生成された映像フレームごとの軌跡画像と、前記映像記憶手段11に記憶された映像フレームの映像信号の当該映像フレームとを入力し、且つ合成することによって、映像オブジェクト(ボール)の軌跡画像が重畳された映像信号を生成するものである。ここで軌跡画像が重畳された映像は、外部に出力される。   The trajectory image synthesis means 16 inputs the trajectory image for each video frame generated by the trajectory image generation means 15 and the video frame of the video signal stored in the video storage means 11 and combines them. By doing so, a video signal on which the trajectory image of the video object (ball) is superimposed is generated. Here, the video on which the trajectory image is superimposed is output to the outside.

これによって、軌跡画像合成装置1は、これまで困難であった被写体が地上で発射される時点の映像フレーム内の映像オブジェクトの抽出から、被写体が上空に達してから着地して静止点に至るまでの区間の移動軌跡を連続して抽出できる。   As a result, the trajectory image synthesis device 1 starts from extracting a video object in a video frame at the time when a subject that has been difficult to hit on the ground until the subject reaches the stationary point after reaching the sky. The movement trajectory of the section can be extracted continuously.

なお、軌跡画像合成装置1は、コンピュータにおいて各手段を各機能プログラムとして実現すること可能であり、各機能プログラムを結合して、軌跡画像合成プログラムとして動作させることも可能である。   The trajectory image synthesis apparatus 1 can realize each unit as a function program in a computer, and can also operate the trajectory image synthesis program by combining the function programs.

[軌跡画像合成装置の動作(第1の実施形態)]
次に、図6および図7を参照(適宜図1を参照)して、軌跡画像合成装置1の動作について説明する。
図6は、本発明に係る軌跡画像合成装置1の動作を示すフローチャートである。図7は、本発明に係る映像オブジェクト抽出動作の処理の流れを示すフローチャートである。
[Operation of Trajectory Image Synthesizer (First Embodiment)]
Next, the operation of the trajectory image synthesis apparatus 1 will be described with reference to FIGS. 6 and 7 (refer to FIG. 1 as appropriate).
FIG. 6 is a flowchart showing the operation of the trajectory image synthesis apparatus 1 according to the present invention. FIG. 7 is a flowchart showing the flow of processing of the video object extraction operation according to the present invention.

まず、軌跡画像合成装置1は、被写体移動開始検出手段2によって、被写体をカメラで撮影したカメラ映像(少なくとも2つの連続する映像フレーム)とカメラパラメータを入力し(ステップS1)、前記カメラパラメータに基づいて、被写体が移動を開始しているか否かを判定する(ステップS2)。被写体が移動を開始していなければ(ステップS2でNo)、ステップS1に戻り、次映像フレームのカメラ映像とカメラパラメータとを入力する。   First, the trajectory image synthesizing device 1 inputs camera images (at least two consecutive video frames) obtained by photographing the subject with a camera and camera parameters by the subject movement start detection means 2 (step S1), and based on the camera parameters. Then, it is determined whether or not the subject has started moving (step S2). If the subject has not started moving (No in step S2), the process returns to step S1, and the camera image and camera parameters of the next image frame are input.

また、軌跡画像合成装置1は、被写体移動開始検出手段2によって、被写体の移動開始を検出すると(ステップS2でYes)、映像記憶手段11とカメラパラメータ記憶手段12とに、ステップS1において入力された映像フレームのカメラ映像とカメラパラメータとをそれぞれ記憶させる(ステップS3)。なお、ここで、軌跡画像合成装置1は、被写体が移動を開始した映像フレームのフレーム番号又は時刻を、カメラパラメータ記憶手段12に記憶する。   Further, when the trajectory image synthesizing apparatus 1 detects the start of movement of the subject by the subject movement start detection means 2 (Yes in step S2), it is input to the video storage means 11 and the camera parameter storage means 12 in step S1. The camera image and camera parameters of the image frame are stored (step S3). Here, the trajectory image composition device 1 stores the frame number or time of the video frame at which the subject starts moving in the camera parameter storage unit 12.

次に、軌跡画像合成装置1は、被写体が上空に差し掛かったか否かを、被写体上昇判定手段3によって判定し(ステップS4)、まだ差し掛かっていなければ(ステップS4でNo)、次映像フレームのカメラ映像とカメラパラメータとを被写体移動開始検出手段2によって入力し(ステップS5)、ステップS3に戻って映像記憶手段11とカメラパラメータ記憶手段12とに、ステップS5において入力された映像フレームのカメラ映像とカメラパラメータとをそれぞれ記憶させる(ステップS3)。また、軌跡画像合成装置1は、被写体上昇判定手段3によって、被写体が上空に差し掛かったと判定されると(ステップS4でYes)、後記する映像オブジェクト抽出動作によって、ステップS5において入力された映像フレームから映像オブジェクトを抽出して3次元位置座標を算出する(ステップS6)。なお、ここで、軌跡画像合成装置1は、被写体が上空に差し掛かった映像フレームのフレーム番号又は時刻を、カメラパラメータ記憶手段12に記憶する。   Next, the trajectory image synthesizing device 1 determines whether or not the subject has approached the sky by the subject ascent determination means 3 (step S4). If not yet reached (No in step S4), the camera of the next video frame is determined. The video and camera parameters are input by the subject movement start detection means 2 (step S5), and the process returns to step S3 to the video storage means 11 and the camera parameter storage means 12 and the camera video of the video frame input in step S5. Each camera parameter is stored (step S3). Further, when the subject rise determination unit 3 determines that the subject has approached the sky (Yes in step S4), the trajectory image composition device 1 uses the video object extraction operation described later from the video frame input in step S5. A video object is extracted to calculate a three-dimensional position coordinate (step S6). Here, the trajectory image composition device 1 stores the frame number or time of the video frame at which the subject has approached the sky in the camera parameter storage unit 12.

映像オブジェクト抽出動作において、図7に示すように、軌跡画像合成装置1は、探索位置更新設定手段4によって、初期条件、もしくは1つ前の映像フレームについて、ステップS8において算出された2次元予測位置およびステップS9における着地の判定結果に基づいて、映像オブジェクトの探索範囲を設定し(ステップS61)、閾値決定手段5によって抽出する映像オブジェクトの輝度に対する閾値を背景画像に比較して高い方か、または、低い方かを決定して前景領域を抽出する(ステップS62)。   In the video object extraction operation, as shown in FIG. 7, the trajectory image synthesis device 1 uses the search position update setting unit 4 to calculate the two-dimensional predicted position calculated in step S8 for the initial condition or the previous video frame. Based on the landing determination result in step S9, a search range of the video object is set (step S61), and the threshold for the luminance of the video object extracted by the threshold determination means 5 is higher than the background image, or The lower one is determined and the foreground area is extracted (step S62).

そして、軌跡画像合成装置1は、オブジェクト領域選定手段6によって、1つ前の映像フレームで図6のステップS9において算出された予測曲線と、被写体画像特徴記憶手段13に記憶される映像オブジェクトの画像特徴とを利用して映像オブジェクトの領域を選定し(ステップS63)、そして、オブジェクト3次元位置算出手段10によって、映像オブジェクトの3次元位置座標を算出する(ステップS64)。   Then, the trajectory image composition device 1 uses the object area selection unit 6 to calculate the prediction curve calculated in step S9 in FIG. 6 in the previous video frame and the image of the video object stored in the subject image feature storage unit 13. The area of the video object is selected using the characteristics (step S63), and the three-dimensional position coordinates of the video object are calculated by the object three-dimensional position calculation means 10 (step S64).

次に、軌跡画像合成装置1は、静止点までの映像フレームまで映像オブジェクトの抽出を全て終了するかどうかを、探索位置更新設定手段4によって、3次元予測位置算出手段71または2次元予測位置算出手段9により算出された状態量Xに含まれるボールの速度が0または閾値以下になったかどうかに基づいて、映像オブジェクトの抽出を終了するかどうか判定する。もしくは、映像オブジェクトの抽出終了の判定を手動で行う(ステップS7)。   Next, the trajectory image synthesizing apparatus 1 determines whether or not the extraction of all video objects up to the video frame up to the still point is terminated by the search position update setting unit 4 or the three-dimensional predicted position calculation unit 71 Whether or not the extraction of the video object is to be ended is determined based on whether or not the velocity of the ball included in the state quantity X calculated by the means 9 is 0 or less than a threshold value. Alternatively, it is manually determined whether or not the video object has been extracted (step S7).

そして、軌跡画像合成装置1は、もし、終了していなければ(ステップS7でNo)、2次元予測位置算出手段9によって、図7のステップS63において選定されたボール領域の映像オブジェクトの位置を示す座標および面積に基づいて、映像オブジェクトの2次元予測位置を算出する(ステップS8)。そして、軌跡画像合成装置1は、予測曲線算出手段7によって、映像オブジェクトの位置を示す座標および面積に基づき、実空間における被写体の3次元予測位置を予測し、予測曲線を算出し、着地判定手段8によって着地の判定を行う(ステップS9)。続いて、軌跡画像合成装置1は、被写体移動開始検出手段2によって、次映像フレームのカメラ映像とカメラパラメータとを入力して、映像記憶手段11とカメラパラメータ記憶手段12に記憶して(ステップS10)、ステップS6に戻って、ステップS10において入力された映像フレームについて、映像オブジェクトの抽出動作を実行する。   The trajectory image composition device 1 indicates the position of the video object in the ball area selected in step S63 in FIG. 7 by the two-dimensional predicted position calculation means 9 if it has not been completed (No in step S7). Based on the coordinates and area, the two-dimensional predicted position of the video object is calculated (step S8). Then, the trajectory image synthesis apparatus 1 predicts the three-dimensional predicted position of the subject in the real space based on the coordinates and area indicating the position of the video object by the prediction curve calculation means 7, calculates the prediction curve, and determines the landing determination means. The landing is determined by 8 (step S9). Subsequently, the trajectory image synthesizing apparatus 1 inputs the camera video and camera parameters of the next video frame by the subject movement start detection unit 2 and stores them in the video storage unit 11 and the camera parameter storage unit 12 (step S10). ), Returning to step S6, the video object extraction operation is executed for the video frame input in step S10.

映像オブジェクトが上空に差し掛かってからの当該映像オブジェクトの抽出が終了したならば(ステップS7でYes)、軌跡画像合成装置1は、探索位置更新設定手段4によって、映像記憶手段11とカメラパラメータ記憶手段12とからステップS3において記憶された映像フレームとカメラパラメータ(被写体が上空に差し掛かった映像フレームのフレーム番号又は時刻を含む)とをそれぞれ読み出す(ステップS11)。ここで、探索位置更新設定手段4は、映像を構成する映像フレームの映像信号を、被写体(映像オブジェクト)が上空に差し掛かったと被写体上昇判定手段3によって判定された映像フレームのフレーム番号又は時刻から、時系列を逆の順番に過去の時間方向に読み出す。そして、軌跡画像合成装置1は、映像オブジェクト抽出動作を実行する(ステップS12;図7のステップS121〜ステップS124)。   If the extraction of the video object after the video object has reached the sky is finished (Yes in step S7), the trajectory image synthesis device 1 uses the search position update setting unit 4 to perform the video storage unit 11 and the camera parameter storage unit. 12 and the video frame stored in step S3 and the camera parameters (including the frame number or time of the video frame where the subject has approached the sky) are read out (step S11). Here, the search position update setting unit 4 determines the video signal of the video frame constituting the video from the frame number or time of the video frame determined by the subject rise determination unit 3 that the subject (video object) has approached the sky. Read the time series in the reverse order in the past time direction. And the locus | trajectory image synthesis apparatus 1 performs video object extraction operation | movement (step S12; step S121 of FIG. 7-step S124).

そして、軌跡画像合成装置1は、探索位置更新設定手段4によって、映像記憶手段11に記憶された全ての映像フレームについて、映像オブジェクトの抽出が終了したかどうかを判定し(ステップS13)、終了していなければ(ステップS13でNo)、2次元予測位置算出手段9によって、図7のステップS123において選定されたボール領域の映像オブジェクトの位置を示す座標および面積に基づいて、映像オブジェクトの2次元予測位置を算出する(ステップS14)。そして、軌跡画像合成装置1は、予測曲線算出手段7によって、映像オブジェクトの位置の情報に基づいて、実空間における被写体の3次元予測位置を予測し、予測曲線を算出する(ステップS15)。   Then, the trajectory image synthesis apparatus 1 determines whether or not the extraction of the video object has been completed for all the video frames stored in the video storage unit 11 by the search position update setting unit 4 (step S13), and ends. If not (No in step S13), the two-dimensional prediction position calculation means 9 performs two-dimensional prediction of the video object based on the coordinates and area indicating the position of the video object in the ball area selected in step S123 of FIG. The position is calculated (step S14). Then, the trajectory image composition device 1 predicts the three-dimensional predicted position of the subject in the real space based on the information on the position of the video object by the prediction curve calculation means 7 and calculates the prediction curve (step S15).

次に、軌跡画像合成装置1は、ステップS11に戻り、探索位置更新設定手段4によって、映像記憶手段11とカメラパラメータ記憶手段12とから、映像フレームのカメラ映像とカメラパラメータとを、同様に、時系列を逆の順番に、時刻t−1の映像フレームを読み出して(ステップS11)、映像オブジェクト抽出動作を実行する。 Next, the trajectory image synthesizing apparatus 1 returns to step S11, and the search position update setting unit 4 similarly converts the camera image and the camera parameter of the video frame from the video storage unit 11 and the camera parameter storage unit 12. The video frame at time t-1 is read in the reverse order of the time series (step S11), and the video object extraction operation is executed.

また、映像オブジェクトの抽出が終了したならば(ステップS13でYes)、軌跡画像合成装置1は、被写体(ボール)が移動を開始した時点(ショット時)の映像フレーム内における映像オブジェクトを抽出できたことになる。これによって、軌跡画像合成装置1は、被写体の移動開始の時点(ショット時)における映像オブジェクトの抽出から、上空へ被写体が上昇し、そして地上への着地と静止点に至るまでの、全ての映像オブジェクトの移動軌跡を示す画像座標の抽出ができる。   If the extraction of the video object is completed (Yes in step S13), the trajectory image composition device 1 can extract the video object in the video frame when the subject (ball) starts moving (at the time of the shot). It will be. As a result, the trajectory image composition device 1 performs all of the video from the extraction of the video object at the start of the movement of the subject (at the time of the shot) to the rise of the subject to the sky and the landing on the ground and the stationary point. Image coordinates indicating the movement trajectory of the object can be extracted.

続いて、軌跡画像合成装置1は、軌跡画像生成手段15によって、オブジェクト3次元位置記憶手段14から図7のステップS64およびステップS124において算出されたオブジェクト3次元位置情報を入力し、およびカメラパラメータ記憶手段12からステップS3およびステップS10において記憶されたカメラパラメータを入力して、映像オブジェクトの軌跡画像を生成する(ステップS16)。更に、軌跡画像合成装置1は、軌跡画像合成手段16によって、ステップS16において生成された軌跡画像を入力し、映像記憶手段11からステップS3およびステップS10において記憶された映像フレームを入力し、重畳することによってボールの軌跡画像を含んだ合成画像を取得し(ステップS17)、動作を終了する。   Subsequently, the trajectory image composition device 1 inputs the object three-dimensional position information calculated in step S64 and step S124 of FIG. 7 from the object three-dimensional position storage means 14 by the trajectory image generation means 15, and stores the camera parameters. The camera parameters stored in step S3 and step S10 are input from the means 12, and a trajectory image of the video object is generated (step S16). Furthermore, the trajectory image composition device 1 inputs the trajectory image generated in step S16 by the trajectory image composition means 16, and inputs the video frames stored in step S3 and step S10 from the video storage means 11 and superimposes them. As a result, a composite image including the trajectory image of the ball is acquired (step S17), and the operation ends.

[軌跡画像合成装置の構成(第2の実施形態)]
図2を参照して、本発明の第2の実施形態に係る映像オブジェクトの軌跡画像合成装置の構成について説明する。図2は、本発明の第2の実施形態に係る映像オブジェクトの軌跡画像合成装置の全体構成を示すブロック図である。
図2に示すように、軌跡画像合成装置1Bは、探索位置更新設定手段4Bと、閾値決定手段5と、オブジェクト領域選定手段6と、予測曲線算出手段7と、着地判定手段8と、2次元予測位置算出手段9と、オブジェクト3次元位置算出手段10と、映像記憶手段11Bと、カメラパラメータ記憶手段12Bと、被写体画像特徴記憶手段13と、オブジェクト3次元位置記憶手段14と、軌跡画像生成手段15と、軌跡画像合成手段16とを備えている。なお、探索位置更新設定手段4Bと、映像記憶手段11Bと、カメラパラメータ記憶手段12Bと以外の構成については、図1で説明した軌跡画像合成装置1と同一のものであるため、同一の符号を付し、説明を省略する。
[Configuration of Trajectory Image Synthesizer (Second Embodiment)]
With reference to FIG. 2, a configuration of a video object trajectory image synthesis device according to the second exemplary embodiment of the present invention will be described. FIG. 2 is a block diagram showing an overall configuration of a video object trajectory image synthesis apparatus according to the second embodiment of the present invention.
As shown in FIG. 2, the trajectory image composition device 1B includes a search position update setting unit 4B, a threshold value determining unit 5, an object region selecting unit 6, a prediction curve calculating unit 7, a landing determining unit 8, a two-dimensional display. Predicted position calculation means 9, object three-dimensional position calculation means 10, video storage means 11B, camera parameter storage means 12B, subject image feature storage means 13, object three-dimensional position storage means 14, and trajectory image generation means 15 and trajectory image synthesis means 16. Since the configuration other than the search position update setting unit 4B, the video storage unit 11B, and the camera parameter storage unit 12B is the same as that of the trajectory image synthesis apparatus 1 described with reference to FIG. The description is omitted.

映像オブジェクトの軌跡画像合成装置1Bは、上空に発射されて移動する被写体をカメラにより撮影した映像信号(カメラ映像)と、被写体を撮影したときのカメラの姿勢および画角に関する情報を含むカメラパラメータとから、映像を構成する映像フレーム内の映像オブジェクトを抽出し、被写体の実空間における位置を示す3次元位置を求めて、映像フレーム内における映像オブジェクトの軌跡画像を生成し、映像オブジェクトの軌跡画像とカメラ映像とを合成するものである。   The video object trajectory image synthesizing device 1B includes a video signal (camera video) obtained by photographing a subject that is launched into the sky and moving with a camera, and camera parameters including information on the posture and angle of view of the camera when the subject is photographed. The video object in the video frame constituting the video is extracted, the three-dimensional position indicating the position of the subject in the real space is obtained, and the trajectory image of the video object in the video frame is generated. This is to synthesize camera video.

探索位置更新設定手段4Bは、映像記憶手段11Bから時系列を逆の順番に、映像フレーム内の映像信号を読み出し、カメラパラメータ記憶手段12Bから前記映像信号に対応するカメラパラメータを読み出し、ボール(映像オブジェクト)の探索範囲を設定するものである。なお、探索位置更新設定手段4Bは、入力する映像フレームとカメラパラメータとを映像記憶手段11Bおよびカメラパラメータ記憶手段12Bから読み出したものとしただけで、探索位置更新設定手段4(図1)と機能は同じものである。ここで読み出した映像信号と、前記カメラパラメータと、前記探索範囲とは閾値決定手段5に出力される。   The search position update setting unit 4B reads the video signal in the video frame from the video storage unit 11B in the reverse order of the time series, reads the camera parameters corresponding to the video signal from the camera parameter storage unit 12B, and Object) search range. The search position update setting unit 4B functions as the search position update setting unit 4 (FIG. 1) only by reading the input video frames and camera parameters from the video storage unit 11B and the camera parameter storage unit 12B. Are the same. The video signal read here, the camera parameter, and the search range are output to the threshold value determination means 5.

映像記憶手段11Bは、前記カメラにより撮影された映像フレームの映像信号を、時系列に記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶された映像フレームの映像信号は、時系列に対して、探索位置更新設定手段4Bおよび軌跡画像合成手段16によって、逆方向に読み出される。   The video storage unit 11B stores video signals of video frames taken by the camera in time series, and is configured by a general storage unit such as a hard disk. The video signal of the video frame stored here is read out in the reverse direction by the search position update setting unit 4B and the trajectory image synthesis unit 16 with respect to time series.

カメラパラメータ記憶手段12Bは、前記カメラにより撮影された映像フレームの姿勢状態に関するカメラパラメータを、時系列に記憶するものであり、ハードディスク等の一般的な記憶手段によって構成される。ここで記憶されたカメラパラメータは、時系列に対して、探索位置更新設定手段4Bおよび軌跡画像生成手段15によって、逆方向に読み出される。   The camera parameter storage unit 12B stores camera parameters related to the posture state of the video frame photographed by the camera in time series, and is configured by a general storage unit such as a hard disk. The camera parameters stored here are read out in the reverse direction by the search position update setting unit 4B and the trajectory image generation unit 15 with respect to time series.

以上によって、軌跡画像合成装置1Bは、時系列を逆の順番に過去方向に遡り、映像信号における映像フレームの映像信号と、対応するカメラパラメータとを読み出して、第1の実施形態と同様にして映像オブジェクトを抽出することで、最初に被写体が移動を開始したティーショット時に至る被写体の移動軌跡を示す軌跡曲線を生成し、カメラ映像と合成することが可能となる。   As described above, the trajectory image composition device 1B goes back in time in the reverse order to the past direction, reads the video signal of the video frame in the video signal, and the corresponding camera parameter, and performs the same process as in the first embodiment. By extracting the video object, it is possible to generate a trajectory curve indicating the movement trajectory of the subject that is reached at the time of the tee shot when the subject starts moving first, and to combine it with the camera video.

以上説明したように、本発明に係る映像オブジェクトの軌跡画像合成装置1および軌跡画像合成装置1Bは、これまで困難であったティーショット時における打点P1の自動抽出化と、背景映像の変化に対する被写体領域の輝度閾値の自動設定、および軌道曲線の算出(図4参照)に当たってボール探索方法の高精度化と、着地点P2の自動抽出に留まらず着地後の地上軌跡抽出(図5(b)参照)の高度化とによって、ボールのティーショット(打点P1)に続き、地上付近から上空への飛翔を経て、再び地上への着地、そして静止点P3に至るまでのボールの軌跡曲線を、連続して高精度に抽出できるように操作の全自動化を図った。これによって、従来例(図5(a)参照)に比較して、軌跡表示画像の抽出作業時間の短縮にとどまらず、誤抽出の回避や、軌跡画像の高品質化とサービスの向上に寄与できる。   As described above, the trajectory image synthesis device 1 and the trajectory image synthesis device 1B of the video object according to the present invention can automatically extract the hit point P1 at the time of a tee shot, which has been difficult until now, In the automatic setting of the brightness threshold of the area and the calculation of the trajectory curve (see FIG. 4), the accuracy of the ball search method and the ground trajectory extraction after landing (see FIG. 5B) are not limited to the automatic extraction of the landing point P2. ), The ball trajectory curve from the ground to the sky, the landing on the ground, and the stationary point P3 is continued, following the ball tee shot (hit point P1). The operation was fully automated so that it could be extracted with high accuracy. As a result, compared to the conventional example (see FIG. 5A), it is possible not only to shorten the time for extracting the trace display image, but also to avoid erroneous extraction, improve the quality of the trace image, and improve the service. .

さらに、軌跡画像合成装置1では、ゴルフにおけるボールの軌跡画像を合成するのに限らず、野球やソフトボールのように、内野と外野とで背景の輝度が急激に変化する場合(内野が茶色で外野が緑色)であり、且つ、ボールが上空に飛翔することなく直線的に飛んでいく場合(ライナーなど)でも、映像フレームごとに輝度ヒストグラムを生成し、この輝度ヒストグラムの度数に応じてボールを抽出する輝度閾値を変更することで、連続してボールを抽出することができ、当該ボールの軌跡画像を描いて合成することが出来る。   Furthermore, the trajectory image synthesis device 1 is not limited to synthesizing the trajectory image of the ball in golf, but when the background brightness changes abruptly between the infield and the outfield as in baseball and softball (the infield is brown) Even if the outfield is green) and the ball flies linearly without flying up (liner, etc.), a luminance histogram is generated for each video frame, and the ball is moved according to the frequency of the luminance histogram. By changing the luminance threshold value to be extracted, the balls can be extracted continuously, and the trajectory image of the balls can be drawn and synthesized.

本発明の第1の実施形態に係る映像オブジェクトの軌跡画像合成装置の全体構成を示すブロック図である。1 is a block diagram illustrating an overall configuration of a video object trajectory image synthesis device according to a first embodiment of the present invention. FIG. 本発明の第2の実施形態に係る軌跡画像合成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the locus | trajectory image synthesis apparatus which concerns on the 2nd Embodiment of this invention. 閾値決定手段、予測曲線算出手段、および着地判定手段の構成を示すブロック図である。It is a block diagram which shows the structure of a threshold value determination means, a prediction curve calculation means, and a landing determination means. 本発明の実施形態に係る映像オブジェクトの軌道曲線を示す表示例である。It is a display example which shows the trajectory curve of the video object which concerns on embodiment of this invention. (a)従来システムによる映像オブジェクトの軌跡を示す表示例である。 (b)本発明の実施形態に係る映像オブジェクトの軌跡を示す表示例である。(A) It is a display example which shows the locus | trajectory of the video object by a conventional system. (B) It is a display example which shows the locus | trajectory of the video object which concerns on embodiment of this invention. 本発明の第1および第2の実施形態に係る軌跡画像合成装置の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the locus | trajectory image synthesis apparatus which concerns on the 1st and 2nd embodiment of this invention. 本発明の第1および第2の実施形態に係る映像オブジェクト抽出動作の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the video object extraction operation | movement which concerns on the 1st and 2nd embodiment of this invention.

符号の説明Explanation of symbols

1、1B 軌跡画像合成装置
2 被写体移動開始検出手段
3 被写体上昇判定手段
4、4B 探索位置更新設定手段
5 閾値決定手段
6 オブジェクト領域選定手段
7 予測曲線算出手段
8 着地判定手段
9 2次元予測位置算出手段
10 オブジェクト3次元位置算出手段
11、11B 映像記憶手段
12、12B カメラパラメータ記憶手段
13 被写体画像特徴記憶手段
14 オブジェクト3次元位置記憶手段
15 軌跡画像生成手段
16 軌跡画像合成手段
51 輝度ヒストグラム生成手段
52 輝度閾値設定手段
53 前景・背景分離手段
71 3次元予測位置算出手段
72 スクリーン座標変換手段
73 軌跡曲線補間手段
81 被写体高さ判定手段
82 着地時刻判定手段
83 座標変換手段
DESCRIPTION OF SYMBOLS 1, 1B locus | trajectory image synthesis apparatus 2 Subject movement start detection means 3 Subject rise determination means 4, 4B Search position update setting means 5 Threshold determination means 6 Object region selection means 7 Prediction curve calculation means 8 Landing determination means 9 Two-dimensional prediction position calculation Means 10 Object three-dimensional position calculation means 11, 11B Video storage means 12, 12B Camera parameter storage means 13 Subject image feature storage means 14 Object three-dimensional position storage means 15 Trajectory image generation means 16 Trajectory image synthesis means 51 Luminance histogram generation means 52 Luminance threshold value setting means 53 Foreground / background separation means 71 Three-dimensional predicted position calculation means 72 Screen coordinate conversion means 73 Trajectory curve interpolation means 81 Subject height determination means 82 Landing time determination means 83 Coordinate conversion means

Claims (5)

移動する被写体をカメラにより撮影した映像と、前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体に対応する映像オブジェクトの移動軌跡を算出し、その算出した映像オブジェクトの移動軌跡を表す軌跡画像と前記カメラによって撮影された映像とを合成する映像オブジェクトの軌跡画像合成装置であって、
前記映像を構成する映像フレーム内における前記映像オブジェクトの探索範囲を設定する探索位置更新設定手段と、
前記映像フレームの輝度のヒストグラムである輝度ヒストグラムを生成し、当該輝度ヒストグラムに基づいて、前記探索位置更新設定手段によって設定された探索範囲から前記映像オブジェクトを抽出するための前記輝度に対する閾値と、当該閾値より輝度の高い領域を抽出するか、もしくは、低い領域を抽出するかを決定し、決定された前記領域の画像を、前記映像オブジェクトを含む前景画像として抽出する閾値決定手段と、
前記閾値決定手段によって抽出された前記前景画像から、前記映像オブジェクトの画像特徴を利用して前記映像オブジェクトを選定するオブジェクト領域選定手段と、
前記オブジェクト領域選定手段によって選定された前記映像オブジェクトの前記映像フレーム内における位置から、当該映像フレームの次の前記映像フレーム内における前記映像オブジェクトの位置を示す2次元予測位置を算出する2次元予測位置算出手段と、
前記オブジェクト領域選定手段によって選定された映像オブジェクトの前記映像フレーム内における位置と前記カメラパラメータとに基づいて、当該映像フレームが撮影された時点の前記被写体の実空間における位置を示す3次元位置を算出するオブジェクト3次元位置算出手段と、
前記オブジェクト3次元位置算出手段によって得られた3次元位置を記憶するオブジェクト3次元位置記憶手段と、
前記オブジェクト3次元位置記憶手段に記憶された3次元位置に基づき、前記軌跡画像を生成する軌跡画像生成手段と、
前記軌跡画像生成手段で生成された前記軌跡画像と前記映像フレームとを合成して出力する軌跡画像合成手段と、を備え、
前記探索位置更新設定手段が、前記2次元予測位置算出手段によって算出された2次元予測位置に基づいて、前記次の映像フレームの前記探索範囲を設定する、ことを特徴とする映像オブジェクトの軌跡画像合成装置。
The movement trajectory of the video object corresponding to the subject is calculated from the video obtained by photographing the moving subject by the camera and the camera parameters including information on the posture and angle of view of the camera when the subject is photographed. A trajectory image synthesis device for a video object that synthesizes a trajectory image representing a moving trajectory of the video object and a video shot by the camera,
Search position update setting means for setting a search range of the video object in a video frame constituting the video;
Generating a luminance histogram which is a luminance histogram of the video frame, and based on the luminance histogram, a threshold value for the luminance for extracting the video object from the search range set by the search position update setting unit; A threshold value determining means for determining whether to extract a region having a luminance higher than a threshold value or a region having a lower luminance, and extracting an image of the determined region as a foreground image including the video object;
Object region selection means for selecting the video object from the foreground image extracted by the threshold value determination means using image characteristics of the video object;
A two-dimensional prediction position for calculating a two-dimensional prediction position indicating the position of the video object in the video frame next to the video frame from the position in the video frame of the video object selected by the object region selection means A calculation means;
Based on the position in the video frame of the video object selected by the object area selection means and the camera parameter, a three-dimensional position indicating the position in the real space of the subject at the time when the video frame was shot is calculated. An object three-dimensional position calculating means,
Object 3D position storage means for storing the 3D position obtained by the object 3D position calculation means;
A trajectory image generating means for generating the trajectory image based on the three-dimensional position stored in the object three-dimensional position storage means;
A trajectory image synthesis means for synthesizing and outputting the trajectory image generated by the trajectory image generation means and the video frame;
The trajectory image of a video object, wherein the search position update setting means sets the search range of the next video frame based on the two-dimensional predicted position calculated by the two-dimensional predicted position calculating means. Synthesizer.
前記オブジェクト領域選定手段によって選定された前記映像オブジェクトの前記映像フレーム内における位置と、前記カメラパラメータとから、当該映像フレームより後に続いて入力される複数の前記映像フレーム内における前記映像オブジェクトに対応する当該被写体の実空間における位置を示す3次元予測位置を逐次予測する3次元予測位置算出手段と、
前記3次元予測位置算出手段によって得られた3次元予測位置を投影変換して、当該被写体に対応する前記映像オブジェクトの前記次の映像フレーム内での位置を算出するスクリーン座標変換手段と、
前記スクリーン座標変換手段によって得られた前記映像フレーム内における前記位置を示す点の列を、曲線を用いて補間する軌跡曲線補間手段と、を備え、
前記オブジェクト領域選定手段が、前記軌跡曲線補間手段によって生成された前記曲線から、前記次の映像フレームの前記前景画像に含まれる前記映像オブジェクトの候補となる各々の領域までの距離に基づいて、前記映像オブジェクトを選定することを特徴とする請求項1に記載の映像オブジェクトの軌跡画像合成装置。
Corresponding to the video object in the plurality of video frames input subsequent to the video frame from the position in the video frame of the video object selected by the object area selection means and the camera parameter. 3D predicted position calculating means for sequentially predicting a 3D predicted position indicating the position of the subject in real space;
Screen coordinate conversion means for projecting and transforming the three-dimensional predicted position obtained by the three-dimensional predicted position calculating means to calculate the position of the video object corresponding to the subject in the next video frame;
Trajectory curve interpolation means for interpolating a sequence of points indicating the position in the video frame obtained by the screen coordinate conversion means using a curve,
The object area selecting means is based on the distance from the curve generated by the trajectory curve interpolation means to each area that is a candidate for the video object included in the foreground image of the next video frame. The video object trajectory image composition apparatus according to claim 1, wherein a video object is selected.
前記3次元予測位置算出手段によって得られた3次元予測位置に基づいて、前記被写体の実空間における高さが、予め設定された高さに対して下回るかどうかを判定する被写体高さ判定手段と、を備え、
前記探索位置更新設定手段は、前記被写体高さ判定手段によって下回ると判定された時点の前記映像フレームの次の前記映像フレーム内において、当該映像フレームの前の映像フレームの前記探索範囲より広い前記探索範囲を設定することを特徴とする請求項2に記載の映像オブジェクトの軌跡画像合成装置。
Subject height determining means for determining whether or not the height of the subject in real space is lower than a preset height based on the three-dimensional predicted position obtained by the three-dimensional predicted position calculating means; With
The search position update setting means includes the search that is wider than the search range of the video frame before the video frame in the video frame next to the video frame at the time when it is determined that the subject height determination means falls below The trajectory image composition device for a video object according to claim 2, wherein a range is set.
前記映像を記憶する映像記憶手段と、
前記カメラパラメータを記憶するカメラパラメータ記憶手段と、を備え、
前記探索位置更新設定手段は、前記映像記憶手段に記憶された前記映像を構成する時系列の前記映像フレームを逆の順番に入力して、前記映像フレームにおける前記探索範囲を設定し、前記オブジェクト3次元位置算出手段が、前記カメラパラメータ記憶手段に記憶された時系列の前記カメラパラメータを逆の順番に入力して、前記3次元位置を算出する、ことを特徴とする請求項1ないし請求項3に記載の映像オブジェクトの軌跡画像合成装置。
Video storage means for storing the video;
Camera parameter storage means for storing the camera parameters,
The search position update setting means inputs the time-series video frames constituting the video stored in the video storage means in reverse order, sets the search range in the video frames, and sets the object 3 4. The three-dimensional position is calculated by inputting the time-series camera parameters stored in the camera parameter storage unit in reverse order, and calculating the three-dimensional position. The trajectory image synthesis apparatus for video objects described in 1.
移動する被写体をカメラにより撮影した映像と、前記被写体を撮影したときの前記カメラの姿勢および画角に関する情報を含むカメラパラメータとから、前記被写体の実空間における位置を示す3次元位置を算出して、外部に接続された記憶装置に記憶し、この3次元位置に基づいて、前記被写体に対応する映像オブジェクトの移動軌跡を表す軌跡画像を生成した当該軌跡画像と前記カメラによって撮影された映像とを合成するために、コンピュータを、
前記映像を構成する映像フレーム内における前記映像オブジェクトの探索範囲を設定する探索位置更新設定手段、
前記映像フレームの輝度のヒストグラムである輝度ヒストグラムを生成し、当該輝度ヒストグラムに基づいて、前記探索位置更新設定手段によって設定された探索範囲から前記映像オブジェクトを抽出するための前記輝度に対する閾値と、当該閾値より輝度の高い領域を抽出するか、もしくは、低い領域を抽出するかを決定し、決定された前記領域の画像を、前記映像オブジェクトを含む前景画像として抽出する閾値決定手段、
前記閾値決定手段によって抽出された前記前景画像から、前記映像オブジェクトの画像特徴を利用して映像オブジェクトを選定するオブジェクト領域選定手段、
前記オブジェクト領域選定手段によって選定された前記映像オブジェクトの前記映像フレーム内における位置から、次の前記映像フレーム内における前記映像オブジェクトの位置を示す2次元予測位置を算出する2次元予測位置算出手段、
前記オブジェクト領域選定手段によって選定された映像オブジェクトの前記映像フレーム内における位置と前記カメラパラメータとに基づいて、当該映像フレームが撮影された時点の前記被写体の実空間における位置を示す3次元位置を算出して前記記憶装置に記憶するオブジェクト3次元位置算出手段、
前記記憶装置に記憶された3次元位置に基づき、前記軌跡画像を生成する軌跡画像生成手段、
前記軌跡画像生成手段で生成された前記軌跡画像と前記映像フレームとを合成して出力する軌跡画像合成手段、として機能させ、
前記探索位置更新設定手段が、前記2次元予測位置算出手段によって算出された2次元予測位置に基づいて、前記映像フレームの前記探索範囲を設定することを特徴とする映像オブジェクトの軌跡画像合成プログラム。
A three-dimensional position indicating the position of the subject in real space is calculated from an image obtained by photographing the moving subject with a camera and camera parameters including information on the posture and angle of view of the camera when the subject is photographed. The trajectory image that is stored in an external storage device and generates a trajectory image representing the movement trajectory of the video object corresponding to the subject based on the three-dimensional position, and the video imaged by the camera. To synthesize a computer,
Search position update setting means for setting a search range of the video object in a video frame constituting the video;
Generating a luminance histogram which is a luminance histogram of the video frame, and based on the luminance histogram, a threshold value for the luminance for extracting the video object from the search range set by the search position update setting unit; A threshold value determining means for determining whether to extract a region having higher brightness than a threshold value or to extract a lower region, and extracting an image of the determined region as a foreground image including the video object;
Object region selection means for selecting a video object from the foreground image extracted by the threshold value determination means using image characteristics of the video object;
Two-dimensional predicted position calculating means for calculating a two-dimensional predicted position indicating the position of the video object in the next video frame from the position in the video frame of the video object selected by the object region selecting means;
Based on the position in the video frame of the video object selected by the object area selection means and the camera parameter, a three-dimensional position indicating the position in the real space of the subject at the time when the video frame was shot is calculated. An object three-dimensional position calculation means for storing in the storage device,
A trajectory image generating means for generating the trajectory image based on the three-dimensional position stored in the storage device;
Function as trajectory image synthesis means for synthesizing and outputting the trajectory image generated by the trajectory image generation means and the video frame;
The trajectory image composition program for a video object, wherein the search position update setting means sets the search range of the video frame based on the two-dimensional predicted position calculated by the two-dimensional predicted position calculation means.
JP2007054357A 2007-03-05 2007-03-05 Video object trajectory image synthesis apparatus and program thereof Expired - Fee Related JP4695615B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007054357A JP4695615B2 (en) 2007-03-05 2007-03-05 Video object trajectory image synthesis apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007054357A JP4695615B2 (en) 2007-03-05 2007-03-05 Video object trajectory image synthesis apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2008219489A JP2008219489A (en) 2008-09-18
JP4695615B2 true JP4695615B2 (en) 2011-06-08

Family

ID=39838991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007054357A Expired - Fee Related JP4695615B2 (en) 2007-03-05 2007-03-05 Video object trajectory image synthesis apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4695615B2 (en)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4972116B2 (en) * 2009-03-30 2012-07-11 本田技研工業株式会社 Vehicle periphery monitoring device
JP2018522450A (en) * 2015-05-15 2018-08-09 ワン チャン,ラク Camera, method and system for shooting golf games
JP6606985B2 (en) * 2015-11-06 2019-11-20 富士通株式会社 Image processing method, image processing program, and image processing apparatus
JP2017173252A (en) * 2016-03-25 2017-09-28 オリンパス株式会社 Image processing apparatus, image processing method, and image processing program
AU2017307650A1 (en) 2016-08-03 2019-03-21 Dejero Labs Inc. System and method for controlling data stream modifications
JP7100590B2 (en) * 2016-12-07 2022-07-13 ソニーセミコンダクタソリューションズ株式会社 Image sensor
JP7067023B2 (en) * 2017-11-10 2022-05-16 富士通株式会社 Information processing device, background update method and background update program
JP7083333B2 (en) * 2019-12-27 2022-06-10 楽天グループ株式会社 Image processing equipment, image processing methods, and programs
CN112492209B (en) * 2020-11-30 2022-04-29 维沃移动通信有限公司 Shooting method, shooting device and electronic equipment
CN115037992A (en) * 2022-06-08 2022-09-09 中央广播电视总台 Video processing method, device and storage medium
CN115546111B (en) * 2022-09-13 2023-12-05 武汉海微科技有限公司 Curved surface screen detection method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (en) * 2000-03-23 2001-10-05 Hitachi Ltd Moving object measuring instrument, ball game analytic system and data service system
JP2005123824A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Video object locus composing apparatus, method and program thereof
JP2006040199A (en) * 2004-07-30 2006-02-09 Nippon Hoso Kyokai <Nhk> Video object extraction device, video object locus composition apparatus, and method and program thereof
JP2007226761A (en) * 2006-01-26 2007-09-06 Nippon Hoso Kyokai <Nhk> Locus image composition device for image object, locus image display device for image object, and program therefor

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273500A (en) * 2000-03-23 2001-10-05 Hitachi Ltd Moving object measuring instrument, ball game analytic system and data service system
JP2005123824A (en) * 2003-10-15 2005-05-12 Nippon Hoso Kyokai <Nhk> Video object locus composing apparatus, method and program thereof
JP2006040199A (en) * 2004-07-30 2006-02-09 Nippon Hoso Kyokai <Nhk> Video object extraction device, video object locus composition apparatus, and method and program thereof
JP2007226761A (en) * 2006-01-26 2007-09-06 Nippon Hoso Kyokai <Nhk> Locus image composition device for image object, locus image display device for image object, and program therefor

Also Published As

Publication number Publication date
JP2008219489A (en) 2008-09-18

Similar Documents

Publication Publication Date Title
JP4695615B2 (en) Video object trajectory image synthesis apparatus and program thereof
JP4758842B2 (en) Video object trajectory image composition device, video object trajectory image display device, and program thereof
US10628956B2 (en) Video processing device, video processing method, and program
CN106871878B (en) Hand-held range unit and method, the storage medium that spatial model is created using it
US10721384B2 (en) Camera with radar system
JP4181473B2 (en) Video object trajectory synthesis apparatus, method and program thereof
US20190089923A1 (en) Video processing apparatus for displaying a plurality of video images in superimposed manner and method thereof
CN104603796A (en) Systems, methods, and media for providing interactive refocusing in images
CN103533232A (en) Image processing apparatus and image processing method
KR20090006068A (en) Method and apparatus for modifying a moving image sequence
US10275917B2 (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP2012529691A (en) 3D image generation
JP2023010759A (en) Information processing device, information processing method, and program
US10353066B2 (en) Camera with radar-based autofocus
KR20160034819A (en) Image processing apparatus, image processing method, and program
CN113853577A (en) Image processing method and device, movable platform and control terminal thereof, and computer-readable storage medium
WO2015156149A1 (en) Image processing apparatus and image processing method
JP2006244074A (en) Moving object close-up frame detection method and program, storage medium storing program, moving object close-up shot detection method, moving object close-up frame or shot detection method and program, and storage medium storing program
JP4490752B2 (en) Video object extraction device, video object trajectory synthesis device, method and program thereof
CN113812139A (en) Image processing apparatus, image processing method, and program
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP4240666B2 (en) Image composition method and image display method
EP3796260A1 (en) Information processing apparatus, shape data generation method, and program
CN112740649A (en) Photographing method, photographing apparatus, and computer-readable storage medium
EP4220556A1 (en) Image processing apparatus, image processing method, program, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110201

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110225

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees