JPH0779382A - Moving picture processing unit - Google Patents

Moving picture processing unit

Info

Publication number
JPH0779382A
JPH0779382A JP22136393A JP22136393A JPH0779382A JP H0779382 A JPH0779382 A JP H0779382A JP 22136393 A JP22136393 A JP 22136393A JP 22136393 A JP22136393 A JP 22136393A JP H0779382 A JPH0779382 A JP H0779382A
Authority
JP
Japan
Prior art keywords
image
moving
map
time
spatiotemporal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP22136393A
Other languages
Japanese (ja)
Other versions
JP3388827B2 (en
Inventor
Toru Nakamura
亨 中村
Shigezumi Kuwajima
茂純 桑島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OYO KEISOKU KENKYUSHO KK
Original Assignee
OYO KEISOKU KENKYUSHO KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OYO KEISOKU KENKYUSHO KK filed Critical OYO KEISOKU KENKYUSHO KK
Priority to JP22136393A priority Critical patent/JP3388827B2/en
Priority to PCT/JP1994/001462 priority patent/WO1995007590A1/en
Priority to EP94925627A priority patent/EP0669758B1/en
Priority to DE69423338T priority patent/DE69423338T2/en
Publication of JPH0779382A publication Critical patent/JPH0779382A/en
Application granted granted Critical
Publication of JP3388827B2 publication Critical patent/JP3388827B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To edit a motion of plural operating moving objects on different time spaces to a picture projected to an optional time space by providing a picture conversion means converting a time space map picture of the moving objects into a picture picked up from a different time space. CONSTITUTION:The processing unit is provided with a camera head 1 picking up an object being a moving object to provide an output of a picture picked up together with 3-dimension information, a data recording section 2 recording the picture with the 3-dimension information and time information, and a moving picture edit section 3 executing time space mapping to the obtained picture to convert the picture, and also with a stop watch 5 providing an output of time information being a reference for the management of the time information and a time base unit 4 distributing the time information outputted from the stop watch 5 to the camera head 1 and the data recording section 2. Furthermore, as the configuration to extract the 3-dimension information of the mobile object, the 3-dimension space coordinate of the mobile object is calculated by an arithmetic operation unit provided separately.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、移動物体を撮像した画
像の編集に利用する。本発明は、例えば、スポーツなど
の競技者を撮影した画像を任意の時間軸あるいは任意空
間位置からの画像に編集して放送あるいは運動解析を行
う場合などに利用する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention is used for editing an image of a moving object. INDUSTRIAL APPLICABILITY The present invention is used, for example, in the case where an image of an athlete such as a sports person is edited into an image from an arbitrary time axis or an arbitrary spatial position for broadcasting or motion analysis.

【0002】なお、本明細書でいう動画像には、撮像の
対象となる移動物体をリアルタイムで撮像した画像だけ
ではなく、実時間での動きとは異なる時間間隔で撮像再
生される連続する画像を含む。たとえば動きの遅い撮像
対象物体をある時間間隔で撮像して記録し、撮像したと
きとは異なる時間間隔で再生するコマ撮り等の処理が行
われる画像も対象物体の動画像である。このような移動
物体の画像も撮像時の時間間隔とは異なる時間間隔で編
集すればリアルタイムで撮影した動画像と全く同じに扱
うことができる。また、一枚の静止画像を空間位置を移
動させながら撮像したと同じ動画像も含む。
It should be noted that the moving image referred to in this specification is not only an image of a moving object to be imaged in real time, but also continuous images that are imaged and reproduced at time intervals different from the real time movement. including. For example, an image in which a slow-moving image-capturing target object is captured and recorded at a certain time interval and is subjected to processing such as time-lapse shooting at a different time interval from when the image is captured is also a moving image of the target object. If an image of such a moving object is edited at a time interval different from the time interval at the time of image capturing, it can be handled in exactly the same way as a moving image taken in real time. It also includes a moving image that is the same as a still image captured while moving the spatial position.

【0003】[0003]

【従来の技術】ビデオ装置を使ってスポーツの解析を行
う場合に、例えば、A選手とB選手とを比較したい場合
に、複数の映像を同時に画面に表示することがある。
2. Description of the Related Art When analyzing a sport using a video device, for example, when it is desired to compare player A and player B, a plurality of images may be displayed on the screen at the same time.

【0004】この場合、従来のビデオ装置を用いる場
合、タイムコードなどで映像のフレーム単位の時間管理
が行われており、スタートの時刻を合わせて同期をかけ
て複数のビデオデッキを用いて映像を再生し、これらの
映像を同一画面に表示することで、複数の選手の動きを
同一画面に表示し、比較することができた。
In this case, when a conventional video device is used, time management is performed for each frame of a video by a time code or the like, and the video is displayed using a plurality of VCRs by synchronizing the start times. By playing back and displaying these videos on the same screen, the movements of multiple players could be displayed on the same screen for comparison.

【0005】[0005]

【発明が解決しようとする課題】陸上のトラック競技や
水泳など広い範囲を選手が動き回る競技の場合、選手の
動きをみるために、それぞれの選手をアップにして撮影
すると、それぞれの選手がどこにいるかがわからなくな
ってしまう。複数の選手の順位など、どこにいるかを映
像でわかるようにするためには、動き回る範囲全体を撮
影したり、目印が常に画像に入るようにして撮影する必
要がある。しかし、そのようにすると、選手の姿は小さ
くなってしまって動作の解析には向かない。
[Problems to be Solved by the Invention] In the case of athletes moving around a wide range such as track and field sports or swimming, if each athlete is up and photographed in order to see the athlete's movement, where is each athlete? I don't understand. In order to be able to see where the players are, such as the rankings, it is necessary to shoot the entire moving range, or make sure that the landmarks are always in the image. However, doing so makes the player's figure smaller and is not suitable for motion analysis.

【0006】目印となるものが常に画像に入るように広
い範囲を撮影した場合でも、見る場所で位置関係が変わ
って見えるため、同じカメラの同じ画角で同じ場所から
撮影した場合以外では、複数の画像で選手の位置を比べ
ることは困難であった。また、レンズは通常ズームレン
ズを使用するため、画角の情報が得られず、画像を使っ
て選手の位置や複数の選手の距離を計ることはできなか
った。
Even when a wide range is photographed so that the mark is always in the image, the positional relationship seems to change depending on the viewing location. It was difficult to compare the positions of the players in the images. Moreover, since the lens normally uses a zoom lens, information on the angle of view cannot be obtained, and it is not possible to measure the position of a player or the distances of a plurality of players using an image.

【0007】さらに、同一の競技者の別の時に撮影され
た画像を一つの画面に表示し、比較したい場合がある
が、このように時間の異なる画像を合成して表示するこ
とは容易にできなかった。
Furthermore, there are cases where it is desired to display images taken by the same athlete at different times on one screen for comparison, but it is easy to combine and display images at different times in this way. There wasn't.

【0008】本発明の目的は、このような問題を解決す
るもので、異なる時空間上の複数の動作物体の動きを任
意の時空間に投影された画像に編集することができる動
画像処理装置を提供することにある。
An object of the present invention is to solve such a problem, and a moving image processing apparatus capable of editing the motions of a plurality of moving objects in different spatiotemporal areas into an image projected in an arbitrary spatiotemporal area. To provide.

【0009】本発明の他の目的は、例えば異なるコース
上の選手の映像を隣合った画像として同一の画面に表示
し、あるいは異なる時間に撮影された選手の映像を隣合
った画像として同一の画面に表示して比較することがで
きる動画像処理装置を提供することにある。
Another object of the present invention is to display, for example, images of athletes on different courses as adjacent images on the same screen, or images of athletes photographed at different times as adjacent images. An object of the present invention is to provide a moving image processing device that can be displayed on a screen for comparison.

【0010】[0010]

【課題を解決するための手段】本発明は、移動物体を撮
像してそれに画像処理を行う動画像処理装置に係り、1
または複数の移動物体を撮像し当該移動物体の3次元空
間情報とともに出力する撮像手段と、この撮像手段の出
力画像を処理して編集する動画像編集手段とを備えた動
画像処理装置において、前記動画像編集手段は、撮像さ
れた移動物体の画像を前記3次元空間情報および当該画
像の時間情報に基づいて前記移動物体が移動する時空間
に相当する時空間マップに投影した画像である時空間マ
ップ画像を生成する時空間マップ画像生成手段と、前記
移動物体の時空間マップ画像を異なる時間または異なる
空間位置から撮像された画像に変換する画像変換手段と
を備えたことを特徴とする。
SUMMARY OF THE INVENTION The present invention relates to a moving image processing apparatus for picking up a moving object and performing image processing on the moving object.
Alternatively, in a moving image processing apparatus including an image pickup means for picking up images of a plurality of moving objects and outputting together with the three-dimensional spatial information of the moving objects, and a moving image editing means for processing and editing an output image of the image pickup means, The moving image editing means is a spatiotemporal image which is an image obtained by projecting the captured image of the moving object on a spatiotemporal map corresponding to the spatiotemporal space in which the moving object moves based on the three-dimensional space information and the time information of the image. It is characterized by further comprising: a spatiotemporal map image generating means for generating a map image; and an image converting means for converting the spatiotemporal map image of the moving object into an image picked up from a different time or a different spatial position.

【0011】なお、撮像手段の撮像した移動物体の画像
を移動物体の3次元空間情報および当該画像にかかわる
時間情報とともに記録する画像記録手段を備え、動画像
編集手段は、この画像記録手段の記録された移動物体の
画像または前記撮像手段の画像を処理して編集する手段
を含むことができる。
The moving image editing means is provided with an image recording means for recording the image of the moving object picked up by the image pickup means together with the three-dimensional spatial information of the moving object and the time information relating to the image. Means for processing and editing the captured image of the moving object or the image of the imaging means may be included.

【0012】また、同一時空間マップ上の複数の移動物
体の時空間マップ画像について、離れた空間位置にある
移動物体についてその時空間マップ上の空間位置を移動
させてから、撮像された画像に変換する手段を含むこと
ができる。
Further, regarding spatiotemporal map images of a plurality of moving objects on the same spatiotemporal map, the spatial positions on the spatiotemporal map of moving objects at distant spatial positions are moved, and then converted into imaged images. Means may be included.

【0013】また、異なる時間に撮像された同一または
異なる移動物体の複数の時空間マップ画像を時間軸を同
じにし、かつ異なる空間位置になるように時空間マップ
上に配置して撮像した画像に変換する手段を含むことが
できる。
Further, a plurality of spatiotemporal map images of the same or different moving objects imaged at different times have the same time axis and are arranged on the spatiotemporal map so as to be at different spatial positions. Means for converting can be included.

【0014】また、移動物体の背景画像を撮像された移
動物体とは別に撮影または合成し、この背景画像を前記
移動物体の時空間マップ画像が変換された画像を変換さ
れた画像と合成する手段を含むことが好ましい。
Means for photographing or synthesizing the background image of the moving object separately from the picked-up moving object, and synthesizing the background image with the converted image of the spatiotemporal map image of the moving object. It is preferable to include.

【0015】また、背景にペース配分の知られた記録の
移動状態を表示することができる。また、撮像された移
動物体とは別にその移動特性データが明らかな仮想の移
動物体の画像と前記画像変換された移動物体の画像とを
合成する手段を含むことができる。
Further, it is possible to display the moving state of the record of which pace distribution is known in the background. In addition to the captured moving object, a means for synthesizing an image of the virtual moving object whose movement characteristic data is clear and the image of the image-converted moving object may be included.

【0016】また、画像変換手段は、時空間マップ上の
移動物体の画像をカメラが一方向に滑らかに移動するよ
うに撮像した画像に変換する手段を含むことができる。
Further, the image converting means can include means for converting an image of a moving object on the spatiotemporal map into an image picked up so that the camera smoothly moves in one direction.

【0017】また、時空間マップ画像生成手段は、画像
記録手段に記録された画像について実時間間隔とは異な
る時間間隔で読み出された画像またはその読み出し時間
順序を逆転して読み出された画像を時空間マップに投影
して時空間マップ画像を生成する手段を含み、画像変換
手段は、この時空間マップ画像を投影時とは異なる時間
間隔であるいは異なる空間位置から撮像した画像に変換
する手段を含むことができる。
Further, the spatiotemporal map image generating means reads the image recorded in the image recording means at an interval different from the real time interval or an image read out by reversing the order of the readout time. To a spatio-temporal map to generate a spatio-temporal map image, and the image conversion means converts the spatio-temporal map image into an image picked up at a different time interval from the time of projection or from a different spatial position. Can be included.

【0018】さらに、画像変換手段は、時空間マップに
投影された移動物体の1枚の時空間マップ画像について
当該移動物体に対する空間位置を移動させて撮像した画
像に変換する手段を含むことができる。
Further, the image conversion means may include means for moving one space-time map image of the moving object projected on the spatio-temporal map and converting the spatial position with respect to the moving object into an imaged image. .

【0019】[0019]

【作用】移動物体を撮像する撮像手段からは、撮像され
た画像とともにその移動物体の3次元空間位置情報が得
られる。この画像とともに、移動物体の3次元空間位置
情報(以下3次元情報という)ならびに時間情報とを合
わせて記憶する。
The three-dimensional spatial position information of the moving object can be obtained together with the picked-up image from the image pickup means for picking up the moving object. Along with this image, three-dimensional spatial position information of the moving object (hereinafter referred to as three-dimensional information) and time information are stored together.

【0020】画像の編集は、撮像手段で撮像された画像
または記録手段に記憶された画像について、編集の対象
となる移動物体の3次元情報および当該画像の時間情報
に基づいて行われる。この画像編集の処理は、まず、3
次元情報および時間情報に基づいて、移動物体を3次元
空間の3軸と時間軸とからなる時空間マップに投影す
る。これは、例えば、競技者が共通の平面上を移動して
いる場合、その共通の平面上に、それぞれの競技者を撮
像した画像を撮影したカメラの位置から投影した画像と
してイメージされる。
The image editing is performed on the image captured by the image capturing means or the image stored in the recording means based on the three-dimensional information of the moving object to be edited and the time information of the image. This image editing process starts with 3
Based on the dimension information and the time information, the moving object is projected on a spatiotemporal map composed of the three axes of the three-dimensional space and the time axis. For example, when the athletes are moving on a common plane, this is imaged on the common plane as an image projected from the position of the camera that captured the image of each athlete.

【0021】そして、この時空間マップに投影された画
像をこんどは、任意の時空間位置から撮像するように画
像変換をする。これは、ちょうど、共通の平面にそれぞ
れの競技者を撮像した画面が投影されたものを、別の空
間位置にある仮想のカメラで撮像して一つの画像に合成
する処理に等しい。
Then, the image projected on the spatiotemporal map is converted so that the image is picked up from an arbitrary spatiotemporal position. This is exactly the same as the process of projecting the images of the athletes projected on a common plane with a virtual camera in another spatial position and combining them into one image.

【0022】このように、時空間マップに投影(展開)
された画像を、その時間軸や空間位置を変えて画像処理
することにより、移動物体自身を対象として編集された
画像を作成することが可能であり、空間上離れた位置に
ある競技者を隣合うコースで表示して比較したり、ある
いは時間的に異なるときに撮影された競技者の画像を隣
合わせてリアルタイムで表示して比較することが可能と
なる。
In this way, projection (expansion) on the spatiotemporal map
It is possible to create an image that is edited for the moving object itself by changing the time axis and the spatial position of the created image, and to create an image that is closer to the competitors in space. It is possible to display the images on a suitable course for comparison or to display the images of the competitors photographed at different times side by side in real time for comparison.

【0023】[0023]

【実施例】以下図面を参照して本発明の実施例を説明す
る。
Embodiments of the present invention will be described below with reference to the drawings.

【0024】(第1実施例)図1は、本発明第1実施例
の動画像処理装置の構成を示すブロック図である。本実
施例の動画像処理装置は、移動物体である対象物体を撮
影して3次元空間座標情報を抽出するとともにその3次
元情報とともに撮影した画像を出力するカメラヘッド1
と、その画像を3次元情報および時間情報とともに記録
するデータ記録部2と、得られた画像の時空間マッピン
グを行い画像変換を行う動画像編集部3とを備えてい
る。また、時間情報を管理するために、基準となる時刻
情報を出力するストップウォッチ5と、このストップウ
ォッチ5の出力する時刻情報をカメラヘッド1およびデ
ータ記録部2に分配するタイムベースユニット4とを備
えている。
(First Embodiment) FIG. 1 is a block diagram showing the arrangement of a moving image processing apparatus according to the first embodiment of the present invention. The moving image processing apparatus of this embodiment captures a target object that is a moving object, extracts three-dimensional spatial coordinate information, and outputs the captured image together with the three-dimensional information.
A data recording unit 2 for recording the image together with three-dimensional information and time information, and a moving image editing unit 3 for performing image conversion by performing spatiotemporal mapping of the obtained image. Further, in order to manage the time information, a stopwatch 5 that outputs reference time information and a time base unit 4 that distributes the time information output by the stopwatch 5 to the camera head 1 and the data recording unit 2 are provided. I have it.

【0025】なお、カメラヘッド1で移動物体の3次元
情報を抽出する構成として、カメラ装置の設置場所とは
別途に設けられた演算装置により移動物体の3次元空間
座標を演算する構成とすることができるのは勿論であ
る。
As a structure for extracting the three-dimensional information of the moving object by the camera head 1, a three-dimensional spatial coordinate of the moving object is calculated by a calculation device provided separately from the installation location of the camera device. Of course, you can

【0026】本実施例では、水泳競技を撮影した動画像
を編集する例で説明する。
In this embodiment, an example of editing a moving image of a swimming competition will be described.

【0027】水泳競技は、対象物体(選手)の動きが水
平方向にくらべて高さ方向の動きが少なく平面上を移動
していると見なすことができる。ここで、図2に示すよ
うに、対象物体7はカメラヘッド1によって、映像と同
時に3次元の位置を測定される。また、カメラヘッド1
は対象物体7の動きにあわせて自動的に動き、対象物体
を追尾する。対象物体7の動きは平面6に限定されると
してもよいから平面6に対してのカメラヘッド1の位置
とカメラヘッド1から対象物体7を見たときの方向がわ
かれば、平面と直線の交点をもとめることで対象物体の
3次元での位置がわかる。また同時にレンズの画角から
平面6の撮影されている範囲が計算できる。これによ
り、対象物体7の3次元情報を画像とともに得ることが
できる。このような移動する対象物体7の3次元情報を
画像とともに得る手法については、出願人は、特願平5
−82178、特願平5−82209として出願してい
る。
In the swimming competition, it can be considered that the movement of the target object (athlete) is less in the height direction than in the horizontal direction and is moving on a plane. Here, as shown in FIG. 2, the three-dimensional position of the target object 7 is simultaneously measured with the image by the camera head 1. Also, the camera head 1
Automatically follows the movement of the target object 7 and tracks the target object. Since the movement of the target object 7 may be limited to the plane 6, if the position of the camera head 1 with respect to the plane 6 and the direction when the target object 7 is viewed from the camera head 1 are known, the intersection of the plane and the straight line The position of the target object in three dimensions can be found by finding At the same time, the photographed range of the plane 6 can be calculated from the angle of view of the lens. Thereby, the three-dimensional information of the target object 7 can be obtained together with the image. Regarding the method of obtaining such three-dimensional information of the moving target object 7 together with the image, the applicant has filed Japanese Patent Application No.
-82178 and Japanese Patent Application No. 5-82209.

【0028】本実施例の特徴とする点は、データ記録部
2と動画像編集部3での画像処理にあり、以下に説明す
る。
The characteristic feature of this embodiment lies in the image processing in the data recording unit 2 and the moving image editing unit 3, which will be described below.

【0029】まず、データ記録部2について説明する。First, the data recording section 2 will be described.

【0030】データ記録部2では、画像と3次元情報お
よび時間情報を同期させて記録しなければならない。こ
こで注意しなければならないのが時間の管理である。水
泳のように比較的動きの遅い対象の場合は、時間の単位
としてはカメラの1/60秒でもよいが、複数の同期し
ていないカメラを使った場合や、別の場所や、別の時間
に撮影されたデータとの合成を前提にすると、カメラの
フィールドを時間の単位として使うと最大1/60秒の
ずれが生じる。このため選手のタイムを計るためのスト
ップウォッチ5を時刻の基準として使用し、そこからの
タイミング信号でタイムベースユニット4を同期させ
る。撮影される各フィールドが、タイムベースユニット
4で計られる時刻で何時に対応するのかを映像と対応さ
せ記録する。つまり、何番目のフィールドといったフィ
ールド単位の時間管理ではなく、このフィールドは、ス
タートから4m秒後から20.7m秒後までの映像であ
るといった、実時間管理とする。これによってPALと
NTSCあるいはHDTVのようにTV方式が異なって
いたり、カメラのマスタークロックの周波数のばらつき
などがあっても統一的に編集できるようになる。また、
カメラに使われている素子やカメラの回路構成によって
は、カメラから出力される映像信号には実際に撮影され
た映像とのあいだで一定の遅れがある。たとえばCCD
エリアイメージセンサを使ったカメラでは光の像が素子
に電荷を蓄積してからその電荷が素子から読み出される
までに1フィールドの遅れがある。普通はこの遅れはカ
メラに固有で一定値であるから、カメラが特定できれば
記録装置で補正を行い、実際に撮像素子に像が写った時
刻を記録する必要がある。この補正は記録装置で行わな
くてもカメラで行ってもよい。また補正値を記録してお
き、再生時に補正を行っても、次段の編集部で行っても
よい。
In the data recording section 2, the image and the three-dimensional information and the time information must be recorded in synchronization with each other. One thing to keep in mind here is time management. For relatively slow-moving subjects such as swimming, the unit of time may be 1/60 seconds of the camera, but if multiple unsynchronized cameras are used, another place, another time If the field of the camera is used as the unit of time, a shift of 1/60 seconds at maximum occurs when the camera field is used as a unit of time. For this reason, the stopwatch 5 for measuring the player's time is used as a time reference, and the time base unit 4 is synchronized with the timing signal from the stopwatch 5. The time at which each field to be photographed corresponds to the time measured by the time base unit 4 is recorded in association with the image. That is, instead of field-based time management such as the order of the field, real-time management is performed such that this field is an image from 4 msec after the start to 20.7 msec after the start. This enables unified editing even if the TV systems such as PAL and NTSC or HDTV are different, or the frequency of the master clock of the camera is varied. Also,
Depending on the elements used in the camera and the circuit configuration of the camera, the video signal output from the camera has a certain delay with respect to the video actually shot. CCD
In a camera using an area image sensor, there is a one-field delay from the light image accumulating charges in the element to the reading of the charges from the element. Normally, this delay is specific to the camera and is a constant value. Therefore, if the camera can be specified, it is necessary to correct it by the recording device and record the time when the image is actually captured on the image sensor. This correction may be performed by the camera or not by the recording device. Further, the correction value may be recorded and corrected at the time of reproduction, or may be performed by the editing unit in the next stage.

【0031】3次元情報には、カメラヘッドで測定され
る3次元の点の位置以外に、そのカメラに写っている視
野の3次元位置、カメラヘッドの3次元位置、雲台の回
転軸の3次元空間上の位置、光軸と回転軸のずれなど3
次元空間座標に関係したヘッド固有の情報もいっしょに
記録される。ただこの記録は画像すべてについて行なう
必要はなく、ヘッドの固有情報などは、画像のヘッダー
部分にあれば良い。また、カメラヘッドで測定される3
次元位置は、正確には、対象物体の位置である。対象物
体は、画像の中心にあるとは限らないから、対象物体の
3次元空間の位置とともに、対象物体の画像内での位置
も、各画像フィールドごとに記録しなければならない。
The three-dimensional information includes, in addition to the position of the three-dimensional point measured by the camera head, the three-dimensional position of the field of view reflected in the camera, the three-dimensional position of the camera head, and the three-axis of the rotation axis of the platform. Position in dimensional space, deviation between optical axis and rotation axis, etc. 3
The head-specific information related to the dimensional space coordinates is also recorded. However, this recording does not have to be performed for all the images, and the unique information of the head and the like may be in the header portion of the image. Also, 3 measured by the camera head
To be precise, the dimensional position is the position of the target object. Since the target object is not always in the center of the image, the position of the target object in the three-dimensional space as well as the position of the target object in the image must be recorded for each image field.

【0032】さらに、3次元座標という計算された情報
以外に、雲台の角軸の回転角、レンズのズーム値など生
のデータも同時に記録することで、なんらかの障害が発
生した場合にリカバリーや、解析に有効な情報となるた
め、できるだけ多くの生データを同時に記録するのが望
ましい。
Further, in addition to the calculated information such as three-dimensional coordinates, raw data such as the rotation angle of the pan head angular axis and the zoom value of the lens are also recorded at the same time, so that recovery in the event of any failure, It is desirable to record as much raw data at the same time as it will be useful information for analysis.

【0033】以上のような画像に付帯する情報は、画像
と同時にアクセスされるため、画像と同じ記録媒体に記
録するのが良い。通常のビデオ信号の、ブランキング期
間の未使用領域に情報を適当な形で変調して加えておく
ことで、記録装置、記録媒体に通常のビデオ信号記録装
置、たとえば、ビデオレコーダなどがつかえるが、本実
施例では、編集の場合にランダムアクセスが必要になる
ことを考慮して光ディスクにディジタルで記録する。デ
ィジタル記録では付帯情報もディジタル情報で記録され
るため、画像の各フィールドに対応する情報が得られる
ようなファイル構造としておけば、前述のようにブラン
キング期間に変調して加える必要はない。ただしこの場
合も媒体の取り扱いを考慮すると、画像と付帯情報は同
じ媒体に記録するのが良い。
Since the information attached to the image as described above is accessed at the same time as the image, it is preferable to record it on the same recording medium as the image. A normal video signal recording device, such as a video recorder, can be used as a recording device or recording medium by appropriately modulating and adding information to an unused area of a normal video signal during a blanking period. In the present embodiment, digital recording is performed on the optical disk in consideration of the need for random access for editing. In digital recording, incidental information is also recorded as digital information. Therefore, if the file structure is such that information corresponding to each field of the image can be obtained, it is not necessary to modulate and add the blanking period as described above. However, also in this case, considering the handling of the medium, it is preferable to record the image and the incidental information on the same medium.

【0034】次に動画像編集部3について説明する。動
画像編集部3では、複数のデータ記録部2あるいはカメ
ラヘッド1からの3次元情報付き画像をもとに、新しい
画像を作り出す処理を行う。ここで、本発明の特徴とす
る点は、撮影あるいは記録された画像を時空間マップに
投影し、この時空間マップに投影された画像を仮想カメ
ラにより撮影して動画像を作成する画像処理を行う点に
ある。
Next, the moving image editing section 3 will be described. The moving image editing unit 3 performs a process of creating a new image based on the images with three-dimensional information from the plurality of data recording units 2 or the camera head 1. Here, the feature of the present invention is that image processing of projecting a captured or recorded image onto a spatiotemporal map and capturing the image projected onto the spatiotemporal map with a virtual camera to create a moving image. There is a point to do.

【0035】この動画像処理時に基本となるのが時空間
マップである。時空間マップは、3次元空間の3軸と、
時間の1軸の仮想的な4次元空間で、実際は高速の半導
体メモリー上にとられたデータテーブルである。この例
では動画像編集部3の出力はNTSCタイミングの画像
とするから、時間の単位は1フィールド1/60秒とな
って、時空間マップは、3次元データをもつテーブル
が、1フィールドごとに必要数繰り返し並んだ形にな
る。この例の様に入出力のTVタイミングが同じで、出
力の映像の1フィールドを作り出すのに、あるフィール
ドの映像とべつの時刻のフィールドの映像を組み合わせ
て処理する必要性がない場合は、時空間マップとして、
1フィールド分だけをメモリー上にもって、フィールド
ごとに毎回書き換えを行なうこともできる。また、3次
元空間のデータは、出力する可能性がある範囲、対象物
体が移動する範囲など、必要な範囲とする。この例で
は、対象物体は拘束平面内の動きに限られるから、時空
間マップの空間データもまた平面としてもよい。測定対
象として水泳の選手の場合は、プール以外の空間は意味
がないから、範囲はプールの大きさに限られる。このと
き時空間マップは、ちょうどプールを真上からみたとき
の平面図のようなものになる。図3にこの時空間マップ
の例を示す。
A spatiotemporal map is the basis for this moving image processing. The spatiotemporal map has three axes in three-dimensional space,
It is a virtual four-dimensional space with one axis of time, and is actually a data table stored on a high-speed semiconductor memory. In this example, since the output of the moving image editing unit 3 is an image of NTSC timing, the unit of time is 1 field 1/60 seconds, and the spatiotemporal map has a table having three-dimensional data for each field. The required number of lines is lined up. As in this example, if the input and output TV timings are the same and it is not necessary to combine the video of a certain field and the video of the field at another time to produce one field of the output video, As a space map,
It is also possible to rewrite each field by storing only one field in the memory. Further, the data of the three-dimensional space is a necessary range such as a range that may be output and a range in which the target object moves. In this example, the target object is limited to movement within the constraining plane, so the spatial data of the spatiotemporal map may also be a plane. In the case of swimming athletes, the space outside the pool is meaningless, so the range is limited to the size of the pool. At this time, the spatiotemporal map looks like a plan view when the pool is viewed from directly above. FIG. 3 shows an example of this spatiotemporal map.

【0036】この時空間マップをつくるため動画像編集
部3ではまず、データ記録部2、あるいは直接カメラヘ
ッド1からの、3次元情報を使って、入力された1フィ
ールドの映像を時空間マップ上にマッピングする。これ
は拘束平面をカメラで撮影して映像を得ることの逆を行
なうことになる。つまり、カメラで撮影された映像をス
ライドの映写機のように、レンズをとおして逆に拘束平
面に投影することに対応する。
In order to create this spatiotemporal map, the moving image editing section 3 first uses the three-dimensional information from the data recording section 2 or directly from the camera head 1 to display the input 1-field image on the spatiotemporal map. Map to. This is the opposite of taking an image of the constraining plane with a camera. That is, it corresponds to projecting an image captured by a camera through a lens to a confining plane, like a slide projector.

【0037】実際の処理は以下のようになる。図4に示
すように撮影された映像は拘束平面を斜めから見た映像
であるから、画像に変形を行い、それを時空間マップに
位置をあわせて書き込む。映像の中の対象物体の位置は
カメラヘッド1によって測定されている。またそのとき
の映像の写っている範囲もまたカメラヘッド1の状態を
もとに計算されデータとして映像といっしょに得られ
る。この例では計算をわかりやすくするためレンズの歪
みなどの非線形成分を無視すると、この時の変形は次の
式1のマトリックスで表される。
The actual processing is as follows. Since the image photographed as shown in FIG. 4 is an image of the constraining plane viewed obliquely, the image is deformed and the position is written in the spatiotemporal map in alignment. The position of the target object in the image is measured by the camera head 1. Further, the range in which the image at that time is shown is also calculated based on the state of the camera head 1 and obtained as data together with the image. In this example, in order to make the calculation easier to understand, if the non-linear component such as the lens distortion is ignored, the deformation at this time is expressed by the matrix of the following Expression 1.

【0038】[0038]

【数1】 変換マトリックスは、画像の4隅と拘束平面上の写って
いる範囲の対応から求めることができる。カメラヘッド
1は対象物体の動きにつれて動くためこの変換マトリッ
クスは、毎フィールドで変化するため、データ記録部2
から送られてくる3次元データをもとに毎フィールド計
算し、そのマトリックスをつかって映像を変換しマッピ
ングする。この変換処理は、編集に必要な映像の数だけ
平行して行なわれる。前述したように、この例では時空
間マップはちょうどプールの平面図と考えられる。時空
間マップはプール全体の範囲をもっているが、その中で
撮影された映像があるのは選手の近傍に限られる。時間
の経過に伴なって、選手の場所が移動するがそれにつれ
て映像の位置もマップの中を移動する。これはちょう
ど、真っ暗なプールに選手の部分だけ四角いスポットラ
イトがあたっていて、選手の動きにつれてスポットライ
トが移動している感じを考えれば良い。
[Equation 1] The transformation matrix can be obtained from the correspondence between the four corners of the image and the range shown on the constraining plane. Since the camera head 1 moves according to the movement of the target object, this conversion matrix changes in each field, and therefore the data recording unit 2
Each field is calculated based on the three-dimensional data sent from, and the image is converted and mapped using the matrix. This conversion process is performed in parallel for the number of images required for editing. As mentioned above, in this example the spatiotemporal map is considered to be just a plan view of the pool. The spatiotemporal map covers the entire area of the pool, but the images captured in it are limited to the vicinity of the player. The position of the player moves along with the passage of time, but the position of the image moves in the map as well. This is just because you can think of the feeling that the spotlight is shining in the pitch-dark pool only for the player, and the spotlight moves as the player moves.

【0039】次に、動画像編集部3の画像出力について
説明する。従来の画像の編集とは異なり本発明では、編
集の対象としては入力画像ではなく、時空間マップを用
いる。出力画像は、時空間マップを仮想のカメラを使っ
て撮影したときに得られる画像である。この仮想カメラ
は、入力につかったカメラヘッド1とは基本的に関係な
い。したがって任意の位置から任意の画角で撮影するこ
とができる。これはちょうどスポットライトが選手を追
いかけている真っ暗なプールを新たな別のカメラで撮影
するという概念でとらえられる。前述のように時空間マ
ップは、実際の3次元空間の位置に対応している。この
ため、仮想カメラは、画像入力用のカメラヘッドと同様
な操作ができる。つまりカメラの位置を3次元空間でき
めてそこからのカメラの方向と画角をきめることができ
る。前述したように時空間マップは実際の3次元空間の
位置をもっているから、仮想カメラの位置と方向がわか
れば撮影される位置も範囲もわかる。これはちょうどカ
メラヘッドからの映像をマッピングするのと逆の操作と
なる。その原理を説明するのが図5であり、この例では
拘束平面を用いるため時空間マップは平面であるから、
画像の変換はマッピングの時と同様に次の式2に示され
るマトリックスによって表わされる。
Next, the image output of the moving image editing section 3 will be described. Unlike conventional image editing, in the present invention, the spatiotemporal map is used as the object of editing, not the input image. The output image is an image obtained when the spatiotemporal map is photographed using a virtual camera. This virtual camera is basically unrelated to the camera head 1 used for input. Therefore, it is possible to shoot from any position at any angle of view. It's just a concept of shooting a pitch-black pool where a spotlight is chasing a player with a new camera. As described above, the spatiotemporal map corresponds to the actual position of the three-dimensional space. Therefore, the virtual camera can be operated in the same manner as a camera head for image input. In other words, the position of the camera can be defined in a three-dimensional space, and the direction and angle of view of the camera from there can be determined. As described above, since the spatiotemporal map has the actual position in the three-dimensional space, if the position and the direction of the virtual camera are known, the position and the range to be photographed can be known. This is just the opposite operation of mapping the image from the camera head. FIG. 5 illustrates the principle, and since the constraining plane is used in this example, the spatiotemporal map is a plane.
The transformation of the image is represented by the matrix shown in the following equation 2 as in the case of mapping.

【0040】[0040]

【数2】 またこの仮想カメラはカメラヘッド1と同様に自動追尾
操作もできる。時空間マップ上の映像はすべてマッピン
グの時点で位置がわかっているから、それらをもとに出
力用の仮想カメラを動かせば良い。
[Equation 2] Further, this virtual camera can also perform an automatic tracking operation like the camera head 1. Since the positions of all the images on the spatiotemporal map are known at the time of mapping, it is sufficient to move the output virtual camera based on them.

【0041】次に編集操作について説明する。Next, the editing operation will be described.

【0042】前述したように本発明では編集の対象は時
空間マップである。たとえば水泳の例で、図2の様に1
コースと6コースの選手を別のカメラヘッド(cam
1,cam2)で撮影した場合を考える。この時の時空
間マップは図3のようにそれぞれの映像は離れた位置に
ある。前述した仮想カメラでこれを撮影すると、両方の
映像を画面に入れようとするとそれぞれが小さくなりす
ぎるため編集を行う。編集では図6のように時空間マッ
プ自体の切り張りを行うことができる。今の例の場合、
図6のようにプールの1つのコース全体を切り取って別
の場所にもっていけば、二人の選手は隣り合ったコース
を泳いでいるのと同様になる。時空間マップでは実際の
空間の位置に対応しているから、この操作を行うこと
は、データ上では実際のプールのコースの場所を入れ替
えるのと同じになる。この編集操作は、移動させたいコ
ースに対応する座標の範囲の図形を移動し、それ以外の
範囲では移動しないという、時空間マップ上での条件付
の画像の移動である。これもまた式3のようなマトリク
スで表わされる。ただし前述したように条件付の移動で
あるからこのマトリクスEはマップ上の位置(x,z)
によって異なる。
As described above, in the present invention, the object of editing is the spatiotemporal map. For example, in the case of swimming, 1
A different camera head (cam)
Consider the case where the image is taken at 1, cam 2). In the spatiotemporal map at this time, the respective images are located apart from each other as shown in FIG. If you take a picture of this with the above-mentioned virtual camera, both images will become too small when you try to put them on the screen, and you will edit them. In editing, the spatiotemporal map itself can be cut as shown in FIG. In our case,
By cutting out one entire course of the pool and moving it to another location as in Figure 6, it is as if two athletes were swimming on adjacent courses. Since this corresponds to the actual space position in the spatiotemporal map, performing this operation is the same as replacing the actual pool course location on the data. This editing operation is the movement of a conditional image on the spatiotemporal map, in which the figure in the range of coordinates corresponding to the course to be moved is moved, but not in the other range. This is also expressed by the matrix as shown in Expression 3. However, since the movement is conditional as described above, this matrix E is located at the position (x, z) on the map.
Depends on

【0043】[0043]

【数3】 この編集をしたあと、仮想カメラで撮影すると、図7に
示すような画像となり、選手の画像が小さくなりすぎる
ことはない。この操作でもともとは離れたコースを泳い
でいた選手が隣のコースを泳いでいるような映像とな
る。
[Equation 3] After this editing, shooting with a virtual camera produces an image as shown in FIG. 7, and the player's image does not become too small. This operation gives an image of a player swimming on a course far from the original course, swimming on the next course.

【0044】今の例は空間的に離れているものを近くに
持ってくるような編集だったが、時間的に離れている場
合も同様に編集で近くに持ってくることができる。たと
えばある選手の1日目と2日目を比べてみたい場合など
は、以下のようになる。1日目、2日目の記録をそれぞ
れカメラヘッドで記録する。実際の記録は光ディスクな
どに行われるが、時空間マップに反映すると、この例で
は時空間マップは平面であるから図8のように、フィー
ルド単位のマップが積み重なったように考えられる。編
集操作は図9のようにこのブロックを塊として切り取っ
て移動させる。これで、1日目と2日目を隣のコースで
競争させることができる。はめ込みのときの位置合わせ
は、空間的にはプールの位置で合わせればよいが、時間
的な位置合わせには注意が必要である。競争させるため
には同時にスタートしなければならないが、タイムを計
るストップウォッチと、テレビのフィールドとは通常同
期していない。水泳のように比較的遅い動きの場合はテ
レビのフィールド周期の約16.7m秒単位で合わせて
もそれほど問題とならない場合もあるが、1/100秒
を問題とするような場合はそれなりの精度で位置を合わ
せなければならない。そのため本発明では前述したよう
に実時間で時間データを管理している。その実時間をつ
かった処理は以下のようになる。
In the present example, the editing is such that the spatially distant one is brought closer, but when the spatially distant one is brought near, the editing can be similarly brought near. For example, if you want to compare the first day and the second day of a certain player, you can do as follows. Record the first and second days with the camera head. Although actual recording is performed on an optical disk or the like, when reflected in the spatiotemporal map, the spatiotemporal map is a plane in this example, so that it can be considered that the maps in field units are stacked as shown in FIG. In the editing operation, this block is cut and moved as a block as shown in FIG. This will allow you to compete on the adjacent course for the first and second days. Positioning at the time of fitting may be spatially performed at the position of the pool, but attention should be paid to the temporal alignment. Although they must start at the same time to compete, the timed stopwatch is usually out of sync with the television field. In the case of relatively slow movement such as swimming, it may not be so problematic even if it is adjusted in the unit of about 16.7 msec of the field period of the television, but in the case where 1/100 sec is a problem, the accuracy is reasonable. You have to adjust the position with. Therefore, in the present invention, time data is managed in real time as described above. The processing using the real time is as follows.

【0045】複数のカメラヘッドからの映像をつかって
編集する場合、まずどれかのカメラを基準のタイミング
として時計とフィールドの関係を決める。このタイミン
グで出力画像も得られる。カメラヘッド1からの映像に
は、3次元座標のデータとともにストップウォッチ5で
の時刻のデータも入っているから、各フィールドの時刻
がわかる。各フィールドはその間光電荷を蓄積している
ため幅をもっているが、計算を楽にするため代表的なタ
イミングとして、フィールドの切り替わり目をつかう。
電荷の蓄積がフィールドの後半で行われる電子シヤッタ
ーを考慮すると、タイミングとしてフィールドの終の時
刻を使うのがよい。たとえば図10に示すようにカメラ
1ではストップウォッチの−4.7m秒から+12m秒
が第nのフィールド、+12m秒から第n+1のフィー
ルドというタイミングとする。カメラ2はそれに対し
て、−12.7m秒から第kのフィールド、+4m秒か
ら第k+1のフィールドとなっているとする。基準とし
て第1のカメラとすると、そのフィールドに合わせたタ
イミングの第2のカメラ映像が必要である。たとえば+
12m秒の時点では、第2のカメラからの映像は第k+
1のフィールドの途中である。この例では、水泳で比較
的動きが遅いため隣り合ったフィールドの映像にそれほ
どの差はないと考えられる。このような場合は、ハード
ウエアを簡単にするため、一つ前のフィールドを流用す
ることができる。先の12m秒の時点では、カメラ2の
映像として−12.7m秒からの第kのフィールドの映
像を使うことにする。この例では、単に1つ前の映像を
流用したが、その前後の複数の映像をつかって必要な時
刻の映像を合成してもよい。
When editing using images from a plurality of camera heads, first, the relationship between the clock and the field is determined by using one of the cameras as a reference timing. An output image is also obtained at this timing. Since the image from the camera head 1 includes the data of the three-dimensional coordinates and the time of the stopwatch 5, the time of each field can be known. Each field has a width because it accumulates photocharges during that time, but the field switching is used as a typical timing to facilitate calculation.
Considering an electronic shutter in which charge accumulation occurs in the second half of the field, it is preferable to use the end time of the field as the timing. For example, as shown in FIG. 10, in the camera 1, the timing of the stopwatch is −4.7 msec to +12 msec, which is the nth field, and +12 msec to the n + 1th field. On the other hand, it is assumed that the camera 2 has a field from -12.7 msec to the kth field and a field from +4 msec to the kth field. If the first camera is used as a reference, a second camera image with a timing matched to the field is required. For example +
At 12 ms, the image from the second camera is the k + th image.
It is in the middle of field 1. In this example, it is considered that there is not much difference between the images of adjacent fields because the movement is relatively slow during swimming. In such a case, the previous field can be used to simplify the hardware. At the previous 12 msec, the image of the k-th field from -12.7 msec is used as the image of the camera 2. In this example, the previous video is simply diverted, but a plurality of videos before and after the video may be used to synthesize the video at the required time.

【0046】映像と同様に時空間マップへのマッピング
時に使う3次元座標値は、フィールドに対応して得られ
るため、値のある時刻が限られる。このためカメラ1に
合わせた時空間マップではカメラ2の3次元データは映
像の時と同じでタイミングがずれている。対象物体の運
動の性質がわかっている場合は、カメラヘッドの自動追
尾の時に行ったように運動の性質によってきまる式で値
を補間することができる。この例ではハードウエアを簡
単にする意味で直線補間を使うが、この場合は自動追尾
の時のように外挿補間ではなく、隣り合う2つのフィー
ルドからの内挿補間でありさらに、画像の中で高精度が
出ているのは厳密には対象物体の1点でほかの部分はそ
れほど高精度ではないこともあって、直線補間でも実用
的な精度が得られる。以上のようにして時間軸をあわせ
て時空間マップにマッピングしたのが図11である。一
度マッピングされればあとは前述の例と同様に時空間マ
ップを編集し、仮想カメラで撮影する。
Similar to the video, the three-dimensional coordinate values used for mapping on the spatiotemporal map are obtained corresponding to the field, so the time when there is a value is limited. Therefore, in the spatiotemporal map matched to the camera 1, the three-dimensional data of the camera 2 is the same as that of the image, and the timing is shifted. When the nature of the motion of the target object is known, the value can be interpolated by an equation that depends on the nature of the motion, as was done when the camera head was automatically tracked. In this example, linear interpolation is used in the sense of simplifying the hardware, but in this case, it is interpolation interpolation from two adjacent fields instead of extrapolation as in the case of automatic tracking. Strictly speaking, the high accuracy is obtained only in one point of the target object, and the other parts are not so high in accuracy. Therefore, even the linear interpolation can obtain a practical accuracy. FIG. 11 shows the mapping on the spatiotemporal map with the time axis aligned as described above. Once mapped, edit the spatiotemporal map as in the previous example and shoot with a virtual camera.

【0047】水泳の場合、プールの大きさが限られてい
るから、長距離を泳ぐ場合はターンを繰り返すことにな
る。このときたとえばターンの前と後を比べたい場合が
ある。このようなときは次のような編集を行う。撮影の
時は図12のようにターンの前後で時空間マップ上でも
進行方向が逆になる。編集操作では、図13のようにタ
ーン後の進行方向を逆にするためターン後の時空間マッ
プを左右入れ替え、ターン前と並べる。このときの位置
と時間の合わせ方は前述した様な注意が必要である。こ
の操作によって図14のようにターンの前と後の選手が
ちょうど隣のコースを同時にスタートして競争している
かのような映像を得ることができる。上記いずれの編集
操作によっても比べられる映像の位置関係は実際の3次
元空間の座標に基づいた位置に表示されているから、映
像に上での位置関係をつかった位置や、距離測定も可能
となる。
In the case of swimming, the size of the pool is limited. Therefore, when swimming a long distance, the turn is repeated. At this time, for example, you may want to compare before and after the turn. In such a case, edit as follows. At the time of shooting, the traveling direction is reversed on the spatiotemporal map before and after the turn as shown in FIG. In the editing operation, as shown in FIG. 13, the spatiotemporal maps after the turn are switched to the left and right in order to reverse the traveling direction after the turn, and are aligned with those before the turn. At this time, attention should be paid to the position and time adjustment as described above. By this operation, as shown in FIG. 14, it is possible to obtain an image as if the players before and after the turn just started the adjacent courses at the same time and are competing. The positional relationship of the images compared by any of the above editing operations is displayed at the position based on the coordinates of the actual three-dimensional space. Therefore, it is possible to measure the position based on the positional relationship in the image and the distance measurement. Become.

【0048】以上の操作は、式4で表わされる。つまり
まず撮影された映像をマトリクスAで時空間マップへ投
影する。次に時空間マップのなかでマトリクスEで編集
する。最後に仮想カメラで撮影するのに対応するマトリ
クスBでの変換を行う。
The above operation is represented by equation 4. That is, first, the captured image is projected on the spatiotemporal map by the matrix A. Next, the matrix E is edited in the spatiotemporal map. Finally, conversion is performed in the matrix B corresponding to shooting with a virtual camera.

【0049】[0049]

【数4】 これらの編集をおこなう動画像編集部3のハードウエア
構成の例を図15に示す。この動画像編集部3は、カメ
ラヘッド1あるいはデータ記録部2からの入力1(3
1)と入力2(32)から、画像データとともに3次元
データおよび時間データが入力される。入力1および入
力2の3次元データおよび時間データがそれぞれ入力さ
れる二つのマトリクス係数演算回路33、34、入力
1、入力2に対応したフレームメモリ(FM1、FM
2)35、36、このフレームメモリ35、36の書き
込みアドレスを与える書き込みアドレスカウンタ37、
38、仮想カメラコントローラ39、この仮想カメラコ
ントローラ39の出力によりマトリクス係数演算を行う
マトリクス係数演算回路40、編集コントローラ41、
編集コントーラ41の出力およびマトリクス係数演算回
路33、34、40の出力によりマトリクス演算を行う
マトリクス演算回路42、44、読み出しアドレスカウ
ンタ44、読み出しアドレスカウンタ44および仮想カ
メラについてのマトリクス係数演算回路40の出力によ
りマトリクス演算を行い編集コントローラ41に出力す
るマトリクス計算回路45、それぞれの画像についての
アドレス計算を行うアドレス計算回路46、47、この
両回路46、47の出力から読み出しアドレス出力およ
びフレームメモリ選択信号を出力するアドレスマネジャ
回路48、フレームメモリ35、36の出力をこの選択
信号に基づいて選択出力するデータセレクタ回路49、
背景データを与える背景データテーブル51、背景デー
タコントローラ50を備えている。
[Equation 4] FIG. 15 shows an example of the hardware configuration of the moving image editing unit 3 that performs these edits. The moving image editing section 3 is provided with an input 1 (3
From 1) and input 2 (32), three-dimensional data and time data are input together with the image data. Two matrix coefficient operation circuits 33 and 34 to which the three-dimensional data of input 1 and input 2 and time data are respectively input, and frame memories (FM1 and FM) corresponding to input 1 and input 2
2) 35 and 36, a write address counter 37 that gives write addresses to the frame memories 35 and 36,
38, a virtual camera controller 39, a matrix coefficient calculation circuit 40 for calculating a matrix coefficient by the output of the virtual camera controller 39, an editing controller 41,
Matrix calculation circuits 42 and 44 for performing matrix calculation by outputs of the editing controller 41 and matrix coefficient calculation circuits 33, 34 and 40, read address counter 44, read address counter 44, and output of matrix coefficient calculation circuit 40 for virtual camera Matrix calculation circuit 45 for performing matrix calculation and outputting to the edit controller 41, address calculation circuits 46 and 47 for performing address calculation for each image, and read address output and frame memory selection signal from outputs of both circuits 46 and 47. An address manager circuit 48 for outputting, a data selector circuit 49 for selectively outputting the outputs of the frame memories 35, 36 based on the selection signal,
A background data table 51 for giving background data and a background data controller 50 are provided.

【0050】その動作を説明する。出力画像は図16の
ように、ラスタースキャンで得られるから、このハード
ウエアでは出力画像の任意の点(u′,v′)を求める
ようになっている。式4から逆に次の式5が得られる。
The operation will be described. Since the output image is obtained by raster scanning as shown in FIG. 16, this hardware is designed to obtain an arbitrary point (u ', v') of the output image. Inversely, the following expression 5 is obtained from the expression 4.

【0051】[0051]

【数5】 これで出力画像の点に対応する入力画像が得られる。入
力1(31)、入力2(32)は、前述したデータ記録
部2の出力でも、カメラヘッド1でもよい。入力された
データのうち3次元データと時間データは、時空間マッ
プへ投影するときのマトリクスA1 -1を求めるために使
われる。入力はそれぞれ別のパラメータであるからマト
リクスA1 -1はそれぞれに必要である。一方、入力され
た画像データは、それぞれフレームメモリ(FM)3
5、36に書き込まれる。このときのアドレスは(u,
v)に対応している。このフレームメモリはそれぞれ2
系統あって、交互に書き込みと読み出しを行うようにな
っている。仮想カメラコントローラ39は仮想カメラの
3次元パラメータを作り出す。自動追尾などでは入力の
3次元データをもとに計算する。このデータからマトリ
クス係数計算回路40によってマトリクスB-1が求ま
る。出力のラスタースキャンに対応して、読み出しアド
レスカウンタ44で読み出しアドレス(u′,v′)が
作られる。これをもとにマトリクス計算回路45で時空
間マップ上のアドレス(x,z)が求められる。編集コ
ントローラ41はこれをもとに編集マトリクスE1 -1
2 -1を作る。また、読み出しアドレスとそれらのマト
リクスから、式5を使って読み出しアドレス(u′,
v′)に対応する、書き込みアドレス(u,v)が計算
される。前述したように時空間マップ上には画像がある
部分とない部分があるが、これは計算された書き込みア
ドレスの値を調べることで判断できる。つまり、ある読
み出しアドレスのときに、それに対応する書き込みアド
レスが実際に存在する値であれば、それは映像がある部
分である。この比較はコンパレータおよびセレクタで構
成されたアドレスマネジャ回路48が入力のそれぞれに
行い、どの入力のどのアドレスかを計算する。計算され
た読み出しアドレスで前述したフレームメモリ35、3
6を読み出し、データセレクタ回路49で選ぶことで仮
想カメラの画像を得られる。この例では入力として、2
系統だが、これはいくつでも同様に計算できる。
[Equation 5] This gives an input image corresponding to the points in the output image. The input 1 (31) and the input 2 (32) may be the output of the data recording unit 2 described above or the camera head 1. Of the input data, the three-dimensional data and the time data are used to obtain the matrix A 1 -1 when projecting onto the space-time map. Since the inputs are different parameters, the matrix A 1 -1 is necessary for each. On the other hand, the input image data is stored in the frame memory (FM) 3 respectively.
5, 36. The address at this time is (u,
It corresponds to v). This frame memory has 2 each
There are systems, and writing and reading are performed alternately. The virtual camera controller 39 produces three-dimensional parameters of the virtual camera. For automatic tracking, calculation is performed based on the input three-dimensional data. The matrix B -1 is obtained from this data by the matrix coefficient calculation circuit 40. The read address counter 44 creates a read address (u ', v') corresponding to the raster scan of the output. Based on this, the matrix calculation circuit 45 obtains the address (x, z) on the space-time map. Based on this, the edit controller 41 edits the edit matrix E 1 -1 ,
Make E 2 -1 . Further, from the read addresses and their matrix, the read address (u ′,
The write address (u, v) corresponding to v ′) is calculated. As described above, there are a portion with an image and a portion without an image on the spatiotemporal map, which can be determined by examining the calculated write address value. That is, if a write address corresponding to a certain read address has a value that actually exists, it is a portion where an image exists. This comparison is performed for each of the inputs by the address manager circuit 48 composed of a comparator and a selector to calculate which input corresponds to which address. The frame memory 35, 3 described above is calculated using the calculated read address.
An image of the virtual camera can be obtained by reading 6 and selecting it with the data selector circuit 49. In this example, the input is 2
It is a system, but this can be calculated similarly for any number.

【0052】(第2実施例)第1実施例では出力画像と
して1つの仮想カメラの映像だけしか扱わなかったが、
複数の仮想カメラを用いて同時にいくつかの映像を出す
ほうが良い場合がある。またサッカーなどの場合は、選
手同士の位置関係が大事なため、ちょうど真上から見た
のに対応する。時空間マップの各フィールドの映像をそ
のまま出力することもできる。その場合、通常のテレビ
の解像度では足りないためハイビジョン規格や、コンピ
ュータの画面の規格などを使う必要がある。また、時空
間マップの映像をそのまま出力するのではなく、座標値
を使ってたとえば選手の位置に点を打つなどの表示をし
て選手の軌跡を残してもよい。
(Second Embodiment) In the first embodiment, only the image of one virtual camera is handled as the output image.
In some cases, it may be better to use several virtual cameras to display several images at the same time. Also, in the case of soccer etc., since the positional relationship between the players is important, it corresponds to just looking from above. It is also possible to output the video of each field of the spatiotemporal map as it is. In that case, it is necessary to use a high-definition standard or a computer screen standard because the resolution of a normal TV is not sufficient. Further, instead of outputting the image of the spatiotemporal map as it is, the trajectory of the player may be left by displaying, for example, a dot at the position of the player using the coordinate values.

【0053】(第3実施例)第1の実施例では仮想カメ
ラの操作については自動追尾方式をとったが、この操作
を人間が行ってもよい。この時の操作としては、マウス
などではなく実際のカメラの操作に近い形のデータ入力
装置が望ましい。たとえば、図27に示すようなカメラ
パラメータ入力装置である。
(Third Embodiment) In the first embodiment, the automatic tracking method is used for the operation of the virtual camera, but this operation may be performed by a human. As the operation at this time, it is desirable to use a data input device having a shape similar to the operation of an actual camera, not a mouse or the like. For example, it is a camera parameter input device as shown in FIG.

【0054】この装置では、ハンドルを上下に動かすこ
とで、カメラの上下に対応するティルト軸を制御でき
る。同様にハンドルの左右動作はカメラのパン軸、また
ハンドルを前後に押したり引いたりすることで、画角に
相当するズームのコントロール、ハンドルを回転させる
とフォーカスのコントロールができる。フォーカスにつ
いては、仮想カメラの画像をわざとぼかしたりすること
で、演出効果を得るときなどに用いる。また、実際のカ
メラ操作に似せるため、ファインダーがあり、そこには
仮想カメラ画像が表示される。また、映像がない場合が
多い映像では、どこを見てもわからなくなるよう場合が
あるため、図6のように時空間マップとともにそのカメ
ラの視野を表示するようにして、操作を容易にすること
が必要である。
In this device, the tilt axis corresponding to the vertical direction of the camera can be controlled by moving the handle up and down. Similarly, the left and right movements of the steering wheel can be controlled by the pan axis of the camera, by pushing and pulling the steering wheel back and forth, zoom control corresponding to the angle of view and by rotating the steering wheel focus control. The focus is used, for example, when the effect of the virtual camera is intentionally blurred to obtain a staging effect. Also, in order to mimic the actual camera operation, there is a finder in which a virtual camera image is displayed. In addition, since there are many cases where there is no video, it may be difficult to see wherever you look. Therefore, as shown in FIG. 6, the field of view of the camera is displayed together with the spatiotemporal map to facilitate the operation. is necessary.

【0055】また仮想カメラの追尾を対象物体に合わせ
るのではなく、あらかじめ決められた動作をさせること
もできる。水泳の例では、たとえば画面の中央が日本記
録のペースとなるように合わせて仮想カメラをコントロ
ールすることで、選手に写っている画面の位置で記録が
出そうか、またペース配分はどうかなどが一目でわか
る。
Further, instead of matching the tracking of the virtual camera with the target object, a predetermined operation can be performed. In the example of swimming, for example, by controlling the virtual camera so that the center of the screen is set to the pace of Japan record, whether the record is likely to appear at the position of the screen shown to the athlete or whether the pace distribution is You can see at a glance.

【0056】さらに、仮想カメラの位置は自由に移動で
きるので、例えば、常に先頭の選手の真上の天井にある
ようにコントロールすることができる。また、テレビや
映画の撮影で使用されるように、レールを引いて、その
上の台車にのせて移動しながら撮影すると同様の動きも
仮想カメラに与えることができる。
Further, since the position of the virtual camera can be freely moved, it is possible to control the virtual camera so that it is always above the ceiling of the leading player. In addition, when the rail is pulled and the truck is placed on the rail, the movement can be performed while moving and the virtual camera can be given to the virtual camera, as is used for shooting television and movies.

【0057】(第4実施例)仮想カメラで時空間マップ
を撮影した場合、カメラヘッドでえられた映像よりも狭
い範囲であれば、問題はないが通常は図7のように仮想
カメラの視野のほうがマッピングされている映像範囲よ
りも広い。したがって、仮想カメラの視野には、映像が
ない部分21が写ってしまう。測定が目的であれば問題
はないが、放送など、映像として使う場合は映像のない
部分21は不自然である。そのため、この例では背景と
してあらかじめ時空間マップ全範囲に映像を埋めておく
ことをおこなう。時空間マップはフィールド単位で更新
されているため、背景も動画とすることは可能である。
しかし全範囲を動画とするためには全範囲を常に撮影す
る必要があり、効率的ではない。また必要なのは対象物
体であって背景ではないことから背景を静止画とするの
がよい。図15に示す動画像編集部の背景データコント
ローラ50がこの処理を行う。背景は静止画であるから
1度取り込んでおけば基本的に変更しない。取り込みに
はハイビジョンのような高解像度のカメラでもよいが、
時空間マップの範囲が大きい場合はそれでも解像度が不
足する場合がある。そのため、自動追尾ヘッドを使って
全範囲をスキャンし映像を取り込むほうがよい。ヘッド
からの映像は、通常と同じように、3次元座標を使っ
て、変換されマップにマッピングされ、これを背景の静
止画とする。この静止画は背景データテーブル51に蓄
えられる。
(Fourth Embodiment) When the spatiotemporal map is photographed by the virtual camera, there is no problem if the range is narrower than the image obtained by the camera head, but normally the visual field of the virtual camera as shown in FIG. Is wider than the mapped video range. Therefore, in the visual field of the virtual camera, the part 21 having no image is captured. There is no problem if the purpose is measurement, but when used as an image such as broadcasting, the part 21 without the image is unnatural. Therefore, in this example, the image is embedded in the entire space-time map in advance as the background. Since the spatiotemporal map is updated on a field-by-field basis, the background can also be a moving image.
However, it is not efficient because it is necessary to always shoot the entire range in order to make it into a moving image. Also, since it is the target object that is required and not the background, it is preferable to use the background as a still image. The background data controller 50 of the moving image editing unit shown in FIG. 15 performs this processing. Since the background is a still image, it is basically not changed once it is captured. A high-resolution camera such as a high-definition camera may be used for capturing,
If the range of the spatiotemporal map is large, the resolution may still be insufficient. Therefore, it is better to use the automatic tracking head to scan the entire range and capture the image. The image from the head is converted and mapped to a map by using three-dimensional coordinates as usual, and this is used as a background still image. This still image is stored in the background data table 51.

【0058】編集時にマップを切り張りするがそのとき
の背景の処理は、対象物マップとは別に、いくつかの選
択をできるようにしておく。たとえば、水泳の例で、別
のコースの選手をそれとは別のコースへ持っていく場合
などは、背景のマップはそのままとして、選手の映像が
ある対象物マップだけを編集することで、選手だけをコ
ースからコースへ移動させたような映像を得られる。ま
た、ターンの編集のような変形を加えた場合は、背景も
裏返すことで、裏返したということがわかるようにした
ほうが混乱がないこともある。
The map is clipped at the time of editing, but the background processing at that time is set so that some selections can be made separately from the object map. For example, in the case of swimming, if you want to bring a player from a different course to a different course, leave the background map as it is and edit only the object map that contains the player's image. You can get an image of moving from one course to another. Also, if you make a transformation such as editing the turn, it may be more confusing to turn over the background so that you can see that you turned it over.

【0059】背景を取り込む場合は、大抵測定の前にお
こない、さらに、全範囲をスキャンする。このことを利
用して、ホワイトバランス値や、明るさのマップを作成
することもできる。ホワイトバランスの設定は照明光が
均一であれば変える必要はないが、窓からの外光と照明
がまじっていたり、照明に何種類かのランプがまじって
いたりした場合は場所によって照明の色温度が異なる場
合があるからである。また明るさについても、撮影しな
がらその画像から明るさのデータを得ることもできる
が、動く対象物体を追いかける場合、カメラの向きによ
っては直接照明光が入ったり逆光になったりするため画
像だけから明るさ情報をえるのは難しい時がある。また
背景の取り込み時にキャリブレーションをおこなうこと
もできる。ただ、マッピングに3次元座標が必要なた
め、このキャリブレーションの前にも1度最低限のキャ
リブレーションを行っておく必要がある。背景の取り込
みのときのキャリブレーションは、それ以前のたとえば
設置の時のキャリブレーションから後のカメラのずれな
どがないかの確認の意味と、キャリブレーションを繰り
返すことでの統計的処理で精度を向上させる意味が大き
い。
When the background is captured, it is usually performed before the measurement, and further, the entire range is scanned. By utilizing this, it is possible to create a white balance value or brightness map. The white balance setting does not need to be changed if the illumination light is uniform, but if the ambient light from the window is mixed with the illumination, or if several types of lamps are mixed with the illumination, the color temperature of the illumination will vary depending on the location. Because there may be different. Regarding brightness, you can also obtain brightness data from the image while shooting, but when you chase a moving target object, depending on the direction of the camera, the illumination light may enter directly or become backlit, so only from the image. Sometimes it is difficult to get brightness information. It is also possible to calibrate when capturing the background. However, since three-dimensional coordinates are required for mapping, it is necessary to perform minimum calibration once before this calibration. The calibration when capturing the background improves the accuracy by checking whether there is a camera shift after the calibration before installation, for example, and by statistical processing by repeating the calibration. It makes a lot of sense.

【0060】この例では、対象物体それぞれに専用のマ
ップをもっていて、取り込まれた背景は背景専用のマッ
プへマッピングされる。これらは、表示のときに前後関
係をつけられ表示される。図18のように、対象物体1
は対象物体2より手前で、重なった場合は、対象物体1
が見える。また背景は一番奥に配置され対象物体がない
場合だけ表示される。
In this example, each target object has its own map, and the captured background is mapped to the map dedicated to the background. These are displayed in context when displayed. As shown in FIG. 18, the target object 1
Is in front of the target object 2, and when overlapping, the target object 1
Can be seen. The background is placed at the back and is displayed only when there is no target object.

【0061】次に背景と、カメラヘッドで得られた映像
との境目について説明する。前述した例では、カメラヘ
ッドからの映像の範囲がそのまま出力される映像の中に
表示されていた。背景に画像がない場合はもともと不自
然な映像であるから境目は問題とはならない。しかしこ
の例のように、背景をつけて映像としての品位を確保し
た場合は、静止画の背景と動画の映像の境目はそのまま
ではかなり汚くなる。そのため次のような3つのやり方
を対象の性質で使い分ける。まず第1の方法は、図19
のように対象物体だけを映像のなかから抜き出して、対
象物体の境目が背景との境目とする方法である。この場
合映像としては自然になるが、対象物体を映像から抜き
出せることが条件となる。背景が芝生などのように比較
的均一で対象物体と色が異なる場合は、クロマキーのよ
うに色の違いで抜き出せばよい。色の違いや、輝度の違
いをつかっても対象物体を画像から抜き出せない場合
は、第2の方法としては、対象物体の抜き出しに、背景
の情報を使う方法である。カメラヘッドからの映像もそ
れ以前に撮影された背景も、3次元位置に基づいてマッ
ピングされているから、同じ部分を撮影した場合は差は
小さい。カメラヘッドからの映像から、背景を引き去る
と、図20のように対象物体だけが差として抜き出すこ
とができる。ただしこの場合は、背景を撮影した条件と
対象物体を撮影する条件をできる限り同じにしておくこ
とが重要である。プールの背景のような変化するものに
はあまり向かない。また、編集する場合に対象物体のマ
ップと背景のマップを一組にして、同じ操作を行う必要
がある。別の場所で撮影された場合などで、以上の2つ
の方法では対象物体を抜き出せない場合は、第3の方法
として、図21のように境目をぼかす方法をとる。ぼか
しは、2つの映像のデータを比率を変えながら平均する
ことでえられる。ぼかしの形は、対象に応じて画面の縁
の形に沿った矩形のものや楕円などを選ぶ。この方法は
映像としてはあまり美しくないが、上記2つの方法では
できないものでも対応可能である。背景として、上記の
ようなカメラで実際の映像を取り込んだもの以外に、コ
ンピュータグラフィックスのように計算で作り出した映
像を使うこともできる。図22のように、実際には存在
しない、目印としてのグリッドをカメラで取り込んだ背
景に加えることで、図23のように選手の動きがわかり
やすくなる。また、映像効果を高めるために、有名な会
場などの背景を合成することもできる。
Next, the boundary between the background and the image obtained by the camera head will be described. In the above-mentioned example, the range of the image from the camera head is displayed as it is in the output image. If there is no image in the background, it is an unnatural image, so the border does not matter. However, as in this example, when the quality of the image is secured by adding the background, the boundary between the background of the still image and the image of the moving image becomes quite dirty as it is. Therefore, the following three methods are used properly according to the nature of the object. First, the first method is shown in FIG.
In this method, only the target object is extracted from the image and the boundary of the target object is the boundary with the background. In this case, the image becomes natural, but the condition is that the target object can be extracted from the image. If the background is relatively uniform, such as lawn, and has a different color from the target object, it can be extracted with a different color, such as chroma key. If the target object cannot be extracted from the image even if the difference in color or the difference in brightness is used, the second method is to use the background information to extract the target object. Since both the image from the camera head and the background photographed before that are mapped based on the three-dimensional position, the difference is small when the same portion is photographed. When the background is subtracted from the image from the camera head, only the target object can be extracted as a difference as shown in FIG. However, in this case, it is important that the conditions for capturing the background and the conditions for capturing the target object are the same as much as possible. Not very suitable for changing things such as pool backgrounds. Further, when editing, it is necessary to make a set of the map of the target object and the map of the background and perform the same operation. If the target object cannot be extracted by the above two methods, such as when the image is taken in another place, the third method is to blur the boundary as shown in FIG. Blurring can be obtained by averaging the data of the two images while changing the ratio. As the blurring shape, a rectangular shape or an ellipse along the shape of the edge of the screen is selected according to the object. Although this method is not so beautiful as an image, it can be applied even if it is not possible with the above two methods. As a background, in addition to the actual image captured by the camera as described above, an image created by calculation like computer graphics can be used. As shown in FIG. 22, by adding a grid as a mark, which does not actually exist, to the background captured by the camera, the movement of the player can be easily understood as shown in FIG. Also, in order to enhance the image effect, it is possible to synthesize the background of a famous venue or the like.

【0062】(第5実施例)第4実施例で使ったコンピ
ュータグラフィックスを背景だけでなく対象物体として
使うこともできる。コンピュータグラフィックの対象物
体は、カメラヘッドからの対象物体と同様に、対象物体
の時空間マップにマッピングすることで、編集などはま
ったく同じに処理できる。コンピュータグラフィックの
仮想対象物体を動かすことで、実際に撮影された選手と
データだけしかない選手を競争させることができるよう
になる。トータルのタイムしか記録にない場合は、追い
込み型や先行型といったその選手のペース配分によって
予測する。この予測をつかった競泳の編集システムの例
を図24に示す。CRT1からCRT3カメラヘッドか
らの画像モニターである。カメラヘッドのコントロール
は操作卓のSW7で行う。この装置では、自動追尾以外
に予想されたペースにあわせて動かすこともできるよう
になっている。CRT5は制御画面で、時空間マップに
対応する。この場合ほかの選手の状態もわかるように背
景には広角レンズで撮影された動画像をつかっている。
この編集装置では、仮想対象物体をラインで表示するよ
うになっていて、操作卓には仮想対象物体の動きに関し
た各種切り替えスイッチがある。この図では日本記録相
当のタイムを出す標準的なペース配分の選手を仮想対象
物体としその位置をラインで表示している。この仮想対
象物体は複数でもよいから世界記録相当を同時表示して
もよい。編集された画像はCRT4でモニターできる。
(Fifth Embodiment) The computer graphics used in the fourth embodiment can be used not only as a background but also as a target object. Similar to the target object from the camera head, the target object of the computer graphic can be processed in exactly the same way as the target object from the camera head by mapping it on the spatiotemporal map of the target object. By moving the virtual target object of computer graphics, it becomes possible to compete with the player who has only data and the player who was actually photographed. If only the total time is recorded, make a prediction based on the player's pace distribution such as drive-in type or lead type. FIG. 24 shows an example of a swimming race editing system using this prediction. An image monitor from a CRT1 to CRT3 camera head. The camera head is controlled by SW7 on the console. In addition to automatic tracking, this device can also be moved in accordance with the expected pace. The CRT 5 is a control screen and corresponds to the spatiotemporal map. In this case, a moving image shot with a wide-angle lens is used as the background so that the states of other players can be seen.
In this editing apparatus, the virtual target object is displayed in a line, and the console has various changeover switches related to the movement of the virtual target object. In this figure, a player with a standard pace distribution that produces a time equivalent to a Japanese record is set as a virtual target object and its position is displayed as a line. Since this virtual target object may be plural, the world record equivalent may be displayed simultaneously. The edited image can be monitored by CRT4.

【0063】(第6実施例)自動追尾の場合、映像のな
かからきれいに抜き出せるものを対象物体として選ぶ場
合が多い。たとえば運動解析で走っている人を追尾する
とき、対象物体として靴などを選ぶと、図25のように
得られる映像は必要以上の動きをする。ほしい映像は図
26のように人間がカメラを操作したときのようななめ
らかな動きである。追尾のアルゴリズムを変更して、な
めらかな動きを得るようにはできるが、追尾するカメラ
ヘッドの特性などを考慮しなければならず、専用のプロ
グラムとなってしまう。この場合に拘束平面を拘束平面
を走る線を通って地面に垂直な平面として、仮想カメラ
の動きを水平方向に限定し、動きにたいしてフィルター
をかけることで、人間が操作したのと同様ななめらかな
カメラワークの映像を得られる。またこのときの仮想カ
メラの動きをきめるのには、カメラヘッドとは違ってカ
メラの慣性モーターの特性といった実際の物理量を考慮
する必要がないため、簡単である。またヘッドの追尾は
なめらかである必要はなく、対象物体をひたすら追尾す
るため、汎用のヘッドがそのまま使える。ヘッドの設計
もまたひたすら追いかける性能を追及すればよくなり特
性を最大限にチューニングできる。また一度記録したあ
とでカメラワークを変更することも容易である。
(Sixth Embodiment) In the case of automatic tracking, it is often the case that an object that can be beautifully extracted from an image is selected as a target object. For example, when a running person is tracked by a motion analysis and a shoe or the like is selected as the target object, the image obtained as shown in FIG. 25 makes more movement than necessary. The desired image is a smooth movement as when a human operates the camera as shown in FIG. The tracking algorithm can be changed to obtain smooth movement, but the characteristics of the camera head to be tracked must be taken into consideration, and this is a dedicated program. In this case, the constraining plane is a plane perpendicular to the ground through the line running on the constraining plane, and the movement of the virtual camera is limited to the horizontal direction, and by filtering the movement, it is as smooth as human operation. You can get an image of camera work. Further, in order to determine the movement of the virtual camera at this time, unlike the camera head, it is not necessary to consider the actual physical quantity such as the characteristic of the inertia motor of the camera, which is easy. Also, the head does not have to be smoothly tracked, and a general-purpose head can be used as it is because it simply tracks the target object. The design of the head can also be pursued by pursuing the ability to chase after all, and the characteristics can be tuned to the maximum. It is also easy to change the camera work after recording once.

【0064】(第7実施例)通常画像記録装置を用い、
画像記録装置からの出力を編集した場合は、通常の動画
像再生のほかに、ストップモーションや逆再生が可能で
ある。通常の編集機と同様に、ジョグダイヤルやシャト
ルダイヤルを操作して、欲しいフレームを探したり、逆
再生を行うことができる。上述のように本発明では、時
空間マップに画像をマッピングする場合にフィールド単
位で行うため、フィールド単位での静止画や逆再生が可
能である。この場合に、フィールドメモリへの画像の書
き込みを止め、同じデータを繰り返し再生することで静
止画が得られる。また、必要なフィールドの画像および
付帯情報は、記録装置に対して時刻やフィールドナンバ
ーでの指定をすることで読み出すことが可能である。ま
た3次元情報などの付帯情報は、画像の各フィールドに
付随しているから、任意のフィールドを指定した場合で
も時空間マップへのマッピングには問題が生じない。通
常の動画ではフィールドを順番にマッピングしたり、読
み出しているが、この順番を任意に変更することで、た
とえば順番を逆にして、逆再生したり、間隔を変化させ
てスローモーションや早送りなどができる。
(Seventh Embodiment) A normal image recording apparatus is used,
When the output from the image recording device is edited, stop motion and reverse reproduction are possible in addition to normal moving image reproduction. You can use the jog dial or shuttle dial to search for the desired frame and reverse playback, as you would with a normal editing machine. As described above, according to the present invention, when an image is mapped to the spatiotemporal map, the image is mapped on a field-by-field basis, so that a still image or reverse reproduction can be performed on a field-by-field basis. In this case, a still image can be obtained by stopping writing the image in the field memory and replaying the same data repeatedly. Further, the image of the required field and the additional information can be read out by designating the time or field number to the recording device. Further, since the supplementary information such as three-dimensional information is attached to each field of the image, there is no problem in mapping on the spatiotemporal map even when an arbitrary field is designated. In a normal video, fields are mapped and read in order, but by changing this order arbitrarily, you can reverse the order and play backwards, or change the interval to perform slow motion, fast forward, etc. it can.

【0065】さらに、本発明では、時空間マップへの画
像のマッピングと、仮想カメラによる変換マトリクスの
計算とは、独立に制御できるから、たとえば、画像を静
止画としたままで、仮想カメラだけを移動したりでき
る。これによって、映像をスローモーションで動かし、
仮想カメラの位置や方向、ズームなどを変化させて位置
関係などを強調することで、いわゆる「見せ場」の演出
効果を得ることができる。たとえば、上述の水泳につい
て最後のタッチの瞬間の画像を対象として時空間マップ
に投影された画像を仮想カメラの位置を移動させ、ある
いは異なる位置から、あるいはズームなど変化させて撮
った画像に変換させて見せることが可能である。
Further, according to the present invention, the mapping of the image onto the spatiotemporal map and the calculation of the conversion matrix by the virtual camera can be controlled independently, so that, for example, the image remains a still image and only the virtual camera is used. You can move around. This will move the video in slow motion,
By changing the position, direction, zoom, etc. of the virtual camera to emphasize the positional relationship and the like, it is possible to obtain a so-called “showing place” effect. For example, with respect to the above-mentioned swimming, the image projected on the spatiotemporal map for the image of the last touch is converted to an image taken by moving the position of the virtual camera or changing it from a different position or zooming. It is possible to show it.

【0066】[0066]

【発明の効果】以上説明したように、本発明は時空間マ
ップに投影された画像に対する仮想カメラという概念を
用いることにより、任意の空間位置あるいは任意の時間
軸により、時空間マップ上に投影された動画像を変換す
ることが可能となる。
As described above, according to the present invention, by using the concept of the virtual camera for the image projected on the spatiotemporal map, the image is projected on the spatiotemporal map at any spatial position or at any time axis. It is possible to convert moving images.

【0067】これにより、本発明は、(1)観察者が求
める任意の切り口での動画像を得ることができるので、
動作解析の対象の移動物体の解析が容易になる、(2)
複数の移動物体の比較が容易になる、(3)異なる時間
あるいは異なる空間位置にある移動物体を同じ時刻で比
較することができる、(4)比較対象になる日本記録や
世界記録等のペース配分と比べて現在の対象物体がどの
ような位置にあるかを容易に認識できる、(5)背景を
用いることにより、仮想カメラで撮影編集した動画像が
不自然ではない画像として放送に用いることができる、
などの効果がある。
As a result, according to the present invention, (1) it is possible to obtain a moving image at an arbitrary cut point that the observer desires.
It makes it easy to analyze the moving object that is the target of motion analysis, (2)
It is easy to compare multiple moving objects, (3) Moving objects at different times or different spatial positions can be compared at the same time, and (4) Pace allocation such as Japanese or world records to be compared. Compared with the above, it is possible to easily recognize the position of the current target object. (5) By using the background, the moving image captured and edited by the virtual camera can be used for broadcasting as an image that is not unnatural. it can,
And so on.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明第1実施例の動画像処理装置の構成を示
すブロック図。
FIG. 1 is a block diagram showing the configuration of a moving image processing apparatus according to a first embodiment of the present invention.

【図2】第1実施例の処理の対象となる動画像を撮影す
る様子を示す図。
FIG. 2 is a diagram showing how a moving image to be processed by the first embodiment is photographed.

【図3】本発明の時空間マップを説明する図。FIG. 3 is a diagram illustrating a spatiotemporal map of the present invention.

【図4】本発明の時空間マップ上にカメラヘッドで撮影
された画像を投影する原理を説明する図。
FIG. 4 is a diagram illustrating a principle of projecting an image captured by a camera head on a spatiotemporal map of the present invention.

【図5】本発明の時空間マップ上に投影された画像を仮
想カメラで撮影する原理を説明する図。
FIG. 5 is a diagram illustrating the principle of capturing an image projected on a spatiotemporal map of the present invention with a virtual camera.

【図6】第1実施例の時空間マップの空間の切り張りを
説明する図。
FIG. 6 is a diagram for explaining space cutting of the spatiotemporal map according to the first embodiment.

【図7】第1実施例のコースが異なる対象物体を仮想カ
メラによって撮影した様子を説明する図。
FIG. 7 is a diagram illustrating a state in which target objects having different courses according to the first embodiment are photographed by a virtual camera.

【図8】第1実施例の異なる時間の画像の時空間マップ
を説明する図。
FIG. 8 is a diagram illustrating a spatiotemporal map of images at different times according to the first embodiment.

【図9】第1実施例の異なる時間での時空間マップの空
間の切り張りを説明する図。
FIG. 9 is a diagram for explaining space cutting of a spatiotemporal map at different times according to the first embodiment.

【図10】異なるカメラヘッドからの映像信号の時間ず
れを説明する図。
FIG. 10 is a diagram illustrating a time shift of video signals from different camera heads.

【図11】仮想カメラによる異なる時間軸による画像を
時空間マップ上で時間軸を合わせる様子を説明する図。
FIG. 11 is a diagram illustrating a manner in which images on different time axes by a virtual camera are aligned with each other on the spatiotemporal map.

【図12】ターンの前と後とをカメラヘッドで撮影する
様子を示す図。
FIG. 12 is a diagram showing how the camera head photographs before and after a turn.

【図13】ターンの前と後との時空間マップの空間の切
り張りを説明する図。
FIG. 13 is a diagram for explaining space cutting of a spatiotemporal map before and after a turn.

【図14】ターンの前と後とを仮想カメラによって撮影
した様子を示す図。
FIG. 14 is a diagram showing a state in which a virtual camera images the front and the rear of a turn.

【図15】動画像編集部のハードウエア構成を示すブロ
ック図。
FIG. 15 is a block diagram showing a hardware configuration of a moving image editing unit.

【図16】出力画像のラスタースキャンを説明する図。FIG. 16 is a diagram illustrating raster scanning of an output image.

【図17】第3実施例の時空間マップが表示されたカメ
ラの例を示す図。
FIG. 17 is a diagram showing an example of a camera on which a spatiotemporal map of the third embodiment is displayed.

【図18】第4実施例の背景画像を含む時空間マップを
説明する図。
FIG. 18 is a diagram illustrating a spatiotemporal map including a background image according to the fourth embodiment.

【図19】第4実施例の背景画像と合成された画像の一
例を示す図。
FIG. 19 is a diagram showing an example of an image combined with the background image of the fourth embodiment.

【図20】第4実施例の背景画像との合成を説明する時
空間マップを説明する図。
FIG. 20 is a diagram illustrating a spatiotemporal map for explaining composition with a background image according to the fourth embodiment.

【図21】第4実施例のぼかしを入れて背景画像と合成
された画像の一例を示す図。
FIG. 21 is a diagram showing an example of an image combined with a background image with blurring according to the fourth embodiment.

【図22】第4実施例のグリットの背景画像を作成した
時空間マップを説明する図。
FIG. 22 is a diagram illustrating a spatiotemporal map in which a grit background image according to the fourth embodiment is created.

【図23】第4実施例のグリットの背景画像とコンピュ
ータグラフィックスとを合わせて合成した画面例を示す
図。
FIG. 23 is a diagram showing an example of a screen in which a grit background image and computer graphics of the fourth embodiment are combined and combined.

【図24】第5実施例の画像合成を説明する図。FIG. 24 is a diagram illustrating image composition of the fifth embodiment.

【図25】第6実施例のカメラで撮影された時空間マッ
プ上の画像例を示す図。
FIG. 25 is a diagram showing an example of an image on the spatiotemporal map captured by the camera of the sixth embodiment.

【図26】第6実施例の滑らかな動きの仮想カメラによ
る画像に変換された画像例を示す図。
FIG. 26 is a diagram showing an example of an image converted into an image by a smooth-motion virtual camera according to the sixth embodiment.

【符号の説明】[Explanation of symbols]

1 カメラヘッド 2 データ記録部 3 動画像編集部 4 タイムベースユニット 5 ストップウォッチ 6 平面 7 対象物体(選手) 31、32 入力 33、34、40 マトリクス係数演算回路 35、36 フレームメモリ 37、38 書き込みアドレスカウンタ 39 仮想カメラコントローラ 41 編集コントローラ 42、43 マトリクス演算回路 44 読み出しアドレスカウンタ 45 マトリクス計算回路 46、47 アドレス計算回路 48 アドレスマネジャ回路 49 データセレクタ回路 50 背景データコントローラ 51 背景データテーブル 1 Camera Head 2 Data Recording Section 3 Moving Image Editing Section 4 Time Base Unit 5 Stopwatch 6 Plane 7 Target Object (Athlete) 31, 32 Input 33, 34, 40 Matrix Coefficient Calculation Circuit 35, 36 Frame Memory 37, 38 Write Address Counter 39 Virtual camera controller 41 Editing controller 42, 43 Matrix operation circuit 44 Read address counter 45 Matrix calculation circuit 46, 47 Address calculation circuit 48 Address manager circuit 49 Data selector circuit 50 Background data controller 51 Background data table

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 1または複数の移動物体を撮像し当該移
動物体の3次元空間情報とともに出力する撮像手段と、 この撮像手段の出力画像を処理して編集する動画像編集
手段とを備えた動画像処理装置において、 前記動画像編集手段は、 撮像された移動物体の画像を前記3次元空間情報および
当該画像の時間情報に基づいて前記移動物体が移動する
時空間に相当する時空間マップに投影した画像である時
空間マップ画像を生成する時空間マップ画像生成手段
と、 前記移動物体の時空間マップ画像を異なる時間または異
なる空間位置から撮像された画像に変換する画像変換手
段とを備えたことを特徴とする動画像処理装置。
1. A moving image including an image pickup means for picking up one or a plurality of moving objects and outputting together with three-dimensional spatial information of the moving objects, and a moving image editing means for processing and editing an output image of the image pickup means. In the image processing device, the moving image editing means projects the captured image of the moving object on a spatiotemporal map corresponding to a spatiotemporal space in which the moving object moves based on the three-dimensional space information and time information of the image. A spatio-temporal map image generating unit that generates a spatio-temporal map image that is a captured image, and an image converting unit that converts the spatio-temporal map image of the moving object into an image captured from different time or different spatial position. And a moving image processing device.
【請求項2】撮像手段の撮像した移動物体の画像を移動
物体の3次元空間情報および当該画像にかかわる時間情
報とともに記録する画像記録手段を備え、 動画像編集手段は、この画像記録手段の記録された移動
物体の画像または前記撮像手段の画像を処理して編集す
る手段を含む請求項1記載の動画像処理装置。
2. An image recording means for recording an image of a moving object picked up by an image pickup means together with three-dimensional spatial information of the moving object and time information relating to the image, and the moving image editing means records the image of the image recording means. 2. The moving image processing apparatus according to claim 1, further comprising means for processing and editing the captured image of the moving object or the image of the imaging means.
【請求項3】 同一時空間マップ上の複数の移動物体の
時空間マップ画像について、離れた空間位置にある移動
物体についてその時空間マップ上の空間位置を移動させ
てから、撮像された画像に変換する手段を含む請求項1
または2記載の動画像処理装置。
3. Regarding the spatiotemporal map images of a plurality of moving objects on the same temporary space map, the spatial positions on the spatiotemporal map of moving objects at distant spatial positions are moved, and then converted into imaged images. Claim 1 including means for
Alternatively, the moving image processing device according to item 2.
【請求項4】 異なる時間に撮像された同一または異な
る移動物体の複数の時空間マップ画像を時間軸を同じに
し、かつ異なる空間位置になるように時空間マップ上に
配置して撮像した画像に変換する手段を含む請求項1ま
たは2記載の動画像処理装置。
4. A plurality of spatio-temporal map images of the same or different moving objects imaged at different times have the same time axis and are arranged on the spatio-temporal map so that they are at different spatial positions. The moving image processing apparatus according to claim 1, further comprising a converting unit.
【請求項5】 移動物体の背景画像を撮像された移動物
体とは別に撮影または合成し、この背景画像を前記移動
物体の時空間マップ画像が変換された画像を変換された
画像と合成する手段を含む請求項1ないし4のいずれか
記載の動画像処理装置。
5. A means for capturing or synthesizing a background image of a moving object separately from the captured moving object, and synthesizing this background image with the transformed image of the spatiotemporal map image of the moving object. The moving image processing apparatus according to claim 1, further comprising:
【請求項6】 背景にペース配分の知られた記録の移動
状態を表示する請求項5記載の動画像処理装置。
6. The moving image processing apparatus according to claim 5, wherein a moving state of a record whose pace distribution is known is displayed on the background.
【請求項7】 撮像された移動物体とは別にその移動特
性データが明らかな仮想の移動物体の画像と前記画像変
換された移動物体の画像とを合成する手段を含む請求項
1または2記載の動画像処理装置。
7. The method according to claim 1, further comprising means for synthesizing an image of a virtual moving object whose movement characteristic data is distinct from the imaged moving object and the image of the image-converted moving object. Video processing device.
【請求項8】 画像変換手段は、時空間マップ上の移動
物体の画像をカメラが一方向に滑らかに移動するように
撮像した画像に変換する手段を含む請求項1または2記
載の動画像処理装置。
8. The moving image processing according to claim 1, wherein the image converting means includes means for converting an image of a moving object on the spatiotemporal map into an image captured so that the camera smoothly moves in one direction. apparatus.
【請求項9】時空間マップ画像生成手段は、画像記録手
段に記録された画像について実時間間隔とは異なる時間
間隔で読み出された画像またはその読み出し時間順序を
逆転して読み出された画像を時空間マップに投影して時
空間マップ画像を生成する手段を含み、 画像変換手段は、この時空間マップ画像を投影時とは異
なる時間間隔であるいは異なる空間位置から撮像した画
像に変換する手段を含む請求項2記載の動画像処理装
置。
9. The spatiotemporal map image generation means reads an image recorded in the image recording means at an interval different from the actual time interval or an image read out by reversing the order of the readout time. To a spatiotemporal map to generate a spatiotemporal map image, and the image conversion means converts the spatiotemporal map image into an image picked up at a different time interval from the time of projection or from a different spatial position. The moving image processing apparatus according to claim 2, further comprising:
【請求項10】 画像変換手段は、時空間マップに投影
された移動物体の1枚の時空間マップ画像について当該
移動物体に対する空間位置を移動させて撮像した画像に
変換する手段を含む請求項2記載の動画像処理装置。
10. The image conversion means includes means for converting one spatiotemporal map image of a moving object projected on a spatiotemporal map into a captured image by moving a spatial position with respect to the moving object. The moving image processing apparatus described.
JP22136393A 1993-09-06 1993-09-06 Moving image processing device Expired - Fee Related JP3388827B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP22136393A JP3388827B2 (en) 1993-09-06 1993-09-06 Moving image processing device
PCT/JP1994/001462 WO1995007590A1 (en) 1993-09-06 1994-09-05 Time-varying image processor and display device
EP94925627A EP0669758B1 (en) 1993-09-06 1994-09-05 Time-varying image processor and display device
DE69423338T DE69423338T2 (en) 1993-09-06 1994-09-05 PROCESSING AND DISPLAY DEVICE FOR TIME VARIABLE IMAGES

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP22136393A JP3388827B2 (en) 1993-09-06 1993-09-06 Moving image processing device

Publications (2)

Publication Number Publication Date
JPH0779382A true JPH0779382A (en) 1995-03-20
JP3388827B2 JP3388827B2 (en) 2003-03-24

Family

ID=16765625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22136393A Expired - Fee Related JP3388827B2 (en) 1993-09-06 1993-09-06 Moving image processing device

Country Status (1)

Country Link
JP (1) JP3388827B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998345A (en) * 1995-10-02 1997-04-08 Dainippon Printing Co Ltd Image display device
JP2008194095A (en) * 2007-02-08 2008-08-28 Nippon Hoso Kyokai <Nhk> Mileage image generator and generation program
JP2010071687A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Program for analysis of moving image data
JP2011249962A (en) * 2010-05-25 2011-12-08 Nippon Hoso Kyokai <Nhk> Image composition device and its program
JP2022077706A (en) * 2020-11-12 2022-05-24 独立行政法人日本スポーツ振興センター Position measurement system and position measurement method
WO2022230718A1 (en) * 2021-04-27 2022-11-03 キヤノン株式会社 Information processing device, information processing method, and program
WO2022244655A1 (en) * 2021-05-17 2022-11-24 京セラ株式会社 Observation device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0998345A (en) * 1995-10-02 1997-04-08 Dainippon Printing Co Ltd Image display device
JP2008194095A (en) * 2007-02-08 2008-08-28 Nippon Hoso Kyokai <Nhk> Mileage image generator and generation program
JP2010071687A (en) * 2008-09-16 2010-04-02 Shinano Kenshi Co Ltd Program for analysis of moving image data
JP2011249962A (en) * 2010-05-25 2011-12-08 Nippon Hoso Kyokai <Nhk> Image composition device and its program
JP2022077706A (en) * 2020-11-12 2022-05-24 独立行政法人日本スポーツ振興センター Position measurement system and position measurement method
WO2022230718A1 (en) * 2021-04-27 2022-11-03 キヤノン株式会社 Information processing device, information processing method, and program
WO2022244655A1 (en) * 2021-05-17 2022-11-24 京セラ株式会社 Observation device

Also Published As

Publication number Publication date
JP3388827B2 (en) 2003-03-24

Similar Documents

Publication Publication Date Title
Gibbs et al. Virtual studios: An overview
EP0669758B1 (en) Time-varying image processor and display device
US7928976B2 (en) Telestrator system
JP4153146B2 (en) Image control method for camera array and camera array
US7680411B2 (en) Imaging optical system for multi-focus camera
US9325934B2 (en) Image processing system and method
US6741250B1 (en) Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
Bradley et al. Synchronization and rolling shutter compensation for consumer video camera arrays
US20130141521A1 (en) Image processing system and method
JP3526896B2 (en) Moving image processing device
WO2016139898A1 (en) Video processing apparatus, video processing system and video processing method
WO2001028309A2 (en) Method and system for comparing multiple images utilizing a navigable array of cameras
EP0993204B1 (en) Chroma keying studio system
JP3388827B2 (en) Moving image processing device
WO2002087218A2 (en) Navigable camera array and viewer therefore
WO1990016131A1 (en) Digital video recording
JP4903358B2 (en) Imaging apparatus and method
JPH1042307A (en) Key system and synthetic image forming method
JP3948050B2 (en) Imaging, storage, processing, display, playback, transmission device and recording medium
JPH07105400A (en) Motion picture reproducing device
EP0474483A2 (en) High speed image pickup system
JP7476160B2 (en) Information processing device, information processing system, and program
JP2003338977A (en) Imaging apparatus and method of compositing image
Thomas Motion-compensated matteing
JPH0738793A (en) Video camera device

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20090117

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 6

Free format text: PAYMENT UNTIL: 20090117

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090117

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 7

Free format text: PAYMENT UNTIL: 20100117

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110117

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20120117

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120117

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20130117

LAPS Cancellation because of no payment of annual fees