JP2000115672A - Video data processing method, video data processor and video data reproducing device - Google Patents

Video data processing method, video data processor and video data reproducing device

Info

Publication number
JP2000115672A
JP2000115672A JP10282902A JP28290298A JP2000115672A JP 2000115672 A JP2000115672 A JP 2000115672A JP 10282902 A JP10282902 A JP 10282902A JP 28290298 A JP28290298 A JP 28290298A JP 2000115672 A JP2000115672 A JP 2000115672A
Authority
JP
Japan
Prior art keywords
data
video data
video
photographing
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10282902A
Other languages
Japanese (ja)
Inventor
Toshiro Tanigawa
敏郎 谷川
Toshiharu Uchida
敏治 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP10282902A priority Critical patent/JP2000115672A/en
Publication of JP2000115672A publication Critical patent/JP2000115672A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To easily reproduce changes in the appearance of a background or the like which accompanies the movement of a camera device in composited video images. SOLUTION: At photographing, photographing data including the information of the position and direction, etc., of the camera device 300 are recorded in a recording medium (DVD-R) 1, together with video data. Then, by using the photographing data obtained by reproducing the DVD-R 1, computer graphic video images are generated. Thus, the movement of the camera device 300 at photographing is reflected on the computer graphic video image, and by compositing the computer graphic video image and the video image obtained by photographing, realistic composited video images are generated.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カメラ装置により
被写体を撮影することによって得られる映像データの記
録、再生および出力を行う映像データ処理方法および映
像データ処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video data processing method and apparatus for recording, reproducing and outputting video data obtained by photographing a subject with a camera device.

【0002】[0002]

【従来の技術】複数の映像を合成するための技術として
クロマキー法が知られている。例えば、背景が青色の空
間内にいる人物をカメラ装置によって撮影し、これによ
り得られた人物の映像を、コンピュータグラフィックな
どで生成した仮想空間の映像と合成する。これにより、
あたかも人物が仮想空間にいるように見える合成映像を
作り出すことができる。このような映像合成技術は、映
画やテレビ番組の制作などに用いられている。
2. Description of the Related Art A chroma key method is known as a technique for synthesizing a plurality of images. For example, a person in a space with a blue background is photographed by a camera device, and the obtained image of the person is combined with an image of a virtual space generated by computer graphics or the like. This allows
It is possible to create a composite image that looks as if a person is in a virtual space. Such a video synthesizing technique is used for producing a movie or a television program.

【0003】[0003]

【発明が解決しようとする課題】ところで、人物を、そ
の人物の周囲にある現実の背景と共に撮影する場合(即
ち、普通に撮影する場合)、人物の動きに合わせてカメ
ラ装置の位置や方向を変えると、それに伴ってカメラ装
置のレンズを通して見える風景の見え方も変わる。例え
ば、左方向に移動する人物に追従するようにカメラ装置
を左方向に移動させれば、レンズを通して見える背景の
見え方もそれに伴って変わる。同様に、左方向に移動す
る人物に追従するようにカメラ装置を左方向に回転させ
れば、レンズを通して見える背景の見え方もそれに伴っ
て変わる。また、人物に対するカメラアングルを変えれ
ば、人物の見え方が変わると共に、その人物の後ろ側に
ある背景の見え方も変わる。
When a person is photographed together with a real background around the person (that is, when photographing normally), the position and direction of the camera device are adjusted in accordance with the movement of the person. When it is changed, the appearance of the scene seen through the lens of the camera device changes accordingly. For example, if the camera device is moved to the left so as to follow a person moving to the left, the appearance of the background seen through the lens changes accordingly. Similarly, if the camera device is rotated leftward so as to follow a person moving leftward, the appearance of the background seen through the lens changes accordingly. Changing the camera angle for a person changes the appearance of the person, and also changes the appearance of the background behind the person.

【0004】このようなカメラ装置の動きに伴う背景の
見え方の変化を上述したような合成映像の中で再現する
ためには、撮影時のカメラ装置の動きに合わせて仮想の
背景映像を計画的に変化させる必要がある。従来では、
撮影時のカメラ装置の動きパターンなどを予め計画して
おき、その計画に従って撮影を行い、さらに、その計画
に従って仮想の背景映像を作成し、その後、撮影によっ
て得られた映像と仮想の背景映像を合成していた。しか
しながら、このような作業は、たいへんな手間と時間が
かかるという問題がある。
In order to reproduce such a change in the appearance of the background due to the movement of the camera device in the composite image as described above, a virtual background image is planned in accordance with the movement of the camera device at the time of shooting. Needs to be changed. Traditionally,
The motion pattern of the camera device at the time of shooting is planned in advance, shooting is performed according to the plan, a virtual background image is created according to the plan, and then the image obtained by shooting and the virtual background image are Had been synthesized. However, such a work has a problem that it takes a lot of trouble and time.

【0005】また、このような従来の方法では、綿密な
計画の下に撮影や背景映像の作成を行わなければならな
いため、テレビの生番組などで、人物と仮想の背景映像
との合成映像をリアルタイムで作り出し、カメラ装置の
動きに伴って背景映像をリアルタイムで変化させること
は極めて困難である。
[0005] Further, in such a conventional method, since it is necessary to shoot and create a background image under a thorough plan, a composite image of a person and a virtual background image is used in a live TV program or the like. It is extremely difficult to produce in real time and change the background video in real time with the movement of the camera device.

【0006】また、本出願の発明者は、カメラ装置によ
り被写体を撮影することによって生成される映像と共
に、被写体を撮影しているときのカメラ装置の動きを表
す動き情報を得ることができれば、カメラ装置の動きに
伴う背景の見え方の変化を合成映像の中で比較的容易に
再現することができるという考えに至った。しかしなが
ら、これを実現するためには、映像とカメラ装置の動き
情報とを時間的に対応付けてデータ化する必要があり、
これについては未解決である。さらに、映像とカメラ装
置の動き情報を時間的に対応付けてデータ化するには、
このデータを記録するDVD−Rなどの記録媒体の記録
フォーマットなどを考慮してデータフォーマットを決め
る必要があり、これについては未解決である。
In addition, the inventor of the present application has proposed a camera that can obtain motion information representing the motion of the camera device when the subject is being photographed, together with an image generated by photographing the subject with the camera device. They came to the idea that the change in the appearance of the background due to the movement of the device can be relatively easily reproduced in the synthesized video. However, in order to realize this, it is necessary to temporally associate the video with the motion information of the camera device and convert the data into data.
This is unresolved. Further, in order to temporally correlate the video and the motion information of the camera device into data,
It is necessary to determine the data format in consideration of the recording format of a recording medium such as a DVD-R for recording the data, and this has not been solved.

【0007】本発明は、上述した問題に鑑みなされたも
のであり、本発明の第1の目的は、カメラ装置の動きに
伴う背景などの見え方の変化を合成映像の中で容易に再
現することを可能とする映像データ処理方法および映像
データ処理装置を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems, and a first object of the present invention is to easily reproduce a change in appearance such as a background caused by movement of a camera device in a composite image. It is an object of the present invention to provide a video data processing method and a video data processing device which enable the above.

【0008】第2の目的は、記録媒体の記録フォーマッ
トに合致するように、映像とカメラ装置の動き情報とを
時間的に対応付けてデータ化することができる映像デー
タ処理方法および映像データ処理装置を提供することに
ある。
A second object is to provide a video data processing method and a video data processing apparatus capable of temporally associating video data with motion information of a camera device so as to match the recording format of a recording medium and converting the data into data. Is to provide.

【0009】[0009]

【課題を解決するための手段】上述した課題を解決する
ために、請求項1の発明の映像データ処理方法は、カメ
ラ装置により被写体を撮影することによって生成される
映像データと、被写体を撮影しているときのカメラ装置
の位置を表す位置情報を含む撮影データとを入力する入
力手順と、入力された映像データを所定量蓄積する映像
データ蓄積手順と、映像データ蓄積手順において蓄積さ
れた所定量の映像データに、この所定量の映像データと
時間的に対応する撮影データを付加する付加手順と、撮
影データが付加された映像データを出力する出力手順と
を備えている。
According to a first aspect of the present invention, there is provided a video data processing method comprising the steps of: capturing video data generated by capturing a subject with a camera device; Inputting shooting data including position information indicating the position of the camera device when the camera is turned on, a video data storing procedure for storing a predetermined amount of input video data, and a predetermined amount stored in the video data storing procedure. And an output procedure for outputting the video data to which the predetermined amount of video data is temporally associated, and for outputting the video data to which the video data is added.

【0010】これにより、映像データとカメラ装置の位
置情報とを時間的に対応付けてデータ化することができ
る。従って、映像データに対応したカメラ装置の位置情
報を用いて仮想の背景映像などを作成すれば、カメラ装
置の動きに伴う背景などの見え方の変化を合成映像の中
で容易に再現することができる。
[0010] This makes it possible to temporally associate the video data with the position information of the camera device and convert it into data. Therefore, if a virtual background image or the like is created using the position information of the camera device corresponding to the video data, it is possible to easily reproduce a change in the appearance of the background due to the movement of the camera device in the composite image. it can.

【0011】請求項2の発明の映像データ処理方法は、
上述した請求項1の発明による映像データ処理方法の各
手順に加え、出力手順において出力された、撮影データ
が付加された映像データを記録媒体に記録する記録手順
を備えている。これにより、映像データとカメラ装置の
位置情報とを時間的に対応付けてデータ化することがで
き、このデータを記録媒体の記録フォーマットに沿って
記録することができる。
According to a second aspect of the present invention, there is provided a video data processing method comprising:
In addition to the respective steps of the video data processing method according to the first aspect of the present invention, there is provided a recording procedure for recording the video data, to which the photographing data has been added, output in the output procedure, on a recording medium. As a result, the video data and the position information of the camera device can be temporally associated and converted into data, and the data can be recorded in accordance with the recording format of the recording medium.

【0012】請求項3の発明の映像データ処理方法は、
上述した請求項1または2の発明による映像データ処理
方法の付加手順を、蓄積された所定量の映像データを配
列することによって映像データ群を生成する映像データ
群生成手順と、蓄積された所定量の映像データに時間的
に対応する撮影データを映像データ群に隣接させて配置
する撮影データ配置手順とを有する構成としたものであ
る。これにより、映像データとカメラ装置の位置情報と
を時間的に対応付けてデータ化することができる。
According to a third aspect of the present invention, there is provided a video data processing method comprising:
A video data group generating procedure for generating a video data group by arranging a predetermined amount of stored video data; and And a photographing data arranging procedure for arranging photographing data temporally corresponding to the image data of the image data adjacent to the image data group. This makes it possible to temporally associate the video data with the position information of the camera device and convert it into data.

【0013】請求項4の発明の映像データ処理方法は、
上述した請求項1ないし3のいずれかの発明による映像
データ処理方法の各手順に加え、出力手順において出力
された、撮影データが付加された映像データを受け取
り、この受け取ったデータを、撮影データと映像データ
とに分離する分離手順と、分離された映像データに対応
する第1映像を生成する映像生成手順と、分離された撮
影データに含まれる位置情報に従って、他の映像データ
に基づいて生成された第2映像の位置を設定する位置設
定手順と、第1映像と第2映像とを合成する合成手順と
を備えている。このように、映像データに対応したカメ
ラ装置の位置情報を用いて第2映像を動かすことができ
る。従って、例えば、第2映像が仮想の背景映像である
場合には、カメラ装置の動きに伴う背景の見え方の変化
を容易に作り出すことができる。
According to a fourth aspect of the present invention, there is provided a video data processing method comprising:
In addition to the steps of the video data processing method according to any one of claims 1 to 3, the video data output in the output procedure and to which the imaging data is added is received, and the received data is referred to as the imaging data. A separation procedure for separating video data, a video generation procedure for generating a first video corresponding to the separated video data, and a video stream generated based on other video data according to position information included in the separated shooting data. And a synthesizing procedure for synthesizing the first video and the second video. In this manner, the second video can be moved using the position information of the camera device corresponding to the video data. Therefore, for example, when the second video is a virtual background video, it is possible to easily create a change in the appearance of the background due to the movement of the camera device.

【0014】また、上述した課題を解決するために、請
求項5〜8の各発明による映像データ処理装置は、上述
した請求項1〜4の各発明による映像データ処理方法の
各手順を実現するための手段を備えており、それら各手
段の動作または作用は、上述した各手順と同様である。
Further, in order to solve the above-mentioned problems, a video data processing apparatus according to each of the inventions according to claims 5 to 8 realizes each procedure of the video data processing method according to each of the inventions described above. The operation or action of each of these means is the same as that of each procedure described above.

【0015】請求項9の発明の映像データ再生装置は、
カメラ装置により被写体を撮影することによって生成さ
れる映像データと、被写体を撮影しているときのカメラ
装置の位置を表す位置データを含む撮影データとが記録
された記憶媒体から、これら映像データと撮影データを
読み出す読出手段と、読み出された映像データと撮影デ
ータとを同期させながら出力する出力手段とを備えてい
る。これにより、映像データと、その映像データに時間
的に対応した撮影データとを容易に得ることができる。
従って、この撮影データを用いて仮想の背景映像などを
作成すれば、カメラ装置の動きに伴う背景の見え方の変
化を合成映像の中で容易に再現することができる。
According to a ninth aspect of the present invention, there is provided a video data reproducing apparatus comprising:
The video data generated by photographing the subject with the camera device and the photographing data including the position data representing the position of the camera device at the time of photographing the subject are stored in a storage medium in which the video data and the photographing data are taken. There are provided a reading means for reading data, and an output means for outputting the read video data and the photographing data while synchronizing them. Thereby, it is possible to easily obtain the video data and the photographing data temporally corresponding to the video data.
Therefore, if a virtual background video or the like is created using this photographing data, a change in the appearance of the background due to the movement of the camera device can be easily reproduced in the composite video.

【0016】[0016]

【発明の実施の形態】以下、添付図面に従って本発明の
実施の形態を説明する。なお、以下に述べる実施形態で
は、本発明による映像データ処理方法および映像データ
処理装置を、映像データ処理システムに適用した場合を
例に挙げる。
Embodiments of the present invention will be described below with reference to the accompanying drawings. In the embodiments described below, a case is described in which the video data processing method and the video data processing device according to the present invention are applied to a video data processing system.

【0017】映像データ処理システムは、映像データ記
録システムと映像データ再生システムとを備えている。
映像データ記録システムは、映像データと撮影データと
を取得し、これらのデータを所定のデータフォーマット
を有する記録データに変換し、これを記録媒体に記録
し、または、外部に出力するシステムである。また、こ
の映像データ記録システムは、映像データおよび撮影デ
ータと共に音声データの記録や出力を行うことができ
る。一方、映像データ再生システムは、映像データ記録
システムによって記録媒体に記録された記録データを読
み出し、または、映像データ記録システムから出力され
た記録データを受け取り、この記録データから映像デー
タおよび撮影データを抽出し、これらのデータを用いて
合成映像をリアルタイムに作り出すシステムである。ま
た、映像データ再生システムは、映像データと共に音声
データの再生を行うことができる。
The video data processing system includes a video data recording system and a video data reproduction system.
A video data recording system is a system that acquires video data and photographing data, converts these data into recording data having a predetermined data format, records the data on a recording medium, or outputs the data to the outside. The video data recording system can record and output audio data together with video data and shooting data. On the other hand, the video data reproducing system reads the recording data recorded on the recording medium by the video data recording system, or receives the recording data output from the video data recording system, and extracts the video data and the photographing data from the recording data. Then, the system creates a composite video in real time using these data. Further, the video data reproducing system can reproduce audio data together with video data.

【0018】1.映像データと撮影データ 映像データとは、図1に示すように、カメラ装置300
によって人物などの被写体bを撮影することによって得
られるデータである。個々の映像データは、通常のテレ
ビ画面を形成する場合とほぼ同様に、1フィールドの画
像に対応する。映像データは、カメラ装置300から
0.4秒〜1秒間に例えば60フィールド分出力され
る。なお、後述するように、カメラ装置300に設けら
れたカメラはデジタルカメラであるため、映像データは
デジタルデータである。
1. Video data and shooting data The video data is, as shown in FIG.
Is data obtained by photographing a subject b such as a person. Each piece of video data corresponds to an image of one field almost in the same manner as forming a normal television screen. The video data is output from the camera device 300 for, for example, 60 fields in 0.4 second to 1 second. As described later, since the camera provided in the camera device 300 is a digital camera, the video data is digital data.

【0019】撮影データとは、カメラ装置300の動き
および光学的な設定に関する情報並びに撮影現場の情報
などのデータであり、以下に述べるデータを含んでい
る。なお、撮影データはデジタルデータであり、括弧内
に示した数値は、個々のデータのサイズ(バイト数)を
示している。
The photographing data is data such as information on the movement and optical settings of the camera device 300 and information on the photographing site, and includes the following data. Note that the photographing data is digital data, and the numerical values in parentheses indicate the size (number of bytes) of each data.

【0020】位置データ(12バイト) 方向データ(4バイト) 傾きデータ(2バイト) 距離データ(4バイト) 明るさデータ(4バイト) 色データ(6バイト)Position data (12 bytes) Direction data (4 bytes) Tilt data (2 bytes) Distance data (4 bytes) Brightness data (4 bytes) Color data (6 bytes)

【0021】位置データは、撮影現場におけるカメラ装
置300の位置を3次元で表すデータである。例えば、
図1中のカメラ装置300は3次元空間中の点Cに位置
している。この場合、カメラ装置300の位置データは
(xc,yc,zc)である。
The position data is data representing the position of the camera device 300 at the shooting site in three dimensions. For example,
The camera device 300 in FIG. 1 is located at a point C in a three-dimensional space. In this case, the position data of the camera device 300 is (xc, yc, zc).

【0022】方向データは、カメラ装置300の方向を
3次元で表すデータであり、カメラ装置300の視線極
角(バンク)を表すデータとカメラ装置300の視線方
位角(ヘディング)を表すデータとからなる。視線極角
とは、カメラ装置300の視線と3次元空間のZ軸との
なす角である。これは、カメラ装置300の方向と水平
面とのなす角を意味し、カメラ装置300の上下方向を
特定するものである。また、視線方位角とは、カメラ装
置300の視線と3次元空間のX軸とのなす角である。
これは、水平面上におけるカメラ装置300の方向を意
味し、カメラ装置300の左右方向を特定するものであ
る。例えば、図2に示すように、カメラ装置300の位
置を点C(図2に示す座標の原点)とし、カメラ装置3
00の視線を直線Dとすると、視線極角は直線DとZ軸
とのなす角Bであり、視線方位角は直線DとX軸とのな
す角Hである。
The direction data is data representing the direction of the camera device 300 in three dimensions. The direction data includes data representing the visual line polar angle (bank) of the camera device 300 and data representing the visual line azimuth angle (heading) of the camera device 300. Become. The line-of-sight polar angle is an angle between the line of sight of the camera device 300 and the Z-axis in three-dimensional space. This means the angle between the direction of the camera device 300 and the horizontal plane, and specifies the vertical direction of the camera device 300. The line-of-sight azimuth is an angle formed between the line of sight of the camera device 300 and the X-axis in the three-dimensional space.
This means the direction of the camera device 300 on a horizontal plane, and specifies the left-right direction of the camera device 300. For example, as shown in FIG. 2, the position of the camera device 300 is set to a point C (the origin of the coordinates shown in FIG.
Assuming that the line of sight of 00 is a line D, the line-of-sight polar angle is the angle B between the line D and the Z axis, and the line of sight azimuth is the angle H between the line D and the X axis.

【0023】傾きデータは、図1に示すように、カメラ
装置300の視線を中心軸としたときのカメラ装置30
0の回転角(傾き角)Pを表すデータであり、カメラ装
置の傾き(ピッチ)を表すものである。また、距離デー
タは、図1に示すように、カメラ装置300と被写体b
との距離Qを表すデータである。
As shown in FIG. 1, the inclination data is obtained from the camera device 30 with the line of sight of the camera device 300 as the central axis.
This is data representing the rotation angle (tilt angle) P of 0, and represents the tilt (pitch) of the camera device. Further, the distance data includes, as shown in FIG.
This is data representing the distance Q to.

【0024】明るさデータは、撮影現場に設けられた光
源5の強さ(明るさ)を表すデータである。また、色デ
ータは、光源5の色(RGB)のバランスを表すデータ
である。
The brightness data is data representing the intensity (brightness) of the light source 5 provided at the shooting site. The color data is data representing the balance of the color (RGB) of the light source 5.

【0025】撮影データは、映像データの出力と同期し
て、カメラ装置300から、0.4秒〜1秒の間に60
回出力される。即ち、撮影データは1フィールドに対応
する映像データが出力される度に出力される。従って、
カメラ装置300の動きや撮影現場の光源の状態変化
は、この撮影データに正確に反映される。
In synchronization with the output of the video data, the photographing data is transmitted from the camera device 300 for 60 seconds to 0.4 seconds.
Output twice. That is, the photographing data is output each time the video data corresponding to one field is output. Therefore,
The movement of the camera device 300 and the change in the state of the light source at the shooting site are accurately reflected in the shooting data.

【0026】また、撮影データのデータサイズは、後述
するデータフォーマットとの関係で予め決められてお
り、60フィールド分の映像データに対応する撮影デー
タの合計データサイズが2キロバイト未満となるように
設定されている。例えば、撮影データに含まれる個々の
データのサイズは、上述したように所定のバイト数に設
定されている。このように設定すると、60フィールド
分の映像データに対応する撮影データの合計データサイ
ズは1920バイトとなり、2キロバイト未満となる。
The data size of the photographing data is predetermined in relation to a data format to be described later, and is set so that the total data size of the photographing data corresponding to the video data for 60 fields is less than 2 kilobytes. Have been. For example, the size of each data included in the shooting data is set to a predetermined number of bytes as described above. With this setting, the total data size of the shooting data corresponding to the video data for 60 fields is 1920 bytes, which is less than 2 kilobytes.

【0027】なお、撮影データには上述したデータの他
に、カメラ装置のズーム、パン、アイリス、シャッター
スピードおよびレンズなどに関するデータを含めてもよ
い。但し、本実施形態のようにデータサイズに制限があ
る場合には、撮影を行うときに変化する情報を優先して
撮影データに含めることが望ましい。例えば、カメラ装
置の位置および方向は撮影を行うときに頻繁に変化する
ため、カメラ装置の位置および方向に関するデータを撮
影データに含める優先度は高い。これに対し、撮影中に
カメラ装置のレンズを頻繁に取り換えることは希である
ため、レンズに関するデータを撮影データに含める優先
度は低い。
The photographing data may include, in addition to the data described above, data relating to the zoom, pan, iris, shutter speed, lens, and the like of the camera device. However, when the data size is limited as in the present embodiment, it is desirable to preferentially include information that changes at the time of shooting in the shooting data. For example, since the position and direction of the camera device frequently change when shooting is performed, the priority of including data on the position and direction of the camera device in the shooting data is high. On the other hand, since it is rare that the lens of the camera device is frequently replaced during shooting, the priority of including data on the lens in the shooting data is low.

【0028】2.データフォーマット 上述したように、映像データ記録システムは、映像デー
タと撮影データを所定のデータフォーマットに変換し、
記録媒体に記録する。本実施形態では、記録媒体として
DVD−Rを用いる。映像データ記録システムは、図3
に示すように、映像データと撮影データを記録データ1
0に変換する。この記録データ10のデータフォーマッ
トは、DVD規格に基づくDVD−Rの記録フォーマッ
トに合致している。
2. Data Format As described above, the video data recording system converts video data and shooting data into a predetermined data format,
Record on a recording medium. In this embodiment, a DVD-R is used as a recording medium. The video data recording system is shown in FIG.
As shown in FIG.
Convert to 0. The data format of the recording data 10 conforms to the DVD-R recording format based on the DVD standard.

【0029】図3において、記録データ10は、複数の
セル11の配列により構成される。さらに、各セル11
は、複数のVOBU12の配列によって構成される。な
お、セル11は、DVD規格に基づくデータグループで
あり、VOBU12は、DVD規格に基づくより細かい
データグループである。さらに、各VOBU12は、撮
影データパック13、複数のビデオパック14および複
数のオーディオパック15の配列により構成される。撮
影データパック13は、各VOBU12の先頭に配置さ
れ、その内部には撮影データが配置される。各ビデオパ
ック14内には、映像データが配置され、各オーディオ
パック15内には音声データが配置される。なお、各パ
ックは、ヘッダ16と各パックを識別するためのID1
7と、データ本体(例えば、撮影データパック13の場
合には撮影データ18)を配列することによって構成さ
れる。
In FIG. 3, the recording data 10 is composed of an array of a plurality of cells 11. Further, each cell 11
Is constituted by an array of a plurality of VOBUs 12. The cell 11 is a data group based on the DVD standard, and the VOBU 12 is a finer data group based on the DVD standard. Further, each VOBU 12 is configured by an array of shooting data packs 13, a plurality of video packs 14, and a plurality of audio packs 15. The photographing data pack 13 is arranged at the head of each VOBU 12, and photographing data is arranged therein. In each video pack 14, video data is arranged, and in each audio pack 15, audio data is arranged. Each pack has a header 16 and ID 1 for identifying each pack.
7 and a data body (for example, the photographing data 18 in the case of the photographing data pack 13).

【0030】また、各VOBU12には、60フィール
ド分の映像データが含まれる。そして、各VOBU12
に1個ずつ含まれる撮影データパック13には、このV
OBU12に含まれる60フィールド分の映像データに
時間的に対応する撮影データが含まれている。即ち、各
VOBU12は、60フィールド分の映像データを配列
することによって映像データ群を生成し、この映像デー
タ群に含まれるこれら60フィールド分の映像データに
時間的に対応する撮影データ(即ち、撮影時にカメラ装
置300から映像データと同時に出力される撮影デー
タ)を、この映像データ群の先頭に隣接して配置するこ
とによって構成される。このように、映像データとこれ
ら映像データと時間的に対応する撮影データを1つのV
OBU12内に配列することにより、映像データと撮影
データを一体的に削除することや、一体的にコピーする
ことが可能となり、データの編集処理の効率化および簡
単化を図ることができる。
Each VOBU 12 includes video data for 60 fields. And each VOBU12
In the photographing data pack 13 included one by one,
Photographing data temporally corresponding to the video data for 60 fields included in the OBU 12 is included. That is, each VOBU 12 generates a video data group by arranging video data for 60 fields, and captures data (that is, captures) that temporally corresponds to the video data for 60 fields included in the video data group. The photographing data, which is sometimes output simultaneously with the video data from the camera device 300, is arranged adjacent to the head of this video data group. As described above, the video data and the photographing data temporally corresponding to the video data are
By arranging the data in the OBU 12, the video data and the photographed data can be deleted or copied integrally, and the data editing process can be made more efficient and simpler.

【0031】さらに、撮影データパック13のサイズ、
即ち、撮影データパック13に含ませることができる撮
影データのデータサイズは2キロバイト未満に制限され
る。撮影データパック13のサイズを比較的小さいサイ
ズに制限することにより、記録および再生の効率を高め
ることができる。
Further, the size of the photographing data pack 13
That is, the data size of photographing data that can be included in the photographing data pack 13 is limited to less than 2 kilobytes. By limiting the size of the photographing data pack 13 to a relatively small size, recording and reproduction efficiency can be improved.

【0032】3.映像データ記録システム 図4は、本発明の実施形態による映像データ記録システ
ムを示している。まず、図4を参照しつつ、映像データ
記録システムの構成を説明する。
3. Video Data Recording System FIG. 4 shows a video data recording system according to an embodiment of the present invention. First, the configuration of the video data recording system will be described with reference to FIG.

【0033】映像データ記録システムは、図4に示すよ
うに、記録装置100およびカメラ装置300を備えて
いる。
As shown in FIG. 4, the video data recording system includes a recording device 100 and a camera device 300.

【0034】カメラ装置300は、デジタルカメラ30
1およびカメラ位置検出器302を備えている。デジタ
ルカメラ301は、被写体を撮影するための撮影用デジ
タルカメラである。デジタルカメラ301は、撮影時に
おいて、0.4秒〜1秒間に60フィールド分の映像デ
ータを出力する。また、デジタルカメラ301は、映像
データと共に、映像データの出力周期を表す同期信号を
出力する。また、デジタルカメラ301には、マイク
(図示せず)が設けられており、このマイクにより撮影
中の音声を録音する。そして、デジタルカメラ301
は、この音声をデジタルデータ化することによって音声
データを生成して出力する。
The camera device 300 is a digital camera 30
1 and a camera position detector 302. The digital camera 301 is a photographing digital camera for photographing a subject. The digital camera 301 outputs video data for 60 fields in 0.4 second to 1 second during shooting. The digital camera 301 outputs a synchronization signal indicating an output cycle of the video data together with the video data. Also, the digital camera 301 is provided with a microphone (not shown), and the microphone is used to record the sound being captured. And the digital camera 301
Generates and outputs audio data by converting the audio into digital data.

【0035】さらに、デジタルカメラ301は、デジタ
ルカメラ301と被写体との距離を測定し、その測定結
果を距離情報として出力する。なお、デジタルカメラ3
01と被写体との距離は、検出光と光センサ(いずれも
図示せず)を用いた三角測量などの周知の距離測定方法
によって測定することができる。さらにまた、デジタル
カメラ301は、撮影現場の光源の明るさおよびRGB
バランスを検出し、これらの情報を明るさ情報および色
情報として出力する。例えば、デジタルカメラ301
は、光量検出器(図示せず)を備えており、この光量検
出器によって光源の明るさおよびRGBバランスを検出
する。
Further, the digital camera 301 measures the distance between the digital camera 301 and the subject, and outputs the measurement result as distance information. The digital camera 3
The distance between the object 01 and the subject can be measured by a well-known distance measuring method such as triangulation using the detection light and an optical sensor (both not shown). Furthermore, the digital camera 301 has the brightness of the light source at the shooting site and the RGB values.
The balance is detected, and the information is output as brightness information and color information. For example, the digital camera 301
Includes a light amount detector (not shown), and detects the brightness of the light source and the RGB balance by the light amount detector.

【0036】カメラ位置検出器302は、撮影現場にお
けるデジタルカメラ301の位置、方向(視線極角およ
び視線方位角)および傾きを測定する装置である。カメ
ラ位置検出器302は、デジタルカメラ301の位置、
方向および傾きの測定結果を、位置情報、方向情報およ
び傾き情報として出力する。なお、デジタルカメラ30
1の位置、方向および傾きは、例えば、デジタルカメラ
301を支持する台に、ポテンショメータを設け、これ
を用いて測定する方法、デジタルカメラ301などに超
音波センサを設け、これを用いて測定する方法、また
は、検出光と光センサを用いて測定する方法など、周知
の方法を用いて測定することができる。
The camera position detector 302 is a device for measuring the position, direction (line-of-sight polar angle and line-of-sight azimuth) and inclination of the digital camera 301 at the shooting site. The camera position detector 302 detects the position of the digital camera 301,
The direction and tilt measurement results are output as position information, direction information, and tilt information. The digital camera 30
The position, direction, and inclination of 1 can be measured by, for example, providing a potentiometer on a base supporting the digital camera 301 and using the potentiometer, or providing an ultrasonic sensor on the digital camera 301 and the like, and measuring by using this Alternatively, the measurement can be performed using a known method such as a method using a detection light and an optical sensor.

【0037】一方、記録装置100は、撮影データエン
コーダ101、同期信号検出部102、MPEGエンコ
ーダ103,104、パッキングCPU105、バッフ
ァ106、エンコーダ107、データ出力端子108、
波形変換部109、光ピックアップ110およびスピン
ドルモータ111を備えている。
On the other hand, the recording apparatus 100 includes a photographing data encoder 101, a synchronization signal detector 102, MPEG encoders 103 and 104, a packing CPU 105, a buffer 106, an encoder 107, a data output terminal 108,
It includes a waveform converter 109, an optical pickup 110, and a spindle motor 111.

【0038】撮影データエンコーダ101は、カメラ位
置検出器302から出力される位置情報、方向情報およ
び傾き情報、並びに、デジタルカメラ301から出力さ
れる距離情報、明るさ情報および色情報を受け取り、こ
れらの情報を上述した所定のバイト数を有する各種デー
タ、即ち、位置データ、方向データ、傾きデータ、距離
データ、明るさデータおよび色データに変換し、撮影デ
ータを生成するものである。さらに、撮影データエンコ
ーダ101は、同期信号検出部102から出力された同
期信号に従って、撮影データをパッキングCPU105
に向けて出力する。これにより、撮影データは、映像デ
ータに同期して0.4秒〜1秒の間に60回出力され
る。
The photographing data encoder 101 receives the position information, direction information and tilt information output from the camera position detector 302, and the distance information, brightness information and color information output from the digital camera 301, and receives these information. The information is converted into various data having the above-mentioned predetermined number of bytes, that is, position data, direction data, inclination data, distance data, brightness data, and color data to generate photographing data. Further, the photographing data encoder 101 stores the photographing data in accordance with the synchronization signal output from the synchronization signal detecting unit 102.
Output to. Thus, the photographing data is output 60 times in a period of 0.4 second to 1 second in synchronization with the video data.

【0039】同期信号検出部102は、デジタルカメラ
301から映像データと共に出力される同期信号を検出
し、その同期信号を撮影データエンコーダ101に出力
するものである。
The synchronizing signal detecting section 102 detects a synchronizing signal output together with video data from the digital camera 301 and outputs the synchronizing signal to the photographing data encoder 101.

【0040】MPEGエンコーダ103は、デジタルカ
メラ301から同期信号検出部102を介して出力され
る映像データを受け取り、この映像データを、MPEG
(Moving Picture Experts Group)方式を用いて符号化
するものである。一方、MPEGエンコーダ104は、
デジタルカメラ301から出力される音声データを受け
取り、この音声データを、MPEG(Moving Picture E
xperts Group)方式を用いて符号化するものである。
The MPEG encoder 103 receives video data output from the digital camera 301 via the synchronization signal detection unit 102, and converts the video data into an MPEG signal.
(Moving Picture Experts Group). On the other hand, the MPEG encoder 104
The audio data output from the digital camera 301 is received, and the audio data is transferred to an MPEG (Moving Picture E-mail).
xperts Group).

【0041】パッキングCPU105は、撮影データ、
映像データおよび音声データを上述したデータフォーマ
ットに従って配列(パッキング)することにより、記録
データを生成するものである。バッファ106は、パッ
キングCPU15が記録データを生成するときに、撮影
データ、映像データおよび音声データを一時的に蓄積す
るためのメモリである。
The packing CPU 105 stores photographing data,
The recording data is generated by arranging (packing) the video data and the audio data according to the data format described above. The buffer 106 is a memory for temporarily storing shooting data, video data, and audio data when the packing CPU 15 generates recording data.

【0042】エンコーダ107は、記録データに対し
て、エラー検出符号の付加、スクランブル処理、エラー
訂正符号の付加、インターリーブ処理、8/16変調お
よびNRZI(Non Return to Zero Inverse)方式の変
換処理などを施し、記録データをNRZI信号に変換す
るものである。また、エンコーダ107は、記録データ
を所定の通信プロトコルに従った送信信号に変換する機
能を備えている。
The encoder 107 performs processing such as adding an error detection code, scrambling processing, adding an error correction code, interleaving processing, 8/16 modulation, and NRZI (Non Return to Zero Inverse) conversion processing to the recording data. And converts the recording data into an NRZI signal. Further, the encoder 107 has a function of converting the recording data into a transmission signal according to a predetermined communication protocol.

【0043】波形変換部109は、いわゆる記録ストラ
テジを行う回路であり、DVD−R1上に形成されるピ
ットの形状を良好にするために、エンコーダ107から
出力されたNRZI信号の波形を加工する回路である。
The waveform converter 109 is a circuit for performing a so-called recording strategy, and is a circuit for processing the waveform of the NRZI signal output from the encoder 107 in order to improve the shape of pits formed on the DVD-R1. It is.

【0044】光ピックアップ110は、DVD−R1に
向けて光ビームを照射し、この光ビームの照射レベル
を、波形変換部109から出力されたNRZI信号に基
づいて切り換えることにより、記録データをDVD−R
1上に記録するものである。スピンドルモータ111
は、DVD−R1を回転させるためのモータである。
The optical pickup 110 irradiates the DVD-R1 with a light beam, and switches the irradiation level of this light beam based on the NRZI signal output from the waveform conversion unit 109, thereby converting the recording data into a DVD-R1. R
1 is recorded. Spindle motor 111
Is a motor for rotating the DVD-R1.

【0045】次に、映像データ記録システムの動作を説
明する。まず、カメラ装置300を撮影現場に設置す
る。そして、記録装置100にDVD−R1をセット
し、記録装置100の記録動作を開始させる。これによ
り、記録装置100において初期化動作が行われると共
に、DVD−R1が回転する。
Next, the operation of the video data recording system will be described. First, the camera device 300 is installed at the shooting site. Then, the DVD-R1 is set in the recording device 100, and the recording operation of the recording device 100 is started. Thus, the recording apparatus 100 performs the initialization operation and rotates the DVD-R1.

【0046】撮影が開始されると、デジタルカメラ30
1からは、距離情報、明るさ情報、色情報、映像デー
タ、同期信号および音声データが出力され、カメラ位置
検出器302からは、位置情報、方向情報および傾き情
報が出力される。位置情報、方向情報、傾き情報、距離
情報、明るさ情報および色情報は、撮影データエンコー
ダ101によって、それぞれ所定のバイト数を有する位
置データ、方向データ、傾きデータ、距離データ、明る
さデータおよび色データを含む撮影データに変換され、
パッキングCPU105に出力される。映像データは、
同期信号検出部102を通過し、MPEGエンコーダ1
03によって符号化されてパッキングCPU105に出
力される。このとき、同期信号が同期信号検出部102
から撮影データエンコーダ101に供給されることによ
り、撮影データの出力と映像データの出力の同期が図ら
れる。また、音声データは、MPEG104で符号化さ
れてパッキングCPU105に出力される。そして、撮
影データ、映像データおよび音声データは、パッキング
CPU105によって、上述したデータフォーマットに
従って配列(パッキング)され、記録データとしてエン
コーダ107に出力される。さらに、記録データは、エ
ンコーダ107によってNRZI信号に変換され、波形
変換部109を介して光ピックアップ110に供給され
る。これにより、NRZI信号は、光ピックアップ11
0によってDVD−R1上にピットとして記録される。
When the photographing is started, the digital camera 30
1 outputs distance information, brightness information, color information, video data, a synchronization signal, and audio data, and the camera position detector 302 outputs position information, direction information, and tilt information. The position information, the direction information, the inclination information, the distance information, the brightness information, and the color information are obtained by the imaging data encoder 101 using the position data, the direction data, the inclination data, the distance data, the brightness data, and the color each having a predetermined number of bytes. It is converted to shooting data including data,
Output to packing CPU 105. Video data is
After passing through the synchronization signal detection unit 102, the MPEG encoder 1
03 and output to the packing CPU 105. At this time, the synchronization signal is
Is supplied to the imaging data encoder 101, thereby synchronizing the output of the imaging data and the output of the video data. The audio data is encoded by the MPEG 104 and output to the packing CPU 105. The shooting data, video data, and audio data are arranged (packed) by the packing CPU 105 according to the above-described data format, and output to the encoder 107 as recording data. Further, the recording data is converted into an NRZI signal by the encoder 107 and supplied to the optical pickup 110 via the waveform converter 109. Thereby, the NRZI signal is transmitted to the optical pickup 11
0 is recorded as a pit on the DVD-R1.

【0047】また、記録データは、エンコーダ107に
よって所定の通信プロトコルに従った送信信号に変換さ
れ、この送信信号は、エンコーダ107からデータ出力
端子108を介して、外部に出力される。例えば、デー
タ出力端子108と、映像データ再生システムの再生装
置200に設けられたデータ入力端子205とを接続す
れば、送信信号を再生装置200に送ることができる。
The recording data is converted by the encoder 107 into a transmission signal according to a predetermined communication protocol, and the transmission signal is output from the encoder 107 to the outside via the data output terminal 108. For example, if the data output terminal 108 is connected to the data input terminal 205 provided in the playback device 200 of the video data playback system, a transmission signal can be sent to the playback device 200.

【0048】次に、パッキングCPU105の動作につ
いて図5に従って詳しく説明する。まず、パッキングC
PU105は、撮影データエンコーダ101から出力さ
れる撮影データ、MPEGエンコーダ103から出力さ
れる映像データ、および、MPEGエンコーダ104か
ら出力される音声データのうち、いずれかのデータを受
け取る(ステップ11)。次に、パッキングCPU10
5は、受け取ったデータが、撮影データか、映像データ
か、音声データか否かを判定する(ステップ12)。受
け取ったデータが撮影データのときには、パッキングC
PU105は、この撮影データをバッファ106に送
り、バッファ106内の所定のエリアに記憶する(ステ
ップ13)。一方、受け取ったデータが映像データまた
は音声データのときには、パッキングCPU105は、
この映像データまたは音声データをバッファ106に送
り、バッファ106内の所定のエリアに一時的に記憶す
る(ステップ14)。次に、パッキングCPU105
は、1つのVOBUを構成するための撮影データ、映像
データおよび音声データをすべて取得したか否かを判定
する(ステップ15)。即ち、60フィールド分の映像
データ、および、これに対応する撮影データおよび音声
データがすべてバッファ106内に記憶されたか否かを
判定する。これらのデータがすべてバッファ106内に
記憶されたときには、パッキングCPU105は、これ
らのデータをバッファ106から読み出し、上述したデ
ータフォーマットに従って配列し、記録データを生成す
る(ステップ16)。一方、これらのデータがすべてバ
ッファ106内に記憶されていないときには、パッキン
グCPU105は、ステップ11〜15の処理を繰り返
す。
Next, the operation of the packing CPU 105 will be described in detail with reference to FIG. First, packing C
The PU 105 receives one of the photographing data output from the photographing data encoder 101, the video data output from the MPEG encoder 103, and the audio data output from the MPEG encoder 104 (step 11). Next, the packing CPU 10
5 determines whether the received data is photographing data, video data, or audio data (step 12). If the received data is shooting data, packing C
The PU 105 sends the photographing data to the buffer 106 and stores it in a predetermined area in the buffer 106 (Step 13). On the other hand, when the received data is video data or audio data, the packing CPU 105
This video data or audio data is sent to the buffer 106, and is temporarily stored in a predetermined area in the buffer 106 (step 14). Next, the packing CPU 105
Determines whether all the shooting data, video data, and audio data for forming one VOBU have been acquired (step 15). That is, it is determined whether or not the video data for 60 fields and the photographing data and audio data corresponding to the video data have all been stored in the buffer 106. When all the data is stored in the buffer 106, the packing CPU 105 reads the data from the buffer 106, arranges the data according to the above-described data format, and generates print data (step 16). On the other hand, when all these data are not stored in the buffer 106, the packing CPU 105 repeats the processing of steps 11 to 15.

【0049】4.映像データ再生システム 図6は、本発明の実施形態による映像データ再生システ
ムを示している。ここで、図6を参照しつつ、映像デー
タ再生システムの構成を説明する。
4. Video Data Reproduction System FIG. 6 shows a video data reproduction system according to an embodiment of the present invention. Here, the configuration of the video data reproduction system will be described with reference to FIG.

【0050】映像データ再生システムは、図6に示すよ
うに、再生装置200および映像合成装置400を備え
ている。
The video data reproducing system includes a reproducing device 200 and a video synthesizing device 400 as shown in FIG.

【0051】再生装置200は、光ピックアップ20
1、スピンドルモータ202、信号抽出部203、デコ
ーダ204、データ入力端子205、データ処理部20
6、バッファ212、付加情報合成部213およびD/
A変換部214,215を備えている。
The reproducing apparatus 200 includes the optical pickup 20
1, spindle motor 202, signal extraction unit 203, decoder 204, data input terminal 205, data processing unit 20
6, buffer 212, additional information synthesizing section 213 and D /
A conversion units 214 and 215 are provided.

【0052】光ピックアップ201は、記録データに対
応するピットが形成されたDVD−R1に光ビームを照
射し、その反射光を電気信号に変換して出力するもので
ある。スピンドルモータ202は、DVD−R1を回転
させるためのモータである。信号抽出部203は、光ピ
ックアップ201から出力された電気信号から、記録デ
ータを含む再生信号、および、トラッキングサーボ制
御、フォーカシングサーボ制御などを行うための制御信
号を抽出する回路である。
The optical pickup 201 irradiates a DVD-R1 having pits corresponding to recording data with a light beam, converts the reflected light into an electric signal, and outputs the electric signal. The spindle motor 202 is a motor for rotating the DVD-R1. The signal extraction unit 203 is a circuit that extracts a reproduction signal including recording data and a control signal for performing tracking servo control, focusing servo control, and the like, from the electric signal output from the optical pickup 201.

【0053】デコーダ204は、信号抽出部203から
出力された再生信号に対して、8/16復調、デインタ
リーブ処理、エラー検出処理およびエラー訂正処理など
を施し、再生信号を記録データに変換するものである。
また、デコーダ204は、データ入力端子205から入
力された送信信号を記録データに変換する機能を備えて
いる。
The decoder 204 performs 8/16 demodulation, deinterleave processing, error detection processing, error correction processing, and the like on the reproduction signal output from the signal extraction unit 203, and converts the reproduction signal into recording data. It is.
Further, the decoder 204 has a function of converting a transmission signal input from the data input terminal 205 into recording data.

【0054】データ処理部206は、入力制御部20
7、出力制御部208、撮影データデコーダ209,M
PEGデコーダ210および211を有している。入力
制御部207は、デコーダ204から出力された記録デ
ータをVOBU毎に読み込み、VOBUに配列されてい
る撮影データパック、ビデオパックおよびオーディオパ
ックの分離処理などを行う。撮影データデコーダ209
は、撮影データパックに含まれる撮影データを、映像合
成装置400の背景映像生成部401に適したデータに
変換する。MPEGデコーダ210は、ビデオパックに
含まれる映像データをMPEG方式に従って復号化す
る。MPEGデコーダ211は、オーディオパックに含
まれる音声データをMPEG方式に従って復号化する。
出力制御部208は、各デコーダ209、210および
211によって変換または復号化された撮影データ、映
像データおよび音声データを、背景映像生成部401か
ら出力される同期信号に従って出力する。
The data processing unit 206 includes the input control unit 20
7, output control unit 208, photographing data decoder 209, M
PEG decoders 210 and 211 are provided. The input control unit 207 reads the recording data output from the decoder 204 for each VOBU, and performs separation processing of a photographing data pack, a video pack, and an audio pack arranged in the VOBU. Photographing data decoder 209
Converts the shooting data included in the shooting data pack into data suitable for the background video generation unit 401 of the video synthesis device 400. The MPEG decoder 210 decodes the video data included in the video pack according to the MPEG system. The MPEG decoder 211 decodes audio data included in the audio pack according to the MPEG system.
The output control unit 208 outputs the captured data, video data, and audio data converted or decoded by the decoders 209, 210, and 211 according to the synchronization signal output from the background video generation unit 401.

【0055】バッファ212は、データ処理部206内
に設けられた各デコーダ209、210および211に
よって変換または復号化された撮影データ、映像データ
および音声データを一時的に蓄積するためのメモリであ
る。
The buffer 212 is a memory for temporarily storing photographed data, video data, and audio data converted or decoded by the decoders 209, 210, and 211 provided in the data processing unit 206.

【0056】付加情報合成部213は、データ処理部2
06から出力された映像データに字幕などの付加情報を
付加するものである。D/A変換部214は、付加情報
が付加された映像データをデジタル−アナログ変換する
回路である。また、D/A変換部215は、データ処理
部206から出力された音声データをデジタル−アナロ
グ変換する回路である。
The additional information synthesizing unit 213 includes the data processing unit 2
This is to add additional information such as subtitles to the video data output from the device 06. The D / A converter 214 is a circuit that performs digital-to-analog conversion of video data to which additional information has been added. The D / A converter 215 is a circuit that performs digital-to-analog conversion of audio data output from the data processor 206.

【0057】一方、映像合成装置400は、背景映像生
成部401および映像合成器402を備えている。背景
映像生成部401は、例えば、画像生成用のコンピュー
タによって構成されている。背景映像生成部401は、
再生装置200のデータ処理部206から出力される撮
影データを受け取り、これを用いて背景映像を生成す
る。例えば、背景映像を複数のポリゴンによって生成す
る場合、背景映像生成部401は、撮影データに含まれ
る位置データ、方向データおよび傾きデータを用いて下
記の数式1の演算を行うことにより、各ポリゴンの頂点
座標(Xa,Ya,Za)を算出する。
On the other hand, the video synthesizing device 400 includes a background video generation unit 401 and a video synthesizer 402. The background image generation unit 401 is configured by, for example, an image generation computer. The background video generation unit 401
The image data output from the data processing unit 206 of the playback device 200 is received, and a background video is generated using the image data. For example, when the background image is generated by a plurality of polygons, the background image generation unit 401 performs the operation of the following Expression 1 using the position data, the direction data, and the inclination data included in the shooting data, so that each polygon is calculated. The vertex coordinates (Xa, Ya, Za) are calculated.

【0058】[0058]

【数1】Xa = cosΦcosΘ(Xb+Δx)+sinΦcosΘ(Yb+Δy)
-sinΘ(Zb+Δz) Ya = (-sinΦcosΨ+cosΦsinΘsinΨ)(Xb+Δx)+(cosΦc
osΨ+sinΦsinΘsinΨ)(Yb+Δy)+cosΘsinΨ(Zb+Δz) Za = (sinΦsinΨ+cosΦsinΘcosΨ)(Xb+Δx)+(-cosΦs
inΨ+sinΦsinΘcosΨ(Yb+Δy)+cosΘcosΨ(Zb+Δz) 但し、Xa、Ya、Zaは移動後のポリゴンの頂点座
標、Xb、Yb、Zbは移動前のポリゴンの頂点座標、
Δx、Δy、Δzはカメラ装置の前回の位置座標と今回
の位置座標の差分値、Θはカメラ装置の視線極角、Φは
カメラ装置の視線方位角、Ψはカメラの傾きをそれぞれ
表す。
Xa = cosΦcosΘ (Xb + Δx) + sinΦcosΘ (Yb + Δy)
-sinΘ (Zb + Δz) Ya = (-sinΦcosΨ + cosΦsinΘsinΨ) (Xb + Δx) + (cosΦc
osΨ + sinΦ sinΘsinΨ) (Yb + Δy) + cosΘsinΨ (Zb + Δz) Za = (sinΦsinΨ + cosΦsinΘcosΨ) (Xb + Δx) + (-cosΦs
inΨ + sinΦ sinΘcosΨ (Yb + Δy) + cosΘcosΨ (Zb + Δz) where Xa, Ya, Za are the vertex coordinates of the polygon after the movement, Xb, Yb, Zb are the vertex coordinates of the polygon before the movement,
Δx, Δy, and Δz represent the difference between the previous position coordinates and the current position coordinates of the camera device, Θ represents the visual line polar angle of the camera device, Φ represents the visual line azimuth angle of the camera device, and Ψ represents the camera tilt.

【0059】また、背景映像生成部401は、撮影デー
タに含まれる距離データを用いて、背景映像の拡大また
は縮小を行う。さらに、背景映像生成部401は、撮影
データに含まれる明るさデータおよび色データを用いて
背景映像に影をを付けたり、背景映像の明るさや色を設
定する。
The background image generation section 401 enlarges or reduces the background image using the distance data included in the photographing data. Further, the background video generation unit 401 adds a shadow to the background video using the brightness data and the color data included in the shooting data, and sets the brightness and color of the background video.

【0060】さらに、背景映像生成部401は、背景映
像および映像データの合成を行うための同期信号を再生
装置200のデータ処理部206に向けて出力する。一
方、映像合成器402は、映像データに対応する映像と
背景映像とを合成するものである。
Further, background video generating section 401 outputs a synchronizing signal for synthesizing the background video and the video data to data processing section 206 of reproducing apparatus 200. On the other hand, the video synthesizer 402 synthesizes a video corresponding to video data and a background video.

【0061】次に、映像データ再生システムの動作を説
明する。まず、映像合成装置400を起動させると共
に、映像データ記録システムによって記録データが記録
されたDVD−R1を再生装置200にセットし、再生
装置200の再生動作を開始させる。これにより、再生
装置200において初期化動作が行われると共に、DV
D−R1が回転する。
Next, the operation of the video data reproducing system will be described. First, the video synthesizing device 400 is started, and the DVD-R1 on which the recording data is recorded by the video data recording system is set in the reproducing device 200, and the reproducing operation of the reproducing device 200 is started. Thereby, the initialization operation is performed in the playback device 200 and the DV
D-R1 rotates.

【0062】続いて、光ピックアップ201からDVD
−R1に向けて光ビームが照射され、光ビームの反射光
に対応する信号が信号抽出部203に出力される。そし
て、信号抽出部203によって、この信号から再生信号
が抽出され、デコーダ204に出力される。これによ
り、再生信号は、デコーダ204によって記録データに
変換され、データ処理部206に出力される。
Subsequently, a DVD is read from the optical pickup 201.
A light beam is emitted toward −R1, and a signal corresponding to the reflected light of the light beam is output to the signal extraction unit 203. Then, a reproduction signal is extracted from this signal by the signal extraction unit 203 and output to the decoder 204. Thus, the reproduced signal is converted into recording data by the decoder 204 and output to the data processing unit 206.

【0063】データ処理部206に出力された記録デー
タは、入力制御部207によってVOBU毎に読み込ま
れ、撮影データパック、ビデオパックおよびオーディオ
パックに分離される。さらに、撮影データパックに含ま
れる撮影データは、撮影データデコーダ209によって
背景映像合成部401に適したデータに変換され、ビデ
オパックに含まれる映像データは、MPEGデコーダ2
10によって復号化され、オーディオパックに含まれる
音声データは、MPEGデコーダ211によって復号化
される。そして、これら変換または復号化された撮影デ
ータ、映像データおよび音声データは、一時的にバッフ
ァ212に記憶される。バッファ212に記憶された撮
影データ、映像データおよび音声データは、後述する所
定のタイミングで、バッファ212からデータ処理部2
06に呼び戻され、背景映像生成部401から出力され
る同期信号に従って、データ処理部206から1フィー
ルド毎に出力される。
The recording data output to the data processing unit 206 is read for each VOBU by the input control unit 207 and separated into a photographing data pack, a video pack, and an audio pack. Further, the photographing data included in the photographing data pack is converted by the photographing data decoder 209 into data suitable for the background video synthesizing unit 401, and the image data included in the video pack is converted by the MPEG decoder 2.
The audio data included in the audio pack is decoded by the MPEG decoder 211. The converted or decoded shooting data, video data, and audio data are temporarily stored in the buffer 212. The photographing data, video data, and audio data stored in the buffer 212 are transmitted from the buffer 212 to the data processing unit 2 at predetermined timing described later.
In response to the synchronization signal output from the background video generation unit 401, the data is output from the data processing unit 206 for each field.

【0064】続いて、データ処理部206から出力され
た撮影データは、背景映像生成部401に入力される。
これにより、背景映像生成部401によって背景映像が
生成される。また、データ処理部206から出力された
映像データは、付加情報合成部213およびD/A変換
部214を介して映像合成器402に入力される。この
過程で映像データに対応する映像が生成される。そし
て、この映像が、背景映像生成部401によって生成さ
れた背景映像と合成される。また、データ処理部206
から出力された音声データは、D/A変換部215を介
してスピーカなどに送られる。
Subsequently, the photographing data output from the data processing unit 206 is input to the background video generation unit 401.
As a result, the background image is generated by the background image generation unit 401. The video data output from the data processing unit 206 is input to the video synthesizer 402 via the additional information synthesis unit 213 and the D / A conversion unit 214. In this process, an image corresponding to the image data is generated. Then, this video is combined with the background video generated by the background video generation unit 401. Also, the data processing unit 206
Is output to a speaker or the like via the D / A converter 215.

【0065】一方、映像データ再生システムは、再生装
置200のデータ入力端子205と、映像データ記録シ
ステムの記録装置100に設けられたデータ出力端子1
08とを接続することにより、記録装置100から出力
される送信信号を再生装置200に取り込むことができ
る。この場合、記録装置100から出力された送信信号
は、再生装置200のデータ入力端子205からデコー
ダ204に入力され、デコーダ204によって記録デー
タに変換される。そして、この記録データは、データ処
理部206に出力される。以降、この記録データに対し
て上述した処理と同様の処理が行われ、合成映像の生成
および音声の再生が行われる。
On the other hand, the video data reproducing system has a data input terminal 205 of the reproducing device 200 and a data output terminal 1 provided in the recording device 100 of the video data recording system.
08, the transmission signal output from the recording device 100 can be taken into the reproducing device 200. In this case, the transmission signal output from the recording device 100 is input to the decoder 204 from the data input terminal 205 of the reproducing device 200, and is converted into recording data by the decoder 204. Then, the recording data is output to the data processing unit 206. Thereafter, the same processing as the above-described processing is performed on the recording data, and the generation of the composite video and the reproduction of the audio are performed.

【0066】次に、データ処理部206から出力される
撮影データ、映像データおよび音声データの出力タイミ
ングについて図7に従って説明する。図7は、背景映像
生成部401から出力される同期信号、および、データ
処理部206からそれぞれ出力される撮影データ、映像
データおよび音声データの出力タイミングを示してい
る。図7に示すように、同期信号は、立ち下がりから次
の立ち下がりまでが1クロックサイクルである。映像デ
ータは、この同期信号に同期して1フィールド毎に出力
される。これと同様に、音声データも、同期信号に同期
して出力される。一方、撮影データも同期信号のクロッ
クサイクルに従って周期的に出力される。しかしなが
ら、撮影データは、映像データおよび音声データより
も、同期信号の1/2クロックサイクル分早い時点で出
力される。これは、背景映像生成部401がデータ処理
部206から出力された撮影データを受け取り、この撮
影データを用いて背景映像を生成し終えるまでに必要な
時間を考慮したものである。これにより、データ処理部
206から映像データおよび音声データが出力されるタ
イミングと、背景映像生成部401から背景映像が出力
されるタイミングを一致させることができる。
Next, the output timing of the photographing data, video data and audio data output from the data processing section 206 will be described with reference to FIG. FIG. 7 shows the output timings of the synchronization signal output from the background video generation unit 401 and the shooting data, video data, and audio data output from the data processing unit 206, respectively. As shown in FIG. 7, the synchronization signal has one clock cycle from one fall to the next fall. The video data is output for each field in synchronization with the synchronization signal. Similarly, the audio data is output in synchronization with the synchronization signal. On the other hand, photographing data is also output periodically according to the clock cycle of the synchronization signal. However, the photographing data is output at a point earlier than the video data and the audio data by 1/2 clock cycle of the synchronization signal. This takes into account the time required for the background video generation unit 401 to receive the imaging data output from the data processing unit 206 and to finish generating the background video using this imaging data. Accordingly, the timing at which the video data and the audio data are output from the data processing unit 206 and the timing at which the background video is output from the background video generation unit 401 can be matched.

【0067】かくして、本発明の実施形態によれば、撮
影データを用いて背景映像を生成することにより、撮影
時のカメラ装置300の動きに伴う背景の見え方の変化
を、合成映像の中で容易に再現することができる。
Thus, according to the embodiment of the present invention, the background image is generated using the photographing data, so that the change in the appearance of the background due to the movement of the camera device 300 at the time of photographing can be recognized in the composite image. It can be easily reproduced.

【0068】例えば、クロマキー法を用いて人物を撮影
し、このときカメラ装置300から得られた映像データ
と、これら映像データと時間的に対応する撮影データと
を記録装置100によってDVD−R1に記録する。次
に、記録データが記録されたDVD−R1を再生装置2
00によって再生する。そして、映像合成装置400に
おいて、再生装置200から得られる撮影データを用い
て仮想の背景映像を生成し、この背景映像と、再生装置
200から出力される映像データに対応する映像とを合
成する。これにより、カメラ装置の動き、カメラアング
ルの変化、ズームアップなどの撮影効果が、実際に撮影
した映像に現れるだけでなく、仮想の背景映像にも現
れ、実写映像と仮想映像とが一体化したリアルな合成映
像を作り出すことができる。
For example, a person is photographed using the chroma key method, and video data obtained at this time from the camera device 300 and photographed data temporally corresponding to the video data are recorded on the DVD-R 1 by the recording device 100. I do. Next, the DVD-R 1 on which the recording data has been recorded
Reproduce by 00. Then, the video synthesizing device 400 generates a virtual background video using the photographed data obtained from the reproducing device 200, and synthesizes the background video with the video corresponding to the video data output from the reproducing device 200. As a result, shooting effects such as movement of the camera device, changes in the camera angle, and zoom-up appear not only in the actually shot video but also in the virtual background video, and the live-action video and the virtual video are integrated. Realistic composite images can be created.

【0069】また、撮影時にカメラ装置300の動きな
どが撮影データとしてDVD−R1に記録されるため、
DVD−R1を再生するだけで、人物の映像と背景映像
とが一体化したリアルな合成映像を自動的に作り出すこ
とができる。
Further, since the movement of the camera device 300 and the like at the time of photographing are recorded as photographing data on the DVD-R1,
By simply playing back the DVD-R1, a realistic composite video in which the video of the person and the background video are integrated can be automatically created.

【0070】さらに、上述した実施形態による記録装置
100は、映像データおよび撮影データを含む記録デー
タをデータ出力端子108を介して直接、外部に出力す
ることができる。また、再生装置200は、この記録デ
ータをデータ入力端子205を介して直接、取り込むこ
とができる。これにより、撮影とほぼ同時に、合成映像
の生成を行うことができる。従って、テレビの生番組な
どで、人物と仮想の背景映像との合成映像をリアルタイ
ムで作り出し、カメラ装置の動きに伴って背景映像をリ
アルタイムで変化させるといった特殊効果を容易に作り
出すことができる。
Further, the recording apparatus 100 according to the above-described embodiment can directly output recording data including video data and photographing data to the outside via the data output terminal 108. Further, the reproducing device 200 can directly take in the recorded data via the data input terminal 205. This makes it possible to generate a composite video almost simultaneously with shooting. Therefore, it is possible to easily create a special effect such as producing a composite video of a person and a virtual background video in real time in a live TV program and changing the background video in real time with the movement of the camera device.

【0071】また、撮影データをDVD−R1に記録す
るとき、撮影データを各VOBUの先頭に配置すること
により、DVD規格の記録フィーマットに従って撮影デ
ータを記録することができる。これにより、DVD−R
を合成映像の生成に適した記録媒体として、その利用性
を高めることができ、映画撮影やテレビ番組制作のデジ
タル化、映像合成技術の向上、コンピュータグラフィッ
ク技術の向上に貢献することができる。
When recording the photographing data on the DVD-R1, the photographing data can be recorded in accordance with the recording format of the DVD standard by arranging the photographing data at the head of each VOBU. Thereby, DVD-R
As a recording medium suitable for generating a composite video, its usability can be improved, and it can contribute to digitization of movie shooting and television program production, improvement of video synthesis technology, and improvement of computer graphic technology.

【0072】なお、上述した実施形態では、撮影データ
を用いて背景映像を生成する場合を例に挙げたが、本発
明はこれに限るものではない。例えば、撮影データを用
いてコンピュータグラフィックで作り上げた人物または
アニメキャラクターなどを生成することもできる。
In the above-described embodiment, an example has been described in which a background video is generated using photographed data, but the present invention is not limited to this. For example, it is also possible to generate a person or an animated character created by computer graphics using the photographing data.

【0073】また、上述した実施形態では、60フィー
ルド分の映像データに対応する撮影データを撮影データ
パックに含め、VOBU内に配置する構成としたが、本
発明はこれに限らない。例えば、60フィールド分の映
像データに対応する撮影データを所定のレートでサンプ
リングすることにより、サンプリングデータを生成し、
このサンプリングデータをVOBU内に配置してもよ
い。これにより、撮影データの量を減らすことができ
る。また、60フィールド分の映像データに対応する撮
影データに含まれる各数値の平均を算出することによ
り、平均値データを生成し、この平均データをVOBU
内に配置してもよい。これによっても、撮影データの量
を減らすことができる。
In the above-described embodiment, the photographing data corresponding to the video data for 60 fields is included in the photographing data pack and is arranged in the VOBU. However, the present invention is not limited to this. For example, sampling data is generated by sampling shooting data corresponding to video data for 60 fields at a predetermined rate,
This sampling data may be arranged in the VOBU. Thereby, the amount of photographing data can be reduced. Also, by calculating the average of each numerical value included in the shooting data corresponding to the video data for 60 fields, average value data is generated, and this average data is referred to as a VOBU.
It may be arranged inside. This can also reduce the amount of shooting data.

【0074】また、上述した実施形態では、カメラ装置
300にデジタルの映像データを出力するデジタルカメ
ラ301を設ける構成としたが、本発明はこれに限ら
ず、アナログの映像データを出力するアナログカメラを
設けてもよい。この場合には、アナログの映像データを
アナログ−デジタル変換すればよい。
In the above-described embodiment, the digital camera 301 for outputting digital video data is provided in the camera device 300. However, the present invention is not limited to this, and an analog camera for outputting analog video data is provided. You may. In this case, analog video data may be converted from analog to digital.

【0075】さらに、上述した実施形態では、記録装置
100と再生装置200をそれぞれ別々のシステムに設
ける構成としたが、本発明はこれに限らず、両者を一体
化してもよい。
Furthermore, in the above-described embodiment, the recording apparatus 100 and the reproducing apparatus 200 are provided in separate systems. However, the present invention is not limited to this, and the two may be integrated.

【0076】また、上述した実施形態では、記録データ
を記録するための記録媒体として、DVD−Rを用いる
場合を例に挙げたが、本発明はこれに限らず、DVD−
RAMなどの他の記録媒体を用いることができる。
Further, in the above-described embodiment, the case where the DVD-R is used as the recording medium for recording the recording data has been described as an example, but the present invention is not limited to this, and the present invention is not limited to this.
Other recording media such as a RAM can be used.

【0077】また、上述した実施形態において、図5中
のステップ11が入力手順の具体例であり、ステップ1
4が映像データ蓄積手順の具体例である。また、ステッ
プ16が付加手順の具体例である。なお、出力手順は、
パッキングCPU105から光ピックアップ110また
はデータ出力端子108への一連の出力動作によって実
現される。
In the above embodiment, step 11 in FIG. 5 is a specific example of the input procedure.
4 is a specific example of the video data storage procedure. Step 16 is a specific example of the addition procedure. The output procedure is
This is realized by a series of output operations from the packing CPU 105 to the optical pickup 110 or the data output terminal 108.

【0078】[0078]

【発明の効果】以上詳述したとおり、請求項1の発明の
映像データ処理方法によれば、映像データに時間的に対
応したカメラ装置の位置情報を容易に得ることができ、
カメラ装置の動きに伴う背景の見え方の変化を合成映像
の中で容易に再現することができる。
As described above in detail, according to the video data processing method of the first aspect of the present invention, it is possible to easily obtain the position information of the camera device temporally corresponding to the video data.
A change in the appearance of the background due to the movement of the camera device can be easily reproduced in the composite video.

【0079】請求項2の発明の映像データ処理方法によ
れば、映像データとカメラ装置の位置情報とを時間的に
対応付けてデータ化することができ、このデータを記録
媒体の記録フォーマットに沿って記録することができ
る。さらに、記録媒体を再生すれば、映像データに時間
的に対応したカメラ装置の位置情報を容易に得ることが
でき、カメラ装置の動きに伴う背景の見え方の変化を合
成映像の中で容易に再現することができる。
According to the video data processing method of the second aspect of the present invention, the video data and the position information of the camera device can be time-correlated and converted into data. Can be recorded. Furthermore, if the recording medium is reproduced, it is possible to easily obtain the position information of the camera device temporally corresponding to the video data, and easily change the appearance of the background due to the movement of the camera device in the composite video. Can be reproduced.

【0080】請求項3の発明の映像データ処理方法によ
れば、映像データとカメラ装置の位置情報とを時間的に
対応付けてデータ化することができる。例えば、DVD
などは、所定量の映像データを含む映像データ群(例え
ば、パックと呼ばれているもの)を作り、この映像デー
タ群を記録データストリーム中に配列する記録フォーマ
ットを採用している。このような記録フォーマットに合
致するように、映像データとカメラ装置の位置情報とを
時間的に対応付けてデータ化することができる。
According to the video data processing method of the third aspect of the present invention, the video data and the position information of the camera device can be time-correlated and converted into data. For example, DVD
And the like adopt a recording format in which a video data group (for example, what is called a pack) including a predetermined amount of video data is created and the video data group is arranged in a recording data stream. The video data and the position information of the camera device can be time-correlated and converted into data so as to conform to such a recording format.

【0081】請求項4の発明の映像データ処理方法によ
れば、例えば、カメラ装置の動きに伴う背景の見え方の
変化などを容易に作り出すことができ、より現実に近い
合成画像を作り出すことができる。
According to the video data processing method of the present invention, for example, it is possible to easily create a change in the appearance of the background due to the movement of the camera device, and to create a more realistic synthesized image. it can.

【0082】請求項5〜8の発明の映像データ処理装置
によれば、上述した請求項1〜4の発明と同様の効果を
得ることができる。
According to the video data processing apparatus of the present invention, the same effects as those of the above-described inventions can be obtained.

【0083】請求項9の発明の映像データ再生装置によ
れば、カメラ装置の動きに伴う背景の見え方の変化など
を合成映像の中で容易に再現することができる。
According to the video data reproducing apparatus of the ninth aspect, it is possible to easily reproduce, for example, a change in the appearance of the background due to the movement of the camera device in the composite video.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態においてカメラ装置の位置
などを示す説明図である。
FIG. 1 is an explanatory diagram showing a position and the like of a camera device in an embodiment of the present invention.

【図2】本発明の実施の形態においてカメラ装置の方向
を示す説明図である。
FIG. 2 is an explanatory diagram showing a direction of a camera device in the embodiment of the present invention.

【図3】本発明の実施の形態においてDVD−Rに記録
するデータのフォーマットを示す。
FIG. 3 shows a format of data recorded on a DVD-R in the embodiment of the present invention.

【図4】本発明の実施の形態による記録装置を示すブロ
ック図である。
FIG. 4 is a block diagram showing a recording apparatus according to the embodiment of the present invention.

【図5】本発明の実施の形態による記録装置の動作を示
すフローチャートである。
FIG. 5 is a flowchart illustrating an operation of the recording apparatus according to the embodiment of the present invention.

【図6】本発明の実施の形態による再生装置を示すブロ
ック図である。
FIG. 6 is a block diagram showing a playback device according to the embodiment of the present invention.

【図7】本発明の実施の形態による再生装置において撮
影データ、映像データおよび音声データの出力タイミン
グを示すタイミングチャートである。
FIG. 7 is a timing chart showing output timings of shooting data, video data, and audio data in the playback device according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 DVD−R(記録媒体) 100 記録装置 101 撮影データエンコーダ 103,104 MPEGエンコーダ 105 パッキングCPU 106 バッファ(映像データ蓄積手段) 108 データ出力端子(出力手段) 110 光ピックアップ(記録手段) 200 再生装置 201 光ピックアップ(読出手段) 205 データ入力端子 206 データ処理部 212 バッファ 300 カメラ装置 301 デジタルカメラ 302 カメラ位置検出器 400 映像合成装置 401 背景映像生成部 402 映像合成部 Reference Signs List 1 DVD-R (recording medium) 100 recording device 101 photographing data encoder 103, 104 MPEG encoder 105 packing CPU 106 buffer (video data storage means) 108 data output terminal (output means) 110 optical pickup (recording means) 200 playback device 201 Optical pickup (reading means) 205 Data input terminal 206 Data processing unit 212 Buffer 300 Camera device 301 Digital camera 302 Camera position detector 400 Image synthesizing device 401 Background image generating unit 402 Image synthesizing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 5/225 H04N 5/92 H 5/92 Fターム(参考) 5C022 AA01 AB00 AB62 AB68 AC00 AC69 AC72 AC80 CA00 5C053 FA09 FA14 FA24 GA11 GB05 GB37 HA29 JA03 JA21 KA03 KA21 KA24 LA01 LA06 5D044 AB07 BC06 CC04 DE11 DE17 DE52 EF05 FG18 FG21 GK11 5D090 AA01 BB04 CC01 CC04 GG11 GG21 GG36 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat ゛ (Reference) H04N 5/225 H04N 5/92 H 5/92 F term (Reference) 5C022 AA01 AB00 AB62 AB68 AC00 AC69 AC72 AC80 CA00 5C053 FA09 FA14 FA24 GA11 GB05 GB37 HA29 JA03 JA21 KA03 KA21 KA24 LA01 LA06 5D044 AB07 BC06 CC04 DE11 DE17 DE52 EF05 FG18 FG21 GK11 5D090 AA01 BB04 CC01 CC04 GG11 GG21 GG36

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 カメラ装置により被写体を撮影すること
によって生成される映像データと、被写体を撮影してい
るときの前記カメラ装置の位置を表す位置情報を含む撮
影データとを入力する入力手順と、 前記入力された映像データを所定量蓄積する映像データ
蓄積手順と、 前記映像データ蓄積手順において蓄積された所定量の映
像データに、この所定量の映像データと時間的に対応す
る前記撮影データを付加する付加手順と、 前記撮影データが付加された映像データを出力する出力
手順とを備えてなる映像データ処理方法。
An input step of inputting video data generated by photographing a subject with a camera device and photographing data including position information indicating a position of the camera device when photographing the subject; A video data accumulation procedure for accumulating a predetermined amount of the input video data, and adding the shooting data temporally corresponding to the predetermined amount of video data to the predetermined quantity of video data accumulated in the video data accumulation procedure And an output step of outputting the video data to which the shooting data has been added.
【請求項2】 前記出力手順において出力された、前記
撮影データが付加された映像データを記録媒体に記録す
る記録手順をさらに備えた請求項1に記載の映像データ
処理方法。
2. The video data processing method according to claim 1, further comprising a recording step of recording, on a recording medium, the video data to which the shooting data has been added, output in the output step.
【請求項3】前記付加手順は、 前記蓄積された所定量の映像データを配列することによ
って映像データ群を生成する映像データ群生成手順と、 前記蓄積された所定量の映像データに時間的に対応する
前記撮影データを前記映像データ群に隣接させて配置す
る撮影データ配置手順とを備えてなる請求項1または2
に記載の映像データ処理方法。
3. The method according to claim 1, wherein the adding step includes a step of generating a video data group by arranging the stored predetermined amount of video data. A photographing data arranging step of arranging the corresponding photographing data adjacent to the video data group.
2. The video data processing method according to 1.
【請求項4】 前記出力手順において出力された、前記
撮影データが付加された映像データを受け取り、この受
け取ったデータを、撮影データと映像データとに分離す
る分離手順と、 前記分離された映像データに対応する第1映像を生成す
る映像生成手順と、 前記分離された撮影データに含まれる前記位置情報に従
って、他の映像データに基づいて生成された第2映像の
位置を設定する位置設定手順と、 前記第1映像と第2映像とを合成する合成手順とをさら
に備えた請求項1ないし3のいずれかに記載の映像デー
タ処理方法。
4. A separating step of receiving the video data to which the shooting data has been added and output in the output step, and separating the received data into shooting data and video data; And a position setting step of setting a position of a second image generated based on other image data according to the position information included in the separated shooting data. 4. The video data processing method according to claim 1, further comprising a synthesizing procedure for synthesizing the first video and the second video.
【請求項5】 カメラ装置により被写体を撮影すること
によって生成される映像データと、被写体を撮影してい
るときの前記カメラ装置の位置を表す位置情報を含む撮
影データとを入力する入力手段と、 前記入力された映像データを所定量蓄積する映像データ
蓄積手段と、 前記映像データ蓄積手段によって蓄積された所定量の映
像データに、この所定量の映像データと時間的に対応す
る前記撮影データを付加する付加手段と、 前記撮影データが付加された映像データを出力する出力
手段とを備えてなる映像データ処理装置。
5. An input means for inputting video data generated by photographing a subject with a camera device and photographing data including position information indicating a position of the camera device when photographing the subject. Video data storage means for storing a predetermined amount of the input video data; and adding the photographing data temporally corresponding to the predetermined amount of video data to a predetermined amount of video data stored by the video data storage means. A video data processing apparatus comprising: an adding unit that performs the above operation; and an output unit that outputs the video data to which the photographing data is added.
【請求項6】 前記撮影データが付加された映像データ
を記録媒体に記録する記録手段をさらに備えた請求項5
に記載の映像データ処理装置。
6. The recording apparatus according to claim 5, further comprising recording means for recording the video data to which the photographing data is added on a recording medium.
2. The video data processing device according to claim 1.
【請求項7】前記付加手段は、 前記蓄積された所定量の映像データを配列することによ
って映像データ群を生成する映像データ群生成手段と、 前記蓄積された所定量の映像データに時間的に対応する
前記撮影データを前記映像データ群に隣接させて配置す
る撮影データ配置手段とを備えてなる請求項5または6
に記載の映像データ処理装置。
7. An image data group generating means for generating a video data group by arranging said stored predetermined amount of video data, said adding means comprising: 7. A photographing data arranging means for arranging the corresponding photographing data adjacent to the video data group.
2. The video data processing device according to claim 1.
【請求項8】 前記出力手段によって出力された、前記
撮影データが付加された映像データを受け取り、この受
け取ったデータを、撮影データと映像データとに分離す
る分離手段と、 前記分離された映像データに対応する第1映像を生成す
る映像生成手段と、 前記分離された撮影データに含まれる前記位置情報に従
って、他の映像データに基づいて生成された第2映像の
位置を設定する位置設定手段と、 前記第1映像と第2映像とを合成する合成手段とをさら
に備えた請求項5ないし7のいずれかに記載の映像デー
タ処理装置。
8. Separation means for receiving video data to which the photographing data has been added and output by the output means, and separating the received data into photographing data and video data; Image generation means for generating a first image corresponding to the following; position setting means for setting a position of a second image generated based on other image data according to the position information included in the separated shooting data; 8. The video data processing device according to claim 5, further comprising a synthesizing unit for synthesizing the first video and the second video.
【請求項9】 カメラ装置により被写体を撮影すること
によって生成される映像データと、被写体を撮影してい
るときの前記カメラ装置の位置を表す位置データを含む
撮影データとが記録された記憶媒体から、これら映像デ
ータと撮影データを読み出す読出手段と、 前記読み出された映像データと撮影データとを同期させ
ながら出力する出力手段とを備えてなる映像データ再生
装置。
9. A storage medium in which video data generated by photographing a subject with a camera device and photographing data including position data representing a position of the camera device when photographing the subject are recorded. A video data reproducing apparatus comprising: a reading unit that reads out the video data and the photographing data; and an output unit that outputs the read video data and the photographing data while synchronizing them.
JP10282902A 1998-10-05 1998-10-05 Video data processing method, video data processor and video data reproducing device Pending JP2000115672A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10282902A JP2000115672A (en) 1998-10-05 1998-10-05 Video data processing method, video data processor and video data reproducing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10282902A JP2000115672A (en) 1998-10-05 1998-10-05 Video data processing method, video data processor and video data reproducing device

Publications (1)

Publication Number Publication Date
JP2000115672A true JP2000115672A (en) 2000-04-21

Family

ID=17658598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10282902A Pending JP2000115672A (en) 1998-10-05 1998-10-05 Video data processing method, video data processor and video data reproducing device

Country Status (1)

Country Link
JP (1) JP2000115672A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007259462A (en) * 2007-04-05 2007-10-04 Seiko Epson Corp Video recording apparatus, video recording method, and recording medium
JP2011527790A (en) * 2008-07-09 2011-11-04 プライムセンス リミテッド Integrated processing device for 3D mapping
US8077223B2 (en) 2004-06-14 2011-12-13 Seiko Epson Corporation Image recording method, image recording apparatus, image recording medium, image display method, and image display apparatus for reading and recording actual brightness

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8077223B2 (en) 2004-06-14 2011-12-13 Seiko Epson Corporation Image recording method, image recording apparatus, image recording medium, image display method, and image display apparatus for reading and recording actual brightness
JP2007259462A (en) * 2007-04-05 2007-10-04 Seiko Epson Corp Video recording apparatus, video recording method, and recording medium
JP4661822B2 (en) * 2007-04-05 2011-03-30 セイコーエプソン株式会社 Video recording apparatus, video recording method, and recording medium
JP2011527790A (en) * 2008-07-09 2011-11-04 プライムセンス リミテッド Integrated processing device for 3D mapping

Similar Documents

Publication Publication Date Title
US8890977B2 (en) Systems and methods for concurrently playing multiple images from a storage medium
KR100292138B1 (en) Transmitter and Receiver for Digital Video Signal
US7856145B2 (en) Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program
JP4407549B2 (en) Shooting device, video playback device, video recording / playback program
JP2007266713A (en) Monitoring system, monitoring method, and program
JP4938615B2 (en) Video recording / playback device
WO2005009030A1 (en) Image pickup device
JP5214730B2 (en) Synthesizer and synthesis method
JP2000115672A (en) Video data processing method, video data processor and video data reproducing device
JPH09219836A (en) Image information recording method and image compositing device
JPH10126687A (en) Exchange compiling system
JP3716866B2 (en) Digital image signal transmission apparatus and reception apparatus
JP2010219607A (en) Device for extracting target frame, image capturing apparatus, and digital camera
JP2008021110A (en) Image processor, image processing procedure, and program
JP3271634B2 (en) Digital image signal transmission device and reception device
JPH0453148B2 (en)
JP3263749B2 (en) Digital image signal recording device
CN102591107B (en) Messaging device and information processing method
JPH05232978A (en) Video signal processor
JP3543978B2 (en) Digital image signal transmission device, reception device, digital image signal recording device, and reproduction device
JPH0746606A (en) Video signal reproducing device
JP3318848B2 (en) Digital image signal transmission device
KR100574229B1 (en) Apparatus and method for converting panoramic image focal length
JP2006121299A (en) Recording reproducing device
JP3024204U (en) Chroma key system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050809

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051004

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051101