WO2007072870A1 - Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium - Google Patents

Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium Download PDF

Info

Publication number
WO2007072870A1
WO2007072870A1 PCT/JP2006/325397 JP2006325397W WO2007072870A1 WO 2007072870 A1 WO2007072870 A1 WO 2007072870A1 JP 2006325397 W JP2006325397 W JP 2006325397W WO 2007072870 A1 WO2007072870 A1 WO 2007072870A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
video
parameter information
video content
unit
Prior art date
Application number
PCT/JP2006/325397
Other languages
French (fr)
Japanese (ja)
Inventor
Takaaki Namba
Yusuke Mizuno
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Publication of WO2007072870A1 publication Critical patent/WO2007072870A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/229Image signal generators using stereoscopic image cameras using a single 2D image sensor using lenticular lenses, e.g. arrangements of cylindrical lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

A video content is general-purposely used for a device capable of displaying various 3-dimensional images and the information format for displaying the 3-dimensional video is standardized. A first video input processing unit (121) and a second video input processing unit (123) image an object from a plurality of different viewpoints. They capture video data, respectively. A static device information management unit (146) acquires static device information as information unique to a video content recording device (100). A dynamic device information management unit (129) acquires dynamic device information as information changing according to the state when the video data is acquired. A content processing unit (142) correlates at least one video data, static device information, and dynamic device information into a video content and records it into an information recording medium (167).

Description

映像コンテンツ記録装置、映像コンテンツ記録方法、映像コンテンツ記録 プログラム、映像コンテンツ再生装置、映像コンテンツ再生方法、映像コンテンツ 再生プログラム、映像コンテンツ編集装置及び情報記録メディア  Video content recording device, video content recording method, video content recording program, video content playback device, video content playback method, video content playback program, video content editing device, and information recording medium
技術分野  Technical field
[0001] 本発明は、情報記録メディアに映像コンテンツ、特に 3次元の映像コンテンツを記 録する映像コンテンッ記録装置、映像コンテンッ記録方法及び映像コンテンッ記録 プログラムに関するものである。また、本発明は、映像コンテンツが記録された情報記 録メディアに関するものである。また、本発明は、情報記録メディアに記録された映像 コンテンッを再生する映像コンテンッ再生装置、映像コンテンッ再生方法及び映像コ ンテンッ再生プログラムに関するものである。また、本発明は、情報記録メディアに記 録された映像コンテンツを編集する映像コンテンツ編集装置に関するものである。 背景技術  The present invention relates to a video content recording apparatus, a video content recording method, and a video content recording program for recording video content, particularly three-dimensional video content, on an information recording medium. The present invention also relates to an information recording medium on which video content is recorded. The present invention also relates to a video content playback apparatus, a video content playback method, and a video content playback program for playing back video content recorded on an information recording medium. The present invention also relates to a video content editing apparatus for editing video content recorded on an information recording medium. Background art
[0002] 従来の、情報記録メディアに記録した映像コンテンツを再生する装置、特に、 3次元 の映像コンテンツを再生する装置としては、例えば特許文献 1に記載されたステレオ 画像表示装置がある。  [0002] As a conventional device for reproducing video content recorded on an information recording medium, particularly a device for reproducing three-dimensional video content, there is a stereo image display device described in Patent Document 1, for example.
[0003] 図 17は、従来のステレオ画像表示装置 900の主要部の構成を示すブロック図であ る。  FIG. 17 is a block diagram showing a configuration of a main part of a conventional stereo image display device 900.
[0004] この従来のステレオ画像表示装置 900は、ユーザが毎回左右一対のステレオ画像 を含む画像ファイル名を入力しなくても、複数のステレオ画像を汎用的に順序立てて 表示することができる。  [0004] This conventional stereo image display apparatus 900 can display a plurality of stereo images in a general-purpose order without requiring the user to input an image file name including a pair of left and right stereo images each time.
[0005] 全体制御部 901は、 OS (Operating System)と密接に協調して動作することに より、ステレオ画像表示プログラムの起動と終了、他のモジュールの協調動作の制御 、及びプログラム全体に関わる幾つかの設定値の記憶、保存、読み出し等を実行す る。この全体制御部 901によって直接制御されるモジュールは、データ処理部 902及 び表示制御部 903である。  [0005] The overall control unit 901 operates in close cooperation with an OS (Operating System), thereby starting and ending the stereo image display program, controlling the cooperative operation of other modules, and controlling the entire program. Executes memorization, storage, and reading of the set values. The modules directly controlled by the overall control unit 901 are a data processing unit 902 and a display control unit 903.
[0006] データ処理部 902は、全体制御部 901や表示制御部 903の要求に応じて、各種フ アイルの読み出しやステレオ画像データの処理等を実行する。データ処理部 902は 、画像ファイル処理部 904、表示補正設定ファイル処理部 905及びステレオ画像デ ータ処理部 906の 3つのサブモジュールを有しており、これらのモジュールを制御す ることによって、データ処理部 902としての機能を果たす。 [0006] The data processing unit 902 responds to requests from the overall control unit 901 and the display control unit 903, and performs various processes. Aisle reading, stereo image data processing, etc. are executed. The data processing unit 902 has three submodules: an image file processing unit 904, a display correction setting file processing unit 905, and a stereo image data processing unit 906. By controlling these modules, the data processing unit 902 It functions as the processing unit 902.
[0007] 画像ファイル処理部 904は、様々な種類の画像ファイルを読み出し、その内容を解 祈し、必要に応じて圧縮データの復号を行い、予め決められた標準形式の画像デー タに変換する。 [0007] The image file processing unit 904 reads various types of image files, deciphers their contents, decodes the compressed data as necessary, and converts them into image data in a predetermined standard format. .
[0008] 表示補正設定ファイル処理部 905は、データ処理部 902を経由して表示制御部 90 3の要求を受け取り、ステレオ画像の表示補正に関する設定値をファイルに保存した り、また逆に読み出したりする。  [0008] The display correction setting file processing unit 905 receives a request from the display control unit 903 via the data processing unit 902, and saves a setting value related to the display correction of the stereo image in a file, or reads out the reverse. To do.
[0009] ステレオ画像データ処理部 906は、表示補正設定ファイル処理部 905から受け取 つた表示補正設定データに基づき、画像ファイル処理部 904から受け取った左右一 対の標準形式の画像データを組み合わせて、直視型ディスプレイ(図示せず)で表 示する場合に適した形式のステレオ画像データを作成する。  The stereo image data processing unit 906 combines the image data in a pair of left and right standard formats received from the image file processing unit 904 based on the display correction setting data received from the display correction setting file processing unit 905 and performs direct viewing. Create stereo image data in a format suitable for display on a type display (not shown).
[0010] 表示制御部 903は、データ処理部 902を経由してステレオ画像データ処理部 906 が作成したステレオ画像データを受け取り、直視型ディスプレイに表示する。また、表 示制御部 903は、キーボード(図示せず)やマウス(図示せず)力も入力された表示制 御に関するユーザの指示を、 OSまたは全体制御部 901を経由して受け取り、これら の指示に対応した表示制御を行う。  The display control unit 903 receives the stereo image data created by the stereo image data processing unit 906 via the data processing unit 902, and displays it on the direct view display. In addition, the display control unit 903 receives a user instruction regarding display control in which a keyboard (not shown) or mouse (not shown) force is input via the OS or the overall control unit 901, and receives these instructions. Display control corresponding to.
[0011] し力しながら、上記のような従来のステレオ画像表示装置では、ユーザが毎回左右 一対のステレオ画像の画像ファイル名を入力しなくても、複数のステレオ画像を汎用 的に順序立てて表示することが可能である力 このステレオ画像は予めステレオ表示 が可能であるように、準備されたものでなければならな力つた。  However, in the conventional stereo image display device as described above, a plurality of stereo images are arranged in a general order without the user having to input the image file names of a pair of left and right stereo images each time. Force that can be displayed This stereo image must have been prepared in advance so that it can be displayed in stereo.
[0012] また、一定範囲で表示補正設定データに基づ!/、て補正可能ではある力 これは各 種の直視型ディスプレイやその他の 3次元ディスプレイの仕様に合わせて表示可能と なるようデータを補正するものであって、ステレオ画像そのものを生成するものではな ぐやはり、ステレオ画像は予めステレオ表示が可能であるように、準備されたもので なければならなかった。 [0013] 更に、このステレオ画像は予めステレオ表示が可能であるように、準備されたものに 限るという制約から、表示されるステレオ画像も予め準備されたものに限られ、例えば ステレオ表示の視点を変えるなど、種々の変形をカ卩えて表示することなども不可能で めつに。 [0012] Also, based on the display correction setting data within a certain range! /, The power that can be corrected This is the data that can be displayed according to the specifications of various direct view displays and other 3D displays. It is a correction that does not generate a stereo image itself, but the stereo image must have been prepared in advance so that it can be displayed in stereo. [0013] Further, since the stereo image is limited to the prepared one so that the stereo display can be performed in advance, the displayed stereo image is also limited to the prepared one. It is impossible to display various deformations such as changing them.
[0014] 更にまた、この準備されたステレオ画像は、そのデータ構成やファイル構成が機器 に固有のものであり、他の各種ステレオ表示が可能な機器で、汎用的に使用すること ができるものではなかった。  [0014] Furthermore, the prepared stereo image has a data structure and a file structure that are unique to the device, and other devices that can display various stereo images and can be used for general purposes. There wasn't.
特許文献 1:特開 2001— 215947号公報  Patent Document 1: Japanese Patent Laid-Open No. 2001-215947
発明の開示  Disclosure of the invention
[0015] 本発明は、上記の問題を解決するためになされたもので、映像コンテンツを各種 3 次元映像を表示可能な機器に汎用的に使用することができる映像コンテンツ記録装 置、映像コンテンツ記録方法、映像コンテンツ記録プログラム、映像コンテンツ再生 装置、映像コンテンツ再生方法、映像コンテンツ再生プログラム、映像コンテンツ編 集装置及び情報記録メディアを提供することを目的とするものである。  [0015] The present invention has been made to solve the above-described problem, and a video content recording apparatus and a video content recording device that can be used universally in a device capable of displaying various 3D videos. It is an object of the present invention to provide a method, a video content recording program, a video content playback device, a video content playback method, a video content playback program, a video content editing device, and an information recording medium.
[0016] 本発明の一局面に係る映像コンテンツ記録装置は、映像コンテンツを情報記録メ ディアに記録する映像コンテンツ記録装置であって、被写体をそれぞれ異なる複数 の視点力 撮影した少なくとも 1つの映像データを取得する映像データ取得部と、前 記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得する静的 パラメータ情報取得部と、前記映像データを取得した際の状況に応じて変化する情 報である動的パラメータ情報を取得する動的パラメータ情報取得部と、前記映像デ ータ取得部によって取得された前記少なくとも 1つの映像データと、前記静的パラメ ータ情報取得部によって取得された前記静的パラメータ情報と、前記動的パラメータ 情報取得部によって取得された前記動的パラメータ情報とを関連付けて前記映像コ ンテンッとして前記情報記録メディアに記録する記録部とを備える。  [0016] A video content recording apparatus according to one aspect of the present invention is a video content recording apparatus that records video content on an information recording medium, and at least one video data obtained by photographing a subject with a plurality of different viewpoint powers. A video data acquisition unit to acquire, a static parameter information acquisition unit to acquire static parameter information, which is information unique to the video content recording device, and information that changes according to the situation when the video data is acquired. Dynamic parameter information acquisition unit that acquires dynamic parameter information that is information, the at least one video data acquired by the video data acquisition unit, and acquired by the static parameter information acquisition unit Associating the static parameter information with the dynamic parameter information acquired by the dynamic parameter information acquisition unit And a recording section for recording on the information recording medium as the image co Nten'.
[0017] この構成によれば、それぞれ異なる複数の視点から被写体が撮影され、少なくとも 1 つの映像データが取得される。そして、映像コンテンツ記録装置に固有の情報である 静的パラメータ情報が取得され、映像データを取得した際の状況に応じて変化する 情報である動的パラメータ情報が取得される。その後、取得された少なくとも 1つの映 像データと、取得された静的パラメータ情報と、取得された動的パラメータ情報とが関 連付けられて映像コンテンツとして情報記録メディアに記録される。 According to this configuration, the subject is photographed from a plurality of different viewpoints, and at least one video data is acquired. Then, static parameter information that is information unique to the video content recording apparatus is acquired, and dynamic parameter information that is information that changes according to the situation when the video data is acquired is acquired. Then at least one movie acquired The image data, the acquired static parameter information, and the acquired dynamic parameter information are associated with each other and recorded on the information recording medium as video content.
[0018] したがって、被写体をそれぞれ異なる複数の視点力も撮影した少なくとも 1つの映 像データと、映像コンテンツ記録装置に固有の情報である静的パラメータ情報と、映 像データを取得した際の状況に応じて変化する情報である動的パラメータ情報とが 関連付けられて映像コンテンツとして情報記録メディアに記録されるので、静的パラメ ータ情報と動的パラメータ情報とを用いて、 3次元表示可能なように映像データをカロ ェすることができ、映像コンテンツを各種 3次元表示可能な機器に汎用的に使用する ことができる。  [0018] Therefore, depending on at least one video data obtained by photographing a plurality of different viewpoints of the subject, static parameter information that is unique to the video content recording device, and the situation when the video data is acquired Dynamic parameter information, which is information that changes, is recorded on the information recording medium as video content, so that it can be displayed in 3D using static parameter information and dynamic parameter information. Video data can be covered, and it can be used universally for devices that can display various 3D video content.
[0019] また、映像コンテンツ記録装置によって記録された 3次元映像を表示するための映 像コンテンツを各種 3次元表示可能な機器に汎用的に使用することができるので、 3 次元映像を表示するための情報形式の標準化を図ると同時に、 3次元映像情報の流 通の促進にも貢献することが可能になる。  [0019] In addition, since the video content for displaying the 3D video recorded by the video content recording device can be used for various 3D display devices, the 3D video can be displayed. It will be possible to contribute to the promotion of the distribution of 3D video information while standardizing the information format.
図面の簡単な説明  Brief Description of Drawings
[0020] [図 1]本実施の形態 1に係る映像コンテンツ記録装置の主要部の構成を示すブロック 図である。  FIG. 1 is a block diagram showing a configuration of a main part of a video content recording apparatus according to a first embodiment.
[図 2]本実施の形態 1に係る映像コンテンッ記録装置における映像の撮影状態と情 報記録メディアの概略構成とを示す図である。  FIG. 2 is a diagram showing a video shooting state and a schematic configuration of an information recording medium in the video content recording apparatus according to the first embodiment.
[図 3]情報記録メディアのディレクトリ及びファイル構成を詳細に示す図である。  FIG. 3 is a diagram showing in detail the directory and file structure of the information recording medium.
[図 4]図 1に示す映像コンテンッ記録装置による映像コンテンッ記録処理につ!、て説 明するためのフローチャートである。  FIG. 4 is a flowchart for explaining video content recording processing by the video content recording apparatus shown in FIG.
[図 5]本実施の形態 2に係る映像コンテンツ再生編集装置の主要部の構成を示すブ ロック図である。  FIG. 5 is a block diagram showing a configuration of a main part of the video content reproduction / editing device according to the second embodiment.
[図 6]レンズ間距離を変更して映像コンテンツを再生した時の例を模式的に示す図で ある。  FIG. 6 is a diagram schematically showing an example when video content is reproduced while changing the distance between lenses.
[図 7]図 5に示す映像コンテンッ再生編集装置による映像コンテンッ再生処理につ!ヽ て説明するためのフローチャートである。  FIG. 7 is a flowchart for explaining video content playback processing by the video content playback / editing apparatus shown in FIG. 5.
[図 8]図 5に示す映像コンテンッ再生編集装置による映像コンテンッ編集再生処理に ついて説明するためのフローチャートである。 [Fig.8] For video content editing and playback processing by the video content playback and editing device shown in Fig.5 It is a flowchart for demonstrating about it.
[図 9]本実施の形態 3である映像コンテンツ記録装置の概略構成を示すブロック図で ある。  FIG. 9 is a block diagram showing a schematic configuration of a video content recording apparatus according to the third embodiment.
[図 10]実施の形態 3に係る映像コンテンツ記録装置を説明するための模式図である  FIG. 10 is a schematic diagram for explaining a video content recording apparatus according to Embodiment 3.
[図 11]図 9に示す映像コンテンッ記録装置による映像コンテンッ記録処理につ!ヽて 説明するためのフローチャートである。 [Figure 11] For video content recording processing by the video content recording device shown in Figure 9! It is a flowchart for urgent explanation.
[図 12]実施の形態 4に係る映像コンテンツ記録装置の主要部の構成を示すブロック 図である。  FIG. 12 is a block diagram showing a configuration of a main part of a video content recording apparatus according to Embodiment 4.
[図 13]本実施の形態 4である映像コンテンッ記録装置の映像入力処理部の概略構 成を示す図である。  FIG. 13 is a diagram showing a schematic configuration of a video input processing unit of the video content recording apparatus according to the fourth embodiment.
[図 14]図 12に示す映像コンテンッ記録装置による映像コンテンッ記録処理につ!ヽて 説明するためのフローチャートである。  [Fig.14] Video content recording processing by the video content recording device shown in Fig. 12! It is a flowchart for urgent explanation.
[図 15]実施の形態 5に係る映像コンテンツ編集装置の主要部の構成を示すブロック 図である。  FIG. 15 is a block diagram showing a configuration of a main part of a video content editing apparatus according to Embodiment 5.
[図 16]図 15に示す映像コンテンッ編集装置による映像コンテンッ編集処理につ!、て 説明するためのフローチャートである。  [Fig.16] Video content editing processing by the video content editing device shown in Fig.15! It is a flowchart for explaining.
[図 17]従来のステレオ画像表示装置の主要部の構成を示すブロック図である。 発明を実施するための最良の形態  FIG. 17 is a block diagram showing a configuration of a main part of a conventional stereo image display device. BEST MODE FOR CARRYING OUT THE INVENTION
[0021] (実施の形態 1)  [0021] (Embodiment 1)
以下に、本発明の実施の形態 1について、図面を参照しながら説明する。  Embodiment 1 of the present invention will be described below with reference to the drawings.
[0022] 図 1は、実施の形態 1に係る映像コンテンツ記録装置 100の主要部の構成を示す ブロック図である。この映像コンテンツ記録装置 100は、例えば産業用、民生用、監 視、ロボット、医療、分析、計測測定、エンターテインメント及びその他様々な目的に 使用されるビデオカメラ、デジタルカメラ、静止画カメラ及び動画撮影用のカメラに相 当する。  FIG. 1 is a block diagram showing a configuration of a main part of video content recording apparatus 100 according to Embodiment 1. This video content recording device 100 is used for video cameras, digital cameras, still cameras, and video shootings used for various purposes such as industrial, consumer, surveillance, robot, medical, analysis, measurement and measurement, entertainment, and various other purposes. Equivalent to the camera.
[0023] 映像コンテンツ記録装置 100は、第 1の映像入力処理部 121、第 2の映像入力処 理部 123、 AV制御ノ ッファ処理部 125、 CODEC処理部 127、動的機器情報管理 部 129、コンテンツ処理部 142、コンテンツ付属情報処理部 144、静的機器情報管 理部 146、メディアアクセス処理部 161、メニュー処理部 163及びユーザインタフエ一 ス処理部 165を備える。 [0023] The video content recording apparatus 100 includes a first video input processing unit 121, a second video input processing unit 123, an AV control buffer processing unit 125, a CODEC processing unit 127, and dynamic device information management. Unit 129, content processing unit 142, content attached information processing unit 144, static device information management unit 146, media access processing unit 161, menu processing unit 163, and user interface processing unit 165.
[0024] 映像コンテンツ記録装置 100は、映像データを取得するための 2つの部分、即ち、 第 1の映像入力処理部 121と第 2の映像入力処理部 123とを有して 、る。この第 1の 映像入力処理部 121と第 2の映像入力処理部 123とは、入力した映像を 3次元化す るための、例えば右目に相当するカメラ部と左目に相当するカメラ部とでもある。なお 、後述するように、この映像データを取得するためのカメラ部に相当する映像入力処 理部は必ずしも 2つに限るものではなぐ 3つ、 4つ、或いはそれ以上を有していても 構わない。或いは、 1つの映像入力処理部を細分し、その撮像素子や映像信号処理 回路は 1つであって、被写体の像を撮像素子上に結像する部分 (その中心はレンズ である)だけが複数あっても構わない。或いはまた、 1つの映像入力処理部を移動さ せながら、時分割的に 2つまたはそれ以上の映像入力処理部であるかのように使用 することも可能である。これらの一部を各種変形した実施の形態に関しては、後でより 詳細に説明をする。 The video content recording device 100 has two parts for acquiring video data, that is, a first video input processing unit 121 and a second video input processing unit 123. The first video input processing unit 121 and the second video input processing unit 123 are also a camera unit corresponding to the right eye and a camera unit corresponding to the left eye, for example, for three-dimensionalizing the input video. As will be described later, the video input processing unit corresponding to the camera unit for acquiring the video data is not necessarily limited to two, and may have three, four, or more. Absent. Alternatively, one video input processing unit is subdivided, and there is only one image sensor and video signal processing circuit, and only a part (the center of which is a lens) that forms an object image on the image sensor. It does not matter. Alternatively, it is possible to use one video input processing unit as if it were two or more video input processing units while moving one video input processing unit. Embodiments obtained by variously modifying some of these will be described in detail later.
[0025] なお、本明細書でいう撮像素子とは、様々な材料'構成のフォトトランジスタやフォト ダイオードやその他の光電素子等が、 2次元平面形状に各種の構造、例えば格子マ トリタス、千鳥格子又はハ-カム構造等で並んだ 2次元平面撮像素子をいう。例えば 、 1つの CCDエリアイメージセンサ ·チップや、 CMOS平面イメージセンサ等がこれに 該当する。  [0025] Note that the image pickup element referred to in the present specification means that phototransistors, photodiodes, and other photoelectric elements of various materials' configurations have various structures in a two-dimensional planar shape, such as lattice matrix, staggered A two-dimensional planar imaging device arranged in a child or Hercam structure. For example, one CCD area image sensor chip or a CMOS planar image sensor corresponds to this.
[0026] 本実施の形態 1では第 1の映像入力処理部 121には、第 1の被写体像 102が入射 し、第 1の映像データ 103が取得され、第 2の映像入力処理部 123には、第 2の被写 体像 104が入射し、第 2の映像データ 105が取得される。この第 1の映像データ 103 と第 2の映像データ 105とは同じ被写体を異なる視点、即ち、第 1の映像入力処理部 121と第 2の映像入力処理部 123とのそれぞれのレンズ位置カゝら撮影した画像 (静止 画像または動画像)である。また、第 1の映像データ 103と第 2の映像データ 105とは 必ずしも完全に同じ被写体であることは必要でなぐその一部だけが同じ被写体であ つても構わない。この一部が同じ被写体であるとは、その撮影シーン (撮影領域)の一 部が重複していることに相当する。 In the first embodiment, the first subject image 102 is incident on the first video input processing unit 121, the first video data 103 is acquired, and the second video input processing unit 123 receives the first video data 103. Then, the second object image 104 is incident, and the second video data 105 is acquired. The first video data 103 and the second video data 105 have the same subject viewed from different viewpoints, that is, the lens positions of the first video input processing unit 121 and the second video input processing unit 123, respectively. This is a captured image (still image or moving image). Further, the first video data 103 and the second video data 105 are not necessarily the same subject, and only a part of them may be the same subject. This part of the subject is the same subject as a part of the shooting scene (shooting area). This is equivalent to overlapping the parts.
[0027] 第 1の映像入力処理部 121及び第 2の映像入力処理部 123で撮影された第 1の映 像データ 103及び第 2の映像データ 105は、 AV制御バッファ処理部 125へ送られ、 そこにー且蓄積される。 AV制御バッファ処理部 125は、第 1の映像入力処理部 121 及び第 2の映像入力処理部 123によって撮影された第 1の映像データ 103及び第 2 の映像データ 105を記憶し、ユーザインタフェース処理部 165によって出力された操 作情報に基づいて、第 1の映像データ 103及び第 2の映像データ 105に対して各種 の処理を行う。ユーザインタフェース処理部 165は、ユーザの操作を受け付け、受け 付けた操作内容を操作情報として AV制御バッファ処理部 125へ出力する。例えば、 ユーザが行う操作には、 MPEG2及び H. 264等のコーデック方法の指定があり、ュ 一ザが指定したコーデック方法を表す操作情報がユーザインタフェース処理部 165 力も AV制御バッファ処理部 125へ送られる。 AV制御バッファ処理部 125は、ユーザ インタフェース処理部 165によって出力された操作情報に基づくコ一デックの制御を 、 CODEC処理部 127に対して実行する。  The first video data 103 and the second video data 105 captured by the first video input processing unit 121 and the second video input processing unit 123 are sent to the AV control buffer processing unit 125, Accumulated there. The AV control buffer processing unit 125 stores the first video data 103 and the second video data 105 captured by the first video input processing unit 121 and the second video input processing unit 123, and the user interface processing unit Based on the operation information output by 165, various processes are performed on the first video data 103 and the second video data 105. The user interface processing unit 165 receives a user operation and outputs the received operation content to the AV control buffer processing unit 125 as operation information. For example, the operation performed by the user includes designation of a codec method such as MPEG2 and H.264, and operation information indicating the codec method designated by the user is also sent to the user interface processing unit 165 to the AV control buffer processing unit 125. It is done. The AV control buffer processing unit 125 executes codec control based on the operation information output by the user interface processing unit 165 with respect to the CODEC processing unit 127.
[0028] 例えば、その操作情報が映像の 3次元録画を行うものであつたと仮定する。この時 には、 AV制御バッファ処理部 125にー且蓄積された第 1の映像データ 103と第 2の 映像データ 105とは CODEC処理部 127へ送られる。 CODEC処理部 127は、第 1 の映像データ 103及び第 2の映像データ 105に対して所定の符号化処理を実行す る。ここで実行される所定の符号化処理とは、例えば映像データが動画像データであ る場合、 MPEG2、 MPEG4及び H. 264等の形式の動画像圧縮符号ィ匕であり、例 えば映像データが静止画像データである場合、 JPEG、 PNG、 GIF及び BMP等の 形式の静止画像圧縮符号化である。  [0028] For example, assume that the operation information is for performing three-dimensional video recording. At this time, the first video data 103 and the second video data 105 stored in the AV control buffer processing unit 125 are sent to the CODEC processing unit 127. The CODEC processing unit 127 performs a predetermined encoding process on the first video data 103 and the second video data 105. The predetermined encoding process executed here is, for example, a video compression code in a format such as MPEG2, MPEG4, and H.264 when the video data is video data. In the case of still image data, it is still image compression encoding in a format such as JPEG, PNG, GIF and BMP.
[0029] CODEC処理部 127で所定の符号化処理が行われた第 1の映像データ 103及び 第 2の映像データ 105は、コンテンツ処理部 142へ送られる。コンテンツ処理部 142 は、 CODEC処理部 127によって符号ィ匕処理が行われた第 1の映像データ 103及び 第 2の映像データ 105に対してストリーム化処理を実行する。ここでいうストリーム化処 理とは、例えばパーシャル 'トランスポート 'ストリーム(以後、 "パーシャル TS"という) 化を行う処理等である。なお、ここでいうパーシャル TSには、例えば符号化処理が行 われた動画像や静止画像データだけでなぐ音声データや後述する各種属性デー タゃ管理データや、その他の各種コンテンツ付属情報を含むものであっても構わな いし、これらの一部を含まないものであっても構わない。各種コンテンツ付属情報の 例に関しては、後で詳細に説明をする。 The first video data 103 and the second video data 105 that have been subjected to a predetermined encoding process by the CODEC processing unit 127 are sent to the content processing unit 142. The content processing unit 142 performs a streaming process on the first video data 103 and the second video data 105 that have been subjected to the encoding process by the CODEC processing unit 127. The stream processing here is, for example, processing for performing partial 'transport' stream (hereinafter referred to as “partial TS”). Note that, for example, encoding processing is performed on the partial TS here. Audio data that consists of only moving images and still image data, various attribute data that will be described later, management data, and other various content ancillary information may be included. It does not matter. Examples of various content ancillary information will be described in detail later.
[0030] 例えばパーシャル TS化された第 1の映像データ 103と第 2の映像データ 105とは、 メディアアクセス処理部 161へ出力される。メディアアクセス処理部 161は、コンテン ッ処理部 142によってストリーム化された第 1の映像データ 103及び第 2の映像デー タ 105を情報記録メディア 167に記録する。情報記録メディア 167とは、例えば SDメ モリカードを始めとする不揮発半導体メモリを使用した着脱可能なカード型の記録媒 体や、電池でバックアップされた半導体メモリを使用した着脱可能な記録媒体や、 D VD (デジタル ·バーサタイル ·ディスク)を使った光学式で着脱可能な記録媒体や、 B D (ブルー ·レイ ·ディスク)を使った光学式で着脱可能な記録媒体や、 HDD (ハード · ディスク ·ドライブ)を使った磁気式で着脱不可能(固定式)な記録媒体等である。但し 、これらの記録媒体はあくまでも一例に過ぎず、その他どのような記録媒体であっても 構わない。また、メディアアクセス処理部 161は、上記のような各種記録媒体にァクセ スするためのデバイスドライノ 、及びこれらの各種記録媒体上にファイルシステムを 構築し、それを制御し、利用するためのファイルシステム処理部等を含む。  For example, the first video data 103 and the second video data 105 that have been converted to a partial TS are output to the media access processing unit 161. The media access processing unit 161 records the first video data 103 and the second video data 105 streamed by the content processing unit 142 on the information recording medium 167. The information recording medium 167 is, for example, a removable card type recording medium using a non-volatile semiconductor memory such as an SD memory card, a removable recording medium using a semiconductor memory backed up by a battery, D Optically removable recording media using VD (digital versatile disc), optically removable recording media using BD (blue ray disc), HDD (hard disk drive) ) Is a magnetic and non-detachable (fixed) recording medium. However, these recording media are merely examples, and any other recording media may be used. In addition, the media access processing unit 161 builds a device system for accessing various recording media as described above, and a file system for building, controlling, and using a file system on these various recording media. Includes system processing unit.
[0031] 一方、第 1の映像入力処理部 121と第 2の映像入力処理部 123は、第 1の映像デ ータ 103と第 2の映像データ 105とを取得した時の各種状態を表す動的機器情報を 動的機器情報管理部 129へ出力する。動的機器情報は、例えば、第 1の映像データ 103と第 2の映像データ 105とを撮影した時の第 1の映像入力処理部 121及び第 2 の映像入力処理部 123の向いている方向を表す撮影方向情報、映像コンテンツ記 録装置の存在する位置を表す装置位置情報、第 1の映像入力処理部 121及び第 2 の映像入力処理部 123に備えられているレンズの方向を表すレンズ方向情報、各レ ンズの存在する位置を表すレンズ位置情報、及びその他の各種情報等を含む。なお 、レンズ位置情報には、装置内におけるレンズの位置、及び地面からレンズまでの高 さを表す高さ情報を含む。これらそれぞれの情報は地球の緯度経度を座標軸とする 絶対的な座標軸で表現された値でも構わな 、し、その他の各種局所的な座標軸で 表現された相対的な値であっても構わない。そして、これらの動的機器情報は、動的 機器情報管理部 129に一旦記憶され、必要に応じて取捨選択が行われることもあり、 必要とされたものがコンテンツ付属情報処理部 144へ送られる。 On the other hand, the first video input processing unit 121 and the second video input processing unit 123 are motions representing various states when the first video data 103 and the second video data 105 are acquired. Device information is output to the dynamic device information management unit 129. For example, the dynamic device information indicates the direction in which the first video input processing unit 121 and the second video input processing unit 123 face when the first video data 103 and the second video data 105 are captured. Shooting direction information, device position information indicating the position where the video content recording device exists, lens direction information indicating the directions of the lenses provided in the first video input processing unit 121 and the second video input processing unit 123 Lens position information indicating the position of each lens, and various other information. The lens position information includes position information indicating the position of the lens in the apparatus and the height from the ground to the lens. Each of these pieces of information may be a value expressed with an absolute coordinate axis with the latitude and longitude of the earth as the coordinate axis, or with various other local coordinate axes. It may be a relative value expressed. The dynamic device information is temporarily stored in the dynamic device information management unit 129, and may be selected as necessary. The necessary information is sent to the content-attached information processing unit 144. .
[0032] コンテンツ付属情報処理部 144は、動的機器情報管理部 129によって出力された 動的機器情報を、例えばパーシャル TSに含めて情報記録メディア 167に記録する のに必要な処理を実行する。また、これらの動的機器情報は、必ずしもパーシャル T Sに含まれるのではなぐパーシャル TSとは別に情報記録メディア 167に記録される 実施の形態であっても構わな 、。  [0032] The content-attached information processing unit 144 executes a process necessary for recording the dynamic device information output by the dynamic device information management unit 129 in the information recording medium 167, for example, in a partial TS. In addition, the dynamic device information may be recorded in the information recording medium 167 separately from the partial TS that is not necessarily included in the partial TS.
[0033] 静的機器情報管理部 146は、映像コンテンツ記録装置 100において、第 1の映像 データ 103と第 2の映像データ 105とを撮影するのに関係する各種静的機器情報を 記憶管理する。静的機器情報は、例えば、第 1の映像入力処理部 121と第 2の映像 入力処理部 123とに備えられた撮影レンズのレンズ間距離、各レンズの焦点距離、 各レンズの歪値、及びその他の各種情報を含む。静的機器情報管理部 146は、これ らの静的機器情報をコンテンツ付属情報処理部 144へ出力する。コンテンツ付属情 報処理部 144は、静的機器情報管理部 146によって出力された静的機器情報を、 例えばパーシャル TSに含めて情報記録メディア 167に記録するのに必要な処理を 実行する。  The static device information management unit 146 stores and manages various pieces of static device information related to shooting the first video data 103 and the second video data 105 in the video content recording apparatus 100. The static device information includes, for example, the distance between the lenses of the photographing lenses provided in the first video input processing unit 121 and the second video input processing unit 123, the focal length of each lens, the distortion value of each lens, and Includes various other information. The static device information management unit 146 outputs the static device information to the content-attached information processing unit 144. The content ancillary information processing unit 144 executes processing necessary to record the static device information output by the static device information management unit 146 in the information recording medium 167, for example, in a partial TS.
[0034] これらの静的機器情報も、必ずしもパーシャル TSに含まれるのではなぐパーシャ ル TSとは別に情報記録メディア 167に記録される実施の形態であっても構わない。 また、動的機器情報と静的機器情報とがパーシャル TSと別に記録される実施の形態 では、パーシャル TSと動的機器情報と静的機器情報とは、 1つのファイルとして情報 記録メディア 167に記録される実施の形態であっても構わないし、これらの幾つかが 、別のファイルとして情報記録メディア 167に記録される実施の形態であっても構わ ないし、 1つのディレクトリに記録される実施の形態であっても構わないし、別のディレ クトリに記録される実施の形態であっても構わないし、 1つの情報記録メディア 167に 記録される実施の形態であっても構わな 、し、別の情報記録メディア 167に記録され る実施の形態であっても構わな 、。  The static device information may be recorded on the information recording medium 167 separately from the partial TS that is not necessarily included in the partial TS. In the embodiment in which the dynamic device information and the static device information are recorded separately from the partial TS, the partial TS, the dynamic device information, and the static device information are recorded on the information recording medium 167 as one file. Or some of these may be recorded on the information recording medium 167 as separate files, or may be recorded on a single directory. It may be an embodiment recorded in a different directory, an embodiment recorded in one information recording medium 167, or another information. The embodiment may be recorded on the recording medium 167.
[0035] また、この静的機器情報は、第 1の映像データ 103と第 2の映像データ 105とを撮 影するのに関係する各種静的なパラメータ情報であって、通常撮影時には変化しな い情報である。そのため、静的機器情報は、必ずしもパーシャル TSや動的機器情報 と同時或 ヽは相前後して情報記録メディア 167に記録されるのではなく、予め情報記 録メディア 167に記録しておく実施の形態であっても構わな 、し、後で情報記録メデ ィァ 167に記録する実施の形態であっても構わない。 [0035] In addition, the static device information captures the first video data 103 and the second video data 105. This is various static parameter information related to shadowing and does not change during normal shooting. For this reason, the static device information is not necessarily recorded on the information recording medium 167 at the same time as or simultaneously with the partial TS or dynamic device information, but is recorded on the information recording medium 167 in advance. It may be a form, or an embodiment in which information is recorded on the information recording medium 167 later.
[0036] 動的機器情報と静的機器情報とは、映像コンテンツに含まれる映像ストリームとそ の映像ストリームを撮影した時の視点とを対応付ける情報でもある。  [0036] The dynamic device information and the static device information are also information that associates a video stream included in the video content with a viewpoint when the video stream is captured.
[0037] コンテンツ付属情報処理部 144で処理された動的機器情報と静的機器情報とは、 コンテンツ処理部 142へ送られる。コンテンツ処理部 142は、動的機器情報と静的機 器情報とを、パーシャル TSの中に組み込みパーシャル TSの一部として、或いはパ 一シャル TSの中に組み込むことなく別のファイルとして、メディアアクセス処理部 161 へ出力する。メディアアクセス処理部 161は、動的機器情報と静的機器情報とを、パ 一シャル TSの一部として、或いはパーシャル TSとは別のファイルとして情報記録メ ディア 167に記録する。なお、情報記録メディア 167に記録されるパーシャル TSの 内容と形式については、後で詳細に説明をする。  [0037] The dynamic device information and the static device information processed by the content-attached information processing unit 144 are sent to the content processing unit 142. The content processing unit 142 embeds dynamic device information and static device information in the partial TS as a part of the partial TS, or as a separate file without being embedded in the partial TS. Output to processing unit 161. The media access processing unit 161 records the dynamic device information and the static device information in the information recording medium 167 as a part of the partial TS or as a file different from the partial TS. The contents and format of the partial TS recorded on the information recording medium 167 will be described in detail later.
[0038] メニュー処理部 163は、映像コンテンツ記録装置 100のユーザがユーザインタフエ ース処理部 165を使って操作を行う時に、その操作を助けるメニューやガイドの表示 とそれに伴う処理とを実行する。  [0038] When the user of the video content recording apparatus 100 performs an operation using the user interface processing unit 165, the menu processing unit 163 displays a menu or a guide for assisting the operation and a process associated therewith. .
[0039] 図 2は、本実施の形態 1に係る映像コンテンツ記録装置 100における映像の撮影 状態と情報記録メディア 167の概略構成とを示す図である。  FIG. 2 is a diagram showing a video shooting state and a schematic configuration of the information recording medium 167 in the video content recording apparatus 100 according to the first embodiment.
[0040] 上記の通り、映像コンテンツ記録装置 100は、第 1の映像入力処理部 121と第 2の 映像入力処理部 123との 2つの映像入力処理部を有しており、これら 2つの映像入 力処理部によって被写体 201の映像を撮影する。  [0040] As described above, the video content recording apparatus 100 includes the two video input processing units, the first video input processing unit 121 and the second video input processing unit 123, and these two video input processing units. The image of the subject 201 is taken by the force processing unit.
[0041] なお、この第 1の映像入力処理部 121と第 2の映像入力処理部 123とは、必ずしも 2つの映像入力処理部ではなぐ 1つの映像入力処理部を時分割で、即ち、移動さ せながらあた力も 2つの映像入力処理部であるかのように使用する実施の形態であつ ても構わな!/ヽ。この実施の形態では 1つの映像入力処理部を移動させる時間情報、 即ち、第 1の映像入力処理部 121として使用した時間と、第 2の映像入力処理部 123 として使用した時間とを記録する必要がある。この時間情報は、撮影された映像ストリ ームのそれぞれの画像と、撮影した位置 (視点)とを対応付ける情報でもある。また、 このような実施の形態では、必ずしもレンズ間距離 dは一定とは限らず、移動させる距 離を変更することによって、レンズ間距離 dを変更可能にすることもできる。 [0041] The first video input processing unit 121 and the second video input processing unit 123 are not necessarily two video input processing units. One video input processing unit is moved in time division, that is, moved. However, the embodiment may be used as if the power is two video input processing units! / 映像. In this embodiment, the time information for moving one video input processing unit, that is, the time used as the first video input processing unit 121 and the second video input processing unit 123 are used. It is necessary to record the time used as. This time information is also information that associates each image of the captured video stream with the captured position (viewpoint). In such an embodiment, the inter-lens distance d is not necessarily constant, and the inter-lens distance d can be changed by changing the distance to be moved.
[0042] 第 1の映像入力処理部 121は、レンズ 221、撮像素子 225及び図示していない幾 つかの部分を有している。第 2の映像入力処理部 123は、レンズ 223、撮像素子 227 及び図示していない幾つかの部分を有している。また、他の実施の形態では必ずし も 2つの撮像素子 225, 227を有するのではなぐ 1つの撮像素子を使用し、その 1つ の撮像素子の領域を分割して使用する実施の形態であっても構わな ヽ。レンズ 221 , 223は、被写体 201からの光を集めて結像させる。被写体 201の像は、本実施の 形態では撮像素子 225と撮像素子 227とに結像される。撮像素子 225, 227は、被 写体 201の像を電気信号に変換し、映像コンテンツ記録装置 100は、電気信号に変 換された被写体 201の像を電気的に処理して記憶する。 The first video input processing unit 121 includes a lens 221, an image sensor 225, and some parts not shown. The second video input processing unit 123 includes a lens 223, an image sensor 227, and some parts not shown. In the other embodiments, one image sensor is not necessarily provided with two image sensors 225 and 227, and the area of the one image sensor is divided and used. You can do it. The lenses 221 and 223 collect light from the subject 201 and form an image. The image of the subject 201 is formed on the image sensor 225 and the image sensor 227 in this embodiment. The image sensors 225 and 227 convert the image of the subject 201 into an electric signal, and the video content recording apparatus 100 electrically processes and stores the image of the subject 201 converted into the electric signal.
[0043] この時、レンズ 221とレンズ 223とは、レンズ間距離 dを開けて配置されているので、 第 1の映像入力処理部 121から入力された映像と、第 2の映像入力処理部 123から 入力された映像とは、視点位置が距離 dだけ異なっており、視野角も異なっている。 従って、これらの 2つの映像を使うことによって、被写体 201の 3次元的な像を再現す ることが可能になる。 [0043] At this time, since the lens 221 and the lens 223 are arranged with a distance d between the lenses, the video input from the first video input processing unit 121 and the second video input processing unit 123 are arranged. From the video input from, the viewpoint position is different by the distance d and the viewing angle is also different. Therefore, by using these two images, a three-dimensional image of the subject 201 can be reproduced.
[0044] 映像コンテンツ記録装置 100は、このレンズ間距離 dだけでなぐ第 1の映像入力処 理部 121と第 2の映像入力処理部 123とが被写体 201の像を撮影するのに関係する ノ ラメータ情報を多く保有している。このパラメータ情報には、機器に固有の情報で あって、各撮影時には変化しないパラメータデータと、それぞれの撮影時に変化する ノ ラメータデータとがある。この機器に固有の情報であって、各撮影時には変化しな V、パラメータデータを静的機器情報と ヽ、それぞれの撮影時に変化するパラメータ データを動的機器情報という。  [0044] The video content recording apparatus 100 is related to the fact that the first video input processing unit 121 and the second video input processing unit 123 that capture only the distance d between lenses capture an image of the subject 201. Has a lot of parameter information. This parameter information is information specific to the device, and includes parameter data that does not change at each shooting and parameter data that changes at each shooting. This information is unique to this device, and does not change during each shooting V, parameter data is called static device information, and parameter data that changes during each shooting is called dynamic device information.
[0045] 静的機器情報は、例えば、映像コンテンツを撮影した時のレンズ間距離、各レンズ の焦点距離、各レンズの歪値、及びその他の情報を含み、動的機器情報は、例えば 、第 1の映像データ 103と第 2の映像データ 105とを撮影した時の第 1の映像入力処 理部 121及び第 2の映像入力処理部 123の向いている方向を表す角度情報、第 1の 映像入力処理部 121及び第 2の映像入力処理部 123の存在する位置を表す位置情 報、第 1の映像入力処理部 121及び第 2の映像入力処理部 123に備えられて ヽるレ ンズの方向を表す角度情報、各レンズの存在する位置を表す位置情報、及びその他 の各種情報等を含む。但し、これらの静的機器情報と動的機器情報とは必ずしも絶 対的に固定されたものではなぐ例えば、映像コンテンツ記録装置 100が、レンズ間 距離 dやレンズの焦点距離、歪値、及びその他画像の撮影に関する各種パラメータ を撮影時に任意に変化させることができる場合、それらの値は静的機器情報ではなく 、動的機器情報になることもある。 [0045] The static device information includes, for example, the distance between lenses when video content is shot, the focal length of each lens, the distortion value of each lens, and other information. The dynamic device information includes, for example, 1st video input process when shooting 1 video data 103 and 2nd video data 105 Angle information indicating the direction in which the processing unit 121 and the second video input processing unit 123 are facing, position information indicating the positions of the first video input processing unit 121 and the second video input processing unit 123, Includes angle information indicating the direction of the lens provided in the first video input processing unit 121 and the second video input processing unit 123, position information indicating the position of each lens, and various other information. . However, the static device information and the dynamic device information are not necessarily fixed. For example, the video content recording apparatus 100 has a lens distance d, a lens focal length, a distortion value, and the like. When various parameters related to image capturing can be arbitrarily changed at the time of capturing, the values may be dynamic device information instead of static device information.
[0046] そして、これらの静的機器情報と動的機器情報とは、映像ストリームと共に 1つのパ 一シャル TSを構成して、或いはそれぞれ個別に、或いはまた、これらの幾つかは 1つ にまとめそれ以外のものは個別に、全体が 1つの映像コンテンツとして情報記録メデ ィァ 167に記録される。 [0046] Then, the static device information and the dynamic device information constitute one partial TS together with the video stream, or individually, or some of them together. Others are individually recorded in the information recording media 167 as a single video content.
[0047] 第 1の映像入力処理部 121と第 2の映像入力処理部 123とで撮影された被写体 20 1の映像情報を含むパーシャル TS、静的機器情報及び動的機器情報は、情報記録 メディア 167に記録される。  [0047] The partial TS including the video information of the subject 201 taken by the first video input processing unit 121 and the second video input processing unit 123, the static device information, and the dynamic device information are recorded on an information recording medium. It is recorded in 167.
[0048] この情報記録メディア 167には、メディアアクセス処理部 161によって、例えば図 2 に示すようなディレクトリ構造を有するファイルシステムが構成される。なお、このフアイ ルシステムとディレクトリ構造はあくまでも実施の形態の一例を示すものであり、本発 明がこのような実施の形態の構成に限定されるものではない (その他の実施の形態と 、その説明について全て同様)。  In the information recording medium 167, a file system having a directory structure as shown in FIG. Note that this file system and directory structure are merely examples of the embodiment, and the present invention is not limited to the configuration of such an embodiment (the other embodiments and their Same for all explanations).
[0049] 例えば、被写体 201を撮影した映像コンテンツをコンテンツ 1と名付けると、この映 像コンテンツはコンテンツ 1フォルダの下の階層に記録され、その映像データはコン テンッ 1映像ファイル 1及びコンテンツ 1映像ファイル 2として記録される。また、この映 像コンテンツを撮影した時の静的機器情報と動的機器情報とは、コンテンツ 1管理情 報ファイル、コンテンツ 1付属情報ファイル 1及びコンテンツ 1付属情報ファイル 2とし て記録される。このようなファイル名、ファイル形式、及び情報の記録方法等に関して も、あくまでも実施の形態の一例を示すものであり、本発明がこのような実施の形態に 限定されるものではない。 [0049] For example, if the video content obtained by photographing the subject 201 is named content 1, this video content is recorded in the hierarchy below the content 1 folder, and the video data is content 1 video file 1 and content 1 video file. Recorded as 2. The static device information and dynamic device information when this video content is shot are recorded as a content 1 management information file, a content 1 ancillary information file 1 and a content 1 ancillary information file 2. Such file names, file formats, information recording methods, and the like are merely examples of embodiments, and the present invention is not limited to such embodiments. It is not limited.
[0050] 図 3は、情報記録メディア 167のディレクトリ及びファイル構成を詳細に示す図であ る。この図 3に示すディレクトリ及びファイル構成もまた一例であって、このようなディレ クトリ及びファイル構成に限定されるものではない。  FIG. 3 is a diagram showing the directory and file structure of the information recording medium 167 in detail. The directory and file structure shown in FIG. 3 is also an example, and the present invention is not limited to such a directory and file structure.
[0051] 情報記録メディア 167が例えば SDメモリカードである場合、図 3に示すディレクトリ 及びファイル構成となる。なお、この SDメモリカードも一例であって、 SDメモリカード に限定されるものではない。  [0051] When the information recording medium 167 is, for example, an SD memory card, the directory and file structure shown in FIG. This SD memory card is also an example, and is not limited to an SD memory card.
[0052] この SDメモリカード全体を含むフォルダとして、例えば ROOT (根)という名前の 1 つのフォルダが存在する。この ROOTフォルダは、 1枚の SDメモリカードの記録領域 全体をカバーするディレクトリに相当する。なお、本実施の形態でフォルダと呼ぶもの は、ディレクトリと呼ばれることがあるものと実質的に変わることはなぐフォルダ構造や フォルダ構成と呼ぶものも、ディレクトリ構造やディレクトリ構成と呼ばれることがあるも のと実質的に変わることはない。  [0052] As a folder including the entire SD memory card, for example, there is one folder named ROOT. This ROOT folder corresponds to a directory that covers the entire recording area of one SD memory card. In this embodiment, what is called a folder is a folder structure or folder structure that is not substantially different from what is sometimes called a directory, and what is called a directory structure or directory structure is also sometimes called a directory structure or directory structure. There is virtually no change.
[0053] この ROOTフォルダの下の階層に、メディア規格フォルダが存在する。 SDメモリ力 ードには、そのフォルダ構造 (ディレクトリ構造)とファイルシステムを定める規格があり 、この規格に従って情報を記録する方法と、この規格に従うことなぐ独自の方式で情 報を記録する方法とが考えられる。  [0053] A media standard folder exists in a hierarchy below the ROOT folder. SD memory capability has a standard that defines its folder structure (directory structure) and file system. There are a method for recording information in accordance with this standard, a method for recording information in a unique method that does not comply with this standard, and a method for recording information. Can be considered.
[0054] メディア規格フォルダは、それ以下の階層のフォルダやファイルが SDメモリカード の規格に従うことを示している。なお、図 3では、メディア規格フォルダを 1つだけ示し ているが、 ROOTフォルダの下の階層には、複数のメディア規格フォルダと、複数の SDメモリカードの規格に従わな 、フォルダとが存在しても構わな 、。  [0054] The media standard folder indicates that the folders and files in the lower layers comply with the standard of the SD memory card. In Fig. 3, only one media standard folder is shown, but in the hierarchy below the ROOT folder, there are multiple media standard folders and folders that do not conform to multiple SD memory card standards. It does n’t matter.
[0055] このメディア規格フォルダの下の階層には、例えば、管理情報フォルダ、コンテンツ 1フォルダ、コンテンツ 2フォルダ、コンテンツ 3フォルダ、 · · ·、及びコンテンツ nフオル ダが存在する。なお、これらのフォルダは必ずしも存在しなくても構わない。図 3では 、管理情報フォルダ、コンテンツ 1フォルダ及びコンテンツ 2フォルダだけを示している 力 このようなコンテンッフォルダ等は 1つのメディア規格フォルダの下の階層に幾つ 存在しても構わない。  [0055] In the hierarchy below this media standard folder, for example, there are a management information folder, a content 1 folder, a content 2 folder, a content 3 folder, ..., and a content n folder. Note that these folders do not necessarily exist. In FIG. 3, only the management information folder, the content 1 folder, and the content 2 folder are shown. Such content folders and the like may exist in any number of layers below one media standard folder.
[0056] 管理情報フォルダには、メディア規格フォルダ内全体の情報を一括管理するため の管理情報ファイルや、その他のファイルが記録されている。この管理情報ファイル 等には、このメディア規格フォルダに格納されているコンテンツの数や、メディア規格 のバージョン情報等が記録されている。なお、この管理情報ファイルやその他のファ ィルの全部または一部は、必ずしもこの管理情報フォルダに存在しなくても構わな!/ヽ し、その他のフォルダに存在しても構わないし、メディア規格フォルダの直下の階層 に存在しても構わない。 [0056] In the management information folder, information in the entire media standard folder is collectively managed. Management information files and other files are recorded. In this management information file, the number of contents stored in the media standard folder, version information of the media standard, etc. are recorded. Note that all or part of this management information file and other files do not necessarily have to exist in this management information folder, and may or may not exist in other folders. It may exist in the hierarchy immediately below the folder.
[0057] 各コンテンツフォルダには、それぞれ 1つずつのコンテンツ、例えば映像コンテンツ や音声コンテンツ、及びこれら両者を含むマルチメディアコンテンツ等が記録されて いる。通常、 1つのコンテンツフォルダには 1つのコンテンツが含まれ、 1つのコンテン ッフォルダは 1つの SDメモリカードに含まれている力 必ずしもこれに限定されるもの ではなぐこれ以外の形式であっても構わない。  [0057] Each content folder stores one content, such as video content and audio content, and multimedia content including both. Usually, one content folder contains one content, and one content folder is contained in one SD memory card. It is not necessarily limited to this, and other formats may be used. .
[0058] 例えば、コンテンツフォルダは 1つで、その中に複数のコンテンツファイルが格納さ れており、別途、コンテンツ付属情報ファイルを格納するフォルダがあり、このフオル ダに全てのコンテンツのコンテンツ付属情報ファイルが格納されても構わな 、。或 ヽ は、例えば、コンテンツフォルダはコンテンツ毎に存在し、各コンテンツファイルはこの コンテンツフォルダに格納され、コンテンツ付属情報ファイルは共通のフォルダまたは メディア規格フォルダに格納されても構わない。或いは、逆に、コンテンツ付属情報フ オルダはコンテンツ毎に存在し、各コンテンツ付属情報ファイルはこのコンテンツ付属 情報フォルダに格納され、コンテンツファイルは共通のフォルダまたはメディア規格フ オルダに格納されても構わない。或いは、幾つかのコンテンツファイルやコンテンツ付 属情報ファイルをグループィ匕して格納するようなコンテンツフォルダが存在しても構わ ない。或いは、例えば、コンテンツフォルダもコンテンツ付属情報フォルダも存在せず 、メディア規格フォルダの直下の階層に複数のコンテンツフアイノレとコンテンツ付属情 報ファイルとが格納されていても構わない。或いはまた、これら以外の形式であっても 構わない。  [0058] For example, there is one content folder, in which a plurality of content files are stored, and there is a separate folder for storing content ancillary information files. This folder contains content ancillary information for all content. The file may be stored. Alternatively, for example, a content folder may exist for each content, each content file may be stored in the content folder, and the content attached information file may be stored in a common folder or a media standard folder. Or, conversely, a content ancillary information folder exists for each content, each content ancillary information file may be stored in the content ancillary information folder, and the content file may be stored in a common folder or a media standard folder. . Alternatively, there may be a content folder that stores several content files and content-attached information files in a group. Alternatively, for example, neither a content folder nor a content attached information folder exists, and a plurality of content files and content attached information files may be stored immediately below the media standard folder. Alternatively, other formats may be used.
[0059] また、例えばアナログ地上波放送やデジタル地上波放送、衛星放送等のテレビ放 送の場合、 1つのコンテンツとは、 1つの番組に相当するものである。また、ビデオム 一ビーカメラで撮影した映像の場合、 1つのコンテンツとは、 1つのまとまった撮影シ ーンに相当するものである。 [0059] For example, in the case of television broadcasting such as analog terrestrial broadcasting, digital terrestrial broadcasting, and satellite broadcasting, one content corresponds to one program. In addition, in the case of video shot with a video camera, one content is a single shot. Is equivalent to
[0060] 図 3に示す通り、例えばこの例では、コンテンツ 1フォルダの下の階層に、コンテンツ 1管理情報ファイルと、コンテンツ 1付属情報ファイル 1と、コンテンツ 1映像ファイル 1 と、コンテンツ 1付属情報ファイル 2と、コンテンツ 1映像ファイル 2とが存在する。  [0060] As shown in FIG. 3, in this example, for example, in the hierarchy below the content 1 folder, the content 1 management information file, the content 1 auxiliary information file 1, the content 1 video file 1, and the content 1 auxiliary information file 2 and content 1 video file 2 exist.
[0061] コンテンツ 1管理情報ファイルは、コンテンツ 1に関する様々な管理情報、特に、コ ンテンッ 1に含まれる 2つの映像データに共通する情報や、これら 2つの映像データ の関係を表すデータや、これら 2つの映像データを関連付けるデータ、例えば、コン テンッ 1を入力した時の各映像入力処理部間の関係を表す静的機器情報や、動的 機器情報や、その他の情報等の全部または一部を含んで 、る。  [0061] The content 1 management information file contains various management information related to content 1, particularly information common to the two video data included in content 1, data representing the relationship between these two video data, and these 2 Data that associates two pieces of video data, for example, all or part of static device information, dynamic device information, and other information representing the relationship between the video input processing units when content 1 is input Out.
[0062] コンテンツ 1映像ファイル 1は、第 1の映像入力処理部 121から入力された第 1の映 像データ 103を符号ィ匕したストリーム (パーシャル TS)を含み、コンテンツ 1付属情報 ファイル 1は、第 1の映像入力処理部 121において第 1の映像データ 103を撮影した 時の静的機器情報及び動的機器情報を含んで 、る。  [0062] Content 1 video file 1 includes a stream (partial TS) obtained by encoding first video data 103 input from first video input processing unit 121. Content 1 ancillary information file 1 includes This includes static device information and dynamic device information when the first video input processing unit 121 captures the first video data 103.
[0063] コンテンツ 1映像ファイル 2は、第 2の映像入力処理部 123から入力された第 2の映 像データ 105を符号ィ匕したストリーム (パーシャル TS)を含み、コンテンツ 1付属情報 ファイル 2は、第 2の映像入力処理部 123において第 2の映像データ 105を撮影した 時の静的機器情報及び動的機器情報を含んで 、る。  [0063] The content 1 video file 2 includes a stream (partial TS) obtained by encoding the second video data 105 input from the second video input processing unit 123. The content 1 ancillary information file 2 includes The second video input processing unit 123 includes static device information and dynamic device information when the second video data 105 is captured.
[0064] これらのファイルはそれぞれ、これら以外の他の情報を含んで 、ても構わな 、。また 、コンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1、コンテンツ 1映像フ アイル 1、コンテンツ 1付属情報ファイル 2、及びコンテンツ 1映像ファイル 2の各フアイ ルは、それぞれ実際には複数のファイル力も構成されていても構わないし、実際には これらの幾つかが 1つのファイルとして構成されて 、ても構わな 、。  [0064] Each of these files may include information other than these. Each file of content 1 management information file, content 1 ancillary information file 1, content 1 video file 1, content 1 ancillary information file 2, and content 1 video file 2 is actually composed of multiple files. It may be, or in fact, some of these may be organized as a single file.
[0065] 上記の通り、コンテンツ 1映像ファイル 1は、レンズ 221を視点として被写体 201を見 た時の映像ストリームに相当し、コンテンツ 1映像ファイル 2は、レンズ 223を視点とし て被写体 201を見た時の映像ストリームに相当する。  [0065] As described above, content 1 video file 1 corresponds to a video stream when viewing subject 201 with lens 221 as a viewpoint, and content 1 video file 2 viewed subject 201 with lens 223 as a viewpoint. Corresponds to the video stream of the hour.
[0066] また、映像入力処理部が 3つ以上存在するような実施の形態では、コンテンツ 1フォ ルダの下に、コンテンツ 1映像ファイルとコンテンツ 1付属情報ファイルとのペアが 3つ 以上存在することがあっても構わな 、。 [0067] コンテンツ 2フオノレダ、コンテンツ 3フオノレダ、 · · ·、及びコンテンツ nフオノレダに関し ても、コンテンツの内容が変わるだけで、実質的には同様の構成であるから図示と説 明を省略する。 [0066] In an embodiment in which there are three or more video input processing units, there must be three or more pairs of content 1 video files and content 1 ancillary information files under the content 1 folder. There is no problem. [0067] Content 2 Honoreda, Content 3 Honoreda,..., And Content n Honoreda have substantially the same configuration except that the content is changed, and illustration and description thereof are omitted.
[0068] このように、 SDメモリカードを使用する情報記録メディア 167を一例として示すなら ば、映像コンテンツを記録するためのフォルダとファイルシステムの構造とをメディア 規格フォルダの下の階層に定めることによって、映像コンテンツの記録形式の標準化 を提案し、映像コンテンツの流通の拡大促進を可能にすることができる。このことはま た、映像コンテンツに対する新しい産業分野の創生にもつながるものである。  [0068] Thus, if the information recording medium 167 using an SD memory card is shown as an example, the folder for recording video content and the structure of the file system are defined in the hierarchy below the media standard folder. Therefore, it is possible to propose standardization of the recording format of video content, and to promote the expansion of the distribution of video content. This also leads to the creation of new industrial fields for video content.
[0069] また、図 3に示すディレクトリ及びファイル構成では、静的機器情報と動的機器情報 とを、 1つのファイルであるコンテンツ 1管理情報ファイル、コンテンツ付属情報フアイ ル 1またはコンテンツ付属情報ファイル 2に記録して 、るが、静的機器情報と動的機 器情報とを別のファイル、例えば、静的機器情報をコンテンツ付属情報ファイル 1 S とコンテンツ付属情報ファイル 2— Sとに記録し、動的機器情報をコンテンツ付属情報 ファイル 1 Mとコンテンッ付属情報ファイル 2— Mとに記録しても構わな 、。  [0069] In the directory and file structure shown in FIG. 3, the static device information and the dynamic device information are divided into one file, a content 1 management information file, a content ancillary information file 1, or a content ancillary information file 2. However, the static device information and the dynamic device information are recorded in different files, for example, the static device information is recorded in the content ancillary information file 1 S and the content ancillary information file 2-S. Dynamic device information may be recorded in content ancillary information file 1M and content ancillary information file 2—M.
[0070] 或いは、静的機器情報をコンテンツ 1管理情報ファイルにまとめて記録し、動的機 器情報をコンテンツ付属情報ファイル 1とコンテンツ付属情報ファイル 2とに分けて記 録しても構わない。  [0070] Alternatively, static device information may be recorded together in a content 1 management information file, and dynamic device information may be recorded separately in content attached information file 1 and content attached information file 2.
[0071] 或いは、これらの内の任意の幾つ力、例えば静的機器情報を記録するファイルと動 的機器情報を記録するファイルとを 1つのファイルとしてもよぐ動的機器情報を記録 するファイルと映像情報を記録するファイルとを 1つのファイルとしてもよぐ静的機器 情報を記録するファイルと映像情報を記録するファイルとを 1つのファイルとしてもよく 、これらの全てを 1つのファイルとして記録しても構わない。例えばコンテンツ処理部 1 42でパーシャル TSを作成する実施の形態は、これら全てを 1つのファイル (パーシャ ル TS)としてストリーム化し、記録する実施の形態の一例である。  [0071] Alternatively, any number of these forces, for example, a file for recording dynamic device information in which a file for recording static device information and a file for recording dynamic device information may be used as one file A file that records video information can be a single file. A file that records information and a file that records video information can be combined into a single file. It doesn't matter. For example, the embodiment in which the partial TS is created by the content processing unit 144 is an example of an embodiment in which all of these are streamed and recorded as one file (partial TS).
[0072] 更にまた、図 3に示すディレクトリ及びファイル構成では、静的機器情報及び動的機 器情報を記録するコンテンツ 1管理情報ファイル及びコンテンツ 1付属情報ファイル 1 及びコンテンツ 1付属情報ファイル 2と、第 1の映像データ 103を符号ィ匕した映像スト リームを記録するコンテンツ 1映像ファイル 1と、第 2の映像データ 105を符号ィ匕した 映像ストリームを記録するコンテンツ 1映像ファイル 2とを、全て同じ情報記録メディア 167の同じフォルダに記録している力 これらの幾つかを異なるフォルダや異なる記 録メディアに記録する実施の形態であっても構わない。また、このように、幾つかを異 なるフォルダや異なる記録メディアに記録する実施の形態では、これらに共通する管 理情報をどれ力 1つのフォルダや記録メディアに記録する実施の形態も可能であるし 、全てのフォルダや記録メディアに記録する実施の形態も可能であるし、例えば、映 像コンテンツ記録装置側に記録する実施の形態も可能である。 Furthermore, in the directory and file structure shown in FIG. 3, a content 1 management information file and content 1 ancillary information file 1 and content 1 ancillary information file 2 for recording static device information and dynamic device information, Content that records a video stream encoded with the first video data 103 1 Video file 1 and the second video data 105 are encoded The ability to record content 1 video file 2 in the same folder on the same information recording medium 167 even in an embodiment in which some of these are recorded in different folders or different recording media I do not care. Further, in the embodiment in which some are recorded in different folders or different recording media, an embodiment in which management information common to these is recorded in any one folder or recording medium is also possible. However, an embodiment of recording in all folders and recording media is possible, and an embodiment of recording on the video content recording apparatus side is also possible.
[0073] そしてまた、静的機器情報に関しては、この映像コンテンツ記録装置 100に固有の 情報であって、被写体 201を撮影する時の状態によって変化することはない情報で あるから、例えば情報記録メディア 167が映像コンテンツ記録装置 100にセットされ た時点、情報記録メディア 167が映像コンテンツ記録装置 100にセットされた時から 被写体 201を撮影するまでの間、情報記録メディア 167のフォーマットや初期化を行 つた時点、及びそれ以外の空き時間において、予め記録しておく実施の形態であつ ても構わない。 [0073] Further, the static device information is information unique to the video content recording apparatus 100 and does not change depending on the state when the subject 201 is photographed. When the 167 was set in the video content recording apparatus 100, the information recording medium 167 was formatted and initialized from when the information recording medium 167 was set to the video content recording apparatus 100 until the subject 201 was shot. The embodiment may be recorded in advance at the time and other free times.
[0074] 或いはまた、図 3に示すディレクトリ及びファイル構成では、第 1の映像データ 103 を符号ィ匕した映像ストリームを記録するコンテンツ 1映像ファイル 1と、第 2の映像デー タ 105を符号ィ匕した映像ストリームを記録するコンテンツ 1映像ファイル 2とを、別のフ アイルとして情報記録メディア 167に記録して 、るが、これら複数の映像ストリームを 1 つの映像ストリームとして符号ィ匕し、 1つのコンテンツ 1映像ファイルとして情報記録メ ディア 167に記録する実施の形態であっても構わない。  [0074] Alternatively, in the directory and file structure shown in FIG. 3, the content 1 video file 1 for recording the video stream encoded with the first video data 103 and the second video data 105 are encoded. Content that records the recorded video stream 1 Video file 2 is recorded on the information recording medium 167 as a separate file, but these multiple video streams are encoded as one video stream, and one content An embodiment in which the information is recorded on the information recording medium 167 as one video file may be used.
[0075] 例えば、 1つの撮像素子を例えば 2つ或いは 3つ以上の複数の領域に分割し、それ ぞれの領域の撮像素子毎にレンズを中心とする結像部を設け、それぞれ異なる視点 (レンズの位置)で撮影した複数の画像を 1つの撮像素子の複数の領域に結像させる 実施の形態も考えることができる。このような実施の形態では、使用する撮像素子は 1 つであるので、映像ストリームも 1つであり、この 1つの映像ストリーム中に複数の視点 力も見た画像情報が含まれていることになる。この 1つの映像ストリームと静的機器情 報と動的機器情報とをそれぞれ個別のファイルとして、同じ情報記録メディア 167の 同じフォルダに記録する実施の形態であっても構わな ヽし、同じ情報記録メディア 16 7の異なるフォルダに記録する実施の形態であっても構わな 、し、異なる情報記録メ ディア 167に記録する実施の形態であっても構わない。 [0075] For example, one image sensor is divided into a plurality of areas, for example, two or more, and an imaging unit centered on a lens is provided for each image sensor in each area, and each has a different viewpoint ( An embodiment in which a plurality of images photographed at the lens position) are formed on a plurality of regions of one image sensor can also be considered. In such an embodiment, since only one image sensor is used, there is only one video stream, and this single video stream includes image information that also looks at multiple viewpoints. . This one video stream, static device information, and dynamic device information may be recorded as separate files in the same folder on the same information recording medium 167, and the same information recording may be performed. Media 16 The embodiment may be recorded in seven different folders, or may be recorded in different information recording media 167.
[0076] 或いは、この 1つの映像ストリームと静的機器情報と動的機器情報との幾つかを 1つ のファイルに記録し、それ以外を別のファイルに記録し、同じ情報記録メディア 167の 同じフォルダに記録する実施の形態であっても構わな ヽし、同じ情報記録メディア 16 7の異なるフォルダに記録する実施の形態であっても構わな 、し、異なる情報記録メ ディア 167に記録する実施の形態であっても構わない。或いはまた、この 1つの映像 ストリームと静的機器情報と動的機器情報との全てを 1つのファイルとして、 1つの情 報記録メディア 167の 1つのフォルダに記録する実施の形態であっても構わない。  [0076] Alternatively, some of this one video stream, static device information, and dynamic device information are recorded in one file, and the others are recorded in another file. It may be an embodiment for recording in a folder, an embodiment for recording in a different folder on the same information recording medium 167, or an embodiment for recording on a different information recording medium 167. It may be a form. Alternatively, an embodiment in which all of this one video stream, static device information, and dynamic device information are recorded as one file in one folder of one information recording medium 167 may be possible. .
[0077] このように、 1つの撮像素子を複数の領域に分割し、それぞれの領域の撮像素子毎 にレンズを中心とする結像部を設け、それぞれ異なる視点で撮影した複数の画像を 1 つの撮像素子の複数の領域に結像させてもよい。この場合、 1つの撮像素子で撮影 した複数の視点力 見た画像を、それぞれの視点力 見た映像ストリーム毎に分割し 、 1つの映像ストリームには 1つの視点力も見た画像が含まれるようにする。このような 実施の形態では、 1つの映像ストリームにはそれぞれ 1つの視点から見た画像が含ま れ、このような映像ストリームが複数存在するので、複数の映像入力処理部が存在す る実施の形態と実質的に変わることがなぐ詳細な説明は省略する。  [0077] In this way, one image sensor is divided into a plurality of regions, and an image forming unit centered on the lens is provided for each image sensor in each region, so that a plurality of images taken from different viewpoints are combined into one image. You may form an image in the several area | region of an image pick-up element. In this case, images with multiple viewpoints shot with one image sensor are divided into video streams with different viewpoints so that one video stream includes images with one viewpoint. To do. In such an embodiment, each video stream includes an image viewed from one viewpoint, and since there are a plurality of such video streams, there are a plurality of video input processing units. Detailed description that does not substantially change will be omitted.
[0078] ここで、本実施の形態 1に係る映像コンテンツ記録装置による映像コンテンツ記録 処理について説明する。図 4は、図 1に示す映像コンテンツ記録装置による映像コン テンッ記録処理について説明するためのフローチャートである。  Here, the video content recording process by the video content recording apparatus according to the first embodiment will be described. FIG. 4 is a flowchart for explaining video content recording processing by the video content recording apparatus shown in FIG.
[0079] まず、ステップ S1において、静的機器情報管理部 146は、内部に予め記憶されて いる静的機器情報を読み出す。静的機器情報管理部 146は、読み出した静的機器 情報をコンテンツ付属情報処理部 144へ出力する。  First, in step S1, the static device information management unit 146 reads out static device information stored in advance therein. The static device information management unit 146 outputs the read static device information to the content-attached information processing unit 144.
[0080] 上述したように、静的機器情報には、第 1の映像入力処理部 121と第 2の映像入力 処理部 123とに備えられたレンズのレンズ間距離、各レンズの焦点距離、及び映像コ ンテンッ記録装置内における各レンズの位置を表す位置情報が含まれる。これらの 情報は、撮影状況に応じて変化することなぐ映像コンテンツ記録装置での撮影時に 固有の情報であるので、予め静的機器情報管理部 146の内部のメモリに記憶されて いる。 [0080] As described above, the static device information includes the distance between lenses of the lenses provided in the first video input processing unit 121 and the second video input processing unit 123, the focal length of each lens, and Position information indicating the position of each lens in the video content recording apparatus is included. Since these pieces of information are unique information at the time of shooting with the video content recording device that does not change according to the shooting situation, they are stored in advance in the internal memory of the static device information management unit 146. Yes.
[0081] 次に、ステップ S2において、コンテンツ付属情報処理部 144は、静的機器情報に 対して、情報記録メディア 167に記録するために必要なデータ変換処理を行う。すな わち、コンテンツ付属情報処理部 144は、静的機器情報のデータ構造形式を情報記 録メディア 167の種類に応じたデータ構造形式に変換する。コンテンツ付属情報処 理部 144は、データ変換した静的機器情報をコンテンツ処理部 142へ出力する。コ ンテンッ処理部 142は、静的機器情報をメディアアクセス処理部 161へ出力する。メ ディアアクセス処理部 161は、コンテンツ処理部 142によって出力された静的機器情 報を情報記録メディア 167に記録する。  [0081] Next, in step S2, the content-attached information processing unit 144 performs data conversion processing necessary for recording the static device information on the information recording medium 167. In other words, the content-attached information processing unit 144 converts the data structure format of the static device information into a data structure format corresponding to the type of the information recording medium 167. The content ancillary information processing unit 144 outputs the static device information after the data conversion to the content processing unit 142. The content processing unit 142 outputs the static device information to the media access processing unit 161. The media access processing unit 161 records the static device information output by the content processing unit 142 on the information recording medium 167.
[0082] 次に、ステップ S3において、第 1の映像入力処理部 121は、被写体を撮影した第 1 の映像データを取得し、 AV制御バッファ処理部 125へ出力する。また、第 2の映像 入力処理部 123は、第 1の映像入力処理部 121とは異なる視点から被写体を撮影し た第 2の映像データを取得し、 AV制御バッファ処理部 125へ出力する。さらに、動的 機器情報管理部 129は、第 1の映像入力処理部 121から動的機器情報を取得する とともに、第 2の映像入力処理部 123から動的機器情報を取得する。第 1の映像入力 処理部 121は、動的機器情報を動的機器情報管理部 129へ出力する。また、第 2の 映像入力処理部 123は、動的機器情報を動的機器情報管理部 129へ出力する。動 的機器情報管理部 129は、取得した動的機器情報をコンテンツ付属情報処理部 14 4へ出力する。  Next, in step S 3, the first video input processing unit 121 acquires the first video data obtained by photographing the subject and outputs the first video data to the AV control buffer processing unit 125. Further, the second video input processing unit 123 acquires second video data obtained by photographing the subject from a different viewpoint from that of the first video input processing unit 121 and outputs the second video data to the AV control buffer processing unit 125. Further, the dynamic device information management unit 129 acquires dynamic device information from the first video input processing unit 121 and also acquires dynamic device information from the second video input processing unit 123. The first video input processing unit 121 outputs the dynamic device information to the dynamic device information management unit 129. Also, the second video input processing unit 123 outputs the dynamic device information to the dynamic device information management unit 129. The dynamic device information management unit 129 outputs the acquired dynamic device information to the content-attached information processing unit 144.
[0083] 上述したように、動的機器情報には、第 1の映像入力処理部 121及び第 2の映像入 力処理部 123が向いている方向を表す撮影方向情報、第 1の映像入力処理部 121 及び第 2の映像入力処理部 123の位置を表す撮影位置情報、及び被写体焦点を表 す被写体焦点情報が含まれる。  [0083] As described above, the dynamic device information includes shooting direction information indicating the direction in which the first video input processing unit 121 and the second video input processing unit 123 are facing, and the first video input processing. Shooting position information indicating the positions of the unit 121 and the second video input processing unit 123, and subject focus information indicating the subject focus are included.
[0084] 撮影方向情報は、第 1の映像入力処理部 121及び第 2の映像入力処理部 123のう ちの少なくとも一方が備えるジャイロスコープにより得ることができる。撮影位置情報 は、第 1の映像入力処理部 121及び第 2の映像入力処理部 123のうちの少なくとも一 方が備える GPSにより得ることができる。なお、第 1の映像入力処理部 121及び第 2 の映像入力処理部 123のうちのいずれか一方に GPSを設けることにより、映像コンテ ンッ記録装置の位置を得ることができ、第 1の映像入力処理部 121及び第 2の映像 入力処理部 123の両方に GPSを設けることにより、各映像入力処理部の位置を得る ことができる。被写体焦点情報は、レンズの焦点距離と、レンズ間距離とに基づいて 三角測量により得ることができる。 The shooting direction information can be obtained by a gyroscope provided in at least one of the first video input processing unit 121 and the second video input processing unit 123. The shooting position information can be obtained by GPS provided in at least one of the first video input processing unit 121 and the second video input processing unit 123. Note that a video container is provided by providing a GPS in one of the first video input processing unit 121 and the second video input processing unit 123. The position of each video input processing unit can be obtained by providing GPS in both the first video input processing unit 121 and the second video input processing unit 123. Subject focus information can be obtained by triangulation based on the focal length of the lens and the distance between the lenses.
[0085] なお、撮影位置情報は、 GPSにより取得される地球上での位置だけでなぐジャィ ロスコープの 3軸角度測定により取得される第 1の映像入力処理部 121及び第 2の映 像入力処理部 123の地軸に対する向きを表す情報、及び加速度センサと時刻情報 に基づいて算出される相対移動距離情報を含んでもよい。また、映像コンテンツ記録 装置が宇宙空間で使用される場合、恒星の光とその位置とに基づいて相対的な位 置を把握するスターセンサにより撮影位置情報を取得してもよい。  [0085] Note that the shooting position information includes the first video input processing unit 121 and the second video input processing acquired by the three-axis angle measurement of the gyroscope that is acquired only by the position on the earth acquired by GPS. Information indicating the orientation of the unit 123 with respect to the ground axis, and relative movement distance information calculated based on the acceleration sensor and time information may be included. When the video content recording apparatus is used in outer space, the shooting position information may be acquired by a star sensor that grasps the relative position based on the light of the star and its position.
[0086] 次に、ステップ S4において、 AV制御バッファ処理部 125は、第 1の映像入力処理 部 121によって出力された第 1の映像データを一時的に記憶するとともに、第 2の映 像入力処理部 123によって出力された第 2の映像データを一時的に記憶する。  Next, in step S 4, the AV control buffer processing unit 125 temporarily stores the first video data output by the first video input processing unit 121 and performs the second video input processing. The second video data output by the unit 123 is temporarily stored.
[0087] 次に、ステップ S5において、 CODEC処理部 127は、 AV制御バッファ処理部 125 に記憶されている第 1の映像データを符号ィ匕するとともに、 AV制御バッファ処理部 1 25に記憶されている第 2の映像データを符号ィ匕する。このとき、 CODEC処理部 127 は、ユーザインタフェース処理部 165によって受け付けられた形式で、第 1の映像デ ータ及び第 2の映像データを符号化する。  Next, in step S 5, the CODEC processing unit 127 encodes the first video data stored in the AV control buffer processing unit 125 and stores it in the AV control buffer processing unit 125. The second video data is encoded. At this time, the CODEC processing unit 127 encodes the first video data and the second video data in the format accepted by the user interface processing unit 165.
[0088] なお、本実施の形態では、符号ィ匕する形式をユーザインタフェース処理部 165によ り受け付けている力 本発明は特にこれに限定されず、予め決められている形式で 第 1の映像データ及び第 2の映像データを自動的に符号ィ匕してもよ!、。  [0088] In the present embodiment, the power received by the user interface processing unit 165 in the encoding format is not particularly limited to this, and the first video is in a predetermined format. You can automatically sign the data and the second video data!
[0089] 次に、ステップ S6において、コンテンツ処理部 142は、 CODEC処理部 127によつ て符号ィ匕された第 1の映像データをストリーム化するとともに、 CODEC処理部 127に よって符号化された第 2の映像データをストリーム化する。  [0089] Next, in step S6, the content processing unit 142 streams the first video data encoded by the CODEC processing unit 127, and also encodes the first video data encoded by the CODEC processing unit 127. Stream the second video data.
[0090] 次に、ステップ S7において、コンテンツ付属情報処理部 144は、動的機器情報に 対して、情報記録メディア 167に記録するために必要なデータ変換処理を行う。すな わち、コンテンツ付属情報処理部 144は、動的機器情報のデータ構造形式を情報記 録メディア 167の種類に応じたデータ構造形式に変換する。コンテンツ付属情報処 理部 144は、データ変換した動的機器情報をコンテンツ処理部 142へ出力する。コ ンテンッ処理部 142は、第 1の映像ストリーム、第 2の映像ストリーム及び動的機器情 報をメディアアクセス処理部 161へ出力する。メディアアクセス処理部 161は、コンテ ンッ処理部 142によって出力された第 1の映像ストリーム、第 2の映像ストリーム及び 動的機器情報を情報記録メディア 167に記録する。このとき、第 1の映像ストリーム、 第 2の映像ストリーム、静的機器情報及び動的機器情報力^つの映像コンテンツとし て情報記録メディア 167に記録される。 Next, in step S7, the content-attached information processing unit 144 performs data conversion processing necessary for recording the dynamic device information on the information recording medium 167. In other words, the content-attached information processing unit 144 converts the data structure format of the dynamic device information into a data structure format corresponding to the type of the information recording medium 167. Content ancillary information office The processing unit 144 outputs the converted dynamic device information to the content processing unit 142. The content processing unit 142 outputs the first video stream, the second video stream, and the dynamic device information to the media access processing unit 161. The media access processing unit 161 records the first video stream, the second video stream, and the dynamic device information output by the content processing unit 142 on the information recording medium 167. At this time, the first video stream, the second video stream, the static device information, and the dynamic device information are recorded on the information recording medium 167 as video content.
[0091] 以上説明した映像コンテンツ記録装置 100は、本発明に係る映像コンテンツ記録 装置の一実施の形態である。また、この映像コンテンツ記録装置 100が実行する映 像コンテンツ記録方法は、本発明に係る映像コンテンツ記録方法の一実施の形態で ある。また、この情報記録メディア 167は、本発明に係る情報記録メディアの一実施 の形態である。  [0091] The video content recording apparatus 100 described above is an embodiment of the video content recording apparatus according to the present invention. The video content recording method executed by the video content recording apparatus 100 is an embodiment of the video content recording method according to the present invention. The information recording medium 167 is an embodiment of the information recording medium according to the present invention.
[0092] (実施の形態 2)  [Embodiment 2]
次に、実施の形態 2に係る映像コンテンツ再生編集装置について説明する。実施 の形態 1に係る映像コンテンツ記録装置は、映像コンテンツを情報記録メディアに記 録しているが、実施の形態 2に係る映像コンテンツ再生編集装置は、情報記録メディ ァに記録されている映像コンテンツを再生するとともに編集する。  Next, a video content reproduction / editing apparatus according to Embodiment 2 will be described. The video content recording apparatus according to the first embodiment records the video content on the information recording medium. The video content playback / editing apparatus according to the second embodiment is the video content recorded on the information recording medium. Play and edit the.
[0093] 実施の形態 2では、例えば、情報記録メディア 167に記録されて 、る、コンテンツ 1 管理情報ファイル、コンテンツ 1付属情報ファイル 1及びコンテンツ 1付属情報フアイ ル 2の内容である静的機器情報及び動的機器情報は、情報記録メディア 167から読 み出して変更することが可能である。そして、映像コンテンツ再生編集装置は、新しく 変更された静的機器情報や動的機器情報の値を使用して、コンテンツ 1映像フアイ ル 1やコンテンツ 1映像ファイル 2に記録されている映像コンテンツを再生表示するこ とが可能である。また、映像コンテンツ再生編集装置は、変更した静的機器情報及び 動的機器情報の値を、再度、情報記録メディア 167に記録することが可能である。  In Embodiment 2, for example, static device information that is recorded in the information recording medium 167 and is the contents of the content 1 management information file, the content 1 attached information file 1 and the content 1 attached information file 2 The dynamic device information can be read from the information recording medium 167 and changed. The video content playback / editing device then plays back the video content recorded in Content 1 Video File 1 or Content 1 Video File 2 using the newly changed static device information and dynamic device information values. It can be displayed. Also, the video content playback / editing apparatus can record the changed static device information and dynamic device information values in the information recording medium 167 again.
[0094] 静的機器情報及び動的機器情報は、その性格上通常は数値データやテキストデ ータであることが多ぐ例えばテキスト形式、 HTML (hypertext markup languag e)形式、 XML (extensible markup language)形式、又はバイナリ形式等で情 報記録メディア 167に記録されている。そして、これらのデータは、例えばテキスト形 式で記録されて ヽればワープロソフトを用いて、 HTML形式や XML形式等で記録 されて ヽればブラウザのようなツールやソフトウェアを用いて、バイナリ形式で記録さ れていればそのデータ形式を扱うための専用のソフトウェア等を用いて、変更するこ とが可能であり、変更後のデータを再度記録することが可能である。 [0094] Static device information and dynamic device information are usually numeric data or text data because of their nature, for example, text format, HTML (hypertext markup language) format, XML (extensible markup language) ) Format or binary format Recorded on information recording media 167. These data are recorded in a binary format using, for example, a word processing software if it is recorded in a text format, and a tool or software such as a browser if it is recorded in an HTML format or XML format. Can be changed using dedicated software for handling the data format, and the changed data can be recorded again.
[0095] 図 5は、実施の形態 2に係る映像コンテンツ再生編集装置 500の主要部の構成を 示すブロック図である。図 5に示す映像コンテンツ再生編集装置 500は、メディアァク セス処理部 501、メニュー処理部 503、ユーザインタフェース処理部 505、コンテンツ 付属情報処理部 507、コンテンツ処理部 509及び映像出力処理部 522を備える。  FIG. 5 is a block diagram showing a configuration of a main part of video content reproduction / editing apparatus 500 according to Embodiment 2. 5 includes a media access processing unit 501, a menu processing unit 503, a user interface processing unit 505, a content attached information processing unit 507, a content processing unit 509, and a video output processing unit 522.
[0096] 映像コンテンツ再生編集装置 500において、メニュー処理部 503は、例えば液晶 ディスプレイや CRT表示装置等で構成されるメニュー表示部に、操作者の操作をガ イドするためのメニュー画面を表示する。ユーザインタフェース処理部 505は、メ-ュ 一表示部と、タツチ式スィッチやボタン式スィッチ等で構成される入力部とを制御する 。ユーザインタフェース処理部 505は、操作者 (ユーザ)からの操作入力を受け付け、 その指示に従った処理内容を実行する。  [0096] In video content playback / editing apparatus 500, menu processing section 503 displays a menu screen for guiding the operation of the operator on a menu display section constituted by, for example, a liquid crystal display or a CRT display device. A user interface processing unit 505 controls a menu display unit and an input unit configured by a touch switch, a button switch, or the like. The user interface processing unit 505 receives an operation input from an operator (user) and executes processing contents according to the instruction.
[0097] 例えば、ユーザの操作内容が、情報記録メディア 167に記録されている、コンテン ッ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報ファ ィル 2の内容の更新変更 (編集)である場合、コンテンツ付属情報処理部 507は、メ ディアアクセス処理部 501を経由して情報記録メディア 167から、指定されたコンテン ッ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報ファ ィル 2の内容を読み出す。次に、コンテンツ付属情報処理部 507は、ワープロソフトや ブラウザ等のツールソフトやその他の方法を用いて、その内容を変更する。そして、コ ンテンッ付属情報処理部 507は、再度メディアアクセス処理部 501を経由して、変更 後の内容を情報記録メディア 167に記録する。  [0097] For example, the content of a user 1 operation information file, content 1 attached information file 1 or content 1 attached information file 2 recorded in the information recording medium 167 is updated (edited). ), The content-attached information processing unit 507 receives the specified content 1 management information file, content 1 attached information file 1 or content 1 attached information from the information recording medium 167 via the media access processing unit 501. Read the contents of file 2. Next, the content-attached information processing unit 507 changes the content using tool software such as word processing software or a browser, or other methods. The content-attached information processing unit 507 records the changed content on the information recording medium 167 via the media access processing unit 501 again.
[0098] 例えば、ユーザの操作内容が、情報記録メディア 167に記録されている、コンテン ッ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報ファ ィル 2の内容を変更し、その変更された内容とコンテンツ 1映像ファイル 1及びコンテ ンッ 1映像ファイル 2とを使って 3次元立体映像を表示することである場合、コンテンツ 付属情報処理部 507は、メディアアクセス処理部 501を経由して情報記録メディア 1 67から、指定されたコンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1 又はコンテンツ 1付属情報ファイル 2の内容を読み出す。次に、コンテンツ付属情報 処理部 507は、ワープロソフトやブラウザ等のツールソフトやその他の方法を用いて、 その内容を変更する。 [0098] For example, the content of the user 1 operation information file, content 1 attached information file 1 or content 1 attached information file 2 recorded on the information recording medium 167 is changed, and Changed content and content If video content 1 and content 1 video file 2 are to be used to display 3D video, content The attached information processing unit 507 reads the contents of the specified content 1 management information file, content 1 attached information file 1 or content 1 attached information file 2 from the information recording medium 167 via the media access processing unit 501. Next, the content ancillary information processing unit 507 changes the content using tool software such as word processing software or a browser, or other methods.
[0099] そして、コンテンツ付属情報処理部 507は、変更したコンテンツ 1管理情報ファイル 、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報ファイル 2の内容を映像 出力処理部 522へ送出する。また、コンテンツ処理部 509は、メディアアクセス処理 部 501を経由して情報記録メディア 167から、コンテンッ 1映像ファイル 1及びコンテ ンッ 1映像ファイル 2を読み出す。コンテンツ処理部 509は、情報記録メディア 167か ら読み出したコンテンツ 1映像ファイル 1及びコンテンツ 1映像ファイル 2を映像出力 処理部 522へ送出する。  Then, the content-attached information processing unit 507 sends the contents of the changed content 1 management information file, content 1 attached information file 1 or content 1 attached information file 2 to the video output processing unit 522. Further, the content processing unit 509 reads the content 1 video file 1 and the content 1 video file 2 from the information recording medium 167 via the media access processing unit 501. The content processing unit 509 sends the content 1 video file 1 and the content 1 video file 2 read from the information recording medium 167 to the video output processing unit 522.
[0100] 映像出力処理部 522は、情報記録メディア 167から読み出されたコンテンツ 1映像 ファイル 1及びコンテンツ 1映像ファイル 2と、変更されたコンテンツ 1管理情報フアイ ル、コンテンツ 1付属情報ファイル 1及びコンテンツ 1付属情報ファイル 2、または変更 される前のコンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1及びコンテ ンッ 1付属情報ファイル 2とを受け取り、立体画像表示部 524に表示するために必要 な画像処理を実行する。  [0100] The video output processing unit 522 reads the content 1 video file 1 and content 1 video file 2 read from the information recording medium 167, the changed content 1 management information file, content 1 attached information file 1 and content. 1 Attached information file 2 or content before change 1 Management information file, content 1 Attached information file 1 and content 1 Attached information file 2 Execute.
[0101] 右目で見た映像ストリームと左目で見た映像ストリームとに相当する 2つの映像ストリ ームと、右目と左目との位置や角度等に相当する 2つの付属情報とに基づいて、立 体画像表示部 524に 3次元画像を表示するために必要な画像処理の内容は、立体 画像表示部 524の原理'方式によって様々に異なる。  [0101] Based on two video streams corresponding to the video stream viewed with the right eye and the video stream viewed with the left eye, and two attached information corresponding to the position and angle of the right eye and the left eye, etc. The content of the image processing necessary for displaying the three-dimensional image on the body image display unit 524 varies depending on the principle of the stereoscopic image display unit 524.
[0102] 2つの映像ストリームやそれらの付属情報から映像を立体的に表示し、それを見る ことのできる原理 ·方式としては、アナグリフ (余色立体)方式、ボラライザ (偏光)方式 、ノ ララックスノ リア方式、インテグラルフォトグラフィ方式、レンティキユラ方式、ノ リフ オーカルミラー方式、オートステレオグラム方式、クロマデプス (分光視差)方式、 RD S型ステレオグラム方式、 WTD方式 (家庭用テレビ)、 CID法、輝度比多重表示方式 、ファントグラム(平置表示)方式、及び薄膜ホログラムメモリ方式等、極めて多くのも のが歴史的に知られており、また、次々と近年新しく発表されている。 [0102] The principle and method of displaying images in three dimensions from two video streams and their associated information are as follows: Anaglyph (rear-colored three-dimensional) method, volatilizer (polarization) method, Norralux Noria System, Integral Photography System, Lenticular System, Norwegical Mirror System, Auto Stereogram System, Chroma Depth (Spectral Parallax) System, RDS Type Stereogram System, WTD System (Home TV), CID Method, Brightness Ratio Multiplex Display A lot of things such as a system, a phantomgram (flat display) system, and a thin-film hologram memory system Has been known historically, and has been published in recent years.
[0103] 2つの映像ストリームやそれらの付属情報から、映像を立体的に表示し、それを見る ために映像出力処理部 522において実行される画像処理の内容は、これら種々の 原理'方式に対応して様々である。  [0103] The content of the image processing executed in the video output processing unit 522 to display the video three-dimensionally from the two video streams and their attached information and to view them corresponds to these various principles' methods. And it is various.
[0104] 以下では、これら 3次元立体画像を表示するための原理 '方式に依存しない部分で あって、右目と左目との位置や角度等に相当する付属情報を変更した時に見える 3 次元立体画像の変化の様子を説明する。模式的に示す。図 6は、静的機器情報及 び動的機器情報の一例としてレンズ間距離を採り上げ、このレンズ間距離を変更して 映像コンテンツを再生した時の例を模式的に示す図である。  [0104] The following is a principle that does not depend on the principle for displaying these three-dimensional stereoscopic images. It is a three-dimensional stereoscopic image that can be seen when the attached information corresponding to the positions and angles of the right and left eyes is changed. The state of change will be described. This is shown schematically. FIG. 6 is a diagram schematically showing an example in which the distance between lenses is taken as an example of static device information and dynamic device information, and video content is reproduced by changing the distance between lenses.
[0105] 図 6 (A)は、被写体 401を映像コンテンツ記録装置 100で撮影した時の状態を示す 模式図であり、図 6 (B)は、レンズ間距離を変更して映像コンテンツを再生した時の状 態を示す模式図である。  FIG. 6 (A) is a schematic diagram showing a state when the subject 401 is photographed by the video content recording apparatus 100, and FIG. 6 (B) shows that the video content is reproduced by changing the distance between the lenses. It is a schematic diagram which shows the state of time.
[0106] 図 6 (A)及び図 6 (B)は、撮影した時の様子と再生した時の様子とを上方から見た 状態を示している。被写体 401は、例えばその底面が正方形の四角柱である。図 6 ( A)において、被写体 401を撮影した映像力 映像コンテンツ記録装置 100の第 1の 映像入力処理部 121と第 2の映像入力処理部 123とに入力される。この入力される 映像は、それぞれ第 1の被写体像 102と第 2の被写体像 104とである。第 1の映像入 力処理部 121と第 2の映像入力処理部 123とによって撮影された像力 第 1の映像 4 21と第 2の映像 423とに相当する。  FIGS. 6 (A) and 6 (B) show a state when the image is taken and a state when the image is reproduced as viewed from above. The subject 401 is, for example, a quadrangular prism whose bottom surface is a square. In FIG. 6A, the video power obtained by photographing the subject 401 is input to the first video input processing unit 121 and the second video input processing unit 123 of the video content recording apparatus 100. The input images are a first subject image 102 and a second subject image 104, respectively. The image power taken by the first video input processing unit 121 and the second video input processing unit 123 corresponds to the first video 421 and the second video 423.
[0107] 第 1の映像入力処理部 121は例えば左目に相当し、第 2の映像入力処理部 123は 、例えば右目に相当する。この時のレンズ間距離は dlであったと仮定する。このレン ズ間距離は、例えば静的機器情報管理部 146によって情報記録メディア 167に記録 される。レンズ間距離が記録されるファイルは、例えばコンテンツ 1管理情報ファイル 、コンテンツ 1付属情報ファイル 1またはコンテンツ 1付属情報ファイル 2である。或い は、レンズ間距離は、動的機器情報管理部 129によって他の何らかのファイルに記 録されても構わないし、コンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1またはコンテンツ 1付属情報ファイル 2に記録されても構わないし、映像ストリームと 同じファイルに記録されても構わな!/、。 [0108] 上記の通り、コンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1又はコ ンテンッ 1付属情報ファイル 2に記録された静的機器情報及び動的機器情報は変更 、更新することが可能である。そこで、実施の形態 2では、例えばレンズ間距離が dl 力も d2に変更されたと仮定する。また、一例として dl < d2であったと仮定する。 [0107] The first video input processing unit 121 corresponds to, for example, the left eye, and the second video input processing unit 123 corresponds to, for example, the right eye. It is assumed that the distance between lenses at this time was dl. This distance between lenses is recorded on the information recording medium 167 by the static device information management unit 146, for example. The file in which the distance between the lenses is recorded is, for example, a content 1 management information file, a content 1 attached information file 1 or a content 1 attached information file 2. Alternatively, the inter-lens distance may be recorded in some other file by the dynamic device information management unit 129, and is stored in the content 1 management information file, content 1 attached information file 1 or content 1 attached information file 2. It can be recorded, or it can be recorded in the same file as the video stream! /. [0108] As described above, the static device information and dynamic device information recorded in the content 1 management information file, content 1 ancillary information file 1 or content 1 ancillary information file 2 can be changed and updated. . Therefore, in the second embodiment, for example, it is assumed that the distance between lenses is changed to dl force as well. Also assume that dl <d2 as an example.
[0109] そして、情報記録メディア 167に記録されているコンテンツ 1映像ファイル 1及びコン テンッ 1映像ファイル 2と、変更されたコンテンツ 1管理情報ファイル、コンテンツ 1付 属情報ファイル 1及びコンテンツ 1付属情報ファイル 2とを使って、第 1の映像データ 1 03と第 2の映像データ 105とが再生されたと仮定する。この時の状態を図 6 (B)に示 す。  [0109] Content 1 video file 1 and content 1 video file 2 recorded on information recording medium 167, changed content 1 management information file, content 1 ancillary information file 1 and content 1 ancillary information file 2 is used to assume that the first video data 103 and the second video data 105 have been reproduced. The state at this time is shown in Fig. 6 (B).
[0110] 再生に使われる映像ストリームのデータは、撮影記録されたコンテンツ 1映像フアイ ル 1及びコンテンツ 1映像ファイル 2そのままであるから、例えば撮影時の第 1の映像 421と第 2の映像 423とには変化がなぐそのまま再生に使用される。  [0110] Since the video stream data used for playback is the content 1 video file 1 and content 1 video file 2 recorded and recorded as they are, for example, the first video 421 and the second video 423 at the time of shooting are used. Is used for playback without change.
[0111] そして、レンズ間距離 dlだけがレンズ間距離 d2に変更されているので、このレンズ 間距離 d2を前提として再生処理が実行される。なお、他のパラメータ等は変更されて いないと仮定する。これによつて再生される仮想的な被写体 431は、実際に撮影され た被写体 401とは異なる形状、例えばその底面がひし形の四角柱として再生される。  [0111] Since only the inter-lens distance dl is changed to the inter-lens distance d2, the reproduction process is executed on the assumption of the inter-lens distance d2. It is assumed that other parameters have not been changed. Thus, the virtual subject 431 reproduced is reproduced as a quadrangular prism having a shape different from that of the actually photographed subject 401, for example, a bottom surface thereof having a diamond shape.
[0112] ここでは、レンズ間距離を変更する 1つの例だけを示したが、他の静的機器情報及 び動的機器情報を変更する場合も同様に、コンテンツ 1管理情報ファイル、コンテン ッ 1付属情報ファイル 1又はコンテンツ 1付属情報ファイル 2に記録されている静的機 器情報及び動的機器情報を変更して、コンテンツ 1映像ファイル 1とコンテンツ 1映像 ファイル 2とに基づいて 3次元映像を再生することが可能である。また、コンテンツ 1管 理情報ファイル、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報ファイル 2 に記録されて 、る静的機器情報及び動的機器情報を変更して再度記録 (更新)する ことも可能である。これにより、元の映像コンテンツとは異なる映像コンテンツや、編集 及び変形をカ卩えた映像コンテンツを再生して表示することができ、ユーザはこれらの 映像コンテンツを観賞することが可能になる。  [0112] Here, only one example of changing the inter-lens distance is shown, but when changing other static device information and dynamic device information, the content 1 management information file, content 1 Change the static device information and dynamic device information recorded in Attached Information File 1 or Contents 1 Attached Information File 2 to create 3D images based on Content 1 Video File 1 and Content 1 Video File 2. It is possible to play. In addition, the static device information and dynamic device information recorded in the content 1 management information file, content 1 attached information file 1 or content 1 attached information file 2 can be changed and recorded (updated) again. It is. As a result, video content different from the original video content or video content with editing and deformation can be reproduced and displayed, and the user can view these video content.
[0113] 更にまた、ここでは、コンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファイル 1 又はコンテンツ 1付属情報ファイル 2に記録されている静的機器情報及び動的機器 情報を変更する例だけを示している力 例えば、コンテンツ 1映像ファイル 1及びコン テンッ 1映像ファイル 2に記録保存されている映像情報に対して、静的機器情報と動 的機器情報とを利用して補間的な計算、或いは予測的な計算を行うことによって、撮 影した 2つの視点の間の視点力 見た映像情報を生成したり、撮影した 2つの視点の 間の外側の視点から見た映像情報を生成することも可能である。このように、実際に 撮影した視点とは異なる視点力 あた力も撮影したかのような映像情報を計算によつ て生成し、この映像情報を使って 3次元映像を生成する実施の形態も可能である。 [0113] Furthermore, here, the static device information and the dynamic device recorded in the content 1 management information file, the content 1 attached information file 1 or the content 1 attached information file 2 Power that only shows an example of changing information For example, using static device information and dynamic device information for video information recorded and saved in content 1 video file 1 and content 1 video file 2. By performing interpolative calculation or predictive calculation, it is possible to generate video information based on the viewpoint power between the two captured viewpoints, or from the outer viewpoint between the two captured viewpoints. It is also possible to generate video information. In this way, an embodiment is also provided in which video information is generated by calculation as if a visual power different from the actually shot viewpoint was shot, and 3D video is generated using this video information. Is possible.
[0114] ここで、本実施の形態 2に係る映像コンテンツ再生編集装置による映像コンテンツ 再生処理について説明する。図 7は、図 5に示す映像コンテンツ再生編集装置による 映像コンテンツ再生処理について説明するためのフローチャートである。  Here, the video content playback processing by the video content playback editing apparatus according to the second embodiment will be described. FIG. 7 is a flowchart for explaining video content playback processing by the video content playback editing apparatus shown in FIG.
[0115] まず、ステップ S21において、コンテンツ付属情報処理部 507は、メディアアクセス 処理部 501に対して、情報記録メディア 167に記録されて 、る動的機器情報及び静 的機器情報 (コンテンツ付属情報)を読み出すように指示する。このとき、コンテンツ 付属情報処理部 507は、これから再生する映像コンテンツに対応付けられている動 的機器情報及び静的機器情報を指定する。メディアアクセス処理部 501は、指定さ れた動的機器情報及び静的機器情報を情報記録メディア 167から読み出し、コンテ ンッ付属情報処理部 507へ出力する。コンテンツ付属情報処理部 507は、メディアァ クセス処理部 501によって出力された動的機器情報及び静的機器情報を映像出力 処理部 522へ出力する。  [0115] First, in step S21, the content-attached information processing unit 507 records the dynamic device information and static device information (content-attached information) recorded in the information recording medium 167 with respect to the media access processing unit 501. Is to be read. At this time, the content-attached information processing unit 507 designates the dynamic device information and static device information associated with the video content to be reproduced. The media access processing unit 501 reads the specified dynamic device information and static device information from the information recording medium 167 and outputs the information to the content-attached information processing unit 507. The content-attached information processing unit 507 outputs the dynamic device information and the static device information output by the media access processing unit 501 to the video output processing unit 522.
[0116] 次に、ステップ S22において、コンテンツ処理部 509は、メディアアクセス処理部 50 1に対して、情報記録メディア 167に記録されている第 1の映像ストリームを読み出す ように指示する。このとき、コンテンツ処理部 509は、これから再生する映像コンテンツ に対応付けられている第 1の映像ストリームを指定する。メディアアクセス処理部 501 は、指定された第 1の映像ストリームを情報記録メディア 167から読み出し、コンテン ッ処理部 509へ出力する。コンテンツ処理部 509は、メディアアクセス処理部 501〖こ よって出力された第 1の映像ストリームを映像出力処理部 522へ出力する。  [0116] Next, in step S22, the content processing unit 509 instructs the media access processing unit 501 to read the first video stream recorded on the information recording medium 167. At this time, the content processing unit 509 designates the first video stream associated with the video content to be reproduced. The media access processing unit 501 reads the designated first video stream from the information recording medium 167 and outputs it to the content processing unit 509. The content processing unit 509 outputs the first video stream output by the media access processing unit 501 to the video output processing unit 522.
[0117] 次に、ステップ S23において、コンテンツ処理部 509は、メディアアクセス処理部 50 1に対して、情報記録メディア 167に記録されている第 2の映像ストリームを読み出す ように指示する。このとき、コンテンツ処理部 509は、これから再生する映像コンテンツ に対応付けられている第 2の映像ストリームを指定する。メディアアクセス処理部 501 は、指定された第 2の映像ストリームを情報記録メディア 167から読み出し、コンテン ッ処理部 509へ出力する。コンテンツ処理部 509は、メディアアクセス処理部 501〖こ よって出力された第 2の映像ストリームを映像出力処理部 522へ出力する。 [0117] Next, in step S23, the content processing unit 509 reads out the second video stream recorded on the information recording medium 167 from the media access processing unit 501. To instruct. At this time, the content processing unit 509 designates the second video stream associated with the video content to be reproduced. The media access processing unit 501 reads the designated second video stream from the information recording medium 167 and outputs it to the content processing unit 509. The content processing unit 509 outputs the second video stream output by the media access processing unit 501 to the video output processing unit 522.
[0118] 次に、ステップ S24において、映像出力処理部 522は、コンテンツ処理部 509によ つて出力された第 1の映像ストリームと、コンテンツ処理部 509によって出力された第 2の映像ストリームと、コンテンツ付属情報処理部 507によって出力された動的機器 情報及び静的機器情報とを用いて 3次元立体画像を作成する。例えば、映像出力処 理部 522は、第 1の映像ストリームと第 2の映像ストリームとをレンズ間距離に応じてず らした 3次元立体画像を作成する。  [0118] Next, in step S24, the video output processing unit 522, the first video stream output by the content processing unit 509, the second video stream output by the content processing unit 509, and the content A three-dimensional stereoscopic image is created using the dynamic device information and static device information output by the attached information processing unit 507. For example, the video output processing unit 522 creates a three-dimensional stereoscopic image in which a first video stream and a second video stream are shifted according to the distance between lenses.
[0119] 次に、ステップ S25において、映像出力処理部 522は、作成した 3次元立体画像を 立体画像表示部 524へ出力する。立体画像表示部 524は、映像出力処理部 522〖こ よって作成された 3次元立体画像を表示する。  [0119] Next, in step S25, the video output processing unit 522 outputs the created three-dimensional stereoscopic image to the stereoscopic image display unit 524. The stereoscopic image display unit 524 displays the 3D stereoscopic image created by the video output processing unit 522.
[0120] 続いて、本実施の形態 2に係る映像コンテンツ再生編集装置による、映像コンテン ッを編集して再生する映像コンテンツ編集再生処理について説明する。図 8は、図 5 に示す映像コンテンッ再生編集装置による映像コンテンッ編集再生処理につ!ヽて説 明するためのフローチャートである。  [0120] Next, video content editing / playback processing in which video content is edited and played back by the video content playback / editing apparatus according to Embodiment 2 will be described. Figure 8 shows the video content editing / playback process using the video content playback / editing device shown in Figure 5! It is a flowchart for urgent explanation.
[0121] まず、ステップ S31において、コンテンツ付属情報処理部 507は、メディアアクセス 処理部 501に対して、情報記録メディア 167に記録されて 、る動的機器情報及び静 的機器情報 (コンテンツ付属情報)を読み出すように指示する。このとき、コンテンツ 付属情報処理部 507は、これから再生する映像コンテンツに対応付けられている動 的機器情報及び静的機器情報を指定する。メディアアクセス処理部 501は、指定さ れた動的機器情報及び静的機器情報を情報記録メディア 167から読み出し、コンテ ンッ付属情報処理部 507へ出力する。  [0121] First, in step S31, the content-attached information processing unit 507 records the dynamic device information and static device information (content-attached information) recorded on the information recording medium 167 with respect to the media access processing unit 501. Is to be read. At this time, the content-attached information processing unit 507 designates the dynamic device information and static device information associated with the video content to be reproduced. The media access processing unit 501 reads the specified dynamic device information and static device information from the information recording medium 167 and outputs the information to the content-attached information processing unit 507.
[0122] 次に、ステップ S32において、ユーザインタフェース処理部 505は、メディアァクセ ス処理部 501によって出力された動的機器情報及び静的機器情報のうち、変更する 情報及びその変更内容を含む変更指示を受け付ける。ユーザインタフェース処理部 505は、受け付けた変更指示をコンテンツ付属情報処理部 507へ出力する。 [0122] Next, in step S32, the user interface processing unit 505 includes the information to be changed and the change including the change contents among the dynamic device information and the static device information output by the media access processing unit 501. Accept instructions. User interface processor 505 outputs the received change instruction to content-attached information processing unit 507.
[0123] 次に、ステップ S33において、コンテンツ付属情報処理部 507は、ユーザインタフエ ース処理部 505によって出力された変更指示に基づいて、動的機器情報及び静的 機器情報を変更する。すなわち、コンテンツ付属情報処理部 507は、変更指示に応 じた内容に動的機器情報及び静的機器情報の内容を変更する。コンテンツ付属情 報処理部 507は、内容を変更した動的機器情報及び静的機器情報を映像出力処理 部 522へ出力する。 [0123] Next, in step S33, the content-attached information processing unit 507 changes the dynamic device information and the static device information based on the change instruction output by the user interface processing unit 505. That is, the content-attached information processing unit 507 changes the contents of the dynamic device information and the static device information to the contents according to the change instruction. The content ancillary information processing unit 507 outputs the dynamic device information and the static device information whose contents have been changed to the video output processing unit 522.
[0124] 次に、ステップ S34において、コンテンツ付属情報処理部 507は、変更後の動的機 器情報及び静的機器情報をメディアアクセス処理部 161へ出力する。メディアァクセ ス処理部 161は、コンテンッ付属情報処理部 507によって出力された動的機器情報 及び静的機器情報を情報記録メディア 167に記録する。  [0124] Next, in step S34, the content-attached information processing unit 507 outputs the changed dynamic device information and static device information to the media access processing unit 161. The media access processing unit 161 records the dynamic device information and the static device information output by the content attached information processing unit 507 on the information recording medium 167.
[0125] ステップ S35及びステップ S36の処理は、図 7に示すステップ S22及びステップ S2 3の処理と同じであるので、説明を省略する。  [0125] The processing in step S35 and step S36 is the same as the processing in step S22 and step S23 shown in FIG.
[0126] 次に、ステップ S37において、映像出力処理部 522は、コンテンツ処理部 509によ つて出力された第 1の映像ストリームと、コンテンツ処理部 509によって出力された第 2の映像ストリームと、コンテンツ付属情報処理部 507によって変更された動的機器 情報及び静的機器情報とを用いて 3次元立体画像を作成する。例えば、第 1の映像 ストリームに対応するレンズ焦点距離と第 2の映像ストリームに対応するレンズ焦点距 離が変更される場合、映像出力処理部 522は、変更されたレンズ焦点距離に応じて ぼかした 3次元立体画像を作成する。  [0126] Next, in step S37, the video output processing unit 522, the first video stream output by the content processing unit 509, the second video stream output by the content processing unit 509, and the content A three-dimensional stereoscopic image is created using the dynamic device information and static device information changed by the attached information processing unit 507. For example, when the lens focal length corresponding to the first video stream and the lens focal length corresponding to the second video stream are changed, the video output processing unit 522 performs blurring according to the changed lens focal length. Create a 3D stereoscopic image.
[0127] 次に、ステップ S38において、映像出力処理部 522は、作成した 3次元立体画像を 立体画像表示部 524へ出力する。立体画像表示部 524は、映像出力処理部 522に よって作成された 3次元立体画像を表示する。  [0127] Next, in step S38, the video output processing unit 522 outputs the created three-dimensional stereoscopic image to the stereoscopic image display unit 524. The stereoscopic image display unit 524 displays the 3D stereoscopic image created by the video output processing unit 522.
[0128] 以上説明したように、映像コンテンツ再生編集装置 500は、本発明に係る映像コン テンッ再生装置の一実施の形態である。また、この映像コンテンツ再生編集装置 50 0が実行する映像コンテンツ再生方法及び映像コンテンツ編集方法は、本発明に係 る映像コンテンツ再生方法及び映像コンテンツ編集方法の一実施の形態である。  As described above, the video content playback / editing apparatus 500 is an embodiment of the video content playback apparatus according to the present invention. The video content playback method and video content editing method executed by the video content playback / editing apparatus 500 are one embodiment of the video content playback method and video content editing method according to the present invention.
[0129] なお、第 1の映像入力処理部 121及び第 2の映像入力処理部 123のうちの少なくと も一方が備えるジャイロスコープにより撮影方向情報を得ることができるが、このジャィ ロスコープは手ぶれ補正用に設けられて 、るジャイロスコープを用いてもょ 、。映像 コンテンツ記録装置及び映像コンテンツ再生編集装置は、手ぶれ補正を実行する手 ぶれ補正実行部と、手ぶれ補正機能のオン'オフを切り替える切替部とをさらに備え てもよい。この場合、映像コンテンツ記録装置は、手ぶれ補正機能をオフして映像デ ータを記録し、映像コンテンツ再生編集装置は、手ぶれ補正機能をオンして再生す る。手ぶれ補正機能をオフして映像データを記録することにより、地震時や乗り物上 での撮影時において、映像が揺れている自然な情報をそのまま記録することができる 。また、再生時において、手ぶれ補正機能をオフして、この情報をそのまま再生して もよいし、手ぶれ補正機能をオンして、ぶれを補正して再生してもよい。 [0129] Note that at least one of the first video input processing unit 121 and the second video input processing unit 123 is used. The shooting direction information can be obtained with the gyroscope provided on the other side, but this gyroscope is provided for camera shake correction and can be used with a gyroscope. The video content recording apparatus and the video content playback / editing apparatus may further include a camera shake correction execution unit that performs camera shake correction and a switching unit that switches on and off the camera shake correction function. In this case, the video content recording apparatus records video data with the camera shake correction function turned off, and the video content playback / editing apparatus plays with the camera shake correction function turned on. By recording video data with the image stabilization function turned off, it is possible to record the natural information that the video is shaking during an earthquake or when shooting on a vehicle. Further, at the time of playback, the camera shake correction function may be turned off and this information may be played back as it is, or the camera shake correction function may be turned on and the camera shake may be corrected and played back.
[0130] また、本実施の形態では、動的機器情報及び静的機器情報のうちの変更する情報 及びその変更内容を含む変更指示を受け付け、変更指示に基づいて動的機器情報 及び静的機器情報を変更し、変更後の動的機器情報及び静的機器情報をメディア アクセス処理部 161に記録している力 本発明は特にこれに限定されない。図 8に示 すステップ S34の処理を省略し、変更後の動的機器情報及び静的機器情報をメディ ァアクセス処理部 161に記録せずに、第 1の映像ストリームと、第 2の映像ストリームと 、変更された動的機器情報及び静的機器情報とを用いて 3次元立体画像を作成して もよい。この場合、メディアアクセス処理部 161の記録内容は変更されず、再生時に のみ動的機器情報及び静的機器情報が変更され、この変更された動的機器情報及 び静的機器情報を用いて 3次元画像が表示される。  [0130] Further, in the present embodiment, information to be changed among dynamic device information and static device information and a change instruction including the change contents are received, and dynamic device information and static device are received based on the change instruction. The ability to change information and record the changed dynamic device information and static device information in the media access processing unit 161 The present invention is not particularly limited to this. The process of step S34 shown in FIG. 8 is omitted, and the first and second video streams are recorded without recording the changed dynamic device information and static device information in the media access processing unit 161. Then, a three-dimensional stereoscopic image may be created using the changed dynamic device information and static device information. In this case, the recorded contents of the media access processing unit 161 are not changed, the dynamic device information and the static device information are changed only during playback, and the changed dynamic device information and static device information are used. A dimensional image is displayed.
[0131] (実施の形態 3)  [0131] (Embodiment 3)
次に、実施の形態 3に係る映像コンテンツ記録装置について説明する。  Next, a video content recording apparatus according to Embodiment 3 will be described.
[0132] 図 9は、本発明の実施の形態 3である映像コンテンツ記録装置 600の概略構成を 示すブロック図である。本発明の実施の形態 3である映像コンテンツ記録装置 600に ついては、その多くの部分が本発明の実施の形態 1である映像コンテンッ記録装置 1 00と同様であるから、本発明の実施の形態 1と同様の部分については説明を省略し 、実施の形態 1と異なる部分についてのみ説明をする。  FIG. 9 is a block diagram showing a schematic configuration of a video content recording apparatus 600 according to the third embodiment of the present invention. The video content recording apparatus 600 according to the third embodiment of the present invention is the same as the video content recording apparatus 100 according to the first embodiment of the present invention since many parts thereof are the same as those in the first embodiment of the present invention. The description of the same parts as those in FIG. 1 will be omitted, and only the parts different from the first embodiment will be described.
[0133] 本発明の実施の形態 1である映像コンテンツ記録装置 100は、映像入力処理部を 2個(または 2個以上)有している。し力しながら、本発明の実施の形態 3である映像コ ンテンッ記録装置 600は、映像入力処理部 621を 1個有しているだけで、それ以上 の映像入力処理部を有していない。その代わり、この 1つの映像入力処理部 621を 移動させる駆動部 622を有している。これが、本発明の実施の形態 3である映像コン テンッ記録装置 600と本発明の実施の形態 1である映像コンテンツ記録装置 100と の最も異なる特徴である。駆動部 622は、ベルトに映像入力処理部 621を搭載する 方式や、スプリングとカムを用いる方式等、よく知られている様々な方式が利用可能 である。 [0133] The video content recording apparatus 100 according to the first embodiment of the present invention includes a video input processing unit. Has 2 (or more). However, the video content recording apparatus 600 according to the third embodiment of the present invention has only one video input processing unit 621 and does not have any more video input processing units. Instead, it has a drive unit 622 that moves the single video input processing unit 621. This is the most different feature between the video content recording apparatus 600 according to the third embodiment of the present invention and the video content recording apparatus 100 according to the first embodiment of the present invention. For the drive unit 622, various well-known methods such as a method of mounting the video input processing unit 621 on the belt and a method of using a spring and a cam can be used.
[0134] 図 10は、実施の形態 3に係る映像コンテンツ記録装置を説明するための模式図で ある。図 10において、第 1の位置 651は、映像入力処理部 621が移動する前の位置 を表しており、第 2の位置 652は、映像入力処理部 621が移動した後の位置を表して いる。第 1の位置 651から第 2の位置 652へ移動する移動距離は d2で表している。 移動距離 d2は、レンズ間距離に相当する。  FIG. 10 is a schematic diagram for explaining the video content recording apparatus according to the third embodiment. In FIG. 10, a first position 651 represents a position before the video input processing unit 621 has moved, and a second position 652 represents a position after the video input processing unit 621 has moved. The distance traveled from the first position 651 to the second position 652 is represented by d2. The moving distance d2 corresponds to the distance between lenses.
[0135] 映像入力処理部 621はレンズ 641と撮像素子 625とを有しており、これに関しては 本発明の実施の形態 1と実質的に同様である。  [0135] The video input processing unit 621 includes a lens 641 and an image sensor 625, which are substantially the same as in the first embodiment of the present invention.
[0136] 図 10に示す第 1の位置 (移動する前の位置) 651において、映像入力処理部 621 は、被写体 601からの被写体像 602をレンズ 641で受光し、その像を撮像素子 625 に結像する。この像は、実施の形態 1に係る映像コンテンツ記録装置 100における第 1の映像入力処理部 121によって撮影される像と実質的に同じものである。また、こ の像は、本発明の実施の形態 1である映像コンテンツ記録装置 100と同様、電気的 に、例えば情報記録メディア 167に記録される。この記録の方式や形式も、実質的に 本発明の実施の形態 1である映像コンテンツ記録装置 100と同様であるから、説明を 省略する。  At the first position (position before moving) 651 shown in FIG. 10, the video input processing unit 621 receives the subject image 602 from the subject 601 with the lens 641 and connects the image to the image sensor 625. Image. This image is substantially the same as the image photographed by the first video input processing unit 121 in the video content recording apparatus 100 according to Embodiment 1. In addition, this image is electrically recorded, for example, on the information recording medium 167, as with the video content recording apparatus 100 according to the first embodiment of the present invention. Since the recording method and format are substantially the same as those of the video content recording apparatus 100 according to the first embodiment of the present invention, the description thereof is omitted.
[0137] 次に、駆動部 622は、映像入力処理部 621を第 2の位置 (移動した後の位置) 652 に移動させる。そして、この第 2の位置 652において、映像入力処理部 621は、被写 体 601力 の被写体像 604を、第 2の位置 652でのレンズ 641によって受光し、その 像を第 2の位置 (移動した後の位置)での撮像素子 625に結像する。この像は、本発 明の実施の形態 1である映像コンテンツ記録装置 100において、第 2の映像入力処 理部 123によって撮影される像と実質的に同じものである。 Next, the drive unit 622 moves the video input processing unit 621 to the second position (position after the movement) 652. Then, at the second position 652, the video input processing unit 621 receives the subject image 604 of the subject 601 force by the lens 641 at the second position 652, and receives the image at the second position (movement). The image is formed on the image sensor 625 at the position after This image is displayed in the second video input process in the video content recording apparatus 100 according to the first embodiment of the present invention. This is substantially the same as the image photographed by the physical unit 123.
[0138] この像も、本発明の実施の形態 1である映像コンテンツ記録装置 100と同様、電気 的に、例えば情報記録メディア 167に記録される。この記録の方式や形式も、実質的 に本発明の実施の形態 1である映像コンテンツ記録装置 100と同様であるから、説明 を省略する。 This image is also electrically recorded, for example, on the information recording medium 167, like the video content recording apparatus 100 according to the first embodiment of the present invention. Since the recording method and format are substantially the same as those of the video content recording apparatus 100 according to the first embodiment of the present invention, the description thereof is omitted.
[0139] 即ち、本発明の実施の形態 1である映像コンテンツ記録装置 100では、映像入力 処理部を 2個(または 2個以上)有し、同時並行的に 2個(または 2個以上)の視点から 見た映像を撮影し、それらを同時並行的に、例えば情報記録メディア 167に記録し ている。し力しながら、本発明の実施の形態 3である映像コンテンツ記録装置 600で は、映像入力処理部を 1個しか有さず、その 1個の映像入力処理部を 2個(または 2 個以上)の視点位置に移動させながら、時分割的に 2個(または 2個以上)の視点か ら見た映像を撮影する。これら 2個(または 2個以上)の視点から見た映像を、例えば 情報記録メディア 167に記録することと、その記録方法とは、本発明の実施の形態 1 である映像コンテンッ記録装置 100と同様である。  That is, video content recording apparatus 100 according to Embodiment 1 of the present invention has two (or two or more) video input processing units, and two (or two or more) in parallel. Images taken from the viewpoint are taken and recorded in parallel on, for example, the information recording medium 167. However, the video content recording apparatus 600 according to the third embodiment of the present invention has only one video input processing unit, and two (or two or more) video input processing units. ) Shoot the video viewed from two (or more) viewpoints in a time-sharing manner. The video viewed from these two (or more) viewpoints is recorded on, for example, the information recording medium 167, and the recording method is the same as that of the video content recording apparatus 100 according to the first embodiment of the present invention. It is.
[0140] 必要に応じて、この第 1の位置での撮影と、第 2の位置での撮影とを繰り返し実行し 、それぞれの位置で撮影した映像情報をそれぞれ別の映像ストリームとして、或いは 1つの映像ストリームとして、例えば情報記録メディア 167に記録する。  [0140] If necessary, the shooting at the first position and the shooting at the second position are repeatedly executed, and the video information shot at each position is set as a separate video stream or one video stream. For example, it is recorded on the information recording medium 167 as a video stream.
[0141] この移動距離 d2、移動に要する時間、及び第 1の位置で撮影した時間情報と第 2 の位置で撮影した時間情報等は、管理情報として、例えばコンテンツ 1管理情報ファ ィルゃコンテンッ 1付属情報ファイル 1ゃコンテンッ 1付属情報ファイル 2に記録保存 される。  [0141] The movement distance d2, the time required for movement, the time information photographed at the first position, the time information photographed at the second position, and the like as management information, for example, the content 1 management information file content. 1 Attached information file 1 Nya contents 1 Attached information file 2 is recorded and saved.
[0142] そして、これらの映像情報を再生する時には、時分割的に 2個(または 2個以上)の 視点から撮影した映像を、あた力も同時に複数の視点力 取得した映像であるかの ように、 3次元的な映像として再生することができる。  [0142] And when playing back these video information, it is as if the video was shot from two (or more) viewpoints in a time-sharing manner and obtained at the same time from multiple viewpoints. In addition, it can be played back as 3D video.
[0143] このように、本発明の実施の形態 3である映像コンテンツ記録装置 600では、映像 入力処理部を 1個しか有さないにも関わらず、この 1個の映像入力処理部を移動させ ることによって、複数の視点力 見た映像情報を撮影し、その映像情報を記録し、そ の映像情報を読み出して 3次元映像を再生することが可能になる。 [0144] ここで、本実施の形態 3に係る映像コンテンツ記録装置による映像コンテンツ記録 処理について説明する。図 11は、図 9に示す映像コンテンツ記録装置による映像コ ンテンッ記録処理について説明するためのフローチャートである。 [0143] As described above, in the video content recording apparatus 600 according to the third embodiment of the present invention, this single video input processing unit is moved even though it has only one video input processing unit. As a result, it is possible to shoot video information viewed from multiple viewpoints, record the video information, read the video information, and play back 3D video. Here, the video content recording process by the video content recording apparatus according to the third embodiment will be described. FIG. 11 is a flowchart for explaining video content recording processing by the video content recording apparatus shown in FIG.
[0145] まず、ステップ S41において、静的機器情報管理部 146は、内部に予め記憶され ている静的機器情報を読み出す。静的機器情報管理部 146は、読み出した静的機 器情報をコンテンツ付属情報処理部 144へ出力する。  [0145] First, in step S41, the static device information management unit 146 reads out static device information stored in advance therein. The static device information management unit 146 outputs the read static device information to the content-attached information processing unit 144.
[0146] 次に、ステップ S42において、コンテンツ付属情報処理部 144は、静的機器情報に 対して、情報記録メディア 167に記録するために必要なデータ変換処理を行う。コン テンッ付属情報処理部 144は、データ変換した静的機器情報をコンテンツ処理部 14 2へ出力する。コンテンツ処理部 142は、静的機器情報をメディアアクセス処理部 16 1へ出力する。メディアアクセス処理部 161は、コンテンツ処理部 142によって出力さ れた静的機器情報を情報記録メディア 167に記録する。  [0146] Next, in step S42, the content-attached information processing unit 144 performs data conversion processing necessary for recording the static device information on the information recording medium 167. The content-attached information processing unit 144 outputs the static device information obtained by data conversion to the content processing unit 142. The content processing unit 142 outputs the static device information to the media access processing unit 161. The media access processing unit 161 records the static device information output by the content processing unit 142 on the information recording medium 167.
[0147] 次に、ステップ S43において、映像入力処理部 621は、第 1の位置において被写体 を撮影した第 1の映像データを取得し、 AV制御バッファ処理部 125へ出力する。ま た、動的機器情報管理部 129は、映像入力処理部 621から動的機器情報を取得す る。映像入力処理部 621は、第 1の位置において撮影した際の動的機器情報を動的 機器情報管理部 129へ出力する。動的機器情報管理部 129は、取得した動的機器 情報をコンテンツ付属情報処理部 144へ出力する。  Next, in step S 43, the video input processing unit 621 acquires first video data obtained by photographing the subject at the first position, and outputs the first video data to the AV control buffer processing unit 125. The dynamic device information management unit 129 acquires dynamic device information from the video input processing unit 621. The video input processing unit 621 outputs the dynamic device information at the time of shooting at the first position to the dynamic device information management unit 129. The dynamic device information management unit 129 outputs the acquired dynamic device information to the content-attached information processing unit 144.
[0148] 上述したように、動的機器情報には、第 1の位置において撮影した際の時間情報が さらに含まれる。映像入力処理部 621は、タイマ、クロック又は発振子を備えている。 映像入力処理部 621は、動画像であれば撮影開始時刻及び撮影終了時刻を時間 情報として出力し、静止画像であれば撮影時刻を時間情報として出力する。  [0148] As described above, the dynamic device information further includes time information at the time of shooting at the first position. The video input processing unit 621 includes a timer, a clock, or an oscillator. The video input processing unit 621 outputs the shooting start time and the shooting end time as time information for a moving image, and outputs the shooting time as time information for a still image.
[0149] 次に、ステップ S44において、 AV制御バッファ処理部 125は、映像入力処理部 62 1によって出力された第 1の映像データを一時的に記憶する。次に、ステップ S45に おいて、 CODEC処理部 127は、 AV制御バッファ処理部 125に記憶されている第 1 の映像データを符号ィ匕する。次に、ステップ S46において、コンテンツ処理部 142は 、 CODEC処理部 127によって符号ィ匕された第 1の映像データをストリーム化する。  [0149] Next, in step S44, the AV control buffer processing unit 125 temporarily stores the first video data output by the video input processing unit 621. Next, in step S45, the CODEC processing unit 127 encodes the first video data stored in the AV control buffer processing unit 125. Next, in step S46, the content processing unit 142 streams the first video data encoded by the CODEC processing unit 127.
[0150] 次に、ステップ S47において、コンテンツ付属情報処理部 144は、第 1の位置にお 、て取得された動的機器情報に対して、情報記録メディア 167に記録するために必 要なデータ変換処理を行う。コンテンツ付属情報処理部 144は、データ変換した動 的機器情報をコンテンツ処理部 142へ出力する。コンテンツ処理部 142は、第 1の映 像ストリーム及び動的機器情報をメディアアクセス処理部 161へ出力する。メディアァ クセス処理部 161は、コンテンツ処理部 142によって出力された第 1の映像ストリーム 及び動的機器情報を情報記録メディア 167に記録する。 [0150] Next, in step S47, the content-attached information processing unit 144 is moved to the first position. The dynamic device information acquired in this way is subjected to data conversion processing necessary for recording on the information recording medium 167. The content-attached information processing unit 144 outputs the data-converted dynamic device information to the content processing unit 142. The content processing unit 142 outputs the first video stream and the dynamic device information to the media access processing unit 161. The media access processing unit 161 records the first video stream and dynamic device information output by the content processing unit 142 on the information recording medium 167.
[0151] 次に、ステップ S48において、駆動部 622は、第 1の位置とは異なる第 2の位置に 映像入力処理部 621を移動させる。第 1の位置は人間の右目の位置に相当し、第 2 の位置は人間の左目の位置に相当する。そのため、移動距離は、人間の両目の間 隔と同じ距離となる。なお、 3次元映像を見る特定のユーザの両目の間隔を移動距 離として予め設定することにより、ユーザに適した 3次元映像を再生することができる [0151] Next, in step S48, the drive unit 622 moves the video input processing unit 621 to a second position different from the first position. The first position corresponds to the position of the human right eye, and the second position corresponds to the position of the human left eye. Therefore, the movement distance is the same as the distance between the human eyes. In addition, by setting the distance between both eyes of a specific user who views 3D video as the movement distance in advance, 3D video suitable for the user can be played back.
[0152] 次に、ステップ S49において、映像入力処理部 621は、第 2の位置において被写体 を撮影した第 2の映像データを取得し、 AV制御バッファ処理部 125へ出力する。ま た、動的機器情報管理部 129は、映像入力処理部 621から動的機器情報を取得す る。映像入力処理部 621は、第 2の位置において撮影した際の動的機器情報を動的 機器情報管理部 129へ出力する。動的機器情報管理部 129は、取得した動的機器 情報をコンテンツ付属情報処理部 144へ出力する。 [0152] Next, in step S49, the video input processing unit 621 acquires second video data obtained by photographing the subject at the second position, and outputs the second video data to the AV control buffer processing unit 125. The dynamic device information management unit 129 acquires dynamic device information from the video input processing unit 621. The video input processing unit 621 outputs the dynamic device information at the time of shooting at the second position to the dynamic device information management unit 129. The dynamic device information management unit 129 outputs the acquired dynamic device information to the content-attached information processing unit 144.
[0153] 動的機器情報には、第 2の位置において撮影した際の時間情報がさらに含まれる。  [0153] The dynamic device information further includes time information at the time of shooting at the second position.
なお、本実施の形態では、第 1の位置及び第 2の位置における、撮影開始時刻、撮 影終了時刻及び撮影時刻を時間情報としているが、第 1の位置における撮影開始時 刻と第 2の位置における撮影開始時刻との差分値、及び第 1の位置における撮影時 刻と第 2の位置における撮影時刻との差分値を時間情報としてもよい。  In this embodiment, the shooting start time, the shooting end time, and the shooting time at the first position and the second position are used as time information, but the shooting start time and the second time at the first position are used. The difference value between the shooting start time at the position and the difference value between the shooting time at the first position and the shooting time at the second position may be used as time information.
[0154] 次に、ステップ S50において、 AV制御バッファ処理部 125は、映像入力処理部 62 1によって出力された第 2の映像データを一時的に記憶する。次に、ステップ S51に おいて、 CODEC処理部 127は、 AV制御バッファ処理部 125に記憶されている第 2 の映像データを符号ィ匕する。次に、ステップ S52において、コンテンツ処理部 142は 、 CODEC処理部 127によって符号ィ匕された第 2の映像データをストリーム化する。 [0155] 次に、ステップ S53において、コンテンツ付属情報処理部 144は、第 2の位置にお V、て取得された動的機器情報に対して、情報記録メディア 167に記録するために必 要なデータ変換処理を行う。コンテンツ付属情報処理部 144は、データ変換した動 的機器情報をコンテンツ処理部 142へ出力する。コンテンツ処理部 142は、第 2の映 像ストリーム及び動的機器情報をメディアアクセス処理部 161へ出力する。メディアァ クセス処理部 161は、コンテンツ処理部 142によって出力された第 2の映像ストリーム 及び動的機器情報を情報記録メディア 167に記録する。このとき、第 1の映像ストリー ム、第 2の映像ストリーム、静的機器情報及び動的機器情報力 つの映像コンテンツ として情報記録メディア 167に記録される。 [0154] Next, in step S50, the AV control buffer processing unit 125 temporarily stores the second video data output by the video input processing unit 621. Next, in step S51, the CODEC processing unit 127 encodes the second video data stored in the AV control buffer processing unit 125. Next, in step S52, the content processing unit 142 streams the second video data encoded by the CODEC processing unit 127. [0155] Next, in step S53, the content-attached information processing unit 144 is necessary to record the dynamic device information acquired at the second position V on the information recording medium 167. Perform data conversion processing. The content-attached information processing unit 144 outputs the data-converted dynamic device information to the content processing unit 142. The content processing unit 142 outputs the second video stream and the dynamic device information to the media access processing unit 161. The media access processing unit 161 records the second video stream and dynamic device information output by the content processing unit 142 on the information recording medium 167. At this time, the first video stream, the second video stream, static device information, and dynamic device information are recorded on the information recording medium 167 as video content.
[0156] なお、本実施の形態 3では、映像コンテンツ記録装置内で 1つの映像入力処理部 を第 1の位置力 第 2の位置へ移動させている力 1つの映像入力処理部を備える映 像コンテンツ記録装置を第 1の位置力 第 2の位置へ移動させてもよい。この場合、 映像コンテンツ記録装置の移動距離を動的機器情報として記録する。  [0156] It should be noted that in Embodiment 3, a force that moves one video input processing unit to the first position force second position in the video content recording apparatus is an image including one video input processing unit. The content recording apparatus may be moved to the first position force and the second position. In this case, the moving distance of the video content recording device is recorded as dynamic device information.
[0157] (実施の形態 4)  [0157] (Embodiment 4)
本発明の実施の形態 4である映像コンテンツ記録装置については、その多くの部 分が本発明の実施の形態 1である映像コンテンツ記録装置 100と同様であるから、本 発明の実施の形態 1と同様の部分については説明を省略し、実施の形態 1と異なる 部分についてのみ説明をする。  Since many parts of the video content recording apparatus according to the fourth embodiment of the present invention are the same as the video content recording apparatus 100 according to the first embodiment of the present invention, the video content recording apparatus according to the first embodiment of the present invention and Explanation of similar parts is omitted, and only different parts from the first embodiment are explained.
[0158] 図 12は、実施の形態 4に係る映像コンテンツ記録装置 700の主要部の構成を示す ブロック図である。なお、実施の形態 4に係る映像コンテンツ記録装置 700の構成は 、 1つの映像入力処理部 721を備えていること以外は、実施の形態 1に係る映像コン テンッ記録装置 100の構成と同じであるので、説明を省略する。  FIG. 12 is a block diagram showing a configuration of main parts of video content recording apparatus 700 according to Embodiment 4. The configuration of the video content recording apparatus 700 according to the fourth embodiment is the same as the configuration of the video content recording apparatus 100 according to the first embodiment, except that the video content recording apparatus 700 includes one video input processing unit 721. Therefore, explanation is omitted.
[0159] 映像入力処理部 721は、複数のレンズと 1つの撮像素子とを備えており、この複数 のレンズに被写体像 711-716が入射し、それぞれの被写体像 711〜 716が撮像 素子に結像される。映像入力処理部 721は、複数の視点において撮影された複数 の映像を含む 1つの映像データ 717を取得する。  [0159] The video input processing unit 721 includes a plurality of lenses and a single imaging device, and subject images 711-716 are incident on the plurality of lenses, and the subject images 711 to 716 are connected to the imaging devices. Imaged. The video input processing unit 721 acquires one video data 717 including a plurality of videos taken from a plurality of viewpoints.
[0160] 図 13は、本発明の実施の形態 4である映像コンテンツ記録装置の映像入力処理部 の概略構成を示す図である。本発明の実施の形態 4では、簡明化のため、映像コン テンッ記録装置全体と映像入力処理部全体は図示せず、その代わり、本発明の実 施の形態 4の最大の特徴である複眼レンズ 741のより詳細な構成の概要と、この複眼 レンズ 741によって撮像素子 725上に結像される像の状態の概略を示している。 FIG. 13 is a diagram showing a schematic configuration of the video input processing unit of the video content recording apparatus according to the fourth embodiment of the present invention. In Embodiment 4 of the present invention, for simplicity, the video content is The entire tenth recording device and the entire video input processing unit are not shown, but instead, an outline of a more detailed configuration of the compound eye lens 741 that is the greatest feature of the embodiment 4 of the present invention, and imaging by the compound eye lens 741. An outline of the state of an image formed on the element 725 is shown.
[0161] 本発明の実施の形態 1である映像コンテンツ記録装置 100では、映像入力処理部 を 2個(または 2個以上)有している。また、本発明の実施の形態 3である映像コンテン ッ記録装置 600では、映像入力処理部を 1個しか有していないが、それを時分割的 に 2個(または 2個以上)の位置に移動して撮影を行っている。し力しながら、本発明 の実施の形態 4である映像コンテンツ記録装置 700では、映像入力処理部を 1個し か有しておらず、またその移動を行うこともない。その一方、レンズとして通常よく使わ れる凸レンズや凹レンズではなぐこれら単一のレンズが平面状に複数個配列された 複眼レンズ 741を使用する。これが、本発明の実施の形態 4である映像コンテンツ記 録装置が、本発明の実施の形態 1である映像コンテンツ記録装置 100や本発明の実 施の形態 3である映像コンテンツ記録装置 600との最も異なる特徴である。  [0161] The video content recording apparatus 100 according to the first embodiment of the present invention has two (or two or more) video input processing units. In addition, the video content recording apparatus 600 according to the third embodiment of the present invention has only one video input processing unit, but it is located at two (or two or more) positions in a time division manner. Moving and shooting. However, the video content recording apparatus 700 according to the fourth embodiment of the present invention has only one video input processing unit and does not move it. On the other hand, a compound eye lens 741 in which a plurality of these single lenses are arranged in a plane is used instead of a convex lens and a concave lens that are usually used as lenses. This is because the video content recording apparatus according to the fourth embodiment of the present invention is compared with the video content recording apparatus 100 according to the first embodiment of the present invention and the video content recording apparatus 600 according to the third embodiment of the present invention. It is the most different feature.
[0162] 図 13に示す映像入力処理部 721は、複眼レンズ 741と撮像素子 725とを有してい る。図 13では、複眼レンズ 741を構成する微細レンズとして、微細レンズ 751、微細 レンズ 752、微細レンズ 753、微細レンズ 754、微細レンズ 755及び微細レンズ 756 の 6個だけを描き、また、これらの 6個の微細レンズが 1列に配列されているように示し ている。しかしながら、図 13に示す複眼レンズ 741は一例であり、より多くの微細レン ズまたはより少な 、微細レンズが、 1列にまたは平面的に配置されて 、ても構わな ヽ 。また、各微細レンズは 1つの凸レンズだけ力も構成されるように図示している力 こ れは簡略化のための一例であって、各微細レンズは複数の凸レンズや凹レンズや非 球面レンズやその他の各種レンズが組み合わされて構成されて 、ても構わな 、。  The video input processing unit 721 shown in FIG. 13 includes a compound eye lens 741 and an image sensor 725. In FIG. 13, only six microlenses 751, microlens 752, microlens 753, microlens 754, microlens 755, and microlens 756 are depicted as the microlenses constituting the compound-eye lens 741. Are shown as if they were arranged in a row. However, the compound eye lens 741 shown in FIG. 13 is an example, and more or less fine lenses may be arranged in a row or in a plane. In addition, each microlens is illustrated with a force that only one convex lens is configured. This is an example for simplification, and each microlens is composed of a plurality of convex lenses, concave lenses, aspheric lenses, and other lenses. It may be configured by combining various lenses.
[0163] この 6つの微細レンズによって、撮像素子 725上に、被写体 701の像が 6個、それ ぞれ、像 771、像 772、像 773、像 774、像 775及び像 776が結像される。  [0163] With these six microlenses, six images of the subject 701 are formed on the image sensor 725, and an image 771, an image 772, an image 773, an image 774, an image 775, and an image 776 are formed, respectively. .
[0164] このような被写体の撮影手法は、眼鏡なし 3次元立体映像表示方式として知られる インテグラルフォトグラフィ方式で使用される手法であるが、インテグラルフォトグラフィ 方式では、倒立画像を屈折率分布レンズやその他の手法で正立画像に変換するこ とが行われる。しカゝしながら、本発明の実施の形態 4では倒立画像を電気的に正立 画像に変換することができるので、必ずしも光学的な手法で正立画像に変換する必 要はない。 [0164] This subject photography method is a method used in the integral photography method known as the 3D stereoscopic image display method without glasses. In the integral photography method, an inverted image is distributed with a refractive index distribution. Conversion to an upright image using a lens or other technique is performed. However, in the fourth embodiment of the present invention, the inverted image is electrically upright. Since it can be converted into an image, it is not always necessary to convert it into an upright image by an optical method.
[0165] 複眼レンズ 741と撮像素子 725とで撮影された映像情報は、本発明の実施の形態 1である映像コンテンツ記録装置 100と同様、電気的に、例えば情報記録メディア 16 7に記録される。この記録の方式や形式も、実質的に本発明の実施の形態 1である映 像コンテンッ記録装置 100と同様であるから、説明を省略する。  [0165] Video information captured by the compound eye lens 741 and the image sensor 725 is electrically recorded, for example, on the information recording medium 167, as in the video content recording apparatus 100 according to the first embodiment of the present invention. . Since the recording method and format are substantially the same as those of the video content recording apparatus 100 according to the first embodiment of the present invention, the description thereof is omitted.
[0166] そして、これら 6個の微細レンズで撮影した映像情報の全部或いは一部を、それぞ れ別の映像ストリームとして情報記録メディア 167に記録しても構わないし、或いは 1 つの映像ストリームとして、例えば情報記録メディア 167に記録しても構わな!/、。  [0166] All or part of the video information captured by these six micro lenses may be recorded on the information recording medium 167 as separate video streams, or as a single video stream. For example, it may be recorded on the information recording medium 167! /.
[0167] また、この映像ストリームの撮影に関する各種の情報、例えば各微細レンズの位置 、方向、間隔、焦点距離及びその他の情報は、管理情報として、例えばコンテンツ 1 管理情報ファイル、コンテンツ 1付属情報ファイル 1又はコンテンツ 1付属情報フアイ ル 2に記録される。これらのコンテンツ 1管理情報ファイル、コンテンツ 1付属情報ファ ィル 1又はコンテンツ 1付属情報ファイル 2も、映像ストリームと一緒に、或いは個別に 、例えば情報記録メディア 167に記録される。  [0167] In addition, various types of information regarding the shooting of the video stream, for example, the position, direction, interval, focal length, and other information of each microlens are management information such as a content 1 management information file and a content 1 ancillary information file. 1 or content 1 Recorded in attached information file 2. These content 1 management information file, content 1 ancillary information file 1 or content 1 ancillary information file 2 are also recorded on the information recording medium 167 together with the video stream or individually.
[0168] そして、映像コンテンツ再生編集装置は、これらの映像情報と付属情報とを情報記 録メディア 167から読み出して、 3次元的な映像を再生することができる。  [0168] Then, the video content playback / editing apparatus can read out the video information and the attached information from the information recording medium 167 and play back the three-dimensional video.
[0169] 例えば、インテグラルフォトグラフィ方式では、撮像素子 725上に結像され、情報記 録メディア 167に記録された複数の像をそのまま読み出し、それぞれの倒立画像を 電気的に正立画像に変換し、例えば液晶表示装置等に表示し、その表示された画 像を再度複眼レンズ 741と同じ構造のレンズを通して見ると、眼鏡なしで 3次元立体 映像を再現することができる。  [0169] For example, in the integral photography system, a plurality of images formed on the image sensor 725 and recorded on the information recording medium 167 are read as they are, and each inverted image is electrically converted to an upright image. For example, when the image is displayed on a liquid crystal display device and the displayed image is viewed again through a lens having the same structure as the compound eye lens 741, a three-dimensional stereoscopic image can be reproduced without glasses.
[0170] ここで、本実施の形態 4に係る映像コンテンツ記録装置による映像コンテンツ記録 処理について説明する。図 14は、図 12に示す映像コンテンツ記録装置による映像コ ンテンッ記録処理について説明するためのフローチャートである。  [0170] Here, a video content recording process by the video content recording apparatus according to the fourth embodiment will be described. FIG. 14 is a flowchart for explaining video content recording processing by the video content recording apparatus shown in FIG.
[0171] まず、ステップ S61において、静的機器情報管理部 146は、内部に予め記憶され ている静的機器情報を読み出す。静的機器情報管理部 146は、読み出した静的機 器情報をコンテンツ付属情報処理部 144へ出力する。 [0172] 上述したように、撮像素子は、複数の領域に分割されており、各領域にそれぞれ異 なる視点から撮影した被写体像が結像される。この場合、静的機器情報には、撮像 素子における各レンズが対応する領域の位置、撮像素子がどのような領域に分割さ れているカゝを表す領域情報、及び撮像素子の領域分割数が含まれる。 3次元映像を 再生する際には、これらの情報に基づいて、映像データ力も第 1の映像データと第 2 の映像データとが切り出されて 3次元映像が作成される。 [0171] First, in step S61, the static device information management unit 146 reads out static device information stored in advance therein. The static device information management unit 146 outputs the read static device information to the content-attached information processing unit 144. [0172] As described above, the imaging element is divided into a plurality of regions, and subject images taken from different viewpoints are formed in the respective regions. In this case, the static device information includes the position of the area corresponding to each lens in the image sensor, area information indicating the area into which the image sensor is divided, and the number of area divisions of the image sensor. included. When playing back 3D video, based on this information, the first video data and the second video data are also cut out and the 3D video is created.
[0173] なお、再生時に 1つの映像データ力 複数の映像データを切り出すのではなぐ記 録時に 1つの映像データカゝら複数の映像データを切り出してもよい。この場合、コン テンッ処理部 142は、静的機器情報を参照して、 CODEC処理部 127によって符号 化された映像データ力も第 1の映像データと第 2の映像データとを切り出し、正立画 像に変換してからストリーム化する。  [0173] It should be noted that one video data force at the time of reproduction is not cut out, and a plurality of video data may be cut out from one video data camera at the time of recording. In this case, the content processing unit 142 refers to the static device information, and the video data force encoded by the CODEC processing unit 127 also cuts out the first video data and the second video data, and erects the image data. Is converted to a stream.
[0174] 次に、ステップ S62において、コンテンツ付属情報処理部 144は、静的機器情報に 対して、情報記録メディア 167に記録するために必要なデータ変換処理を行う。コン テンッ付属情報処理部 144は、データ変換した静的機器情報をコンテンツ処理部 14 2へ出力する。コンテンツ処理部 142は、静的機器情報をメディアアクセス処理部 16 1へ出力する。メディアアクセス処理部 161は、コンテンツ処理部 142によって出力さ れた静的機器情報を情報記録メディア 167に記録する。  [0174] Next, in step S62, the content-attached information processing unit 144 performs data conversion processing necessary for recording the static device information on the information recording medium 167. The content-attached information processing unit 144 outputs the static device information obtained by data conversion to the content processing unit 142. The content processing unit 142 outputs the static device information to the media access processing unit 161. The media access processing unit 161 records the static device information output by the content processing unit 142 on the information recording medium 167.
[0175] 次に、ステップ S63において、映像入力処理部 721は、複数の視点から被写体を 撮影した映像データを取得し、 AV制御バッファ処理部 125へ出力する。また、動的 機器情報管理部 129は、映像入力処理部 721から動的機器情報を取得する。映像 入力処理部 721は、動的機器情報を動的機器情報管理部 129へ出力する。  Next, in step S 63, the video input processing unit 721 acquires video data obtained by photographing the subject from a plurality of viewpoints, and outputs the video data to the AV control buffer processing unit 125. The dynamic device information management unit 129 acquires dynamic device information from the video input processing unit 721. The video input processing unit 721 outputs the dynamic device information to the dynamic device information management unit 129.
[0176] 次に、ステップ S64において、 AV制御バッファ処理部 125は、映像入力処理部 72 1によって出力された映像データを一時的に記憶する。次に、ステップ S65において 、 CODEC処理部 127は、 AV制御バッファ処理部 125に記憶されている映像データ を符号化する。次に、ステップ S66において、コンテンツ処理部 142は、 CODEC処 理部 127によって符号ィ匕された映像データをストリーム化する。  [0176] Next, in step S64, the AV control buffer processing unit 125 temporarily stores the video data output by the video input processing unit 721. Next, in step S65, the CODEC processing unit 127 encodes the video data stored in the AV control buffer processing unit 125. Next, in step S66, the content processing unit 142 streams the video data encoded by the CODEC processing unit 127.
[0177] 次に、ステップ S67において、コンテンツ付属情報処理部 144は、動的機器情報に 対して、情報記録メディア 167に記録するために必要なデータ変換処理を行う。コン テンッ付属情報処理部 144は、データ変換した動的機器情報をコンテンツ処理部 14 2へ出力する。コンテンツ処理部 142は、映像ストリーム及び動的機器情報をメディア アクセス処理部 161へ出力する。メディアアクセス処理部 161は、コンテンツ処理部 1 42によって出力された映像ストリーム及び動的機器情報を情報記録メディア 167に 記録する。このとき、映像ストリーム、静的機器情報及び動的機器情報力 つの映像 コンテンッとして情報記録メディア 167に記録される。 [0177] Next, in step S67, the content-attached information processing unit 144 performs data conversion processing necessary for recording the dynamic device information on the information recording medium 167. Con The number-attached information processing unit 144 outputs the dynamic device information obtained by data conversion to the content processing unit 142. The content processing unit 142 outputs the video stream and the dynamic device information to the media access processing unit 161. The media access processing unit 161 records the video stream and dynamic device information output by the content processing unit 142 on the information recording medium 167. At this time, a video stream, static device information, and dynamic device information are recorded on the information recording medium 167 as video content.
[0178] なお、本実施の形態 4にお 、て、静的機器情報には、レンズのサイズを表すレンズ サイズ情報を含めてもよい。レンズサイズ情報は、各レンズのレンズ径及び厚みを表 す情報である。例えば、複数のレンズが入光範囲の中心部分と外側部分とに配置さ れる場合、中心部分に配置されるレンズと外側部分に配置されるレンズとのサイズに 応じて映像データの明度が変化する。入光範囲とは、複数のレンズで構成される複 眼レンズに入射する光の範囲を表す。中心部分に配置されるレンズのサイズが外側 部分に配置されるレンズのサイズよりも大きい場合、映像データは白くなりにくぐ中 心部分に配置されるレンズのサイズが外側部分に配置されるレンズのサイズよりも小 さい場合、映像データは暗くなりにくい。再生時において、このレンズサイズ情報を明 度補正に用いることにより、画質を向上することができる。  [0178] In the fourth embodiment, the static device information may include lens size information indicating the size of the lens. The lens size information is information indicating the lens diameter and thickness of each lens. For example, when multiple lenses are arranged in the central part and the outer part of the light incident range, the brightness of the video data changes according to the size of the lens arranged in the central part and the lens arranged in the outer part. . The incident light range is a range of light incident on a compound eye lens composed of a plurality of lenses. If the size of the lens placed in the center part is larger than the size of the lens placed in the outside part, the image data will not become white. If it is smaller than the size, the video data is less likely to be dark. Image quality can be improved by using this lens size information for brightness correction during playback.
[0179] また、映像コンテンツ記録装置は、複数のレンズがどのように配置されているかを表 すレンズ配置情報を静的機器情報として記録してもよい。この場合、映像コンテンツ 再生編集装置は、複数のレンズのうちの所定のレンズによって撮影された映像デー タの選択を受け付け、選択されたレンズによって撮影された映像データを用いて 3次 元映像を再生する。また、映像コンテンツ再生編集装置がプロジェクタである場合、 再生時において、記録時と同じレンズ配置で再生することが可能となる。  [0179] Also, the video content recording apparatus may record lens arrangement information representing how a plurality of lenses are arranged as static device information. In this case, the video content playback / editing device accepts selection of video data shot by a predetermined lens among a plurality of lenses, and plays back 3D video using the video data shot by the selected lens. To do. Further, when the video content playback / editing apparatus is a projector, playback can be performed with the same lens arrangement as during recording.
[0180] (実施の形態 5)  [0180] (Embodiment 5)
次に、実施の形態 5に係る映像コンテンツ編集装置について説明する。実施の形 態 2に係る映像コンテンツ再生編集装置は、情報記録メディアに記録されて ヽる映像 コンテンツの編集を行った後、 3次元映像を再生しているが、実施の形態 5に係る映 像コンテンツ編集装置は、情報記録メディアに記録されて ヽる映像コンテンツの編集 のみを行う。 [0181] 図 15は、実施の形態 5に係る映像コンテンツ編集装置 800の主要部の構成を示す ブロック図である。図 15に示す映像コンテンツ編集装置 800は、メディアアクセス処 理部 801、メニュー処理部 803、ユーザインタフェース処理部 805及びコンテンツ付 属情報処理部 807を備える。なお、本実施の形態 5における映像コンテンツ編集装 置 800の構成は、実施の形態 2における映像コンテンツ再生編集装置 500の構成と ほぼ同じであるので詳細な説明は省略する。 Next, a video content editing apparatus according to Embodiment 5 will be described. The video content playback / editing apparatus according to Embodiment 2 plays back the 3D video after editing the video content recorded on the information recording medium, but the video content according to Embodiment 5 The content editing device only edits video content recorded on information recording media. FIG. 15 is a block diagram showing the configuration of the main part of video content editing apparatus 800 according to Embodiment 5. A video content editing apparatus 800 shown in FIG. 15 includes a media access processing unit 801, a menu processing unit 803, a user interface processing unit 805, and a content-attached information processing unit 807. The configuration of video content editing apparatus 800 in the fifth embodiment is almost the same as the configuration of video content reproduction / editing apparatus 500 in the second embodiment, and thus detailed description thereof is omitted.
[0182] 情報記録メディア 167は、被写体をそれぞれ異なる複数の視点力も撮影した少なく とも 1つの映像データと、映像コンテンツ記録装置に固有の情報である静的機器情 報と、映像データを取得した際の状況に応じて変化する情報である動的機器情報と を映像コンテンツとして記録して 、る。  [0182] The information recording medium 167 acquires at least one video data obtained by shooting a plurality of different viewpoints of the subject, static device information that is unique to the video content recording device, and video data. Dynamic device information, which is information that changes according to the situation, is recorded as video content.
[0183] ユーザインタフェース処理部 805は、静的機器情報及び動的機器情報のうちのい ずれか一方または両方を指定し、その内容を変更するための変更指示を受け付ける 。メディアアクセス処理部 501は、ユーザインタフェース処理部 805によって受け付け られた変更指示に対応する静的機器情報及び動的機器情報のうちのいずれか一方 または両方を情報記録メディア 167から読み出す。  The user interface processing unit 805 specifies one or both of static device information and dynamic device information, and accepts a change instruction for changing the contents. The media access processing unit 501 reads out one or both of static device information and dynamic device information corresponding to the change instruction received by the user interface processing unit 805 from the information recording medium 167.
[0184] コンテンツ付属情報処理部 807は、メディアアクセス処理部 501によって読み出さ れた静的機器情報及び動的機器情報のうちのいずれか一方または両方の内容を変 更指示に応じて変更する。コンテンツ付属情報処理部 807は、変更した静的機器情 報及び動的機器情報のうちのいずれか一方または両方を情報記録メディア 167に記 録する。  [0184] The content-attached information processing unit 807 changes the contents of one or both of the static device information and the dynamic device information read by the media access processing unit 501 in accordance with the change instruction. The content-attached information processing unit 807 records either or both of the changed static device information and dynamic device information on the information recording medium 167.
[0185] 続いて、本実施の形態 5に係る映像コンテンツ編集装置による、映像コンテンツを 編集する映像コンテンツ編集処理について説明する。図 16は、図 15に示す映像コ ンテンッ編集装置による映像コンテンツ編集処理について説明するためのフローチ ヤートである。  [0185] Next, video content editing processing for editing video content by the video content editing apparatus according to the fifth embodiment will be described. FIG. 16 is a flowchart for explaining video content editing processing by the video content editing apparatus shown in FIG.
[0186] まず、ステップ S71において、ユーザインタフェース処理部 505は、情報記録メディ ァ 167に記録されている動的機器情報及び静的機器情報のうち、変更する情報及 びその変更内容を含む変更指示を受け付ける。ユーザインタフェース処理部 505は 、受け付けた変更指示をコンテンツ付属情報処理部 507へ出力する。 [0187] 次に、ステップ S72において、コンテンツ付属情報処理部 807は、メディアアクセス 処理部 801に対して、ユーザインタフェース処理部 505によって指定された動的機器 情報及び静的機器情報を読み出すように指示する。メディアアクセス処理部 801は、 指定された動的機器情報及び静的機器情報を情報記録メディア 167から読み出し、 コンテンツ付属情報処理部 807へ出力する。 [0186] First, in step S71, the user interface processing unit 505 issues a change instruction including information to be changed and the change contents among the dynamic device information and static device information recorded in the information recording medium 167. Accept. The user interface processing unit 505 outputs the received change instruction to the content-attached information processing unit 507. [0187] Next, in step S72, the content-attached information processing unit 807 instructs the media access processing unit 801 to read out the dynamic device information and static device information specified by the user interface processing unit 505. To do. The media access processing unit 801 reads the specified dynamic device information and static device information from the information recording medium 167 and outputs them to the content-attached information processing unit 807.
[0188] 次に、ステップ S73において、コンテンツ付属情報処理部 507は、ユーザインタフエ ース処理部 505によって出力された変更指示の内容に基づいて、動的機器情報及 び静的機器情報を変更する。すなわち、コンテンツ付属情報処理部 507は、変更指 示に応じた内容に動的機器情報及び静的機器情報の内容を変更する。コンテンツ 付属情報処理部 507は、内容を変更した動的機器情報及び静的機器情報をメディ ァアクセス処理部 801へ出力する。  [0188] Next, in step S73, the content-attached information processing unit 507 changes the dynamic device information and the static device information based on the content of the change instruction output by the user interface processing unit 505. To do. That is, the content-attached information processing unit 507 changes the contents of the dynamic device information and the static device information to the contents according to the change instruction. The content-attached information processing unit 507 outputs the dynamic device information and the static device information whose contents have been changed to the media access processing unit 801.
[0189] 次に、ステップ S74において、メディアアクセス処理部 801は、コンテンツ付属情報 処理部 807によって出力された動的機器情報及び静的機器情報を情報記録メディ ァ 167に記録する。  Next, in step S 74, the media access processing unit 801 records the dynamic device information and the static device information output by the content attached information processing unit 807 in the information recording medium 167.
[0190] 本発明によると、単なる記録映像としての用途に留まらず、 3次元映像 (動画'静止 画)写真立ての元映像として利用することができ、 3次元表示デバイスと組み合わせ ることで、従来の視点を超えた、 3次元ならではの情報取得及び保存が可能となる。 また、このような情報取得や保存は、ロボットにも適用することが可能である。  [0190] According to the present invention, it can be used not only as a recorded video but also as a 3D video (moving image 'still image) as an original video for a photo frame, and in combination with a 3D display device, It is possible to obtain and store information unique to 3D beyond the viewpoint of Such information acquisition and storage can also be applied to a robot.
[0191] その他、自動車のコーナー測距等のための視覚センサーとして利用することも可能 であり、視覚障害者向けの階段知覚にも利用可能で、セキュリティ確保のための監視 用にも利用することができる。  [0191] In addition, it can also be used as a visual sensor for corner ranging of automobiles, etc. It can also be used for staircase perception for visually impaired people, and it can also be used for monitoring to ensure security. Can do.
[0192] 更に、医療用顕微鏡画像等の利用に際し、染色体の目視検査 (蛍光確認)等にお いて、従来は、 2次元的に表示されたものを見ていたため、細胞の重なっている部分 の判断等が困難であった。本発明によれば、種々の視点に視野角を変更することが でき、別の角度力も細胞の重なりを回避して、内部を確認することができるので、検査 の精度の改善に大きく貢献することが可能になる。  [0192] Furthermore, in the use of medical microscope images, etc., in the conventional visual inspection of the chromosome (fluorescence confirmation), etc., conventionally, since the two-dimensional display was seen, Judgment was difficult. According to the present invention, the viewing angle can be changed to various viewpoints, and another angle force can avoid the overlap of cells and check the inside, so that it greatly contributes to the improvement of inspection accuracy. Is possible.
[0193] なお、上述した具体的な実施の形態には以下の構成を有する発明が主に含まれて いる。 [0194] 本発明の一局面に係る映像コンテンツ記録装置は、映像コンテンツを情報記録メ ディアに記録する映像コンテンツ記録装置であって、被写体をそれぞれ異なる複数 の視点力 撮影した少なくとも 1つの映像データを取得する映像データ取得部と、前 記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得する静的 パラメータ情報取得部と、前記映像データを取得した際の状況に応じて変化する情 報である動的パラメータ情報を取得する動的パラメータ情報取得部と、前記映像デ ータ取得部によって取得された前記少なくとも 1つの映像データと、前記静的パラメ ータ情報取得部によって取得された前記静的パラメータ情報と、前記動的パラメータ 情報取得部によって取得された前記動的パラメータ情報とを関連付けて前記映像コ ンテンッとして前記情報記録メディアに記録する記録部とを備える。 [0193] The specific embodiments described above mainly include inventions having the following configurations. [0194] A video content recording apparatus according to an aspect of the present invention is a video content recording apparatus that records video content on an information recording medium, and has at least one video data obtained by photographing a subject with a plurality of different viewpoint powers. A video data acquisition unit to acquire, a static parameter information acquisition unit to acquire static parameter information, which is information unique to the video content recording device, and information that changes according to the situation when the video data is acquired. Dynamic parameter information acquisition unit that acquires dynamic parameter information that is information, the at least one video data acquired by the video data acquisition unit, and acquired by the static parameter information acquisition unit Associating the static parameter information with the dynamic parameter information acquired by the dynamic parameter information acquisition unit And a recording section for recording on the information recording medium as the image co Nten'.
[0195] 本発明の他の局面に係る映像コンテンツ記録方法は、映像コンテンツを情報記録 メディアに記録する映像コンテンツ記録方法であって、被写体をそれぞれ異なる複数 の視点力 撮影した少なくとも 1つの映像データを取得する映像データ取得ステップ と、前記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得す る静的パラメータ情報取得ステップと、前記映像データを取得した際の状況に応じて 変化する情報である動的パラメータ情報を取得する動的パラメータ情報取得ステップ と、前記映像データ取得ステップにおいて取得された前記少なくとも 1つの映像デー タと、前記静的パラメータ情報取得ステップにお 、て取得された前記静的パラメータ 情報と、前記動的パラメータ情報取得ステップにお 、て取得された前記動的パラメ一 タ情報とを関連付けて前記映像コンテンツとして前記情報記録メディアに記録する記 録ステップとを含む。  [0195] A video content recording method according to another aspect of the present invention is a video content recording method for recording video content on an information recording medium, and includes at least one video data obtained by photographing a subject with a plurality of different viewpoint powers. A video data acquisition step to acquire, a static parameter information acquisition step to acquire static parameter information, which is information unique to the video content recording device, and information that changes depending on the situation when the video data is acquired The dynamic parameter information acquisition step for acquiring dynamic parameter information, the at least one video data acquired in the video data acquisition step, and the static parameter information acquisition step Static parameter information and acquired in the dynamic parameter information acquisition step. A recording step of associating the dynamic parameter information and recording the information as the video content on the information recording medium.
[0196] 本発明の他の局面に係る映像コンテンツ記録プログラムは、映像コンテンツを情報 記録メディアに記録するための映像コンテンツ記録プログラムであって、被写体をそ れぞれ異なる複数の視点カゝら撮影した少なくとも 1つの映像データを取得する映像 データ取得部と、前記映像コンテンツ記録装置に固有の情報である静的パラメータ 情報を取得する静的パラメータ情報取得部と、前記映像データを取得した際の状況 に応じて変化する情報である動的パラメータ情報を取得する動的パラメータ情報取 得部と、前記映像データ取得部によって取得された前記少なくとも 1つの映像データ と、前記静的パラメータ情報取得部によって取得された前記静的パラメータ情報と、 前記動的パラメータ情報取得部によって取得された前記動的パラメータ情報とを関 連付けて前記映像コンテンツとして前記情報記録メディアに記録する記録部としてコ ンピュータを機能させる。 [0196] A video content recording program according to another aspect of the present invention is a video content recording program for recording video content on an information recording medium, and is photographed from a plurality of different viewpoints. A video data acquisition unit that acquires at least one video data, a static parameter information acquisition unit that acquires static parameter information that is information unique to the video content recording device, and a situation when the video data is acquired A dynamic parameter information acquisition unit that acquires dynamic parameter information that is information that changes in accordance with the at least one video data acquired by the video data acquisition unit And the static parameter information acquired by the static parameter information acquisition unit and the dynamic parameter information acquired by the dynamic parameter information acquisition unit in association with the information recording medium as the video content Makes the computer function as a recording unit for recording in
[0197] これらの構成によれば、それぞれ異なる複数の視点から被写体が撮影され、少なく とも 1つの映像データが取得される。そして、映像コンテンツ記録装置に固有の情報 である静的パラメータ情報が取得され、映像データを取得した際の状況に応じて変 化する情報である動的パラメータ情報が取得される。その後、取得された少なくとも 1 つの映像データと、取得された静的パラメータ情報と、取得された動的パラメータ情 報とが関連付けられて映像コンテンツとして情報記録メディアに記録される。  [0197] According to these configurations, a subject is photographed from a plurality of different viewpoints, and at least one video data is acquired. Then, static parameter information that is information unique to the video content recording apparatus is acquired, and dynamic parameter information that is information that changes according to the situation when the video data is acquired is acquired. Thereafter, the acquired at least one video data, the acquired static parameter information, and the acquired dynamic parameter information are associated with each other and recorded on the information recording medium as video content.
[0198] したがって、被写体をそれぞれ異なる複数の視点力も撮影した少なくとも 1つの映 像データと、映像コンテンツ記録装置に固有の情報である静的パラメータ情報と、映 像データを取得した際の状況に応じて変化する情報である動的パラメータ情報とが 関連付けられて映像コンテンツとして情報記録メディアに記録されるので、静的パラメ ータ情報と動的パラメータ情報とを用いて、 3次元表示可能なように映像データをカロ ェすることができ、映像コンテンツを各種 3次元表示可能な機器に汎用的に使用する ことができる。  [0198] Therefore, depending on at least one video data obtained by photographing a plurality of different viewpoints of the subject, static parameter information that is unique to the video content recording device, and the situation when the video data is acquired Dynamic parameter information, which is information that changes, is recorded on the information recording medium as video content, so that it can be displayed in 3D using static parameter information and dynamic parameter information. Video data can be covered, and it can be used universally for devices that can display various 3D video content.
[0199] また、映像コンテンツ記録装置によって記録された 3次元映像を表示するための映 像コンテンツを各種 3次元表示可能な機器に汎用的に使用することができるので、 3 次元映像を表示するための情報形式の標準化を図ると同時に、 3次元映像情報の流 通の促進にも貢献することが可能になる。  [0199] In addition, since the video content for displaying the 3D video recorded by the video content recording device can be used for various 3D display devices, it is possible to display the 3D video. It will be possible to contribute to the promotion of the distribution of 3D video information while standardizing the information format.
[0200] また、上記の映像コンテンツ記録装置にぉ 、て、前記映像データ取得部は、少なく とも 1つの撮像素子と、前記撮像素子に被写体像を結像する複数のレンズとを有する 撮影部を含み、前記静的パラメータ情報は、前記被写体を撮影した時のレンズ間距 離、前記レンズの焦点距離及び前記レンズの歪値のうちの少なくとも 1つを含むこと が好ましい。  [0200] In addition, in the video content recording apparatus, the video data acquisition unit includes a photographing unit including at least one image sensor and a plurality of lenses that form a subject image on the image sensor. Preferably, the static parameter information includes at least one of a distance between lenses when the subject is photographed, a focal length of the lens, and a distortion value of the lens.
[0201] この構成によれば、映像データを取得した時の撮影部のレンズ間距離、レンズの焦 点距離及びレンズの歪値を用いて、 3次元表示可能なように映像データを加工する ことができる。また、これらの情報をそのまま使用するだけでなぐ種々の値に変更し て 3次元映像を再生することが可能になる。 [0201] According to this configuration, the video data is processed so that it can be displayed in three dimensions using the distance between the lenses of the photographing unit, the focal distance of the lens, and the distortion value of the lens when the video data is acquired. be able to. In addition, it is possible to reproduce 3D images by changing these values to various values just by using them as they are.
[0202] また、上記の映像コンテンツ記録装置にぉ 、て、前記映像データ取得部は、少なく とも 1つの撮像素子と、前記撮像素子に被写体像を結像する複数のレンズとを有する 撮影部を含み、前記動的パラメータ情報は、前記被写体を撮影した時の前記撮影部 の方向角、前記撮影部の位置を表す撮影部位置情報、前記レンズの方向角及び前 記レンズの位置を表すレンズ位置情報のうちの少なくとも 1つを含むことが好ましい。  [0202] In addition, in the video content recording apparatus, the video data acquisition unit includes an imaging unit including at least one image sensor and a plurality of lenses that form a subject image on the image sensor. The dynamic parameter information includes a direction angle of the photographing unit when photographing the subject, photographing unit position information representing a position of the photographing unit, a direction angle of the lens, and a lens position representing the position of the lens. Preferably it contains at least one of the information.
[0203] この構成によれば、映像データを取得した時の撮影部の方向角、撮影部の位置情 報、レンズの方向角、レンズの位置情報を用いて、 3次元表示可能なように映像デー タを加工することができる。また、これらの情報をそのまま使用するだけでなぐ種々 の値に変更して 3次元映像を再生することが可能になる。  [0203] According to this configuration, using the direction angle of the image capturing unit, the position information of the image capturing unit, the direction angle of the lens, and the position information of the lens when the image data is acquired, the image can be displayed in three dimensions. Data can be processed. In addition, it is possible to reproduce 3D images by changing these values to various values just by using them as they are.
[0204] また、上記の映像コンテンツ記録装置において、前記映像データ取得部は、 1つの 撮影部と、前記 1つの撮影部を前記複数の視点に対応する位置に移動させる移動 部とを含むことが好ましい。  [0204] Also, in the video content recording apparatus, the video data acquisition unit may include one shooting unit and a moving unit that moves the one shooting unit to positions corresponding to the plurality of viewpoints. preferable.
[0205] この構成によれば、単一の撮影部を複数の視点に対応する位置に移動させるので 、複数の視点に対応する位置にそれぞれ撮影部を設けるよりも低コスト及び単純な 構成で 3次元映像を記録することが可能になる。  [0205] According to this configuration, since a single imaging unit is moved to a position corresponding to a plurality of viewpoints, the configuration can be made at a lower cost and with a simpler configuration than providing an imaging unit at a position corresponding to a plurality of viewpoints. Dimensional images can be recorded.
[0206] また、上記の映像コンテンツ記録装置にぉ 、て、前記動的パラメータ情報取得部は 、前記移動部によって移動される前記撮影部の各視点における撮影時刻を特定する ための時間情報を取得することが好まし 、。  [0206] Also, in the video content recording apparatus, the dynamic parameter information acquisition unit acquires time information for specifying the shooting time at each viewpoint of the shooting unit moved by the moving unit. I prefer to do that.
[0207] この構成によれば、移動される撮影部の各視点における撮影時刻を特定するため の時間情報が取得され、この時間情報が映像データとともに情報記録メディアに記 録されるので、異なる時刻に時分割的に撮影された映像データを、時間情報を使用 して、あた力も同時並行的に複数の視点力も撮影した画像であるかのように合成する ことができ、 3次元映像を再生することが可能になる。  [0207] According to this configuration, time information for specifying the shooting time at each viewpoint of the moving shooting unit is acquired, and this time information is recorded on the information recording medium together with the video data. 3D video can be combined as if it were an image of time and power, as well as images taken with multiple viewpoints simultaneously using time information. It becomes possible to do.
[0208] また、上記の映像コンテンツ記録装置において、前記映像データ取得部は、 1つの 撮像素子と、前記 1つの撮像素子に被写体像を結像させる複数のレンズとを有する 1 つの撮影部を含み、前記 1つの撮影部は、前記複数のレンズによりそれぞれ異なる 視点から撮影した映像データを取得することが好ましい。 [0208] Further, in the above video content recording device, the video data acquisition unit includes one imaging unit having one imaging device and a plurality of lenses that form subject images on the one imaging device. The one photographing unit is different for each of the plurality of lenses. It is preferable to acquire video data shot from a viewpoint.
[0209] この構成によれば、複数のレンズによりそれぞれ異なる視点から撮影した映像デー タが取得されるので、必ずしも視点毎に複数の撮影部や複数の撮像素子を必要とせ ず、 1つの撮影部だけで複数の視点力 見た映像データを情報記録メディアに記録 することができる。  [0209] According to this configuration, since video data captured from different viewpoints is acquired by a plurality of lenses, a plurality of imaging units and a plurality of imaging elements are not necessarily required for each viewpoint, and one imaging unit is not necessarily required. Video data viewed from multiple viewpoints can be recorded on information recording media.
[0210] また、上記の映像コンテンツ記録装置にぉ 、て、前記撮影部は、それぞれ異なる視 点から撮影した複数の映像データを取得することが好ましい。  [0210] In addition, in the video content recording apparatus described above, it is preferable that the shooting unit acquires a plurality of video data shot from different viewpoints.
[0211] この構成によれば、それぞれ異なる視点から撮影された複数の映像データの中か ら、必要な視点力 撮影された映像データだけを取り出して複製、移動、編集及び再 生等を行うことが可能になり、映像データを記録するための処理負荷や容量の低減 を図ることが可能になる。  [0211] According to this configuration, only video data that has been shot with the necessary viewpoint power is extracted from a plurality of video data that has been shot from different viewpoints, and copied, moved, edited, played back, etc. This makes it possible to reduce the processing load and capacity for recording video data.
[0212] また、上記の映像コンテンツ記録装置にぉ 、て、前記動的パラメータ情報取得部は 、前記撮影部によって取得された前記複数の映像データと、前記複数の映像データ を取得した時の視点位置とを対応付ける情報を取得することが好ましい。  [0212] In addition, in the video content recording device, the dynamic parameter information acquisition unit is configured to obtain the plurality of video data acquired by the photographing unit and the viewpoint when the plurality of video data are acquired. It is preferable to acquire information that associates the position.
[0213] この構成によれば、複数の視点で撮影した時刻が正確に同時でなくても、あたかも 同時に撮影した映像データであるかのように 3次元映像を再生することが可能になる 。また、必ずしも映像データが撮影された時間の順に正確にその映像データが記録 されていなくても、撮影された時間の順に正確に映像データを再構成し、その映像デ ータを使って 3次元映像を再生することが可能になる。  [0213] According to this configuration, it is possible to reproduce a 3D video as if it were video data shot at the same time, even if the time taken from a plurality of viewpoints was not exactly the same. Also, even if the video data is not necessarily recorded in the exact order of the time when the video data was shot, the video data is accurately reconstructed in the order of the shot time, and the video data is used for 3D Video can be played back.
[0214] また、上記の映像コンテンツ記録装置にぉ 、て、前記静的パラメータ情報を予め記 憶する記憶部をさらに備え、前記静的パラメータ情報取得部は、前記記憶部から前 記静的パラメータ情報を読み出すことが好ましい。  [0214] The video content recording apparatus further includes a storage unit that stores the static parameter information in advance, and the static parameter information acquisition unit receives the static parameter from the storage unit. It is preferable to read the information.
[0215] この構成によれば、通常固定されており変化することはない静的パラメータ情報を 撮影時に記録する必要がないので、撮影時の処理負荷を軽減することができ、より単 純かつ低機能の処理部であっても、複数の視点力 見た映像データを記録すること ができる。  [0215] According to this configuration, since it is not necessary to record static parameter information that is normally fixed and does not change at the time of shooting, the processing load at the time of shooting can be reduced, and it is simpler and less expensive. Even the function processing unit can record video data viewed from multiple viewpoints.
[0216] また、上記の映像コンテンツ記録装置にぉ 、て、前記記録部は、前記映像データ、 前記静的パラメータ情報及び前記動的パラメータ情報のうちの少なくとも 1つを、それ 以外と別のファイルとして前記情報記録メディアに記録することが好ましい。 [0216] In addition, in the video content recording apparatus, the recording unit receives at least one of the video data, the static parameter information, and the dynamic parameter information. It is preferable to record on the information recording medium as a file different from the above.
[0217] この構成によれば、映像データ、静的パラメータ情報及び動的パラメータ情報のう ちの少なくとも 1つ力 それ以外と別のファイルとして個別に記録されるので、このファ ィルを個別に管理することが可能になり、情報を記録するための処理負荷や容量の 低減を図ることが可能になる。また、必要な情報だけを取捨選択して円滑に流通させ るために必要な情報形式の標準化を図ることも可能になる。  [0217] According to this configuration, since at least one of video data, static parameter information, and dynamic parameter information is recorded separately as a separate file, the file is individually managed. This makes it possible to reduce the processing load and capacity for recording information. It is also possible to standardize the information format required to select and distribute only the necessary information for smooth distribution.
[0218] また、上記の映像コンテンツ記録装置にぉ 、て、前記記録部は、前記映像データ、 前記静的パラメータ情報及び前記動的パラメータ情報のうちの少なくとも 1つを、それ 以外と別のディレクトリに記録することが好ま 、。  [0218] Also, in the video content recording apparatus, the recording unit may store at least one of the video data, the static parameter information, and the dynamic parameter information in a directory different from the rest. I prefer to record it.
[0219] この構成によれば、映像データ、静的パラメータ情報及び動的パラメータ情報のう ちの少なくとも 1つ力 それ以外と別のディレクトリに記録されるので、このディレクトリ を個別に管理することが可能になる。また、必要な情報だけを取捨選択して円滑に流 通させるために必要な情報の記録保存形式の標準化を図ることも可能になる。  [0219] According to this configuration, at least one of video data, static parameter information, and dynamic parameter information is recorded in a different directory, so that this directory can be managed individually. become. It is also possible to standardize the recording and storage format of information necessary for selecting and disseminating only the necessary information.
[0220] また、上記の映像コンテンツ記録装置にぉ 、て、前記記録部は、前記映像データ、 前記静的パラメータ情報及び前記動的パラメータ情報のうちの少なくとも 2つを 1つの ファイルとして前記情報記録メディアに記録することが好ましい。  [0220] In addition, in the video content recording apparatus, the recording unit records the information as at least two of the video data, the static parameter information, and the dynamic parameter information as one file. It is preferable to record on a medium.
[0221] この構成によれば、映像データ、静的パラメータ情報及び動的パラメータ情報のう ちの少なくとも 2つが 1つのファイルにまとめて記録されるので、複数の情報をまとめて 管理することが可能になる。また、複数の情報が 1つのファイルにまとめられるので、 記録や管理の手数を低減し、更に、これらの情報を円滑に流通させるために必要な 記録保存形式の標準化を図ることも可能になる。  [0221] According to this configuration, since at least two of the video data, static parameter information, and dynamic parameter information are recorded together in one file, a plurality of information can be managed collectively. Become. In addition, since multiple pieces of information are combined into a single file, it is possible to reduce the number of recording and management tasks, and to standardize the record storage format necessary for smoothly distributing such information.
[0222] また、上記の映像コンテンツ記録装置にお!、て、前記映像データ取得部は、複数 の映像データを取得し、前記記録部は、前記複数の映像データのそれぞれに対応 する、前記静的パラメータ情報と前記動的パラメータ情報とのいずれか一方又は両 方を 1つのファイルとして前記情報記録メディアに記録することが好ましい。  [0222] Also, in the video content recording apparatus, the video data acquisition unit acquires a plurality of video data, and the recording unit corresponds to each of the plurality of video data. It is preferable to record one or both of the dynamic parameter information and the dynamic parameter information as one file on the information recording medium.
[0223] この構成によれば、静的パラメータ情報と動的パラメータ情報とが 1つのファイルに まとめて記録されるので、複数の情報をまとめて管理することが可能になる。また、記 録ゃ管理の手数を低減し、更に、これらの情報を円滑に流通させるために必要な記 録保存形式の標準化を図ることも可能になる。 [0223] According to this configuration, since the static parameter information and the dynamic parameter information are recorded together in one file, a plurality of information can be managed collectively. In addition, it reduces the number of records management efforts, and further, it is necessary to record such information smoothly. It is also possible to standardize the recording storage format.
[0224] また、上記の映像コンテンツ記録装置にぉ 、て、前記記録部は、前記映像データ、 前記静的パラメータ情報及び前記動的パラメータ情報のうちの少なくとも 2つを 1つの ディレクトリに記録することが好ま 、。  [0224] Further, in the video content recording apparatus, the recording unit records at least two of the video data, the static parameter information, and the dynamic parameter information in one directory. Preferred.
[0225] この構成によれば、映像データ、静的パラメータ情報及び動的パラメータ情報のう ちの少なくとも 2つが 1つのディレクトリにまとめて記録されるので、複数の情報をまと めて管理することが可能になる。また、複数の情報力^つのディレクトリにまとめられる ので、記録や管理の手数を低減し、更に、これらの情報を円滑に流通させるために 必要な記録保存形式の標準化を図ることも可能になる。  [0225] According to this configuration, since at least two of the video data, static parameter information, and dynamic parameter information are recorded together in one directory, a plurality of pieces of information can be managed together. It becomes possible. In addition, since the information can be collected in a plurality of directories, it is possible to reduce the number of records and management, and to standardize the record storage format necessary for smoothly distributing such information.
[0226] また、上記の映像コンテンツ記録装置にぉ 、て、前記映像データ取得部は、複数 の映像データを取得し、前記記録部は、前記複数の映像データのそれぞれに対応 する、前記静的パラメータ情報と前記動的パラメータ情報とのいずれか一方又は両 方を 1つのディレクトリに記録することが好ましい。  [0226] Also, in the video content recording apparatus, the video data acquisition unit acquires a plurality of video data, and the recording unit corresponds to each of the plurality of video data. It is preferable to record one or both of parameter information and the dynamic parameter information in one directory.
[0227] この構成によれば、静的パラメータ情報と動的パラメータ情報とが 1つのディレクトリ にまとめて記録されるので、複数の情報をまとめて管理することが可能になる。また、 複数の情報力^つのディレクトリにまとめられるので、記録や管理の手数を低減し、更 に、これらの情報を円滑に流通させるために必要な記録保存形式の標準化を図るこ とも可能になる。  [0227] According to this configuration, since the static parameter information and the dynamic parameter information are recorded together in one directory, a plurality of information can be managed collectively. In addition, since multiple information capabilities can be combined into one directory, it is possible to reduce the number of recording and management tasks, and to standardize the record storage format necessary for smoothly distributing such information. .
[0228] また、上記の映像コンテンツ記録装置にぉ 、て、前記記録部は、前記映像データ、 前記静的パラメータ情報及び前記動的パラメータ情報のうちの少なくとも 1つを、それ 以外と別の情報記録メディアに記録することが好ま 、。  [0228] In addition, in the video content recording apparatus, the recording unit receives at least one of the video data, the static parameter information, and the dynamic parameter information as information different from the rest. I prefer to record on recording media.
[0229] この構成によれば、映像データ、静的パラメータ情報及び動的パラメータ情報のう ちの少なくとも 1つ力 それ以外と別の情報記録メディアに記録されるので、複数の情 報を個別に管理することが可能になる。また、情報が複数の情報記録メディアに分散 して記録されるので、情報を記録するために必要な各情報記録メディアの記録容量 を低減することができ、必要な情報だけを取捨選択して円滑に流通させるために必 要な情報形式の標準化を図ることも可能になる。  [0229] According to this configuration, since at least one of video data, static parameter information, and dynamic parameter information is recorded on another information recording medium, a plurality of pieces of information are individually managed. It becomes possible to do. In addition, since information is distributed and recorded on a plurality of information recording media, the recording capacity of each information recording medium required for recording information can be reduced, and only necessary information can be selected and smoothly selected. It is also possible to standardize the information format required for distribution.
[0230] 本発明の他の局面に係る情報記録メディアは、映像コンテンツを記録可能な情報 記録メディアであって、上記の 、ずれかに記載の映像コンテンツ記録装置によって 前記映像コンテンツが記録されて 、る。 [0230] An information recording medium according to another aspect of the present invention is information capable of recording video content. A recording medium, wherein the video content is recorded by the video content recording device described above.
[0231] この構成によれば、被写体をそれぞれ異なる複数の視点カゝら撮影した少なくとも 1 つの映像データと、映像コンテンツ記録装置に固有の情報である静的パラメータ情 報と、映像データを取得した際の状況に応じて変化する情報である動的パラメータ情 報とが関連付けられて映像コンテンツとして情報記録メディアに記録されているので 、静的パラメータ情報と動的パラメータ情報を用いて、 3次元表示可能なように映像 データを加工することができ、映像コンテンツを各種 3次元表示可能な機器に汎用的 に使用することができる。また、これらの情報を円滑に流通させるために必要な記録 形式の標準化を図り、この情報記録メディアの流通の促進と拡大を図ることも可能に なる。 [0231] According to this configuration, at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and video data are acquired. Since dynamic parameter information, which is information that changes according to the situation at the time, is associated and recorded on the information recording medium as video content, three-dimensional display is performed using static parameter information and dynamic parameter information. Video data can be processed as much as possible, and it can be used universally for devices that can display video content in various 3D formats. It will also be possible to standardize the recording format necessary for the smooth distribution of this information and to promote and expand the distribution of this information recording medium.
[0232] 本発明の他の局面に係る映像コンテンツ再生装置は、映像コンテンツ記録装置に よって情報記録メディアに記録された映像コンテンツから 3次元映像を再生する映像 コンテンツ再生装置であって、前記情報記録メディアは、被写体をそれぞれ異なる複 数の視点カゝら撮影した少なくとも 1つの映像データと、前記映像コンテンツ記録装置 に固有の情報である静的パラメータ情報と、前記映像データを取得した際の状況に 応じて変化する情報である動的パラメータ情報とを映像コンテンツとして記録しており 、前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パラメ一 タ情報とを前記情報記録メディア力 読み出す読出部と、前記読出部によって読み 出された前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パ ラメータ情報とを用いて 3次元映像を再生する再生部とを備える。  [0232] A video content playback apparatus according to another aspect of the present invention is a video content playback apparatus that plays back 3D video from video content recorded on an information recording medium by the video content recording apparatus, wherein the information recording The media includes at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and a situation when the video data is acquired. Dynamic parameter information, which is information that changes in response, is recorded as video content, and the at least one video data, the static parameter information, and the dynamic parameter information are recorded in the information recording medium capability. A reading unit for reading, the at least one video data read by the reading unit, and the static parameter; It comprises a chromatography data information, and a reproduction unit for reproducing a three-dimensional image by using the said dynamic parameter information.
[0233] 本発明の他の局面に係る映像コンテンツ再生方法は、映像コンテンツ記録装置に よって情報記録メディアに記録された映像コンテンツから 3次元映像を再生する映像 コンテンツ再生方法であって、前記情報記録メディアは、被写体をそれぞれ異なる複 数の視点カゝら撮影した少なくとも 1つの映像データと、前記映像コンテンツ記録装置 に固有の情報である静的パラメータ情報と、前記映像データを取得した際の状況に 応じて変化する情報である動的パラメータ情報とを映像コンテンツとして記録しており 、前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パラメ一 タ情報とを前記情報記録メディア力 読み出す読出ステップと、前記読出ステップに おいて読み出された前記少なくとも 1つの映像データと、前記静的パラメータ情報と、 前記動的パラメータ情報とを用いて 3次元映像を再生する再生ステップとを含む。 [0233] A video content playback method according to another aspect of the present invention is a video content playback method for playing back 3D video from video content recorded on an information recording medium by a video content recording device, wherein the information recording The media includes at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and a situation when the video data is acquired. Dynamic parameter information, which is information that changes in response, is recorded as video content, the at least one video data, the static parameter information, and the dynamic parameter. 3D using the reading step for reading out the data information, the at least one video data read in the reading step, the static parameter information, and the dynamic parameter information. A playback step of playing back the video.
[0234] 本発明の他の局面に係る映像コンテンツ再生プログラムは、映像コンテンツ記録装 置によって情報記録メディアに記録された映像コンテンツから 3次元映像を再生する ための映像コンテンツ再生プログラムであって、前記情報記録メディアは、被写体を それぞれ異なる複数の視点から撮影した少なくとも 1つの映像データと、前記映像コ ンテンッ記録装置に固有の情報である静的パラメータ情報と、前記映像データを取 得した際の状況に応じて変化する情報である動的パラメータ情報とを映像コンテンツ として記録しており、前記少なくとも 1つの映像データと、前記静的パラメータ情報と、 前記動的パラメータ情報とを前記情報記録メディアから読み出す読出部と、前記読 出部によって読み出された前記少なくとも 1つの映像データと、前記静的パラメータ 情報と、前記動的パラメータ情報とを用いて 3次元映像を再生する再生部としてコン ピュータを機能させる。 [0234] A video content playback program according to another aspect of the present invention is a video content playback program for playing back 3D video from video content recorded on an information recording medium by a video content recording device. The information recording medium includes at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and the situation when the video data is acquired. Dynamic parameter information, which is information that changes in accordance with the video content, is recorded as video content, and the at least one video data, the static parameter information, and the dynamic parameter information are read from the information recording medium. A reading unit and the at least one video data read by the reading unit; When the static parameter information to function the computer a three-dimensional image by using the said dynamic parameter information as a reproduction unit for reproducing.
[0235] これらの構成によれば、情報記録メディアには、被写体をそれぞれ異なる複数の視 点から撮影した少なくとも 1つの映像データと、映像コンテンツ記録装置に固有の情 報である静的パラメータ情報と、映像データを取得した際の状況に応じて変化する情 報である動的パラメータ情報とが映像コンテンツとして記録されている。そして、少な くとも 1つの映像データと、静的パラメータ情報と、動的パラメータ情報とが情報記録メ ディア力も読み出され、読み出された少なくとも 1つの映像データと、静的パラメータ 情報と、動的パラメータ情報とを用いて 3次元映像が再生される。  [0235] According to these configurations, the information recording medium includes at least one video data obtained by shooting the subject from a plurality of different viewpoints, and static parameter information that is information unique to the video content recording device. In addition, dynamic parameter information, which is information that changes depending on the situation when video data is acquired, is recorded as video content. Then, at least one video data, static parameter information, and dynamic parameter information are also read out as information recording media power, and at least one read video data, static parameter information, and dynamic information are read out. 3D video is reproduced using the target parameter information.
[0236] したがって、被写体をそれぞれ異なる複数の視点力も撮影した少なくとも 1つの映 像データと、映像コンテンツ記録装置に固有の情報である静的パラメータ情報と、映 像データを取得した際の状況に応じて変化する情報である動的パラメータ情報とを 用いて 3次元映像を再生することができ、映像コンテンツを各種 3次元表示可能な機 器に汎用的に使用することができる。  [0236] Therefore, depending on at least one video data obtained by shooting a plurality of different viewpoint powers of the subject, static parameter information that is unique to the video content recording device, and the situation when the video data is acquired 3D video can be played back using dynamic parameter information, which is information that changes, and can be used universally for various 3D display devices.
[0237] また、上記の映像コンテンツ再生装置にお!/、て、前記映像データは、それぞれ異な る視点から撮影した複数の映像データを含み、前記再生部は、前記複数の映像デ 一タの中力 使用する映像データを変更することにより、 3次元映像を再生する時の 視点を変更することが好ましい。この構成によれば、複数の視点から見た映像データ を読み出し、種々の視点力も見た 3次元映像を再生することができる。 [0237] In addition, in the above video content playback apparatus, the video data includes a plurality of video data shot from different viewpoints, and the playback unit includes the plurality of video data. It is preferable to change the viewpoint when playing back 3D video by changing the video data to be used. According to this configuration, it is possible to read video data viewed from a plurality of viewpoints and reproduce a 3D video with various viewpoints.
[0238] また、上記の映像コンテンツ再生装置において、前記読出部によって読み出された 前記静的パラメータ情報及び前記動的パラメータ情報のうちのいずれか一方または 両方の内容を変更する変更部をさらに備え、前記再生部は、前記変更部によって前 記静的パラメータ情報及び前記動的パラメータ情報のうちの両方の内容が変更され た場合、前記読出部によって読み出された少なくとも 1つの映像データと、前記変更 部によって内容が変更された前記静的パラメータ情報と、前記変更部によって内容 が変更された前記動的パラメータ情報とを用いて 3次元映像を再生し、前記変更部 によって前記静的パラメータ情報の内容が変更された場合、前記読出部によって読 み出された少なくとも 1つの映像データと、前記変更部によって内容が変更された前 記静的パラメータ情報と、前記読出部によって読み出された前記動的パラメータ情報 とを用いて 3次元映像を再生し、前記変更部によって前記動的パラメータ情報の内 容が変更された場合、前記読出部によって読み出された少なくとも 1つの映像データ と、前記読出部によって読み出された前記静的パラメータ情報と、前記変更部によつ て内容が変更された前記動的パラメータ情報とを用いて 3次元映像を再生することが 好ましい。 [0238] Further, the video content reproduction apparatus further includes a changing unit that changes contents of either or both of the static parameter information and the dynamic parameter information read by the reading unit. The reproducing unit, when the contents of both the static parameter information and the dynamic parameter information are changed by the changing unit, and at least one video data read by the reading unit, A three-dimensional image is reproduced using the static parameter information whose content has been changed by the changing unit and the dynamic parameter information whose content has been changed by the changing unit, and the changing unit includes the static parameter information. When the contents are changed, at least one video data read by the reading unit and the contents are changed by the changing unit. The three-dimensional video is reproduced using the updated static parameter information and the dynamic parameter information read by the reading unit, and the content of the dynamic parameter information is changed by the changing unit. The at least one video data read by the reading unit, the static parameter information read by the reading unit, and the dynamic parameter information whose content has been changed by the changing unit It is preferable to play 3D images using
[0239] この構成によれば、静的パラメータ情報及び動的パラメータ情報のうちのいずれか 一方または両方の内容が変更される。そして、静的パラメータ情報及び動的パラメ一 タ情報のうちの両方の内容が変更された場合、読み出された少なくとも 1つの映像デ ータと、内容が変更された静的パラメータ情報と、内容が変更された動的パラメータ 情報とを用いて 3次元映像が再生される。また、静的パラメータ情報の内容のみが変 更された場合、読み出された少なくとも 1つの映像データと、内容が変更された静的 パラメータ情報と、読み出された動的パラメータ情報とを用いて 3次元映像が再生さ れる。さらに、動的パラメータ情報の内容のみが変更された場合、読み出された少な くとも 1つの映像データと、読み出された静的パラメータ情報と、内容が変更された動 的パラメータ情報とを用いて 3次元映像が再生される。 [0240] したがって、複数の視点力 見た映像データを読み出して実際に撮影した映像デ ータを 3次元映像として再生するだけでなぐ静的パラメータ情報及び動的パラメータ 情報のうちのいずれか一方または両方の内容を変更することにより、映像データに種 々の変形を施した 3次元映像を再生することができる。 [0239] According to this configuration, the contents of one or both of the static parameter information and the dynamic parameter information are changed. If the contents of both the static parameter information and the dynamic parameter information are changed, the read at least one video data, the static parameter information whose contents are changed, and the contents 3D video is played back using the dynamic parameter information that has been changed. In addition, when only the static parameter information content is changed, the read at least one video data, the static parameter information whose content is changed, and the read dynamic parameter information are used. 3D video is played back. Furthermore, when only the contents of the dynamic parameter information are changed, at least one read video data, the read static parameter information, and the changed dynamic parameter information are used. 3D video is played. [0240] Therefore, either static parameter information or dynamic parameter information that can be obtained by simply reading video data viewed from a plurality of viewpoints and reproducing the actually captured video data as 3D video, or By changing both contents, it is possible to play back 3D video with various modifications to the video data.
[0241] また、上記の映像コンテンツ再生装置において、前記再生部は、前記読出部によ つて読み出された少なくとも 1つの映像データに対して、前記静的パラメータ情報と前 記動的パラメータ情報とを用いて補間計算を行うことにより、前記情報記録メディアに 記録されている前記少なくとも 1つの映像データとは異なる視点から撮影した 3次元 映像を再生することが好まし 、。  [0241] Also, in the video content playback apparatus, the playback unit may perform the static parameter information and the dynamic parameter information with respect to at least one video data read by the read unit. It is preferable to play back a 3D video imaged from a different viewpoint from the at least one video data recorded on the information recording medium by performing an interpolation calculation using.
[0242] この構成によれば、少なくとも 1つの映像データに対して、静的パラメータ情報と動 的パラメータ情報とを用いて補間計算が行われることにより、情報記録メディアに記 録されている少なくとも 1つの映像データとは異なる視点から撮影した 3次元映像が 再生される。  [0242] With this configuration, at least one video data is subjected to interpolation calculation using static parameter information and dynamic parameter information, so that at least one video data is recorded on the information recording medium. A 3D video shot from a different viewpoint than the video data is played back.
[0243] したがって、複数の視点力 見た映像データを読み出して実際に撮影した映像デ ータを 3次元映像として再生するだけでなぐ記録されて!、な 、視点から見た映像デ ータを 3次元映像として再生することができる。  [0243] Therefore, video data viewed from multiple viewpoints can be recorded just by reading out the video data actually captured and playing it back as 3D video! Can be played back as 3D video.
[0244] また、上記の映像コンテンツ再生装置において、前記変更部によって内容が変更さ れた前記静的パラメータ情報及び前記動的パラメータ情報のうちのいずれか一方ま たは両方を前記情報記録メディアに記録する更新部をさらに備えることが好ましい。  [0244] Also, in the video content reproduction apparatus, either or both of the static parameter information and the dynamic parameter information whose contents have been changed by the changing unit are stored in the information recording medium. It is preferable to further include an update unit for recording.
[0245] この構成によれば、内容が変更された静的パラメータ情報及び動的パラメータ情報 のうちのいずれか一方または両方が情報記録メディアに記録されるので、簡単な構 成で、実際に撮影した映像データだけでなぐ映像データに種々の変形を施した 3次 元映像を再度記録することができる。  [0245] According to this configuration, one or both of the static parameter information and the dynamic parameter information whose contents have been changed are recorded on the information recording medium. It is possible to re-record 3D video with various modifications to the video data.
[0246] 本発明の他の局面に係る映像コンテンツ編集装置は、映像コンテンツ記録装置に よって情報記録メディアに記録された映像コンテンツの内容を変更する映像コンテン ッ編集装置であって、前記情報記録メディアは、被写体をそれぞれ異なる複数の視 点から撮影した少なくとも 1つの映像データと、前記映像コンテンツ記録装置に固有 の情報である静的パラメータ情報と、前記映像データを取得した際の状況に応じて 変化する情報である動的パラメータ情報とを映像コンテンツとして記録しており、前記 静的パラメータ情報及び前記動的パラメータ情報のうちのいずれか一方または両方 を指定し、その内容を変更するための変更指示を受け付ける受付部と、前記受付部 によって受け付けられた前記変更指示に対応する前記静的パラメータ情報及び前記 動的パラメータ情報のうちのいずれか一方または両方を前記情報記録メディアから 読み出す読出部と、前記読出部によって読み出された前記静的パラメータ情報及び 前記動的パラメータ情報のうちのいずれか一方または両方の内容を前記変更指示に 応じて変更する変更部と、前記変更部によって変更された前記静的パラメータ情報 及び前記動的パラメータ情報のうちのいずれか一方または両方を前記情報記録メデ ィァに記録する記録部とを備える。 [0246] A video content editing apparatus according to another aspect of the present invention is a video content editing apparatus that changes the content of video content recorded on an information recording medium by the video content recording apparatus, wherein the information recording medium Is based on at least one video data obtained by shooting a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and the situation when the video data is acquired. Dynamic parameter information, which is changing information, is recorded as video content, and either one or both of the static parameter information and the dynamic parameter information is designated and changed to change the content A receiving unit that receives an instruction; a reading unit that reads from the information recording medium one or both of the static parameter information and the dynamic parameter information corresponding to the change instruction received by the receiving unit; A changing unit that changes the contents of either or both of the static parameter information and the dynamic parameter information read by the reading unit according to the change instruction, and the change unit changed by the change unit Either or both of static parameter information and dynamic parameter information are stored in the information. And a recording section for recording MED IA §.
[0247] この構成によれば、情報記録メディアには、被写体をそれぞれ異なる複数の視点か ら撮影した少なくとも 1つの映像データと、映像コンテンッ記録装置に固有の情報で ある静的パラメータ情報と、映像データを取得した際の状況に応じて変化する情報で ある動的パラメータ情報とが映像コンテンツとして記録されている。そして、静的パラメ ータ情報及び動的パラメータ情報のうちのいずれか一方または両方を指定し、その 内容を変更するための変更指示が受け付けられる。受け付けられた変更指示に対応 する静的パラメータ情報及び動的パラメータ情報のうちのいずれか一方または両方 が情報記録メディア力 読み出され、読み出された静的パラメータ情報及び動的パラ メータ情報のうちのいずれか一方または両方の内容が変更指示に応じて変更される[0247] According to this configuration, the information recording medium includes at least one video data obtained by shooting the subject from a plurality of different viewpoints, static parameter information that is information unique to the video content recording device, and video. Dynamic parameter information, which is information that changes according to the situation when data is acquired, is recorded as video content. Then, one or both of static parameter information and dynamic parameter information is designated, and a change instruction for changing the contents is accepted. One or both of static parameter information and dynamic parameter information corresponding to the accepted change instruction is read out from the information recording medium, and out of the read static parameter information and dynamic parameter information The contents of either or both are changed according to the change instruction
。その後、変更された静的パラメータ情報及び動的パラメータ情報のうちのいずれか 一方または両方が情報記録メディアに記録される。 . Thereafter, one or both of the changed static parameter information and dynamic parameter information is recorded on the information recording medium.
[0248] したがって、静的パラメータ情報及び動的パラメータ情報のうちのいずれか一方ま たは両方の内容が変更され、変更された静的パラメータ情報及び動的パラメータ情 報のうちのいずれか一方または両方が情報記録メディアに記録されるので、実際に 撮影した映像データを記録するだけでなぐ映像データに種々の変形を施した 3次 元映像を再生するための情報を記録することができ、映像コンテンツを各種 3次元表 示可能な機器に汎用的に使用することができる。 [0248] Accordingly, the content of either or both of the static parameter information and the dynamic parameter information is changed, and either the changed static parameter information or the dynamic parameter information or Since both are recorded on the information recording medium, it is possible to record information for playing back 3D video with various modifications to the video data just by recording the actual captured video data. It can be used universally for devices that can display various 3D contents.
産業上の利用可能性 本発明によると、必ずしも予め準備された 3次元映像だけでなぐ視点を変える等、 予め用意された 3次元映像に各種の変形を加えて 3次元映像を表示することが可能 になる。更に、この 3次元映像を表示するための情報は、各種 3次元表示可能な機器 に汎用的に使用することができ、 3次元映像を表示するための情報形式の標準化を 図ると同時に、 3次元映像情報の流通の促進にも貢献することが可能になり、その産 業上の利用可能性は極めて高い。 Industrial applicability According to the present invention, it is possible to display a 3D image by making various modifications to the 3D image prepared in advance, such as changing the viewpoint of the 3D image prepared in advance. Furthermore, the information for displaying this 3D image can be used universally for various 3D display devices, and at the same time as standardizing the information format for displaying 3D images, It can contribute to the promotion of the distribution of video information, and its industrial applicability is extremely high.

Claims

請求の範囲 The scope of the claims
[1] 映像コンテンツを情報記録メディアに記録する映像コンテンツ記録装置であって、 被写体をそれぞれ異なる複数の視点カゝら撮影した少なくとも 1つの映像データを取 得する映像データ取得部と、  [1] A video content recording apparatus for recording video content on an information recording medium, wherein the video data acquisition unit acquires at least one video data obtained by photographing a subject from a plurality of different viewpoints;
前記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得する 静的パラメータ情報取得部と、  A static parameter information acquisition unit that acquires static parameter information that is information unique to the video content recording device;
前記映像データを取得した際の状況に応じて変化する情報である動的パラメータ 情報を取得する動的パラメータ情報取得部と、  A dynamic parameter information acquisition unit that acquires dynamic parameter information that is information that changes according to a situation when the video data is acquired;
前記映像データ取得部によって取得された前記少なくとも 1つの映像データと、前 記静的パラメータ情報取得部によって取得された前記静的パラメータ情報と、前記動 的パラメータ情報取得部によって取得された前記動的パラメータ情報とを関連付けて 前記映像コンテンツとして前記情報記録メディアに記録する記録部とを備えることを 特徴とする映像コンテンツ記録装置。  The at least one video data acquired by the video data acquisition unit, the static parameter information acquired by the static parameter information acquisition unit, and the dynamic parameter acquired by the dynamic parameter information acquisition unit A video content recording apparatus comprising: a recording unit that records parameter information in association with parameter information on the information recording medium.
[2] 前記映像データ取得部は、少なくとも 1つの撮像素子と、前記撮像素子に被写体 像を結像する複数のレンズとを有する撮影部を含み、  [2] The video data acquisition unit includes an imaging unit having at least one image sensor and a plurality of lenses that form a subject image on the image sensor,
前記静的パラメータ情報は、前記被写体を撮影した時のレンズ間距離、前記レンズ の焦点距離及び前記レンズの歪値のうちの少なくとも 1つを含むことを特徴とする請 求項 1記載の映像コンテンツ記録装置。  The video content according to claim 1, wherein the static parameter information includes at least one of a distance between lenses when the subject is photographed, a focal length of the lens, and a distortion value of the lens. Recording device.
[3] 前記映像データ取得部は、少なくとも 1つの撮像素子と、前記撮像素子に被写体 像を結像する複数のレンズとを有する撮影部を含み、 [3] The video data acquisition unit includes an imaging unit having at least one imaging device and a plurality of lenses that form a subject image on the imaging device,
前記動的パラメータ情報は、前記被写体を撮影した時の前記撮影部の方向角、前 記撮影部の位置を表す撮影部位置情報、前記レンズの方向角及び前記レンズの位 置を表すレンズ位置情報のうちの少なくとも 1つを含むことを特徴とする請求項 1又は The dynamic parameter information includes a direction angle of the photographing unit when photographing the subject, photographing unit position information indicating the position of the photographing unit, direction angle of the lens, and lens position information indicating the position of the lens. 1 or 2 comprising at least one of
2記載の映像コンテンッ記録装置。 2. The video content recording device according to 2.
[4] 前記映像データ取得部は、 1つの撮影部と、前記 1つの撮影部を前記複数の視点 に対応する位置に移動させる移動部とを含むことを特徴とする請求項 1〜3のいずれ かに記載の映像コンテンツ記録装置。 [4] The video data acquisition unit according to any one of claims 1 to 3, wherein the video data acquisition unit includes one photographing unit and a moving unit that moves the one photographing unit to a position corresponding to the plurality of viewpoints. The video content recording apparatus according to claim 1.
[5] 前記動的パラメータ情報取得部は、前記移動部によって移動される前記撮影部の 各視点における撮影時刻を特定するための時間情報を取得することを特徴とする請 求項 4記載の映像コンテンッ記録装置。 [5] The dynamic parameter information acquisition unit includes: the imaging unit that is moved by the moving unit. 5. The video content recording apparatus according to claim 4, wherein time information for specifying a shooting time at each viewpoint is acquired.
[6] 前記映像データ取得部は、 1つの撮像素子と、前記 1つの撮像素子に被写体像を 結像させる複数のレンズとを有する 1つの撮影部を含み、 [6] The video data acquisition unit includes one imaging unit having one imaging device and a plurality of lenses that form a subject image on the one imaging device,
前記 1つの撮影部は、前記複数のレンズによりそれぞれ異なる視点力 撮影した映 像データを取得することを特徴とする請求項 1〜3のいずれかに記載の映像コンテン ッ記録装置。  4. The video content recording apparatus according to claim 1, wherein the one photographing unit acquires video data obtained by photographing with different viewpoint powers using the plurality of lenses.
[7] 前記撮影部は、それぞれ異なる視点力 撮影した複数の映像データを取得するこ とを特徴とする請求項 4〜6のいずれかに記載の映像コンテンツ記録装置。  7. The video content recording apparatus according to any one of claims 4 to 6, wherein the photographing unit acquires a plurality of pieces of video data taken with different viewpoint powers.
[8] 前記動的パラメータ情報取得部は、前記撮影部によって取得された前記複数の映 像データと、前記複数の映像データを取得した時の視点位置とを対応付ける情報を 取得することを特徴とする請求項 7記載の映像コンテンツ記録装置。  [8] The dynamic parameter information acquisition unit acquires information associating the plurality of video data acquired by the photographing unit with a viewpoint position when the plurality of video data is acquired. The video content recording apparatus according to claim 7.
[9] 前記静的パラメータ情報を予め記憶する記憶部をさらに備え、  [9] The storage device further includes a storage unit that stores the static parameter information in advance,
前記静的パラメータ情報取得部は、前記記憶部から前記静的パラメータ情報を読 み出すことを特徴とする請求項 1〜8のいずれかに記載の映像コンテンツ記録装置。  9. The video content recording apparatus according to claim 1, wherein the static parameter information acquisition unit reads the static parameter information from the storage unit.
[10] 前記記録部は、前記映像データ、前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちの少なくとも 1つを、それ以外と別のファイルとして前記情報記録メディア に記録することを特徴とする請求項 1〜9のいずれかに記載の映像コンテンツ記録装 置。  [10] The recording unit records at least one of the video data, the static parameter information, and the dynamic parameter information as a separate file on the information recording medium. The video content recording device according to claim 1.
[11] 前記記録部は、前記映像データ、前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちの少なくとも 1つを、それ以外と別のディレクトリに記録することを特徴と する請求項 1〜: LOのいずれかに記載の映像コンテンツ記録装置。  11. The recording unit according to claim 1, wherein the recording unit records at least one of the video data, the static parameter information, and the dynamic parameter information in a different directory. ~: The video content recording apparatus according to any one of LOs.
[12] 前記記録部は、前記映像データ、前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちの少なくとも 2つを 1つのファイルとして前記情報記録メディアに記録する ことを特徴とする請求項 1〜 11のヽずれかに記載の映像コンテンッ記録装置。  12. The recording unit records at least two of the video data, the static parameter information, and the dynamic parameter information as one file on the information recording medium. The video content recording device according to any one of 1 to 11.
[13] 前記映像データ取得部は、複数の映像データを取得し、  [13] The video data acquisition unit acquires a plurality of video data,
前記記録部は、前記複数の映像データのそれぞれに対応する、前記静的パラメ一 タ情報と前記動的パラメータ情報とのいずれか一方又は両方を 1つのファイルとして 前記情報記録メディアに記録することを特徴とする請求項 1〜11の 、ずれかに記載 の映像コンテンッ記録装置。 The recording unit has one or both of the static parameter information and the dynamic parameter information corresponding to each of the plurality of video data as one file. 12. The video content recording apparatus according to claim 1, wherein the video content recording apparatus records on the information recording medium.
[14] 前記記録部は、前記映像データ、前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちの少なくとも 2つを 1つのディレクトリに記録することを特徴とする請求項 1 〜 13のいずれかに記載の映像コンテンツ記録装置。  14. The recording unit according to claim 1, wherein the recording unit records at least two of the video data, the static parameter information, and the dynamic parameter information in one directory. The video content recording apparatus according to claim 1.
[15] 前記映像データ取得部は、複数の映像データを取得し、  [15] The video data acquisition unit acquires a plurality of video data,
前記記録部は、前記複数の映像データのそれぞれに対応する、前記静的パラメ一 タ情報と前記動的パラメータ情報とのいずれか一方又は両方を 1つのディレクトリに 記録することを特徴とする請求項 1〜13のいずれかに記載の映像コンテンツ記録装 置。  The recording unit records one or both of the static parameter information and the dynamic parameter information corresponding to each of the plurality of video data in one directory. 14. The video content recording device according to any one of 1 to 13.
[16] 前記記録部は、前記映像データ、前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちの少なくとも 1つを、それ以外と別の情報記録メディアに記録することを 特徴とする請求項 1〜 15のいずれかに記載の映像コンテンツ記録装置。  [16] The recording unit may record at least one of the video data, the static parameter information, and the dynamic parameter information on another information recording medium. Item 16. The video content recording device according to any one of Items 1 to 15.
[17] 映像コンテンツを記録可能な情報記録メディアであって、 [17] An information recording medium capable of recording video content,
請求項 1〜16のいずれかに記載の映像コンテンツ記録装置によって前記映像コン テンッが記録されていることを特徴とする情報記録メディア。  17. An information recording medium in which the video content is recorded by the video content recording device according to claim 1.
[18] 映像コンテンツを情報記録メディアに記録する映像コンテンツ記録方法であって、 被写体をそれぞれ異なる複数の視点カゝら撮影した少なくとも 1つの映像データを取 得する映像データ取得ステップと、 [18] A video content recording method for recording video content on an information recording medium, wherein the video data acquisition step acquires at least one video data obtained by photographing a subject from a plurality of different viewpoints;
前記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得する 静的パラメータ情報取得ステップと、  Static parameter information acquisition step of acquiring static parameter information that is information unique to the video content recording device;
前記映像データを取得した際の状況に応じて変化する情報である動的パラメータ 情報を取得する動的パラメータ情報取得ステップと、  A dynamic parameter information acquisition step for acquiring dynamic parameter information, which is information that changes according to the situation when the video data is acquired;
前記映像データ取得ステップにおいて取得された前記少なくとも 1つの映像データ と、前記静的パラメータ情報取得ステップにお 、て取得された前記静的パラメータ情 報と、前記動的パラメータ情報取得ステップにお 、て取得された前記動的パラメータ 情報とを関連付けて前記映像コンテンツとして前記情報記録メディアに記録する記 録ステップとを含むことを特徴とする映像コンテンツ記録方法。 The at least one video data acquired in the video data acquisition step, the static parameter information acquired in the static parameter information acquisition step, and the dynamic parameter information acquisition step A recording step of associating the acquired dynamic parameter information with the acquired dynamic parameter information and recording the information as the video content on the information recording medium.
[19] 映像コンテンツを情報記録メディアに記録するための映像コンテンツ記録プロダラ ムであって、 [19] A video content recording program for recording video content on an information recording medium,
被写体をそれぞれ異なる複数の視点カゝら撮影した少なくとも 1つの映像データを取 得する映像データ取得部と、  A video data acquisition unit for acquiring at least one video data obtained by shooting a plurality of different subjects from different viewpoints;
前記映像コンテンツ記録装置に固有の情報である静的パラメータ情報を取得する 静的パラメータ情報取得部と、  A static parameter information acquisition unit that acquires static parameter information that is information unique to the video content recording device;
前記映像データを取得した際の状況に応じて変化する情報である動的パラメータ 情報を取得する動的パラメータ情報取得部と、  A dynamic parameter information acquisition unit that acquires dynamic parameter information that is information that changes according to a situation when the video data is acquired;
前記映像データ取得部によって取得された前記少なくとも 1つの映像データと、前 記静的パラメータ情報取得部によって取得された前記静的パラメータ情報と、前記動 的パラメータ情報取得部によって取得された前記動的パラメータ情報とを関連付けて 前記映像コンテンツとして前記情報記録メディアに記録する記録部としてコンビユー タを機能させることを特徴とする映像コンテンツ記録プログラム。  The at least one video data acquired by the video data acquisition unit, the static parameter information acquired by the static parameter information acquisition unit, and the dynamic parameter acquired by the dynamic parameter information acquisition unit A video content recording program that causes a computer to function as a recording unit that records parameter information in association with parameter information on the information recording medium.
[20] 映像コンテンツ記録装置によって情報記録メディアに記録された映像コンテンツか ら 3次元映像を再生する映像コンテンツ再生装置であって、 [20] A video content playback device for playing back 3D video from video content recorded on an information recording medium by a video content recording device,
前記情報記録メディアは、被写体をそれぞれ異なる複数の視点カゝら撮影した少なく とも 1つの映像データと、前記映像コンテンツ記録装置に固有の情報である静的パラ メータ情報と、前記映像データを取得した際の状況に応じて変化する情報である動 的パラメータ情報とを映像コンテンツとして記録しており、  The information recording medium acquires at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and the video data. Dynamic parameter information, which is information that changes according to the situation at the time, is recorded as video content,
前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パラメ一 タ情報とを前記情報記録メディア力 読み出す読出部と、  A reading unit for reading the at least one video data, the static parameter information, and the dynamic parameter information from the information recording medium power;
前記読出部によって読み出された前記少なくとも 1つの映像データと、前記静的パ ラメータ情報と、前記動的パラメータ情報とを用いて 3次元映像を再生する再生部と を備えることを特徴とする映像コンテンツ再生装置。  A video unit comprising: a playback unit that plays back 3D video using the at least one video data read by the read unit, the static parameter information, and the dynamic parameter information Content playback device.
[21] 前記映像データは、それぞれ異なる視点カゝら撮影した複数の映像データを含み、 前記再生部は、前記複数の映像データの中から使用する映像データを変更するこ とにより、 3次元映像を再生する時の視点を変更することを特徴とする請求項 20記載 の映像コンテンッ再生装置。 [21] The video data includes a plurality of video data shot from different viewpoints, and the playback unit changes the video data to be used from the plurality of video data, thereby 21. The video content playback apparatus according to claim 20, wherein a viewpoint when the video is played is changed.
[22] 前記読出部によって読み出された前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちのいずれか一方または両方の内容を変更する変更部をさらに備え、 前記再生部は、 [22] The information processing apparatus further includes a changing unit that changes contents of either or both of the static parameter information and the dynamic parameter information read by the reading unit,
前記変更部によって前記静的パラメータ情報及び前記動的パラメータ情報のうち の両方の内容が変更された場合、前記読出部によって読み出された少なくとも 1つの 映像データと、前記変更部によって内容が変更された前記静的パラメータ情報と、前 記変更部によって内容が変更された前記動的パラメータ情報とを用いて 3次元映像 を再生し、  When the contents of both the static parameter information and the dynamic parameter information are changed by the changing unit, the contents are changed by at least one video data read by the reading unit and the changing unit. 3D video is reproduced using the static parameter information and the dynamic parameter information whose contents have been changed by the changing unit,
前記変更部によって前記静的パラメータ情報の内容が変更された場合、前記読出 部によって読み出された少なくとも 1つの映像データと、前記変更部によって内容が 変更された前記静的パラメータ情報と、前記読出部によって読み出された前記動的 ノ メータ情報とを用いて 3次元映像を再生し、  When the content of the static parameter information is changed by the changing unit, at least one video data read by the reading unit, the static parameter information whose content is changed by the changing unit, and the reading 3D video is reproduced using the dynamic meter information read out by the
前記変更部によって前記動的パラメータ情報の内容が変更された場合、前記読出 部によって読み出された少なくとも 1つの映像データと、前記読出部によって読み出 された前記静的パラメータ情報と、前記変更部によって内容が変更された前記動的 ノ ラメータ情報とを用いて 3次元映像を再生することを特徴とする請求項 20又は 21 記載の映像コンテンッ再生装置。  When the content of the dynamic parameter information is changed by the changing unit, at least one video data read by the reading unit, the static parameter information read by the reading unit, and the changing unit The video content playback apparatus according to claim 20 or 21, wherein a 3D video is played back using the dynamic parameter information whose contents are changed by the method.
[23] 前記再生部は、前記読出部によって読み出された少なくとも 1つの映像データに対 して、前記静的パラメータ情報と前記動的パラメータ情報とを用いて補間計算を行う ことにより、前記情報記録メディアに記録されている前記少なくとも 1つの映像データ とは異なる視点力 撮影した 3次元映像を再生することを特徴とする請求項 20に記 載の映像コンテンッ再生装置。  [23] The reproduction unit performs the interpolation calculation on the at least one video data read by the reading unit using the static parameter information and the dynamic parameter information, thereby obtaining the information. 21. The video content playback apparatus according to claim 20, wherein the video content playback device plays back a 3D video shot with a viewpoint power different from that of the at least one video data recorded on a recording medium.
[24] 前記変更部によって内容が変更された前記静的パラメータ情報及び前記動的パラ メータ情報のうちのいずれか一方または両方を前記情報記録メディアに記録する更 新部をさらに備えることを特徴とする請求項 22記載の映像コンテンツ再生装置。  [24] The method further comprises an updating unit that records either or both of the static parameter information and the dynamic parameter information whose contents are changed by the changing unit on the information recording medium. The video content reproduction apparatus according to claim 22.
[25] 映像コンテンツ記録装置によって情報記録メディアに記録された映像コンテンツか ら 3次元映像を再生する映像コンテンツ再生方法であって、 [25] A video content playback method for playing back 3D video from video content recorded on an information recording medium by a video content recording device,
前記情報記録メディアは、被写体をそれぞれ異なる複数の視点カゝら撮影した少なく とも 1つの映像データと、前記映像コンテンツ記録装置に固有の情報である静的パラ メータ情報と、前記映像データを取得した際の状況に応じて変化する情報である動 的パラメータ情報とを映像コンテンツとして記録しており、 The information recording medium can be obtained by photographing a subject from a plurality of different viewpoints. Video content includes video data, static parameter information that is unique to the video content recording device, and dynamic parameter information that is information that changes according to the situation when the video data is acquired. Recorded as
前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パラメ一 タ情報とを前記情報記録メディア力 読み出す読出ステップと、  A step of reading out the information recording medium power of the at least one video data, the static parameter information, and the dynamic parameter information;
前記読出ステップにおいて読み出された前記少なくとも 1つの映像データと、前記 静的パラメータ情報と、前記動的パラメータ情報とを用いて 3次元映像を再生する再 生ステップとを含むことを特徴とする映像コンテンツ再生方法。  A video comprising: a reproduction step of reproducing a 3D video using the at least one video data read in the reading step, the static parameter information, and the dynamic parameter information Content playback method.
[26] 映像コンテンツ記録装置によって情報記録メディアに記録された映像コンテンツか ら 3次元映像を再生するための映像コンテンツ再生プログラムであって、 [26] A video content playback program for playing back 3D video from video content recorded on an information recording medium by a video content recording device,
前記情報記録メディアは、被写体をそれぞれ異なる複数の視点カゝら撮影した少なく とも 1つの映像データと、前記映像コンテンツ記録装置に固有の情報である静的パラ メータ情報と、前記映像データを取得した際の状況に応じて変化する情報である動 的パラメータ情報とを映像コンテンツとして記録しており、  The information recording medium acquires at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and the video data. Dynamic parameter information, which is information that changes according to the situation at the time, is recorded as video content,
前記少なくとも 1つの映像データと、前記静的パラメータ情報と、前記動的パラメ一 タ情報とを前記情報記録メディア力 読み出す読出部と、  A reading unit for reading the at least one video data, the static parameter information, and the dynamic parameter information from the information recording medium power;
前記読出部によって読み出された前記少なくとも 1つの映像データと、前記静的パ ラメータ情報と、前記動的パラメータ情報とを用いて 3次元映像を再生する再生部とし てコンピュータを機能させることを特徴とする映像コンテンツ再生プログラム。  Using the at least one video data read by the reading unit, the static parameter information, and the dynamic parameter information to cause a computer to function as a playback unit that plays back a 3D video. A video content playback program.
[27] 映像コンテンツ記録装置によって情報記録メディアに記録された映像コンテンツの 内容を変更する映像コンテンツ編集装置であって、 [27] A video content editing apparatus for changing the content of video content recorded on an information recording medium by the video content recording apparatus,
前記情報記録メディアは、被写体をそれぞれ異なる複数の視点カゝら撮影した少なく とも 1つの映像データと、前記映像コンテンツ記録装置に固有の情報である静的パラ メータ情報と、前記映像データを取得した際の状況に応じて変化する情報である動 的パラメータ情報とを映像コンテンツとして記録しており、  The information recording medium acquires at least one video data obtained by photographing a subject from a plurality of different viewpoints, static parameter information that is unique to the video content recording device, and the video data. Dynamic parameter information, which is information that changes according to the situation at the time, is recorded as video content,
前記静的パラメータ情報及び前記動的パラメータ情報のうちのいずれか一方また は両方を指定し、その内容を変更するための変更指示を受け付ける受付部と、 前記受付部によって受け付けられた前記変更指示に対応する前記静的パラメータ 情報及び前記動的パラメータ情報のうちのいずれか一方または両方を前記情報記 録メディアから読み出す読出部と、 One of or both of the static parameter information and the dynamic parameter information is designated, and a reception unit that receives a change instruction for changing the contents thereof, and the change instruction received by the reception unit Corresponding static parameter A reading unit for reading one or both of information and the dynamic parameter information from the information recording medium;
前記読出部によって読み出された前記静的パラメータ情報及び前記動的パラメ一 タ情報のうちのいずれか一方または両方の内容を前記変更指示に応じて変更する 変更部と、  A changing unit that changes the contents of one or both of the static parameter information and the dynamic parameter information read by the reading unit according to the change instruction;
前記変更部によって変更された前記静的パラメータ情報及び前記動的パラメータ 情報のうちのいずれか一方または両方を前記情報記録メディアに記録する記録部と を備えることを特徴とする映像コンテンツ編集装置。  A video content editing apparatus comprising: a recording unit that records either or both of the static parameter information and the dynamic parameter information changed by the changing unit on the information recording medium.
PCT/JP2006/325397 2005-12-22 2006-12-20 Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium WO2007072870A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005369651A JP2009060154A (en) 2005-12-22 2005-12-22 Video content recording method, video content recording apparatus, video content reproducing method, and video content reproducing apparatus
JP2005-369651 2005-12-22

Publications (1)

Publication Number Publication Date
WO2007072870A1 true WO2007072870A1 (en) 2007-06-28

Family

ID=38188646

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/325397 WO2007072870A1 (en) 2005-12-22 2006-12-20 Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium

Country Status (2)

Country Link
JP (1) JP2009060154A (en)
WO (1) WO2007072870A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502375A (en) * 2007-10-10 2011-01-20 韓國電子通信研究院 Metadata structure for storing and reproducing stereoscopic data and method for storing stereoscopic content file using the same
WO2013080555A1 (en) * 2011-12-01 2013-06-06 パナソニック株式会社 Stereoscopic video data generating device and stereoscopic video playing apparatus
JP2015039083A (en) * 2011-12-07 2015-02-26 株式会社東芝 Video processing apparatus, video processing method, transmitter, and storage medium
WO2018159145A1 (en) * 2017-03-03 2018-09-07 パナソニックIpマネジメント株式会社 Image capturing device and captured image display method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182388A (en) * 2010-02-02 2011-09-15 Panasonic Corp Video recording apparatus, and video reproducing apparatus

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02172395A (en) * 1988-12-26 1990-07-03 Toshiba Corp Stereoscopic still picture recording device
JPH08140116A (en) * 1994-11-08 1996-05-31 Fuji Photo Film Co Ltd Photographing device, image processor and stereoscopic photograph preparing method
JPH09288735A (en) * 1996-04-23 1997-11-04 Canon Inc Image processor
JP2001281754A (en) * 2000-03-31 2001-10-10 Minolta Co Ltd Camera, picture converting device, picture converting display device, stereoscopic picture display system and readable recording medium with picture conversion program recorded thereon
JP2003111101A (en) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd Method, apparatus and system for processing stereoscopic image
JP2003143459A (en) * 2001-11-02 2003-05-16 Canon Inc Compound-eye image pickup system and device provided therewith
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02172395A (en) * 1988-12-26 1990-07-03 Toshiba Corp Stereoscopic still picture recording device
JPH08140116A (en) * 1994-11-08 1996-05-31 Fuji Photo Film Co Ltd Photographing device, image processor and stereoscopic photograph preparing method
JPH09288735A (en) * 1996-04-23 1997-11-04 Canon Inc Image processor
JP2001281754A (en) * 2000-03-31 2001-10-10 Minolta Co Ltd Camera, picture converting device, picture converting display device, stereoscopic picture display system and readable recording medium with picture conversion program recorded thereon
JP2003111101A (en) * 2001-09-26 2003-04-11 Sanyo Electric Co Ltd Method, apparatus and system for processing stereoscopic image
JP2003143459A (en) * 2001-11-02 2003-05-16 Canon Inc Compound-eye image pickup system and device provided therewith
JP2003187261A (en) * 2001-12-14 2003-07-04 Canon Inc Device and method for generating three-dimensional image, three-dimensional image processing apparatus, three-dimensional image photographing display system, three-dimensional image processing method and storage medium

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011502375A (en) * 2007-10-10 2011-01-20 韓國電子通信研究院 Metadata structure for storing and reproducing stereoscopic data and method for storing stereoscopic content file using the same
WO2013080555A1 (en) * 2011-12-01 2013-06-06 パナソニック株式会社 Stereoscopic video data generating device and stereoscopic video playing apparatus
JP2015039083A (en) * 2011-12-07 2015-02-26 株式会社東芝 Video processing apparatus, video processing method, transmitter, and storage medium
WO2018159145A1 (en) * 2017-03-03 2018-09-07 パナソニックIpマネジメント株式会社 Image capturing device and captured image display method
JP2018148344A (en) * 2017-03-03 2018-09-20 パナソニックIpマネジメント株式会社 Imaging apparatus and display method for pick-up image
US10986272B2 (en) 2017-03-03 2021-04-20 Panasonic Intellectual Property Management Co., Ltd. Image capturing device and captured image display method

Also Published As

Publication number Publication date
JP2009060154A (en) 2009-03-19

Similar Documents

Publication Publication Date Title
CN101951525B (en) Image processing device, image processing method, and program
JP4332365B2 (en) METADATA DISPLAY SYSTEM, VIDEO SIGNAL RECORDING / REPRODUCING DEVICE, IMAGING DEVICE, METADATA DISPLAY METHOD
JP4969474B2 (en) Decoding method, decoding device, and decoding program
CN101388993B (en) Image recording apparatus, and image recording method
CN101087384B (en) Recording method, recording apparatus, reproducing method, reproducing apparatus, and imaging device
JP4332364B2 (en) Video recording system and video recording method
JP4686795B2 (en) Image generating apparatus and image reproducing apparatus
JP6576122B2 (en) Data recording apparatus, control method therefor, and imaging apparatus
US11716537B2 (en) Image processing device, image processing method, and program
CN103516974A (en) Image recording apparatus and image reproducing apparatus
CN101263706A (en) Imaging device and recording method
JPWO2011099299A1 (en) Video extraction device, photographing device, program, and recording medium
WO2019159620A1 (en) Imaging device, recording device, and display control device
JP2005333557A (en) Imaging apparatus
WO2007072870A1 (en) Video content recording device, video content recording method, video content recording program, video content reproduction device, video content reproduction method, video content reproduction program, video content edition device, and information recording medium
JP2015008387A (en) Image processing apparatus, method and program for image processing and imaging apparatus
JP4161773B2 (en) Video editing apparatus and processing method of video editing apparatus
JP6053276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP5045213B2 (en) Imaging device, playback device, and recording file creation method
JP5864992B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof
JP2015192227A (en) Imaging apparatus, control method thereof, and program
JP2019145918A (en) Imaging apparatus, display control device and control method for display control device
JP5911276B2 (en) Imaging apparatus, control method therefor, and image processing apparatus
JP6366793B2 (en) Image processing apparatus, control method therefor, and imaging apparatus
JP6177305B2 (en) Imaging apparatus and control method thereof, and image processing apparatus and control method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 06842951

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP