JP7218105B2 - ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム - Google Patents

ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム Download PDF

Info

Publication number
JP7218105B2
JP7218105B2 JP2018116888A JP2018116888A JP7218105B2 JP 7218105 B2 JP7218105 B2 JP 7218105B2 JP 2018116888 A JP2018116888 A JP 2018116888A JP 2018116888 A JP2018116888 A JP 2018116888A JP 7218105 B2 JP7218105 B2 JP 7218105B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
file
viewpoint video
data
access information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018116888A
Other languages
English (en)
Other versions
JP2019220847A (ja
JP2019220847A5 (ja
Inventor
裕尚 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018116888A priority Critical patent/JP7218105B2/ja
Priority to PCT/JP2019/023224 priority patent/WO2019244731A1/ja
Publication of JP2019220847A publication Critical patent/JP2019220847A/ja
Priority to US17/122,931 priority patent/US11431957B2/en
Publication of JP2019220847A5 publication Critical patent/JP2019220847A5/ja
Application granted granted Critical
Publication of JP7218105B2 publication Critical patent/JP7218105B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/06Protocols specially adapted for file transfer, e.g. file transfer protocol [FTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors

Description

本発明は、仮想視点映像ファイルの処理に関する。
複数のカメラを用いて得られる複数の撮像画像に基づいて、仮想カメラの位置及び向きに応じた仮想視点画像を作る方法が知られている。
特許文献1は、複数のカメラを用いて得られる複数の撮影画像に基づいて、前景テクスチャ画像、背景テクスチャ画像、及び3Dモデルなどのデータ(以下では素材データと呼ぶ)を生成し、該素材データを用いて仮想視点映像を生成することを開示している。
特開2017-211828号公報
仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを生成することは容易ではなかった。
例えば、他者が設定した仮想カメラワークに基づいて生成された仮想視点映像を閲覧したユーザが、別の仮想カメラワークに基づくオリジナルの仮想視点映像を生成したいと考える場合がある。その場合、仮想視点映像の生成のための素材データの所在を調べ、該素材データを取得し、新たな仮想視点映像データを生成することが考えられるが、それでは煩雑な作業が発生する。また、素材データを見つけることができなければ、新たな仮想視点映像データを生成できないこともあり得る。
本発明は上記の課題を鑑みてなされたものであり、その目的は、仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを容易に生成できるようにすることである。
上記課題を解決するため、本発明のファイル生成装置は、例えば以下の構成を有する。すなわち、仮想視点に対応する仮想視点映像データ生成に用いられた素材データであって、当該仮想視点映像データに対応する仮想視点とは異なる仮想視点に対応する他の仮想視点映像データの生成に用いられる素材データの取得のために使用されるアクセス情報と、を取得する取得手段と、前記取得手段により取得されたアクセス情報と前記取得手段により取得された仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成手段と、前記ファイル生成手段により生成された仮想視点映像ファイルを出力する出力手段と、を有する。
本発明によれば、仮想視点映像データを取得した装置が、新たな仮想視点に対応する新たな仮想視点映像データを容易に生成できるようになる。
第一実施形態の機能ブロック図である。 撮影システムを説明するための図である。 仮想視点映像ファイルの生成に関するシーケンス図である。 仮想視点映像ファイルの再生に関するシーケンス図である。 素材データへのアクセス情報を例示した図である。 ISOBMFFに準拠するボックスの構造の一例である。 ISOBMFFに基づくファイル構造の一例である。 ISOBMFFに準拠するムービーボックスにアクセス情報を記述する例を示す図である。 静止画フォーマットにアクセス情報を記述する方法を例示した図である。 素材データアクセス情報のタグ情報を例示した図である。 動画ポータルサイトのトップ画面を例示した図である。 動画ポータルサイトの動画再生画面を例示した図である。 仮想視点映像の生成画面を例示した図である。 第二実施形態の機能ブロック図である。 その他の実施形態の機能ブロック図である。 ファイル処理装置20のハードウェア構成を示す図である。
<第一実施形態>
図1は、第一実施形態における素材サーバ10、ファイル処理装置20、及びファイルサーバ30の機能を説明するためのブロック図である。なお、本実施形態における各装置の機能は、図16にて示すハードウェア資源により実現される。図16はファイル処理装置20のハードウェア構成を説明するための図であるが、素材サーバ10及びファイルサーバ30のハードウェア構成もファイル処理装置20のそれと同様である。図16において、CPU1601は、RAM1602をワークメモリとして、ROM1603及び/又はハードディスクドライブ(HDD)1605に格納されたプログラムを実行する。これにより、後述する様々な処理が実行される。HDDインタフェース(I/F)1604は、ファイル処理装置20と、HDD1605や光ディスクドライブなどの二次記憶装置とを接続するためのインタフェースである。入力インタフェース(I/F)106は、1又は複数の座標を入力するためのタッチパネル、キーボード、マウス、デジタルカメラ、及びスキャナなどの入力デバイス1607とファイル処理装置20とを接続するためのインタフェースである。入力インタフェース(I/F)1606は、例えばUSBやIEEE1394等のシリアルバスインタフェースである。出力インタフェース(I/F)1608は、ディスプレイなどの出力デバイス1609とファイル処理装置20とを接続するためのインタフェースである。ネットワークインタフェース(I/F)1610は、ファイル処理装置20と外部の装置(例えば、素材サーバ10及びファイルサーバ30)とを接続するためのインタフェースである。CPU1601は、ネットワークI/F1610を介して外部の装置データのやり取りを行うことが可能である。
なお、ファイル処理装置20は複数のCPU1601を有してもよい。また、CPU1601とは異なる専用の1又は複数のハードウェアを有し、CPU1601による処理の少なくとも一部を専用のハードウェアが行うようにしてもよい。専用のハードウェアの例としては、GPU(Graphics Processing Unit)やASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、及びDSP(デジタルシグナルプロセッサ)などがある。
図3は、仮想視点映像ファイルを生成するときの素材サーバ10、ファイル処理装置20、及びファイルサーバ30の処理の流れを説明するためのシーケンス図である。以下、図1及び図3を用いて各装置の機能及び動作について説明する。
まず、ファイル処理装置20は、素材サーバ10に対して素材リストを要求する(S101)。具体的には、ファイル処理装置20のデータ受信部200は、ユーザ操作の入力に応じて、素材サーバ10の外部インタフェース部100に対して素材リストの要求を送信する。本実施形態において、素材リストとは、素材サーバ10が提供可能な素材データをリスト化したデータである。
また、本実施形態において素材データとは、仮想視点映像の生成のために用いられるデータである。素材データの一例としては、オブジェクト(例えばスポーツ選手やボールなど)の3次元形状を示す3次元形状データと、該オブジェクトのテクスチャデータと、背景画像のテクスチャデータである。これらの素材データを用いることで、仮想視点(仮想カメラ)の位置と向きに応じた仮想視点映像を生成することができる。また、素材データの別の例としては、複数のカメラによる撮影画像と、各カメラの位置、姿勢、及び画角に関するカメラ情報であっても良い。これらの素材データを用いることによっても、仮想視点(仮想カメラ)の位置と向きに応じた仮想視点映像を生成することができる。なお、このような素材データは、図2に示すような撮像システムを用いることによって得られる。図2に示すように、複数のカメラが所定の撮影領域を異なる方向から同期撮影を行うことで得られる撮影画像を用いることによって、該撮影領域内に存在するオブジェクトの形状やテクスチャデータが得られる。具体的なアルゴリズムとしては、VisualHullなど公知の手法を用いることができる。また、図2に示す各カメラの位置、姿勢、及び画像角度に関するカメラ情報は、例えば、各カメラの撮影画像に基づいて得ることができる。
なお、本実施形態の素材リストには、提供可能な素材データの種別、時間帯、撮影場所、及び、該素材データを要求するためのアクセス情報が含まれる。なお、本実施形態では素材リストという名称を用いているが、必ずしもリスト形式のデータでなければならないわけではない。また、上述した情報(種別、時間帯、撮影場所、アクセス情報)のすべてが必ずしも必須の情報であることは限らない。上述した情報のうち一部が素材リストに含まれていなくても良いし、別の情報が加えられていても良い。
また、アクセス情報は、例えば、素材データを記録する記録装置(素材サーバ10)のIPアドレス、又は、素材データの所在を示すURL(Uniform Resource Locator)を含み得る。また、アクセス情報は、例えば、素材データを格納するファイルの名称(ファイル名)、及び、素材データを識別するための識別情報(例えばタイトル)のうち、少なくとも何れか一方を含んでいても良い。
図2のS102において、ファイル処理装置20は、素材サーバ10から素材リストを受信する。具体的には、素材サーバ10の外部インタフェース部100は、素材リストの要求を受けると、データリスト取得部101を介してデータ蓄積部102から素材リストを取得し、その素材リストをファイル処理装置20のデータ受信部200に対して送信する。
そして、ファイル処理装置20は、素材サーバ10に対して素材データを要求する(S103)。具体的には、ファイル処理装置20のデータ受信部200は、ユーザによる素材データの選択操作に応じて、素材サーバ10の外部インタフェース部100に対して素材データの要求を送信する。
そして、ファイル処理装置20は、素材サーバ10から素材データを受信する(S104)。具体的には、素材サーバ10の外部インタフェース部100は、ファイル処理装置20から素材データの要求を受けると、データ取得部103を介してデータ蓄積部102から素材データを取得する。そして、該素材データをファイル処理装置20のデータ受信部200に対して送信する。
そして、ファイル処理装置20は、仮想視点の情報を取得する(S105)。具体的には、仮想視点入力部202から仮想視点の位置、向き、及び画角などに関する仮想視点情報の入力を受付ける。本実施形態において、仮想視点情報はユーザ操作に基づいて決定される情報であるものとするが、これに限らず、自動的に仮想カメラが操縦されるようにしても良い。
そして、ファイル処理装置20の仮想視点映像生成部201は、S104において取得された素材データと、S105において入力された仮想視点情報とに基づいて、仮想視点映像データを生成する(S106)。
そして、ファイル処理装置20のファイル生成部204は、S106において生成された仮想視点映像データに基づいて仮想視点映像ファイルを生成する(S107)。本実施形態のファイル処理装置20は、仮想視点映像データの生成のために用いられた素材データの要求のアクセス情報を含む仮想視点映像ファイルを生成する。なお、図1は、ファイル生成部204が仮想視点映像ファイルを生成したあとにアクセス情報付与部205がアクセス情報を付加する例を示しているが、これに限らない。例えば、アクセス情報が記述された仮想視点映像ファイルを生成したあとに、仮想視点映像データを付加するようにしても良い。
そして、ファイル処理装置20は、S107において生成された仮想視点映像ファイルをファイルサーバ30へ出力する(S109)。具体的には、ファイル処理装置20のファイル出力部206が、ファイルサーバ30のファイル受信部305に対して仮想視点映像ファイルを送信する。
そして、ファイルサーバ30は、ファイル処理装置20から受け取った仮想視点映像ファイルを記録する(S109)。記録された仮想視点映像ファイルは、一般公開された場合、他のファイル処理装置20(例えばスマートフォンやタブレットPCなど)へ提供される。
なお、仮想視点映像ファイルの出力先はファイルサーバ30に限らない。例えば、ファイル処理装置20に接続されるハードディスクに出力されても良いし、他の端末(例えばスマートフォンやタブレットPCなど)に出力されても良い。
また、図1は、素材サーバ10、ファイル処理装置20、及びファイルサーバ30がそれぞれ1台ずつ接続される例を示しているが、これに限らず、種々の変形例があり得る。例えば、素材サーバ10とファイルサーバ30が同一の(又は同一とみなせる)サーバであっても良いし、複数の素材サーバ10と複数のファイルサーバ30が存在するシステムもあり得る。例えば、素材サーバ10が複数存在する場合、ファイル処理装置20は該複数の素材サーバ10に対して、素材リストの要求を送信しうる。また、複数のファイルサーバ30が存在する場合、ファイル処理装置20は該複数のファイルサーバ30に対して、仮想視点映像ファイルを送信しうる。また、図1では、ファイル処理装置20が仮想視点映像ファイルを生成する機能と、仮想視点映像ファイルを再生する機能の両方を有している例を示しているが、これに限らない。すなわち、仮想視点映像ファイルを生成するための機能と、仮想視点映像ファイルを再生するための機能とが別の装置として存在することもありうる。すなわち、本実施形態のファイル処理装置20は、ファイル生成装置やファイル再生装置と呼ぶこともできる。
また、本実施形態のファイル処理装置20は、ユーザにより指定された素材データを一括ですべて受信してから仮想視点映像データを生成することを想定しているが、所定時間ごとの素材データを部分的に取得しながら、仮想視点映像データを生成しても良い。
次に、本実施形態のファイル処理装置20が仮想視点映像ファイルを再生するときの素材サーバ10、ファイル処理装置20、及びファイルサーバ30の処理の流れについて、図1及び図4を用いて説明する。
まず、ファイル処理装置20は、ファイルサーバ30に対してファイルリストを要求する(S201)。ファイルリストとは、ファイルサーバ30がファイル処理装置20に対して提供可能なコンテンツファイルの一覧を示す情報である。ただし、必ずしもリスト形式のデータである必要はない。また、ファイルリストが示すコンテンツファイルには、仮想視点映像ファイルが含まれる。本実施形態のファイル処理装置20のファイルリスト受信部207は、ファイルリストの取得に関するユーザ操作を受け付けると、ファイルリストの要求をファイルサーバ30の外部インタフェース部300に対して送信する。
そして、ファイル処理装置20は、ファイルサーバ30からファイルリストを取得する(S202)。具体的には、ファイルサーバ30の外部インタフェース部300は、ファイル処理装置20からの要求を受信すると、ファイルリスト取得部301を介してファイル蓄積部302からファイルリストを取得する。そして、そのファイルリストをファイル処理装置20に対して送信する。
そして、ファイル処理装置20は、ファイルリストにおいて示された複数のコンテンツファイルのうち、ユーザにより指定された仮想視点映像ファイルの要求をファイルサーバ30に対して送信する(S203)。具体的には、ファイル処理装置20のファイル要求部208が、ユーザにより指定された仮想視点映像ファイルの識別情報を含む要求をファイルサーバ30の外部インタフェース部300に対して送信する。
そして、ファイル処理装置20は、ファイルサーバ30から仮想視点映像ファイルを受信する(S204)。具体的には、ファイルサーバ30の外部インタフェース部300は、ファイル処理装置20から仮想視点映像ファイルの要求を受けると、該要求された仮想視点映像ファイルを、ファイル取得部303を介してファイル蓄積部302から取得する。そして、該取得された仮想視点映像ファイルをファイル処理装置20のファイル受信部210に対して送信する。
そして、ファイル処理装置20は、S204において取得した仮想視点映像ファイルを再生する(S205)。具体的には、ファイル処理装置20のファイル再生部211が、ファイル受信部210により受信された仮想視点映像ファイルに含まれる仮想視点映像データをデコードし、デコードの結果を映像出力部203に対して送信する。そして、映像出力部203は、仮想視点映像を表示させる。このとき、オーディオデータもあれば、映像と合わせて再生される。
そして、ファイル処理装置20は、素材データの取得指示が入力されたか判定する(S206)。素材データの取得指示は、典型的には、ユーザ操作により入力される。ユーザは、ファイルサーバ30から取得した仮想視点映像ファイルに基づく仮想視点映像を再生中に、該映像とは異なる視点から映像を視聴したいと考えた場合に、素材データの取得指示を入力する。素材データの取得指示が入力されなかった場合、仮想視点映像の再生が継続される。
一方、素材データの取得指示が入力された場合、ファイル処理装置20は、素材データをファイルサーバ30に対して要求する(S207)。具体的には、ファイル処理装置20の素材データ要求部209が、素材データの取得に関するユーザ操作の入力に応じて、ファイルサーバ30に対して素材データの要求を送信する。この素材データの要求は、素材データのアクセス情報に基づいて行われる。例えば、アクセス情報が素材サーバ10のIPアドレスとファイル名の組み合わせである場合、該アクセス情報が素材データの要求に含まれる。また、例えば、アクセス情報がURLである場合、素材データ要求部209は、該URLに対するGETリクエストを送信することにより、素材データを取得できる。この場合、GETリクエストはファイルサーバ30ではなく、素材サーバ10に直接送信されることがある。
ファイルサーバ30のメタデータ解析部306は、ファイル処理装置20から素材データの要求を受け付けた場合、該要求に含まれるアクセス情報を参照する。もし素材データの要求にアクセス情報が含まれていない場合(S208でNo)、ファイル処理装置20に対してエラーが通知される(S209)。一方、素材データの要求にアクセス情報が含まれる場合、ファイルサーバ30は、素材サーバ10に対して素材データの要求を送信する(S210)。具体的には、ファイルサーバ30のデータ受信部307から素材サーバ10のデータ送信部104に対して素材データの要求が送信される。その後、ファイルサーバ30は素材サーバ10から素材データ及びアクセス情報を取得し(S211)、その素材データとアクセス情報をファイル処理装置へ提供する(S212)。ただし、素材サーバ10からファイル処理装置20に対して直接的に素材データとアクセス情報が送信されるようにしても良い。図4のS213~S217は、図3のS105~S109と同様である。
次に図5を用いて、素材データのアクセス情報について詳細に説明する。図5において、アクセス情報バージョン501Aは、アクセス情報500のバージョンを示し、バージョンごとに格納するパラメータが変わることに対応するための情報である。
アクセス情報フラグ502Aは、アクセス情報500に含まれる情報のうち、有効な情報を示す。たとえば、二値の値で、1が有効を示すようなビットアサインのデータ等を使用できる。
データベースURL503Aは、素材データを記録するサーバ(データベース)のURLを示す。データベースIPアドレス504Aは、素材データを記録するサーバ(データベース)のIPアドレスを示す。
データID505Aは、素材データを記録するサーバ(データベース)において、素材データを一意に特定するためのID(識別情報)である。また、データ名506Aは、素材データを記録するサーバ(データベース)において、素材データを一意に特定するためのデータ名(識別情報)である。識別情報の具体例としては、素材データのタイトルやファイル名などである。
映像生成ポータルサイトURL507Aは、仮想視点映像の生成機能を含むポータルサイトのURLである。このURLによって特定されるサイトは、ユーザが指定した素材データから仮想視点映像を生成できるサービスを提供するものとする。
映像生成に用いたデータの時間情報508は、仮想視点映像に対応する開始時間及び終了時間等を示す。この時間情報は、仮想視点映像に対応する実カメラの撮影時刻に基づく情報である。この時間情報を用いることで、ユーザは同じ時間の仮想視点映像を再度生成することができる。
なお、図5で示す情報のすべてがアクセス情報として含まれていなければならないわけではないことに留意されたい。
次に、アクセス情報をISO/IEC14496-12(MPEG-4 Part12) ISO base media format(以下、ISOBMFF)規格に準拠した動画用ファイルフォーマットに格納する場合の例について詳細に説明する。
ISOBMFFは、サイズとタイプを示す情報とデータとが格納されるボックスという単位でファイルを扱う。図6(a)はボックスの構造を例示した図である。図6(b)のように、ボックスの中にデータとしてボックスを含む構造とすることも可能である。
図7はISOBMFFに準拠したファイルのデータ構造を示している。図7に示すように、ISOBMFFに準拠したファイルは、ftyp701(File Type Compatibility Box)、moov702(Movie Box)、及びmdat703(Media Data Box)のボックスを含む。ftyp701にはファイルフォーマットの情報、例えばファイルがISOBMFFに準拠していることや、ボックスのバージョン、ファイルを作成したメーカ名称等が格納される。moov702(ムービーボックス)には、メディアデータを管理するための時間軸、アドレスなどのメタデータが格納される。mdat703(メディアデータボックス)には、実際に動画として再生されるメディアデータが格納される。本実施形態において、moov702はメタデータを格納するためのメタデータ領域、mdat703はメディアデータを格納するためのメディアデータ領域と呼ぶことができる。
図8は、moov702に、素材データへのアクセス情報500を記述する例を示した図である。図8(a)のように、ファイル全体のメタ情報を示すmeta801に情報を付与することができる。またトラックごとに異なる映像をつなぎ合わせて編集されたファイルの場合は、図8(b)のように、各トラックのボックスmeta802にアクセス情報500を記述することも可能である。また、図8(c)のように、アクセス情報500を格納する新たなボックスを定義しても良い。こうすることで、異なる素材データから生成された仮想視点映像を混在させた編集動画を生成した場合でも、それぞれのトラックから素材データへアクセスすることが可能となる。
アクセス情報500を格納するための新たなボックスの例を以下に示す。
aligned(8) class MetaBox (handler_type)
extends FullBox(‘meta’, version = 0, 0) {
HandlerBox(handler_type) theHandler;
PrimaryItemBox primary_resource; // optional
DataInformationBox file_locations; // optional
ItemLocationBox item_locations; // optional
ItemProtectionBox protections; // optional
ItemInfoBox item_infos; // optional
IPMPControlBox IPMP_control; // optional
ItemReferenceBox item_refs; // optional
ItemDataBox item_data; // optional
Original_Data_Access_info // optional
Box other_boxes[]; // optional
}
ここで、Original_Data_Access_infoが素材データへのアクセス情報500を表す。このボックスは
Box Type: ‘odai’
Container: Meta box (‘meta’)
Mandatory: No
Quantity: Zero or one
そのシンタックスは
aligned(8) class ItemLocationBox extends FullBox(‘odai’,version,0) {
unsigned int(32) offset_size;
unsigned int(32) length_size;
unsigned int(32) base_offset_size;
if (version == 1) {
unsigned int(32) index_size;
} else {
unsigned int(32) reserved;
unsigned int(32) ; //

}
for (i=0, i<4; i++) {
unsigned char(8) Information Version[i]; //アクセス情報バージョン
}
unsigned int(32) Access Info Flag; //アクセス情報フラグ
unsigned int(32) Database URL Character Num;
//データベースURL文字数
for (i=0, i<Database URL Character Num; i++) {
char(8) Database URL[i]; /データベースURL
}
for (i=0, i<15; i++) {
char(8) Database IP Address[i]; //データベースIPアドレス
}
unsigned int(32) Data Name Character Num; //データ名 文字数
for (i=0, i<Database Name Character Num; i++) {
char(8) Database Name[i]; //データ名
}
unsigned int(32) Video Create Portal Site URL Character Num;
//映像生成ポータルサイトURL 文字数
for (i=0, i< Video Create Portal Site URL Character Num; i++) {
char(8) Video Create Portal Site URL [i];
//映像生成ポータルサイトURL
}
unsigned int(32) Start Time Of Using Data; //データ使用開始時間
unsigned int(32) End Time Of Using Data; //データ使用終了時間
}
となる。なお、アクセス情報500はボックスで構成されるため、図8(c)のように別途設定しても構わない。また、ISOBMFFは一例であり、アクセス情報500が他のファイルフォーマットに準拠したファイルにメタデータとして格納されるようにしても良い。
以下、カメラ映像機器工業会規格DC-008-2012デジタルスチルカメラ用画像ファイルフォーマット規格Exif2.3に準拠したフォーマットでアクセス情報500を記述する場合の例について説明する。図9(a)は、Exif規格に準拠したファイルフォーマットに、アクセス情報500を記述する場合の例を示している。
図9(a)は、使用カメラ情報を、Data Access Info Image File Directory(以下、DAI IFD)902として定義し、素材データへのアクセス情報500を格納している。図10に、DAI IFDのタグ情報の構成の一例を示す。また、DAI IFD Pointer901は、DAI IFD902を指し示すポインタである。
図10において、DAIタグのバージョンは1から始まる値であり、以下に続くデータのフォーマットのバージョンを表している。アクセス情報フラグはビットごとの1又は0の値で、以下に続く情報が有効か否かを示し、4バイト符号なし整数で表現される。データベースURL文字数は、データベースURLの文字数を示し、4バイト符号なし整数で表現される。データベースURLは、データベースのURLを示し、ASCIIで表現される。ASCIIは、1つの7ピットASCIIコードを納めた8ビットバイトである。データベースIPアドレスは、データベースのIPアドレスを示し、ASCIIで表現される。データIDは、データを一意に特定するためのIDであり、4バイト符号なし整数で表現される。データ名文字数は、データ名の文字数を示し、4バイト符号なし整数で表現される。データ名は、データ名を示し、ASCIIで表現される。
映像生成ポータルサイトURL文字数は、映像生成ポータルサイトのURLの文字数を示し、4バイト符号なし整数で表現される。映像生成ポータルサイトURLは仮想視点映像生成のサービスを提供するポータルサイトのURLを示し、ASCIIで表現される。データ使用開始時間及びデータ使用終了時間は、どの時間からどの時間までの素材データで仮想視点映像が生成されたかを示す。データ使用開始時間及びデータ使用終了時間は、4バイト符号なし整数で表現され、たとえば1バイトずつ10進数で時間、分、秒、及びフレームを示す方式を用いる。ただし、上記の情報の順序、データ長はこれに限定されない。また、図10で示すすべての情報がアクセス情報500として必須であるとは限らない。また、図10で示す情報以外の情報がアクセス情報500に含まれることもありうる。
図9(b)は、Exif規格では定義されていないが、ベンダーあるいは業界団体が任意に利用することができる未定義のAPPnマーカであるAPP3(811)に準拠する形式でアクセス情報500を格納する例を示している。このように、既存の静止画用ファイルフォーマットであるExif規格に、素材データへのアクセス情報500を格納するための領域を追加定義し、仮想視点パラメータ付き仮想視点映像を生成することできる。
上記実施形態では、動画フォーマットとしてISOBMFF規格、静止画フォーマットとしてExif規格を例に説明したが、フォーマットはこれに限るものではなく、他の規格であっても、独自のフォーマットであっても構わない。また、アクセス情報500に含まれる各パラメータの値及び表現は上述の例に限定されない。
また、今回はネットワークでつながった機器同士が連携する例について紹介したが、ひとつの装置内に素材データと、その素材データから生成された仮想視点映像がある場合は、ローカルフォルダパス等で素材データへのアクセス情報を表現することもできる。
次に、webページを動画ポータルサイトとする動画配信サービスのクライアントとして、ファイル処理装置20が動作する場合の例について説明する。ファイル処理装置20は、webブラウザを有するものとする。webブラウザは、ファイルサーバ30から送信されたwebページデータを解析し、画面を再構成することで、ユーザは動画ポータルサイトを閲覧する。
図11は動画ポータルサイトのトップ画面を例示した図である。トップ画面は、キーワードで動画を検索可能な検索バー1100、ジャンル等から動画を検索できるメニュー画面1101、おすすめファイルリスト1102などから構成される。おすすめファイルリスト1102により示される各動画は、サムネイル画面、タイトル、投稿者、及び視聴回数などで構成される。例えばユーザが、マウスなどで動画をクリックすると、動画再生画面に遷移する。
図12は、動画再生画面を例示した図である。動画再生画面は、動画が表示される動画ウィンドウ1200、再生ボタン、停止ボタン、及び時間的な再生位置を指定するシークバーなどを備えた再生操作バー1201を有する。また、動画再生画面は、素材データへのアクセスボタン1202を有する。
例えば、本実施形態のファイルサーバ30のメタデータ解析部306は、ファイル処理装置20に対して提供する仮想視点映像ファイルにアクセス情報500が含まれているかを判定する。そしてファイルサーバ30は、アクセス情報500が含まれていると判定された場合、ファイル処理装置20により表示される動画再生画面上に、素材データへのアクセスボタン1202(所定領域)を加えることができる。
ユーザが再生中の仮想視点映像と同じ素材データに基づいて異なる視点の仮想視点映像を生成したいと考えた場合、素材データへのアクセスボタン1202を押下(クリック)する。そのユーザ操作に応じて、素材データ要求部209がファイルサーバ30に対し、素材データを要求し、前述の通り、ファイルサーバ30(又は素材サーバ10)から素材データを取得する。図13は、ファイル処理装置20がファイルサーバ30(又は素材サーバ10)から素材データを取得して、仮想視点映像を生成するための画面を例示する図である。図13の画面は、仮想視点映像を再生するウィンドウ1300、編集対象とする時間の指定のための時間指定バー1301、編集スタートボタン1302、編集ストップボタン1303、静止操作ボタン1304、及び、仮想視点映像再生バー1305を有する。
ユーザは、時間指定バー1301で、編集を開始する時間を指定する。そして、編集スタートボタン1302を押下すると時間が進み始め、ユーザはマウスや専用コントローラなどを使って仮想視点を操作する。これにより、オリジナルの視点に基づく仮想視点映像が生成される。ユーザが編集ストップボタン1303を押下すると編集が終了する。仮想視点映像再生バー1305を操作すると、新たに生成された仮想視点映像を確認することができる。
以上、第一実施形態では、仮想視点映像データと、該仮想視点映像データの生成に用いられた素材データにアクセスするためのアクセス情報500とを含む仮想視点映像ファイルを生成する。これにより、該仮想視点映像ファイルを取得したファイル処理装置20は、アクセス情報に基づいて素材データへアクセス可能となり、異なる視点の仮想視点映像を簡単に生成できるようになる。
なお、本実施形態では素材データの取得をファイルサーバ30経由で行う例を中心に説明したが、これに限定さない。例えば、素材データ要求部209がメタデータ解析部306の機能を持つことで、ファイル処理装置20が直接的に素材サーバ10に素材データを要求しても良い。
なお、素材データへのアクセスボタン1202はこれに限らず、「再構成可能ボタン」または「編集ボタン」のように、素材データへのアクセスの可否を直接あらわさない表現にしても良い。
<第二実施形態>
第一実施形態では、ファイル処理装置20が、素材サーバ10に記録された素材データをファイルサーバ30経由で取得する場合の例を中心に説明した。これに対し、第二実施形態では、ファイル処理装置20が素材サーバ10から直接的に素材データを取得する形態について説明する。
図14は、第二実施形態における素材サーバ40、ファイル処理装置50、及びファイルサーバ60の詳細を説明するためのブロック図である。図1と同様のブロックについては、同じ番号を付与し、その説明を省略する。
ファイル処理装置50が、仮想視点映像データと素材データへのアクセス情報とを有する仮想視点映像ファイルをファイルサーバ60に出力することについては第一実施形態と第二実施形態において共通である。
本実施形態では、ファイル処理装置50がファイルサーバ60から仮想視点映像ファイルを取得し、該ファイルに含まれるアクセス情報に基づいて素材サーバ40から素材データを取得し、新たな仮想視点に基づく仮想視点映像データを生成するケースを説明する。
ファイル処理装置50のファイル受信部501は、所定のユーザ操作(例えば素材データの取得指示)の入力に応じて、メタデータ解析部502に仮想視点映像ファイル中のメタデータを送信する。
メタデータ解析部502は、ファイル受信部501から受け取ったメタデータを解析し、仮想視点映像ファイルの素材データへのアクセス情報を抽出する。メタデータ解析部502は、素材データへのアクセス情報がメタデータに含まれていない場合は、ファイル受信部501にその旨を通知する。この場合、映像出力部203は、素材データへのアクセスができない旨を示す画像を表示する。メタデータにアクセス情報が含まれている場合、メタデータ解析部502は、アクセス情報をデータ受信部503に送信する。アクセス情報の具体例は第一実施形態において説明した通りである。すなわち、素材データを記録する装置(素材サーバ10)のIPアドレスと、素材データを特定するための識別情報(データID)の組み合わせなどがありうる。また、アクセス情報の別の例としては、特定の素材データに所在を表すURLなどもありうる。
データ受信部503は、アクセス情報に基づいて素材データの取得を行う。例えば、アクセス情報が素材サーバ40のIPアドレスとデータIDであった場合、データ受信部503は、素材サーバ40の外部インタフェース部100に該データIDを指定して素材データを要求する。
素材サーバ40の外部インタフェース部100は、データ取得部103を介してデータ蓄積部102から素材データを取得し、データ送信部104を介してファイル処理装置50へ送信する。なお、ファイル処理装置50のデータ受信部503は、素材サーバ40から受け取った素材データを仮想視点映像生成部201に提供すると共に、アクセス情報をアクセス情報付与部205に対して提供する。このようにすることで、新たに生成される仮想視点映像データに基づいて仮想視点映像ファイルを生成する場合においても、その生成に用いられた素材データのアクセス情報を含めることができるようになる。
以上、第二実施形態によれば、ファイル処理装置50が、仮想視点映像を生成するための素材データへのアクセス情報を解析し、素材データを取得する。このような方法によれば、ファイルサーバ60を介さずに素材データを取得できるため、素材データの取得に要する時間の削減や、システム全体の負荷削減などの効果が期待できる。
<その他の実施形態>
第一及び第二実施形態では、オブジェクト(前景)の3次元形状データの構成要素(例えばボクセル)と撮影画像の構成要素(例えば画素)との位置の対応関係に基づいて、前景の3次元形状に色づけが行われるケースを想定して説明している。しかしながら、このような色づけ処理は三次元計算を伴うため、処理負荷が高い。したがって、ファイル処理装置50としての機能をスマートフォンなどの端末によって実現することができない可能性も考えられる。そこで、例えば下記のような方式を用いることにより、スマートフォンなど処理性能が高くない端末においても仮想視点映像の生成ができるようになる。
まず、素材サーバ40において、あらかじめオブジェクトの3次元形状データの各構成要素の色を決定し、色つきの3次元形状データを生成する。そして、素材サーバ40は、色つきの3次元形状データを素材データとしてファイル処理装置50へ提供する。このようにすれば、ファイル処理装置50の仮想視点映像生成部201は3次元形状データに対する色づけ処理を省略することができる。
また、色づけ処理の省略に代えて、又は、色づけ処理の省略に加えて、画像サイズを小さくする、フレームレートを低くするなどの処理負荷の低減方法を採用しても良い。処理端末(ファイル処理装置50)の性能や負荷状況に合わせて素材データやレンダリング方法が選択されるようにしても良い。
また、仮想視点映像ファイルは、動画のファイルフォーマットに準拠したファイルであっても良いし、静止画のファイルフォーマットに準拠したファイルであっても良いし、イメージシーケンスのファイルフォーマットに準拠したファイルであっても良い。
例えば、静止画データ(仮想視点静止画)とアクセス情報を含む静止画ファイルを生成し、それをファイル処理装置20に提供されるようにしても良い。この場合、ファイル処理装置20は、静止画データに基づく静止画を再生する。そして、所定のユーザ操作の入力に応じて、ファイル処理装置20が素材サーバ10から素材データを取得し、該静止画とは別のアングルに基づく静止画を生成するようにしても良い。このようにすれば、例えば、ユーザがあるアングルに基づく静止画を再生中に、別のアングルから見たいと考えたときに、アングルを変更した新たな静止画を容易に生成できるようになる。
また、画像サイズの変更や、トリミング、及び、色調整などの画像処理を行うファイル処理装置20に対して、画像処理の実施前の静止画へのアクセス情報を含む画像ファイルを提供しても良い。このようにすれば、オリジナルの静止画を再処理することが可能となる。また同様に、動画についても、画像サイズの変更や、フレームレートの変更、時間方向のトリミングなどの処理を行う動画処理装置に対して、画像処理の実施前の動画へのアクセス情報を含む画像ファイルを提供するようにしても良い。
また、素材データへのアクセス情報を暗号化しても良い。図15は、素材データへのアクセス情報を暗号化する暗号化部700と、素材データへのアクセス情報の暗号化を解除する暗号化解除部800を含むファイル処理装置70の例を示している。ファイル処理装置70は、暗号化部700で暗号化された素材データへのアクセス情報を含む仮想視点映像ファイルを生成する。また、ファイル処理装置70は、アクセス情報が暗号化されていることを示すために、アクセス情報フラグの特定のビットを立てる。ここでは、31ビット目をアクセス情報フラグとして使用するものとする。一方、ファイルサーバ80は、ファイル処理装置70から素材データを要求された場合、素材データへのアクセス情報の解析において、アクセス情報フラグを確認し、素材データへのアクセス情報が暗号化されているか確認する。暗号化されていた場合、暗号化解除部800に素材データへのアクセス情報の暗号化解除を要求し、暗号化が解除された素材データへのアクセス情報を取得し、素材データへアクセスする。これにより素材データへのアクセス情報の秘匿性を高め、不正なアクセスを防止することが可能となる。
また、上述の実施形態では、ファイル処理装置20が仮想視点映像ファイルを生成する機能と、仮想視点映像ファイルを再生する機能の両方を有している場合の例を中心に説明した。しかしながら、この例に限らない。例えば、仮想視点映像ファイルを生成する機能のみを有する第1ファイル処理装置(ファイル生成装置)と、図1のファイル処理装置20に対応する第2ファイル処理装置が存在するようにしても良い。
また、上述の実施形態では、ファイル処理装置20が仮想視点映像生成部201とファイル生成部204の両方を有している場合の例を中心に説明した。しかしこれに限らない。例えば、ファイル処理装置20は、仮想視点映像生成装置から仮想視点映像データとアクセス情報を取得し、該仮想視点映像データとアクセス情報とを含む仮想視点映像ファイルを生成するようにしても良い。また、仮想視点映像データとアクセス情報が異なる装置から取得されるようにしても良い。また、素材サーバ10とファイルサーバ30が一体であっても良い。このように、図1のシステム構成には種々の変形例が存在することに留意されたい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10 素材サーバ
20 ファイル処理装置
30 ファイルサーバ
200 データ受信部
204 ファイル生成部
206 ファイル出力部

Claims (17)

  1. 想視点に対応する仮想視点映像データと、当該仮想視点映像データの生成に用いられた素材データであって、当該仮想視点映像データに対応する仮想視点とは異なる仮想視点に対応する他の仮想視点映像データの生成に用いられる素材データの取得のために使用されるアクセス情報と、を取得する取得手段と、
    前記取得手段により取得されたアクセス情報と前記取得手段により取得された仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成手段と、
    前記ファイル生成手段により生成された仮想視点映像ファイルを出力する出力手段と、を有することを特徴とするファイル生成装置。
  2. 仮想視点の位置及び仮想視点からの視線方向に関する仮想視点情報を取得する情報取得手段と、
    前記情報取得手段により取得された仮想視点情報と前記素材データとに基づいて、前記仮想視点映像データを生成する映像生成手段と、を有することを特徴とする請求項1に記載のファイル生成装置。
  3. 前記アクセス情報は、IPアドレス及びURLのうち少なくとも何れか一方を含むことを特徴とする請求項1又は2に記載のファイル生成装置。
  4. 前記アクセス情報は、前記素材データを格納するファイルのファイル名、及び、前記素材データを識別するための識別情報のうち、少なくとも何れか一方を含むことを特徴とする請求項1乃至3の何れか1項に記載のファイル生成装置。
  5. 前記素材データは、オブジェクトの3次元形状データと、前記オブジェクトのテクスチャデータと、背景画像のテクスチャデータと、複数の撮影装置による撮影画像と、前記複数の撮影装置の位置及び姿勢に関する情報と、のうち、少なくとも何れか1つを含むことを特徴とする請求項1乃至4の何れか1項に記載のファイル生成装置。
  6. 前記仮想視点映像ファイルはメタデータ領域とメディアデータ領域とを含み、
    前記ファイル生成手段は、前記メタデータ領域に前記アクセス情報が記述され、前記メディアデータ領域に前記仮想視点映像データが記述された前記仮想視点映像ファイルを生成することを特徴とする請求項1乃至5の何れか1項に記載のファイル生成装置。
  7. 前記取得手段は、前記素材データを記録する記録装置から前記アクセス情報を取得することを特徴とする請求項1乃至6の何れか1項に記載のファイル生成装置。
  8. 前記ファイル生成手段は、前記仮想視点映像ファイルとして、ISO/IEC14496-12に基づくファイルフォーマットに対応するファイルを生成し、
    前記アクセス情報は、ISO/IEC14496-12に基づく動画用ファイルフォーマットのムービーボックスに格納される
    ことを特徴とする請求項1乃至7の何れか1項に記載のファイル生成装置。
  9. 前記ファイル生成手段は、前記仮想視点映像ファイルとして、Exifに基づくファイルフォーマットに対応するファイルを生成し、
    前記アクセス情報は、Exifに準拠した形式で格納される
    ことを特徴とする請求項1乃至7のうち、何れか1項に記載のファイル生成装置。
  10. 前記アクセス情報を暗号化する暗号化手段を有し、
    前記ファイル生成手段は、前記暗号化手段により暗号化されたアクセス情報を含む仮想視点映像ファイルを生成することを特徴とする請求項1乃至9の何れか1項に記載のファイル生成装置。
  11. 想視点に対応する仮想視点映像データと、当該仮想視点映像データ生成に用いられた素材データであって、当該仮想視点映像データに対応する仮想視点とは異なる仮想視点に対応する他の仮想視点映像データの生成に用いられる素材データの取得のために使用されるアクセス情報と、を含む仮想視点映像ファイルを取得する取得手段と、
    前記取得手段により取得された仮想視点映像ファイルに含まれる前記アクセス情報を、前記仮想視点映像ファイルから抽出する抽出手段と、
    前記抽出手段により抽出された前記アクセス情報を使用して、前記素材データの取得を要求する要求手段と、
    前記要求手段による要求に基づいて取得された素材データを使用して、前記仮想視点映像ファイルに含まれる仮想視点映像データとは異なる他の仮想視点映像データを出力する出力手段と、を有することを特徴とする処理装置。
  12. 前記他の仮想視点映像データは、前記仮想視点映像ファイルに含まれる仮想視点映像データに対応する仮想視点とは異なる仮想視点に基づいて生成される仮想視点映像データであることを特徴とする請求項11に記載の処理装置。
  13. 前記仮想視点映像ファイルを提供するファイルサーバと、前記素材データを提供する素材サーバとは、異なることを特徴とする請求項11又は12に記載の処理装置。
  14. 前記取得手段により取得された前記仮想視点映像ファイルに含まれる仮想視点映像データを再生する再生手段と、
    前記再生手段により再生される前記仮想視点映像データの再生画面上に表示される所定領域に対するユーザ操作を受け付ける受付手段と、を有し、
    前記要求手段は、前記受付手段による前記ユーザ操作の受け付けに応じて、前記素材データの取得を要求することを特徴とする請求項11乃至13の何れか1項に記載の処理装置。
  15. 想視点に対応する仮想視点映像データと、当該仮想視点映像データの生成に用いられた素材データであって、当該仮想視点映像データに対応する仮想視点とは異なる仮想視点に対応する他の仮想視点映像データの生成に用いられる素材データの取得のために使用されるアクセス情報と、を取得する取得工程と、
    前記取得工程により取得されたアクセス情報と前記取得工程により取得された仮想視点映像データとを含む仮想視点映像ファイルを生成するファイル生成工程と、
    前記ファイル生成工程により生成された仮想視点映像ファイルを出力する出力工程と、を有することを特徴とするファイル生成方法。
  16. 想視点に対応する仮想視点映像データと、当該仮想視点映像データ生成に用いられた素材データであって、当該仮想視点映像データに対応する仮想視点とは異なる仮想視点に対応する他の仮想視点映像データの生成に用いられる素材データの取得のために使用されるアクセス情報と、を含む仮想視点映像ファイルを取得する取得工程と、
    前記取得工程により取得された仮想視点映像ファイルに含まれる前記アクセス情報を、前記仮想視点映像ファイルから抽出する抽出工程と、
    前記抽出工程により抽出された前記アクセス情報を使用して、前記素材データの取得を要求する要求工程と、
    前記要求工程による要求に基づいて取得された素材データを使用して、前記仮想視点映像ファイルに含まれる仮想視点映像データとは異なる仮想視点に基づく他の仮想視点映像データを出力する出力工程と、を有することを特徴とする処理方法。
  17. コンピュータを、請求項1乃至10の何れか1項に記載のファイル生成装置、又は、請求項11乃至14の何れか1項に記載の処理装置として動作させるためのプログラム。
JP2018116888A 2018-06-20 2018-06-20 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム Active JP7218105B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2018116888A JP7218105B2 (ja) 2018-06-20 2018-06-20 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
PCT/JP2019/023224 WO2019244731A1 (ja) 2018-06-20 2019-06-12 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
US17/122,931 US11431957B2 (en) 2018-06-20 2020-12-15 File generation apparatus, file generation method, processing apparatus, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018116888A JP7218105B2 (ja) 2018-06-20 2018-06-20 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019220847A JP2019220847A (ja) 2019-12-26
JP2019220847A5 JP2019220847A5 (ja) 2021-07-29
JP7218105B2 true JP7218105B2 (ja) 2023-02-06

Family

ID=68983326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018116888A Active JP7218105B2 (ja) 2018-06-20 2018-06-20 ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11431957B2 (ja)
JP (1) JP7218105B2 (ja)
WO (1) WO2019244731A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017212591A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム
JP2018513574A (ja) 2015-02-10 2018-05-24 ノキア テクノロジーズ オサケユイチア 画像シーケンストラックを処理する方法、装置、及びコンピュータプログラムプロダクト

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2005200888B2 (en) * 2005-02-28 2009-01-08 Canon Kabushiki Kaisha Visualising camera position in recorded video
JP4737573B2 (ja) * 2009-02-05 2011-08-03 富士フイルム株式会社 3次元画像出力装置及び方法
CN103339947B (zh) * 2011-02-03 2014-07-30 富士胶片株式会社 3d视频再现装置、3d显示装置、3d成像装置和3d视频再现方法
US9268406B2 (en) * 2011-09-30 2016-02-23 Microsoft Technology Licensing, Llc Virtual spectator experience with a personal audio/visual apparatus
JP6429829B2 (ja) 2016-05-25 2018-11-28 キヤノン株式会社 画像処理システム、画像処理装置、制御方法、及び、プログラム
WO2019012817A1 (ja) * 2017-07-14 2019-01-17 ソニー株式会社 画像処理装置、画像処理装置の画像処理方法、プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018513574A (ja) 2015-02-10 2018-05-24 ノキア テクノロジーズ オサケユイチア 画像シーケンストラックを処理する方法、装置、及びコンピュータプログラムプロダクト
JP2017212591A (ja) 2016-05-25 2017-11-30 キヤノン株式会社 制御装置、制御方法、及び、プログラム

Also Published As

Publication number Publication date
JP2019220847A (ja) 2019-12-26
WO2019244731A1 (ja) 2019-12-26
US20210105450A1 (en) 2021-04-08
US11431957B2 (en) 2022-08-30

Similar Documents

Publication Publication Date Title
EP1249002B1 (en) Authenticating metadata and embedding metadata in watermarks of media signals
CN1604080B (zh) 图象文件容器
US20020105529A1 (en) Generation and display of multi-image video streams
JP2009506475A (ja) 統合マルチメディアファイルフォーマット構造と、統合マルチメディアファイルフォーマット構造に基づくマルチメディアサービスシステム及び方法
US20080195924A1 (en) Method and apparatus for encoding multimedia contents and method and system for applying encoded multimedia contents
JP2000069442A (ja) 動画システム
JP2005513831A (ja) 多数の異種装置に配信するためのマルチメディアデータの変換
JP6004283B2 (ja) マルチメディアコンテンツ編集サーバ、マルチメディアコンテンツ編集方法、プログラム及び集積回路
US20150035999A1 (en) Method for sharing digital photos securely
CN107851425B (zh) 信息处理设备、信息处理方法和程序
JP2006308952A (ja) 文字情報生成装置及び方法、文字情報表示装置及び方法、デジタル映画上映方法及びシステム、並びに、字幕表示装置
JP4303085B2 (ja) コンテンツ提供サービスシステム
EP1357495A1 (en) Content data encoding system and content registering system
JP7218105B2 (ja) ファイル生成装置、ファイル生成方法、処理装置、処理方法、及びプログラム
EP3952275A1 (en) File generation device, file generation method, file reproduction device, file reproduction method, and program
JP5782120B2 (ja) コンテンツデータ再生方法、およびサムネイル画像生成方法
US20230006818A1 (en) File processing device and file processing method
JP5350021B2 (ja) ファイル生成装置、ファイル再生装置およびコンピュータプログラム
US8565425B2 (en) Recording medium, method for manufacturing the same and apparatus for reproducing the same
US9219945B1 (en) Embedding content of personal media in a portion of a frame of streaming media indicated by a frame identifier
KR20050116846A (ko) 멀티미디어 컨텐츠와 이에 대응하는 자막 정보를 개인용정보 처리기로 제공하기 위한 방법 및 그 시스템
JP4017436B2 (ja) 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体
KR100960092B1 (ko) 이미지 데이터 등록 방법 및 시스템
JP4373739B2 (ja) デジタルカメラ
US20230104640A1 (en) File processing device, file processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230125

R151 Written notification of patent or utility model registration

Ref document number: 7218105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151