JP2003317110A - 3次元動画像データの提供方法とその表示方法、該提供装置と該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体 - Google Patents
3次元動画像データの提供方法とその表示方法、該提供装置と該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体Info
- Publication number
- JP2003317110A JP2003317110A JP2002120310A JP2002120310A JP2003317110A JP 2003317110 A JP2003317110 A JP 2003317110A JP 2002120310 A JP2002120310 A JP 2002120310A JP 2002120310 A JP2002120310 A JP 2002120310A JP 2003317110 A JP2003317110 A JP 2003317110A
- Authority
- JP
- Japan
- Prior art keywords
- moving image
- information
- image data
- dimensional moving
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Processing Or Creating Images (AREA)
- Studio Circuits (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
の視点位置と視線方向をマルチメディア統合情報ファイ
ルの編集のみで修正できるようにする。 【解決手段】 コンテンツ提供者のサーバ装置10は、
3次元動画像データが多視点動画像、全方位動画像等の
中でどれに該当するか表すフォーマット情報を指定し、
3次元動画像データを2次元投影面に投影するの際の視
点位置情報及び視線方向情報を指定するマルチメディア
統合情報を記憶し、コンテンツ表示者の端末に提供す
る。サーバ装置10には編集用の端末20が接続され
る。端末20は、3次元動画像データに関するマルチメ
ディア統合情報を編集する編集手段20−1、3次元動
画像データを復号し、視点位置情報及び視線方向情報に
基づいて2次元動画像を生成するコンテンツ再生手段1
0−2、及び生成されたマルチメディア情報を表示する
プレゼンテーション手段10−3を備える。
Description
ータを提供し表示する方法と装置に関わり、テキスト、
音声、動画像などの多種多様なマルチメディア情報を一
つのコンテンツに統合して提供する提供方法、表示方
法、提供装置および表示端末に関するものである。ただ
し、3次元動画像とは多視点動画像、全方位動画像、パ
ノラマ動画像など、様々な視点位置と視線方向に関する
映像を記録したものであり、2次元動画像とは一つの視
点位置と視線方向に関する映像を記録したものであり、
従来から“動画像”と呼ばれているものである。また、
本発明によって3次元動画像データが提供される形態と
しては、放送、ネットワークを介した通信、あるいは蓄
積媒体を利用した提供がある。
ィア情報を一つのコンテンツに統合してインターネット
やデジタル放送で配信するためのファイル・フォーマッ
ト(以下、マルチメディア統合ファイル・フォーマッ
ト)が開発され、実用化されている。この技術によれ
ば、コンテンツの受信側の画面に様々なマルチメディア
をレイアウト、同期化して表示することができる。マル
チメディア統合ファイル・フォーマットにおいては、動
画像や音やテキスト等のマルチメディア情報と、マルチ
メディア情報間の空間的位置関係や同期情報等を記述す
るマルチメディア統合情報で構成される。特に動画像に
関しては、マルチメディア統合情報として、マルチメデ
ィア情報を識別するID情報(例えばHTTPにおける
URLなど)、それらが画面に配置される位置に関する
情報、再生時刻、再生期間を示す。このファイル・フォ
ーマットで構成されるコンテンツの配信ではマルチメデ
ィア統合情報と、動画像等のマルチメディア情報が受信
側に送信される。
一例としては、SMIL(Synchronized Multimedia In
tegration Language)がある。SMILはテキストで記
述され、基本的にはテキスト・エディタさえあればコン
テンツの編集が可能である。SMILで記述されるマル
チメディア統合情報としては、例えば2次元動画像ファ
イルが置かれているURL、2次元動画像の表示位置、
再生開始のタイミング、再生期間、表示領域の大きさが
ある。さらに、SMILでは2次元動画像だけではなく
2次元静止画像やテキストを、同期しつつ2次元画面内
にレイアウト表示することができる。従って、複数のマ
ルチメディア情報の同期や画面内レイアウトをテキスト
編集によって変更しコンテンツを作成できるという特徴
を持っている。
に投影するのが一般的である。そのため3次元画像をデ
ィスプレイに表示させる場合には、視点位置と視線方向
を何らかの方法で指定し、指定された視点位置、視線方
向における2次元画像が生成されて表示される。3次元
動画像は時間的に連続した3次元画像で構成され、表示
するディスプレイ上では2次元動画像として表示され
る。3次元動画像の技術を用いると、スポーツ、コンサ
ートや風景などを様々な視点から鑑賞でき、臨場感の高
い映像通信が可能になる。コンテンツ作成者の立場から
考えると、一つの3次元動画像から様々な2次元動画像
を作成できるので、コンテンツを編集する上での自由度
が高いというメリットがある。
統合ファイル・フォーマットの技術を用いて3次元動画
像から生成された2次元動画像を受信側に表示させる場
合、コンテンツ作成者が事前に2次元動画像を作成して
おき、そのファイルのURL等が記述されたマルチメデ
ィア統合情報ファイルとともに配信することになる。
者としては、コンテンツ編集時の非効率はできる限り避
けたいという要求がある。しかし、3次元動画像から2
次元動画像を受信側に表示させるときの視点位置、視線
方向を変更する場合、3次元動画像から所望の視点位
置、視線方向における2次元動画像を作成し直す必要が
あった。従って、コンテンツ編集の段階で視点位置や視
線方向に小さな変更を加えるだけでも手間がかかってい
た。
のであり、3次元動画像を表示する際の視点位置と視線
方向をマルチメディア統合情報ファイルの編集のみで修
正できるような3次元動画像の配信方法と装置を提供す
ることを目的とする。
達成するために、以下に述べるような特徴を有する手段
を採用している。
データを有するコンテンツ提供者の編集用端末で、3次
元動画像データが多視点動画像、全方位動画像、あるい
はその他の3次元動画像フォーマットの中で、どれに該
当するかを表す3次元動画像フォーマット情報を指定
し、3次元動画像データを2次元投影面に投影するため
に利用される視点位置情報を指定し、3次元動画像デー
タを2次元投影面に投影するために利用される視線方向
情報を指定するマルチメディア統合情報を編集する手順
と、コンテンツ提供者のサーバ装置が、該3次元動画像
データと共に該編集されたマルチメディア統合情報をコ
ンテンツ表示者の端末に提供する手順とを有することを
特徴とする3次元動画像データの提供方法。
ア統合情報を編集する手順では、マルチメディア統合情
報として、3次元動画像データを2次元投影面に投影し
表示する表示開始時刻情報または表示位置情報を指定す
ることを特徴とする請求項1に記載の3次元動画像デー
タの提供方法。
ア統合情報を編集する手順では、同一3次元動画像デー
タに対して、複数のマルチメディア統合情報によって複
数の視点位置情報と視線方向情報を指定することを特徴
とする請求項1または請求項2に記載の3次元動画像デ
ータの提供方法。
ア統合情報を編集する手順では、マルチメディア統合情
報として、表示開始時刻と表示開始時刻における視点位
置情報と視線方向情報と、終了時刻と終了時刻における
視点位置情報と視線方向情報と、表示開始時刻と終了時
刻の間の任意の時刻における視点位置情報と視線方向情
報を求める補間方法を指定することを特徴とする請求項
1から請求項3のいずれかに記載の3次元動画像データ
の提供方法。
ア統合情報を編集する手順では、マルチメディア統合情
報をテキストで記述することを特徴とする請求項1から
請求項4のいずれかに記載の3次元動画像データの提供
方法。
ア統合情報を編集する手順では、編集用端末が、他の編
集用端末との間で、マルチメディア統合情報を送受信し
てマルチメディア情報を編集することを特徴とする請求
項1から請求項5のいずれかに記載の3次元動画像の提
供方法。
ア統合情報をコンテンツ表示者の端末に提供する手順で
は、コンテンツ提供者のサーバ装置が、3次元動画像デ
ータとマルチメディア統合情報をコンテンツ表示者の端
末に通信手段で送信するかまたは蓄積媒体で配布するか
して提供することを特徴とする請求項1から請求項6の
いずれかに記載の3次元動画像データの提供方法。
ア統合情報をコンテンツ表示者の端末に提供する手順で
は、コンテンツ提供者のサーバ装置が、3次元動画像デ
ータを指定するID情報を有するマルチメディア統合情
報をコンテンツ表示者の端末に通信手段で送信するかま
たは蓄積媒体で配布するかして提供する手順と、該コン
テンツ表示者の端末が、該ID情報に対応した3次元動
画像データを該コンテンツ提供者のサーバ装置に通信手
段で要求するかまたは該蓄積媒体にアクセスした場合、
コンテンツ提供者のサーバ装置が、該要求されたID情
報に対応した3次元動画像データを送信するかまたは該
アクセスされた蓄積媒体が提供する手順とを有すること
を特徴とする請求項1から請求項6のいずれかに記載の
3次元動画像データの提供方法。
示者の端末が、コンテンツ提供者のサーバ装置またはコ
ンテンツ提供者から提供された蓄積媒体からマルチメデ
ィア統合情報と3次元動画像データを取得する手順と、
該マルチメディア統合情報で指定される3次元動画像フ
ォーマット情報に基づいて3次元動画像データを復号す
る手順と、該復号された3次元動画像データから該マル
チメディア統合情報で指定される視点位置情報と視線方
向情報または視点位置情報と視線方向情報と表示開始時
刻情報もしくは表示位置情報に基づいて2次元動画像を
生成する手順と、該生成された2次元動画像をディスプ
レイに表示する手順とを有することを特徴とする3次元
動画像データの表示方法。
表示者の端末が、コンテンツ提供者のサーバ装置または
コンテンツ提供者から提供された蓄積媒体からマルチメ
ディア統合情報と3次元動画像データを取得する手順
と、該マルチメディア統合情報で指定される3次元動画
像フォーマット情報に基づいて3次元動画像データを復
号する手順と、該マルチメディア統合情報で指定される
表示開始時刻と終了時刻、それらの時刻における視点位
置情報と視線方向情報、および補間方法情報に基づい
て、視点位置情報と視線方向情報の補間値を求める手順
と、該復号された3次元動画像データから該視点位置情
報と視線方向情報とその補間値に基づいて2次元動画像
を生成する手順と、該生成された2次元動画像をディス
プレイに表示する手順とを有することを特徴とする3次
元動画像データの表示方法。
ィア統合情報と3次元動画像データを取得する手順で
は、コンテンツ提供者のサーバ装置から、3次元動画像
データを指定するID情報を有するマルチメディア統合
情報を通信手段で受信するかまたは蓄積媒体で提供を受
けるかして取得する手順と、該ID情報に対応した3次
元動画像データを該コンテンツ提供者のサーバ装置に通
信手段で要求するかまたは該蓄積媒体にアクセスする手
順と、コンテンツ提供者のサーバ装置から、該要求した
ID情報に対応した3次元動画像データを受信して取得
するかまたは該アクセスした蓄積媒体から取得する手順
とを有することを特徴とする請求項9または請求項10
に記載の3次元動画像データの表示方法。
ィア情報、およびこのマルチメディア情報に関する3次
元動画像データが多視点動画像、全方位動画像、あるい
はその他の3次元動画像フォーマットの中でどれに該当
するかを表す3次元動画像フォーマット情報を指定し、
3次元動画像データを2次元投影面に投影するために利
用される視点位置情報を指定し、3次元動画像データを
2次元投影面に投影するために利用される視線方向情報
を指定するマルチメディア統合情報を記憶し、表示者の
端末に提供するサーバ装置と、該マルチメディア情報に
関するマルチメディア統合情報を編集する編集手段、お
よび該編集されたマルチメディア統合情報に基づいて該
マルチメディア情報を生成し表示する再生、表示手段を
有する編集用端末とを備えることを特徴とする3次元動
画像データの提供装置。
用端末を備え、該編集用端末は他の編集用端末との間で
マルチメディア統合情報を送受信してマルチメディア情
報を編集するものであることを特徴とする請求項12に
記載の3次元動画像データの提供装置。
提供者のサーバ装置から3次元動画像データとマルチメ
ディア統合情報を取得し、該マルチメディア統合情報で
指定される3次元動画像フォーマット情報と視点位置情
報と視線方向情報または3次元動画像フォーマット情報
と視点位置情報と視線方向情報と表示開始時刻情報もし
くは表示位置情報とを取得し、該3次元動画像フォーマ
ット情報に基づいて3次元動画像データを復号し、該視
点位置情報と視線方向情報またはに該視点位置情報と視
線方向情報と表示開始時刻情報もしくは表示位置情報基
づいて2次元動画像を生成する再生手段と、該生成され
た2次元動画像をディスプレイに表示するプレゼンテー
ション手段とを備えることを特徴とする3次元動画像デ
ータの表示端末。
提供者のサーバ装置から3次元動画像データとマルチメ
ディア統合情報を取得し、該マルチメディア統合情報で
指定される該3次元動画像フォーマット情報、表示開始
時刻と終了時刻、それらの時刻における視点位置情報と
視線方向情報、および補間方法情報を取得し、該3次元
動画像フォーマット情報に基づいて3次元動画像データ
を復号し、該表示開始時刻と終了時刻、それらの時刻に
おける視点位置情報と視線方向情報、および補間方法情
に基づいて視点位置情報と視線方向情報の補間値を求
め、該視点位置情報と視線方向情報の補間値に基づいて
2次元動画像を生成する再生手段と、該生成された2次
元動画像をディスプレイに表示するプレゼンテーション
手段とを備えることを特徴とする3次元動画像データの
表示端末。
像を生成する再生手段が、マルチメディア統合情報と3
次元動画像データを取得するのに際して、コンテンツ提
供者のサーバ装置から、3次元動画像データを指定する
ID情報を有するマルチメディア統合情報を通信手段で
受信するかまたは蓄積媒体で提供を受けるかして取得
し、該ID情報に対応した3次元動画像データを該コン
テンツ提供者のサーバ装置に通信手段で要求するかまた
は該蓄積媒体にアクセスし、コンテンツ提供者のサーバ
装置から、該要求したID情報に対応した3次元動画像
データを受信して取得するかまたは該アクセスした蓄積
媒体から取得するものであることを特徴とする請求項1
4または請求項15に記載の3次元動画像データの表示
端末。
ら請求項8のいずれかに記載の3次元動画像データの提
供方法における手順を、コンピュータに実行させるため
のプログラムとしたことを特徴とする3次元動画像デー
タの提供方法の実行プログラム。
ら請求項11のいずれかに記載の3次元動画像データの
表示方法における手順を、コンピュータに実行させるた
めのプログラムとしたことを特徴とする3次元動画像デ
ータの表示方法の実行プログラム。
ら請求項8のいずれかに記載の3次元動画像データの提
供方法における手順を、コンピュータに実行させるため
のプログラムとし、該プログラムを、該コンピュータが
読み取りできる記録媒体に記録したことを特徴とする3
次元動画像データの提供方法の実行プログラムを記録し
た記録媒体。
ら請求項11のいずれかに記載の3次元動画像データの
表示方法における手順を、コンピュータに実行させるた
めのプログラムとし、該プログラムを、該コンピュータ
が読み取りできる記録媒体に記録したことを特徴とする
3次元動画像データの表示方法の実行プログラムを記録
した記録媒体。
は、マルチメディア統合情報が視点位置情報や視線方向
情報を指定する順番は任意である。具体的には、マルチ
メディア統合情報のデータ構造上での順番、あるいはコ
ンテンツ提供者がマルチメディア統合情報を指定する際
の動作上の順番は任意である。例えば、マルチメディア
統合情報がテキストで記述されている場合、テキスト・
ファイル内で視点位置、視線方向、3次元動画像フォー
マット情報の順序でマルチメディア統合情報が記述され
ていても、3次元動画像フォーマット、視線方向、視点
位置の順番で記述されていても良い。あるいは、コンテ
ンツ提供者がコンテンツ編集の際、テキスト・エディタ
等で視点位置、視線方向、3次元動画像フォーマット情
報の順番で入力しても、3次元動画像フォーマット、視
線方向、視点位置の順番で入力しても良い。
ンテンツ表示者のディスプレイに表示する2次元動画像
を3次元動画像から生成する際、視点位置情報と視線方
向情報の指定、修正をマルチメディア統合情報の指定、
修正のみで実行できる。
ら生成された2次元動画像を生成し再生する際、3次元
動画像の中での表示開始時刻を指定できる。また、3次
元動画像から生成された2次元動画像をディスプレイに
表示する際の表示位置を指定できるため、所望のレイア
ウトで他のマルチメディア情報と並べて表示することが
できる。
ら2次元動画像を生成する際の視点位置と視線方向が時
刻に応じて切り替わるという効果を演出することができ
る。
ら2次元動画像を生成する際の視点位置と視線方向が時
刻に応じて連続的に変化するという効果を演出すること
ができる。
画像に関するマルチメディア統合情報をテキストで記述
することが可能になり、テキスト・エデイタ等で容易に
編集することが可能になる。
ンテンツ提供者が提供するコンテンツを複数のコンテン
ツ編集者が編集する際、コンテンツ編集者の間でマルチ
メディア統合情報のみを送受信すればコンテンツの編集
が行える。
テンツ提供者は上述の方法や手段で構成されたマルチメ
ディア統合情報と3次元動画像をコンテンツ表示者に提
供することにより、コンテンツ表示者にコンテンツを閲
覧させることができる。
請求項16の発明によれば、コンテンツ提供者がネット
ワークや蓄積媒体を介して提供したコンテンツを、コン
テンツ表示者が取得してコンテンツの表示を行うことが
できる。
て図を用いて詳細に説明する。
積媒体やネットワークを介した方法などが考えられる
が、コンテンツの提供に先立って行われるコンテンツ編
集の動作はいずれの場合も同様である。従って、コンテ
ンツを編集してコンテンツがコンテンツ提供者のサーバ
装置に蓄積されるまでの動作を最初に示す。その後に、
ネットワークを介してコンテンツの提供を行った場合の
データの送受信動作などについて、いくつかの実施形態
例を示す。また、以下の実施形態例ではマルチメディア
統合情報はテキスト・データで構成され、テキストによ
る記述におけるンンタックスとセマンティクスに関して
はSMILを応用する。具体的には、SMILで従来か
ら用いられているマルチメディア統合情報に関しては引
用し、3次元動画像に対応したエレメントと視点位置情
報などに対応したアトリビュートを本実施形態例で新た
に導入する。また、コンテンツを構成するファイルは、
マルチメディア統合情報が記述されたテキスト・ファイ
ル(以下、PLUS3Dファイル)とコンテンツに導入される
テキスト、オーディオ、動画像データなどの各々のマル
チメディア情報に関するファイルである。
について述べる。コンテンツが編集される際の構成とし
ては2通り示す(構成A、構成B)。構成Aではコンテ
ンツ提供者がコンテンツ編集と提供の両方を行い、構成
Bでは2つのコンテンツ編集者とコンテンツ提供者とが
それぞれ個別に存在し、通信回線を介して接続されてい
る。
る構成を示している。図1において、コンテンツ提供者
はコンテンツ配信を行うためのサーバ装置10を有して
いる。サーバ装置10には種々のマルチメディア情報を
格納したマルチメディア情報記憶手段10−1とマルチ
メディア統合情報ファイルを格納したマルチメディア統
合情報記憶手段10−2を備えている。さらに、コンテ
ンツ提供者は端末20を有しており、端末20にはマル
チメディア統合情報編集手段20−1、コンテンツ再生
手段20−2、プレゼンテーション手段20−3を備え
ている。マルチメディア統合情報編集手段20−1はPL
US3Dファイルに記述されたテキストをディスプレイに表
示し、PLUS3Dファイルを編集するための機能を持ってい
る。具体的には、この実施形態例ではマルチメディア統
合情報編集手段20−1はテキスト・エディタであると
する。一方、コンテンツ再生手段20−2はマルチメデ
ィア情報とPLUS3Dファイルを入力とし、圧縮符号化され
たマルチメディア情報の復号化を行い、PLUS3Dファイル
の記述に従って生成した画像データとオーディオ・デー
タをプレゼンテーション手段20−3に送る機能を持
つ。プレゼンテーション手段20−3はディスプレイと
スピーカーを備えており、コンテンツの鑑賞に利用され
る。
のサーバ装置10に備えられたマルチメディア情報記憶
手段10−1に記録された3次元動画像ファイルは、ar
tist.3dvというファイル名が付けられているとする。そ
して、コンテンツを鑑賞する際のディスプレイにはある
視点位置と視線方向から眺めた試合の2次元動画像(2
次元動画像1)と、別の視点位置と視線方向から眺めた
2次元動画像(2次元動画像2)をそれぞれ、図2の
(a)ように配置して表示するとする。さらに、このコ
ンテンツには2次元静止画像logo.gifとオーディオbgm.
wavも含まれており、3次元動画像が再生された後に2
次元静止画像は図2の(b)のように表示されてオーデ
ィオもスピーカーから出力されるとする。さらに、この
コンテンツに対応したPLUS3Dファイルexample1.plus3a
には図3に示すような記述がなされているとする。図3
において、点線の四角の中が3次元動画像に関する記述
である。“3dvideo”が3次元動画像に関するエレメン
ト名であり、アトリビュートの“src”、“id”、“reg
ion”、“title”に関してはSMILにおける定義を引
用する。さらに、本発明に対応した新たなアトリビュー
トとして、3次元動画像フォーマット、視点位置、視線
方向に関するアトリビュートが記述されている。まず、
ここでは3次元動画像フォーマットのアトリビュートを
formatと名づけた。これは3次元動画像が多視点動画
像、全方位動画像、光線空間動画像などの形式のうち、
どの形式を取るかを表す。なお、図3での“format=“m
ulti””はartist.3dvが多視点動画像であることを示し
ている。一方、視点位置のアトリビュートをfocusx、fo
cusy、focuszとした。ここでは、3次元動画像において
撮影されている3次元空間に3次直交座標系が定義され
ていると仮定しており、focusx、focusy、focuszはそれ
ぞれx軸、y軸、z軸の値であるとした。また、視線方
向のアトリビュートをaxistheta、axisphiとし、視線方
向に関しては極座標表現を導入している。なお、focus
x、focusy、focusz、axistheta、axisphiの概念図を図
4に示した。以下のコンテンツ提供者の動作例では、ex
ample.plus3dに視点位置情報と視点方向情報を記述した
後、example.plus3dにおける視点位置情報に修正を加え
ることとする。
ンテンツ編集における動作例を以下に示す。図10、1
1は、視点位置情報と視点方向情報により3次元動画像
から2次元動画像を提供する場合の基本的な処理手順を
示し、図12、13はその具体的な処理手順を示し、図
14は図12、13における2次元動画像の生成、表示
過程(S2)の詳細な処理手順を示す。また、視点位置
情報と視点方向情報と表示位置情報により3次元動画像
から2次元動画像を提供する場合の基本的な処理手順を
図15、図16に、その具体的な処理手順を図17、1
8に示す。図19、20は図17、18における2次元
動画像の生成、表示過程(S3)のオプション1の詳細
な処理手順を示し(ただし、図20は図19の一過程
(S3)の詳細フローを示す)、図21、22は図1
7、18における2次元動画像の生成、表示過程(S
3)のオプション2の詳細な処理手順を示す(ただし、
図22は図21の一過程(S3)の詳細フローを示
す)。なお、図中の(注1)、(注2)は以下を表す。
の処理、及び以降の図のフローチャートにおいて、コン
テンツ提供者側で3次元動画像から2次元動画像を生
成、表示する場合、これはプレビューを行っている処理
にあたる。つまり、入力された視点位置情報と視線方向
情報によって生成される2次元動画像がどのようになる
かを確認している。
の生成は従来技術を用いて実行できる。これらの従来技
術は、下記の公知文献に記載されており、これらの改良
技術は多数存在する。 ・S.E.Chen and L.Williams,“View interpolation for
Image Synthesis,”inProc.SlGGRAPH'93,pp.279-288.1
993(多視点画像) ・S.E.Chen,“Quicktime VR-An Image-based Approach
to Virtual EnvironmentNavigation,”In Proc.SlGGRAP
H'95,pp.29-38(全方位画像)・J.D.Foley,A.V.Dam,S.K
Feiner,J.F.Hughes,Computer Graphics:Principles an
d Practice,Addison-Wesley Publishing,1996(3次元
CGアニメーション)まず、コンテンツ提供者は、テキ
スト・エディタ20−1によりマルチメディア統合情報
記憶装置10−2に図3の左右の図のようなPLUS3Dファ
イルexample1.plus3dを書き込み、視点位置情報、視線
方向情報、表示位置情報(以降、表示位置情報は省略可
能であり、表示位置情報を用いない場合の処理手順は図
10〜図14、用いる場合の処理手順は図15〜図22
となる)を入力する。視点位置情報、視線方向情報、表
示位置情報の追加が必要であれば、プレゼンテーション
手段20−3により図3の左右の図を表示しながら、テ
キスト・エディタ20−1により追加する。
プレイに表示するという動作が行われる。まず、exampl
e.plus3d、artist.3dv、logo.gif、bgm.wavがコンテン
ツ再生手段20−2に入力される。次に、example.plus
3dの記述内容に従い、formatに対応した方法で3次元動
画像artist.3dvが復号化される。次に、復号化されたar
tist.3dvからfocusx、focusy、focusz、axistheta、axi
sphiの数値に従って2次元動画像が生成され、図2の
(a)に示したような映像がプレゼンテーション手段2
0−3のディスプレイに表示される。artist.3dvから生
成された2次元動画像の再生が終了すると、2次元静止
画像logo.gifが図2の(b)のようにディスプレイに表
示され、プレゼンテーション手段20−3のスピーカー
からオーディオが出力される。
像により、入力あるいは追加した視点位置情報、視線方
向情報、表示位置情報が現状のままでよいか判断し、修
正や追加が必要であれば、マルチメディア統合情報記憶
装置10−2に格納されたPLUS3Dファイルexample1.plu
s3dをテキスト・エディタ20−1に読み込んで、テキ
ストをプレゼンテーション手段20−3のディスプレイ
に表示する。すると、入力された図3の左右の図がディ
スプレイに表示される(ただし、点線の四角と矢印は表
示されない)。コンテンツ提供者は、例えば、視点位置
座標のz軸の値focusz=0をfocusz=10に修正するた
め、テキスト・エディタ20−1を用いて修正する。
に応じて繰り返される。最後に、example.plus3d、arti
st.3dv、logo.gif、bgm.wavがネットワークを介して送
信され(図10、12、15、17)、あるいは蓄積媒
体に記録(図11、13、16、18)されて配布され
るなどの過程を経てコンテンツ表示者に提供される。
向に関する情報としては簡単なものを用いたが、請求項
4,5によれば、コンテンツの再生が進行している中で
視点位置が変化するなどの効果も演出できる。ここで
は、このような効果を演出するための実施形態例を示
す。この実施形態例のコンテンツでは図2の(a)のよ
うに、3次元動画像から生成された二つの2次元動画像
を表示する。図2においての2次元動画像1はartist.3
dvから生成されたものであり、視点位置と視線方向がコ
ンテンツ再生の進行とともに変化するようにする。一
方、2次元動画像2はartist2.3dvというファイル名が
付けられた3次元動画像から生成され、視点位置と視線
方向は時間に関して不変であるとする。
キスト・エディタ20−1を用いて、PLUS3Dファイルに
図5に示すような記述を行う(ファイル名はexample2.p
lus3dとする)。図5においては、intepolationという
アトリビュートによって視点位置と視線方向の補間の有
無が指定される。ここではinterpolation=“true”で
あり、補間が行われる(デフォルトの値は“false”、
すなわち補間が行われない)。そして、interpolation
=“true”であった場合、コンテンツ編集者は以下に述
べるアトリビュートに関して値を定める。interpolatio
nTypeというアトリビュートは補間方法を現しており、
ここでは線形補間“linear”によって補間を行う(その
他の補間方法としてはスプライン補間などが考えられ
る)。さらに、コンテンツ提供者は3次元動画像の開始
時刻(clipBegin:3次元動画像artist2.3dvの最初から
何秒後の時点から再生を行うかを表す)と終了時刻(cl
ipEnd:3次元動画像artist2.3dvの最初から何秒後の時
点で再生を終了するかを表す)、およびそれぞれの時刻
における視点位置と視線方向(focusxBegin、focusyBeg
in、focuszBegin、axisthetaBegin、axisphiBegin、お
よびfocusxEnd、focusyEnd、focuszEnd、axisthetaEn
d、axisphiEnd)を図5の通りにexample2.plus3dに記述
する。
−3のディスプレイに表示する際には、まずコンテンツ
再生手段20−2にexample2.plus3d、artist.3dv、art
ist2.3dvが読み込まれ、formatに従ってartist.3dvとar
tist2.3dvが復号化される、そして、artist2.3dvは視点
位置と視線方向が固定された状態で2次元動画像が生成
され、ディスプレイに表示される。一方、artist2.3dv
については、開始時刻と終了時刻においての視点位置と
視線方向しか定められていない。従って、開始、終了時
刻の間の時間帯においてはinterpolationTypeアトリビ
ュートで指定された方法によって開始、終了時刻の視点
位置と視線方向による補間値が用いられる。つまり、コ
ンテンツ再生手段20−2においてこれら補間値が計算
され、補間値をもとにartist.3dvから2次元動画像が生
成される。最後にプレゼンテーション手段20−3のデ
ィスプレイに図2の(a)のように、ここで生成された
2次元動画像が表示される。
は構成Bの実施形態例においての全体構成を示してい
る。
供者とコンテンツ編集者Aとコンテンツ編集者Bは通信
回線を介して接続されている。コンテンツ提供者はサー
バ装置10を有しており、これは構成Aの場合と同様の
手段を備えている。一方、コンテンツ編集者Aは端末3
0においてマルチメディア統合情報編集手段30−1、
コンテンツ再生手段30−2、プレゼンテーション手段
30−3、マルチメディア統合情報記憶手段30−4
を、コンテンツ編集者Bは端末40においてマルチメデ
ィア統合情報編集手段30−1、コンテンツ再生手段3
0−2、プレゼンテーション30−3、マルチメディア
統合情報記憶手段30−4を有しているが、これらが果
たす機能は図1において示した同名の手段と同様であ
る。また、構成Bにおいてはexample.plus3dを用いたコ
ンテンツを編集する場合を示すとする。なお、example
2.plus3dによるコンテンツの編集も以下に示す動作例と
同様に行える。
作例を示す。本動作例においても、編集者端末間でマル
チメディア統合情報を送受信して編集する点を除けば、
各端末での処理手順は基本的に図10〜図22に示した
フローチャートに示した処理手順を行う。
ツ編集者Aが図3に示した記述をexample.plus3dにすで
に行っているとする。また、コンテンツ編集者Aのマル
チメディア統合情報記憶手段30−4にはexample.plus
3dが格納されているが、コンテンツ提供者とコンテンツ
編集者Bのマルチメディア統合情報記憶手段にはexampl
e.plus3dは格納されていないとする。一方、コンテンツ
提供者のマルチメディア情報記憶手段10−1にはarti
st.3dv、logo.gif、bgm.wavが格納されているとする。
動作例の大まかな流れとしては、コンテンツ編集者Bが
このコンテンツを一度鑑賞し、修正を加え、最後にコン
テンツ提供者のサーバ装置10にコンテンツが蓄積され
る。
では、まずコンテンツ編集者Aはマルチメディア統合情
報記憶手段30−4に格納されたexample.plus3dをコン
テンツ編集者Bに送信する。コンテンツ編集者Bはexam
ple.plus3dを受信すると、artist.3dv、logo.gif、bgm.
wavをコンテンツ提供者のサーバ装置10に要求する。
コンテンツ編集者Bがartist.3dv、logo.gif、bgm.wav
を受信し、コンテンツを構成する一連のファイルが揃う
と、これらのファイルはコンテンツ再生手段40−2に
入力される。すると、プレゼンテーション手段40−3
によりコンテンツが表示されるが、ここでの動作は構成
Aの場合と同様である。次にコンテンツ編集者Bはexam
ple.plus3dをマルチメディア統合情報編集手段40−1
に入力し、コンテンツの修正を行う。最後に、コンテン
ツ編集者Bはexample.plus3dをコンテンツ提供者のサー
バ装置10に送信し、example.plus3dはマルチメディア
統合情報記憶手段10−2に記録される。なお、コンテ
ンツ編集者Aとコンテンツ編集者Aの間でのexample.pl
us3dの送受信や修正は必要に応じて繰り返されてもよ
い。
コンテンツを提供したとき、このサービスを受ける(コ
ンテンツを取得して閲覧する)立場のコンテンツ表示者
とコンテンツ提供者の動作について述べる。ここでは、
3通りの提供方法(方法A,B,C)について示す。図
7は方法A、図8は方法B,Cにおいての構成図を示
す。コンテンツ提供者のサーバ装置10とコンテンツ表
示者の端末50は通信回線(インターネット)を介して
接続しており、図における矢印は情報の流れを表してい
る。サーバ装置10におけるHTML文書記憶手段10
−3にはHTML文書が格納されており、このHTML
文書にはコンテンツ提供者が保有しているコンテンツに
関する情報などが含まれている。また、端末50におけ
るHTMLコンテンツ表示手段はHTML文書の記述に
従ってHTMLコンテンツ画像をプレゼンテーション手
段50−3に送る、あるいはハイパーリンクに対応した
ファイルの要求を送信する機能を果たす。端末50のコ
ンテンツ再生手段50−1とプレゼンテーション手段5
0−3は図1に示した手段と同様の機能を果たすもので
ある。
す。図23、24は、視点位置情報と視点方向情報によ
り3次元動画像から2次元動画像を表示する場合の基本
的な処理手順を示す。また、視点位置情報と視点方向情
報と表示位置情報により3次元動画像から2次元動画像
を表示する場合の基本的な処理手順を図25、図26に
示し、図25、図26における2次元動画像の表示過程
(S2)の詳細な処理手順を図29に示す。また、3次
元動画像から2次元動画像を表示する場合の別の基本的
な処理手順を図27、図28に示し、図27、図28に
おける2次元動画像の表示過程(S2)の詳細な処理手
順を図30に示す。なお、図中の(注2)は、前述のと
おりである。
ーバ装置10のHTML文書記憶装置10−3に格納さ
れたHTML文書を取得すると、HTMLコンテンツ表
示手段50−2によりHTMLコンテンツが図9のよう
に表示される。この図では“LIVE3D”という文字の下に
3つの静止画像が表示されており、コンテンツ表示者は
所望のコンテンツに対応した静止画像を、マウス等を用
いて指定する。すると、コンテンツ表示者の選択に関す
る情報がコンテンツ提供者のサーバ装置10に送信され
る。以降の動作に関しては3通り(方法A,B,C)あ
り、以下にてそれぞれについて述べる。
ーバ装置10はPLUS3Dファイルexample.plus3d、artis
t.3dv、logo.gif、bgm.wavをコンテンツ表示者に送信す
る。example.plus3d、artist.3dv、logo.gif、bgm.wav
がコンテンツ表示者側で受信されると、これらのファイ
ルはコンテンツ再生手段40−1に入力されて前記の種
々の処理が施される(図23、図25)。最後に、プレ
ゼンテーション手段50−3によってコンテンツ提示者
はコンテンツを鑑賞できる。コンテンツが蓄積媒体とし
て配布された場合には、蓄積媒体からPLUS3Dファイルを
読み込んで同様に処理する(図24、図26)。
者のサーバ装置10はPLUS3Dファイルexample.plus3dの
みをコンテンツ表示者に送信する。コンテンツ表示者が
example.plus3dを受信すると、このファイルはコンテン
ツ再生手段50−3に入力され、このコンテンツに含ま
れるマルチメディア情報のURLが探索される。図3で
はURLは相対URLとして記述されており、artist.3
dv、logo.gif、bgm.wavがそれにあたる。次に、artist.
3dv、logo.gif、bgm.wavのURLを指定した情報がコン
テンツ提供者に送信される。これを受信したコンテンツ
提供者のサーバ装置10はartist.3dv、logo.gif、bgm.
wavをコンテンツ表示者に送信する。すると、コンテン
ツを構成する全てのファイルが揃うため、方法Aと同様
の方法でプレゼンテーション手段50−3によりコンテ
ンツの鑑賞ができる(図27)。コンテンツが蓄積媒体
として配布された場合には、蓄積媒体からPLUS3Dファイ
ルを読み込んで同様にアクセスと読み込みの処理をする
(図28)。
Bと同様に、コンテンツ提供者のサーバ装置10はPLUS
3Dファイルexample.plus3dをコンテンツ表示者に送信さ
れてコンテンツ表示者はartist.3dv、logo.gif、bgm.wa
vをコンテンツ提供者に要求するが、これらのファイル
はコンテンツの再生中の必要なときに要求される。具体
的には、本実施形態例のコンテンツではartist.3dvが最
初にディスプレイに表示されため、まずartist.3dvのU
RLを指定した情報がコンテンツ提供者に送信され、こ
の情報を受け取ったコンテンツ提供者がartist.3dvをコ
ンテンツ表示者に送信する。artist.3dvをコンテンツ提
供者が受信すると、example.plus3dにおいて記述された
マルチメディア統合情報に従って2次元動画像が生成さ
れ、ディスプレイに図2の(a)のように表示される。
一方、logo.gifがディスプレイに表示され、bgm.wavが
再生される時刻が近づくと、コンテンツ表示者のコンテ
ンツ再生手段50−1がlogo.gif、bgm.wavのURLを
指定した情報を送信し、これらのファイルを要求する。
コンテンツ提供者は、この情報を受信するとlogo.gifと
bgm.wavを送信し、これを受信したコンテンツ提供者側
ではコンテンツ再生手段50−1がプレゼンテーション
手段50−3のディスプレイに図2の(b)の通りに画
像を表示させ、スピーカーにオーディオを出力させる
(図27)。コンテンツが蓄積媒体として配布された場
合には、蓄積媒体からPLUS3Dファイルを読み込んで同様
にアクセスと読み込みの処理をする(図28)。
トにclipBeginとclipEndを記述した場合には以下のよう
な処理が行われる。方法Aで、このようなマルチメディ
ア統合情報をコンテンツ表示者が受信した時には、受信
する3次元動画像データのうちclipBeginとclipEndで指
定される区間のみ表示する。方法BおよびCでは、3次
元動画像データartist.3dv全体をサーバ装置10に要求
する場合と、clipBeginとclipEndで指定される3次元動
画像データのみをサーバ装置10に要求する場合があ
る。後者の場合は、clipBeginとclipEndで指定される3
次元動画像データのみ、あるいは3次元動画像データ全
体を受信し、clipBeginとclipEndで指定される区間のみ
表示する。
化するために、3次元動画像自体をコンテンツ表示者に
提供するという方法をとっている。これは一見冗長であ
るが、従来の3次元動画像技術を用いれば受信者が視点
位置などをコンテンツ閲覧時に実時間で変更するなどが
可能であり、冗長な部分は有効に利用されうる。
提供されている際にコンテンツ表示者側の通信回線の帯
域が狭い場合や、コンテンツ再生手段が3次元動画像か
ら2次元動画像を生成するプログラムを備えていない場
合、コンテンツ送信時にのみ実時間でコンテンツを変換
することが考えうる。この場合、コンテンツ提供者、あ
るいは別のサービス提供者がコンテンツ変換手段を持
ち、コンテンツを構成するファイルexample.plus3d、ar
tist,3dv、logo.gif、bgm.wavはコンテンツ表示者に届
く前にコンテンツ変換手段に入力される。コンテンツ変
換手段は、example.plus3dに記述された視点位置情報と
視線方向情報をもとにartist.3dvから二つの2次元動画
像(ファイル名をartistA.mpg、artistB.mpgとする)を
生成してコンテンツ表示者に送信すると同時に、exampl
e.plus3dをartistA.mpg、artistB.mpgに対応するように
変換してexample.plus3d、artistA.mpg、artistB.mpg、
logo.gif、bgm.wavをコンテンツ表示者に送信する。こ
の方法によれば、コンテンツ表示者は2次元動画像を受
信して再生すればよい。また、コンテンツ変換は実時間
で送信時のみに行う処理なので、コンテンツ編集を行っ
た度にコンテンツ変換を施したPLUS3Dファイルとマルチ
メディア情報を作成しておく必要はない。
テンツ表示手段からの出力とコンテンツ再生手段からの
出力を表示する。しかし、プレゼンテーション手段を複
数備え、HTMLコンテンツ表示手段からの出力とコン
テンツ再生手段からの出力を別々に、例えば別々のディ
スプレイやウィンドウで表示することも可能である。
ではなくバイナリ化しても良い。バイナリ化には可変長
符号化や算術符号化を適用することが出来る。
ら配信される例を示したが、マルチメディア情報は複数
サーバに蓄積しておいて配信する構成も可能である。ま
た動画像データについては、実時間でカメラから撮影さ
れた動画像を実時間で符号化して配信してもよい。
報とマルチメディア情報を同時に配信する構成では、マ
ルチメディア統合情報またはマルチメディア情報の提供
方法として、通信ではなく放送やDVD等の蓄積媒体に
よる方法も可能である。更に、マルチメディア情報とマ
ルチメディア統合情報を別々の方法で提供することも可
能である。例えばマルチメディア情報を放送で提供しマ
ルチメディア統合情報を通信で提供することも可能であ
る。この場合には、複数のコンテンツ表示者に対して、
それぞれ個別に適したレイアウトでマルチメディア情報
を表示することができる。
集・修正のみで、3次元動画像コンテンツをディスプレ
イに表示するときの見え方を設定できる。すなわち、ポ
イントとしてはコンテンツ提供者がコンテンツを編集す
るときの作業を効率化できるところにある。具体例をあ
げると、例えば以下のような場面で効率化をはかること
ができる。複数の人数でコンテンツを編集している場合
(それぞれの編集者が3次元動画像データを保持してい
るとする)、それぞれの編集者の間で各人が編集したコ
ンテンツのやり取りがネットワークを介して行われると
思われる。このとき、送受信すればよいのはマルチメデ
ィア統合情報のみであり、編集を行って送信する都度2
次元動画像を生成して圧縮符号化を施すという作業や、
やりとりするデータの量の意味で効率化をはかることが
できる。
ィア統合情報を利用したコンテンツの提供方法において
は、符号化された3次元動画像データを保有するコンテ
ンツ提供者(あるいはコンテンツ編集者)が3次元動画
像データから生成される2次元動画像を提供する場合、
次の動作を行う。コンテンツ提供者(あるいはコンテン
ツ編集者)は3次元動画像データの復号化、視点位置情
報と視線方向情報の指定を行い、2次元動画像を生成し
てそれを符号化する。コンテンツ提供者は、この符号化
された2次元動画像データとマルチメディア統合情報を
蓄積媒体、あるいはネットワークを介して提供する。す
なわち、コンテンツが提供される前に視点位置と視線方
向を変更するということを行うとすると、その都度2次
元動画像を符号化することになる。一方、本発明では、
事前に保有していた3次元動画像データとマルチメディ
ア統合情報を提供すればよく、前記の従来技術の動作に
含まれていた2次元動画像を符号化するという動作がな
くなり、コンテンツ提供者(あるいはコンテンツ編集
者)の作業量を削減できる。
関し、従来の方法ではコンテンツ編集者Aはコンテンツ
編集者Bにマルチメディア統合情報と2次元動画像デー
タを送信しなければならなかった。一般的には二人以上
のコンテンツ編集者の各々が編集したコンテンツを幾度
も送受信し合うことが考えられるため、そのたびに各々
のコンテンツ編集者は2次元動画像を符号化して送信す
る必要があった。一方、本発明によればコンテンツ編集
者はマルチメディア統合情報のみを送受信すればよいの
で、各々のコンテンツ編集者が2次元動画像を符号化し
て送信するという動作を必要としない。
ツの提供装置やコンテンツの表示端末における各部の一
部もしくは全部の機能をコンピュータのプログラムで構
成し、そのプログラムをコンピュータを用いて実行して
本発明を実現することができること、あるいは、図11
〜図30で示したコンテンツの提供方法やコンテンツの
表示方法における処理手順をコンピュータのプログラム
で構成し、そのプログラムをコンピュータに実行させる
ことができることは言うまでもなく、コンピュータでそ
の機能を実現するためのプログラム、あるいは、コンピ
ュータにその処理手順を実行させるためのプログラム
を、そのコンピュータが読み取り可能な記録媒体、例え
ば、FD(フロッピーディスク(登録商標))や、M
O、ROM、メモリカード、CD、DVD、リムーバブ
ルディスクなどに記録して、保存したり、配布したりす
ることが可能である。また、上記のプログラムをインタ
ーネットや電子メールなど、ネットワークを通して提供
することも可能である。
を3次元動画像データと共に提供することが可能となる
ため、コンテンツ提供者は、3次元動画像データから2
次元動画像を生成する際の視点位置や視線方向の修正
で、マルチメディア統合情報の編集を行えはよく、2次
元動画像を生成し3次元動画像データを再符号化する作
業は必要ない。従って、コンテンツ提供者が3次元動画
像データを編集する際の作業の効率化を図ることができ
る。
提供者の構成を示す図である。
ンテンツ表示例を示す図である。
念図である。
る。
提供者の構成を示す図である。
示者に提供する際の一方法(方法A)においての全体構
成図である。
示者に提供する際の一方法(方法B,C)においての全
体構成図である。
HTMLコンテンツの一例を示す図である。
本的な実施形態例を示すフローチャートである。
の基本的な実施形態例を示すフローチャートである。
体的な実施形態例を示すフローチャートである。
の具体的な実施形態例を示すフローチャートである。
過程の詳細手順を示すフローチャートである。
示位置情報を追加した場合の基本的な実施形態例を示す
フローチャートである。
で表示位置情報を追加した場合の基本的な実施形態例を
示すフローチャートである。
示位置情報を追加した場合の具体的な実施形態例を示す
フローチャートである。
で表示位置情報を追加した場合の具体的な実施形態例を
示すフローチャートである。
過程の詳細手順(オプション1)を示すフローチャート
である。
細手順を示すフローチャートである。
過程の詳細手順(オプション2)を示すフローチャート
である。
細手順を示すフローチャートである。
実施形態例を示すフローチャートである。
Aの実施形態例を示すフローチャートである。
表示位置情報を追加した場合の実施形態例を示すフロー
チャートである。
Aで表示位置情報を追加した場合の実施形態例を示すフ
ローチャートである。
Cの実施形態例を示すフローチャートである。
でB,Cで表示位置情報を追加した場合の実施形態例を
示すフローチャートである。
過程の詳細手順を示すフローチャートである。
過程の詳細手順を示すフローチャートである。
Claims (20)
- 【請求項1】 3次元動画像データを有するコンテンツ
提供者の編集用端末で、3次元動画像データが多視点動
画像、全方位動画像、あるいはその他の3次元動画像フ
ォーマットの中で、どれに該当するかを表す3次元動画
像フォーマット情報を指定し、3次元動画像データを2
次元投影面に投影するために利用される視点位置情報を
指定し、3次元動画像データを2次元投影面に投影する
ために利用される視線方向情報を指定するマルチメディ
ア統合情報を編集する手順と、 コンテンツ提供者のサーバ装置が、該3次元動画像デー
タと共に該編集されたマルチメディア統合情報をコンテ
ンツ表示者の端末に提供する手順とを有することを特徴
とする3次元動画像データの提供方法。 - 【請求項2】 マルチメディア統合情報を編集する手順
では、 マルチメディア統合情報として、3次元動画像データを
2次元投影面に投影し表示する表示開始時刻情報または
表示位置情報を指定することを特徴とする請求項1に記
載の3次元動画像データの提供方法。 - 【請求項3】 マルチメディア統合情報を編集する手順
では、 同一3次元動画像データに対して、複数のマルチメディ
ア統合情報によって複数の視点位置情報と視線方向情報
を指定することを特徴とする請求項1または請求項2に
記載の3次元動画像データの提供方法。 - 【請求項4】 マルチメディア統合情報を編集する手順
では、 マルチメディア統合情報として、表示開始時刻と表示開
始時刻における視点位置情報と視線方向情報と、終了時
刻と終了時刻における視点位置情報と視線方向情報と、
表示開始時刻と終了時刻の間の任意の時刻における視点
位置情報と視線方向情報を求める補間方法を指定するこ
とを特徴とする請求項1から請求項3のいずれかに記載
の3次元動画像データの提供方法。 - 【請求項5】 マルチメディア統合情報を編集する手順
では、 マルチメディア統合情報をテキストで記述することを特
徴とする請求項1から請求項4のいずれかに記載の3次
元動画像データの提供方法。 - 【請求項6】 マルチメディア統合情報を編集する手順
では、 編集用端末が、他の編集用端末との間で、マルチメディ
ア統合情報を送受信してマルチメディア情報を編集する
ことを特徴とする請求項1から請求項5のいずれかに記
載の3次元動画像の提供方法。 - 【請求項7】 マルチメディア統合情報をコンテンツ表
示者の端末に提供する手順では、コンテンツ提供者のサ
ーバ装置が、3次元動画像データとマルチメディア統合
情報をコンテンツ表示者の端末に通信手段で送信するか
または蓄積媒体で配布するかして提供することを特徴と
する請求項1から請求項6のいずれかに記載の3次元動
画像データの提供方法。 - 【請求項8】 マルチメディア統合情報をコンテンツ表
示者の端末に提供する手順では、 コンテンツ提供者のサーバ装置が、3次元動画像データ
を指定するID情報を有するマルチメディア統合情報を
コンテンツ表示者の端末に通信手段で送信するかまたは
蓄積媒体で配布するかして提供する手順と、 該コンテンツ表示者の端末が、該ID情報に対応した3
次元動画像データを該コンテンツ提供者のサーバ装置に
通信手段で要求するかまたは該蓄積媒体にアクセスした
場合、コンテンツ提供者のサーバ装置が、該要求された
ID情報に対応した3次元動画像データを送信するかま
たは該アクセスされた蓄積媒体が提供する手順とを有す
ることを特徴とする請求項1から請求項6のいずれかに
記載の3次元動画像データの提供方法。 - 【請求項9】 コンテンツ表示者の端末が、 コンテンツ提供者のサーバ装置またはコンテンツ提供者
から提供された蓄積媒体からマルチメディア統合情報と
3次元動画像データを取得する手順と、 該マルチメディア統合情報で指定される3次元動画像フ
ォーマット情報に基づいて3次元動画像データを復号す
る手順と、 該復号された3次元動画像データから該マルチメディア
統合情報で指定される視点位置情報と視線方向情報また
は視点位置情報と視線方向情報と表示開始時刻情報もし
くは表示位置情報に基づいて2次元動画像を生成する手
順と、 該生成された2次元動画像をディスプレイに表示する手
順とを有することを特徴とする3次元動画像データの表
示方法。 - 【請求項10】 コンテンツ表示者の端末が、 コンテンツ提供者のサーバ装置またはコンテンツ提供者
から提供された蓄積媒体からマルチメディア統合情報と
3次元動画像データを取得する手順と、 該マルチメディア統合情報で指定される3次元動画像フ
ォーマット情報に基づいて3次元動画像データを復号す
る手順と、 該マルチメディア統合情報で指定される表示開始時刻と
終了時刻、それらの時刻における視点位置情報と視線方
向情報、および補間方法情報に基づいて、視点位置情報
と視線方向情報の補間値を求める手順と、 該復号された3次元動画像データから該視点位置情報と
視線方向情報とその補間値に基づいて2次元動画像を生
成する手順と、 該生成された2次元動画像をディスプレイに表示する手
順とを有することを特徴とする3次元動画像データの表
示方法。 - 【請求項11】 マルチメディア統合情報と3次元動画
像データを取得する手順では、 コンテンツ提供者のサーバ装置から、3次元動画像デー
タを指定するID情報を有するマルチメディア統合情報
を通信手段で受信するかまたは蓄積媒体で提供を受ける
かして取得する手順と、 該ID情報に対応した3次元動画像データを該コンテン
ツ提供者のサーバ装置に通信手段で要求するかまたは該
蓄積媒体にアクセスする手順と、 コンテンツ提供者のサーバ装置から、該要求したID情
報に対応した3次元動画像データを受信して取得するか
または該アクセスした蓄積媒体から取得する手順とを有
することを特徴とする請求項9または請求項10に記載
の3次元動画像データの表示方法。 - 【請求項12】 マルチメディア情報、およびこのマル
チメディア情報に関する3次元動画像データが多視点動
画像、全方位動画像、あるいはその他の3次元動画像フ
ォーマットの中でどれに該当するかを表す3次元動画像
フォーマット情報を指定し、3次元動画像データを2次
元投影面に投影するために利用される視点位置情報を指
定し、3次元動画像データを2次元投影面に投影するた
めに利用される視線方向情報を指定するマルチメディア
統合情報を記憶し、表示者の端末に提供するサーバ装置
と、 該マルチメディア情報に関するマルチメディア統合情報
を編集する編集手段、および該編集されたマルチメディ
ア統合情報に基づいて該マルチメディア情報を生成し表
示する再生、表示手段を有する編集用端末とを備えるこ
とを特徴とする3次元動画像データの提供装置。 - 【請求項13】 複数の編集用端末を備え、 該編集用端末は他の編集用端末との間でマルチメディア
統合情報を送受信してマルチメディア情報を編集するも
のであることを特徴とする請求項12に記載の3次元動
画像データの提供装置。 - 【請求項14】 コンテンツ提供者のサーバ装置から3
次元動画像データとマルチメディア統合情報を取得し、
該マルチメディア統合情報で指定される3次元動画像フ
ォーマット情報と視点位置情報と視線方向情報または3
次元動画像フォーマット情報と視点位置情報と視線方向
情報と表示開始時刻情報もしくは表示位置情報とを取得
し、該3次元動画像フォーマット情報に基づいて3次元
動画像データを復号し、該視点位置情報と視線方向情報
または該視点位置情報と視線方向情報と表示開始時刻情
報もしくは表示位置情報に基づいて2次元動画像を生成
する再生手段と、 該生成された2次元動画像をディスプレイに表示するプ
レゼンテーション手段とを備えることを特徴とする3次
元動画像データの表示端末。 - 【請求項15】 コンテンツ提供者のサーバ装置から3
次元動画像データとマルチメディア統合情報を取得し、
該マルチメディア統合情報で指定される該3次元動画像
フォーマット情報、表示開始時刻と終了時刻、それらの
時刻における視点位置情報と視線方向情報、および補間
方法情報を取得し、該3次元動画像フォーマット情報に
基づいて3次元動画像データを復号し、該表示開始時刻
と終了時刻、それらの時刻における視点位置情報と視線
方向情報、および補間方法情に基づいて視点位置情報と
視線方向情報の補間値を求め、該視点位置情報と視線方
向情報の補間値に基づいて2次元動画像を生成する再生
手段と、 該生成された2次元動画像をディスプレイに表示するプ
レゼンテーション手段とを備えることを特徴とする3次
元動画像データの表示端末。 - 【請求項16】 2次元動画像を生成する再生手段が、 マルチメディア統合情報と3次元動画像データを取得す
るのに際して、コンテンツ提供者のサーバ装置から、3
次元動画像データを指定するID情報を有するマルチメ
ディア統合情報を通信手段で受信するかまたは蓄積媒体
で提供を受けるかして取得し、該ID情報に対応した3
次元動画像データを該コンテンツ提供者のサーバ装置に
通信手段で要求するかまたは該蓄積媒体にアクセスし、
コンテンツ提供者のサーバ装置から、該要求したID情
報に対応した3次元動画像データを受信して取得するか
または該アクセスした蓄積媒体から取得するものである
ことを特徴とする請求項14または請求項15に記載の
3次元動画像データの表示端末。 - 【請求項17】 請求項1から請求項8のいずれかに記
載の3次元動画像データの提供方法における手順を、コ
ンピュータに実行させるためのプログラムとしたことを
特徴とする3次元動画像データの提供方法の実行プログ
ラム。 - 【請求項18】 請求項9から請求項11のいずれかに
記載の3次元動画像データの表示方法における手順を、
コンピュータに実行させるためのプログラムとしたこと
を特徴とする3次元動画像データの表示方法の実行プロ
グラム。 - 【請求項19】 請求項1から請求項8のいずれかに記
載の3次元動画像データの提供方法における手順を、コ
ンピュータに実行させるためのプログラムとし、 該プログラムを、該コンピュータが読み取りできる記録
媒体に記録したことを特徴とする3次元動画像データの
提供方法の実行プログラムを記録した記録媒体。 - 【請求項20】 請求項9から請求項11のいずれかに
記載の3次元動画像データの表示方法における手順を、
コンピュータに実行させるためのプログラムとし、 該プログラムを、該コンピュータが読み取りできる記録
媒体に記録したことを特徴とする3次元動画像データの
表示方法の実行プログラムを記録した記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002120310A JP4017436B2 (ja) | 2002-04-23 | 2002-04-23 | 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002120310A JP4017436B2 (ja) | 2002-04-23 | 2002-04-23 | 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003317110A true JP2003317110A (ja) | 2003-11-07 |
JP4017436B2 JP4017436B2 (ja) | 2007-12-05 |
Family
ID=29536571
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002120310A Expired - Fee Related JP4017436B2 (ja) | 2002-04-23 | 2002-04-23 | 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4017436B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012035691A1 (ja) * | 2010-09-13 | 2012-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、動画像ファイルのデータ構造、データ圧縮装置、データ復号装置、データ圧縮方法、データ復号方法、および圧縮動画像ファイルのデータ構造 |
JP2012060611A (ja) * | 2010-09-13 | 2012-03-22 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、および動画像ファイルのデータ構造 |
JP2013081232A (ja) * | 2012-12-11 | 2013-05-02 | Toshiba Corp | 映像出力制御装置及び映像出力制御方法 |
JP2014527373A (ja) * | 2011-09-14 | 2014-10-09 | ゼットティーイー コーポレイション | マルチメディアメッセージでの3dピクチャーを伝送する方法及びシステム |
-
2002
- 2002-04-23 JP JP2002120310A patent/JP4017436B2/ja not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012035691A1 (ja) * | 2010-09-13 | 2012-03-22 | 株式会社ソニー・コンピュータエンタテインメント | 画像処理装置、画像処理方法、動画像ファイルのデータ構造、データ圧縮装置、データ復号装置、データ圧縮方法、データ復号方法、および圧縮動画像ファイルのデータ構造 |
JP2012060611A (ja) * | 2010-09-13 | 2012-03-22 | Sony Computer Entertainment Inc | 画像処理装置、画像処理方法、および動画像ファイルのデータ構造 |
US9218640B2 (en) | 2010-09-13 | 2015-12-22 | Sony Corporation | Image processing device for displaying moving image and image processing method thereof |
US9607357B2 (en) | 2010-09-13 | 2017-03-28 | Sony Corporation | Image processing device for displaying moving image and image processing method thereof |
JP2014527373A (ja) * | 2011-09-14 | 2014-10-09 | ゼットティーイー コーポレイション | マルチメディアメッセージでの3dピクチャーを伝送する方法及びシステム |
JP2013081232A (ja) * | 2012-12-11 | 2013-05-02 | Toshiba Corp | 映像出力制御装置及び映像出力制御方法 |
Also Published As
Publication number | Publication date |
---|---|
JP4017436B2 (ja) | 2007-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5022443B2 (ja) | 立体映像コンテンツ再生に利用されるメタデータの復号化方法 | |
US8868465B2 (en) | Method and system for publishing media content | |
US11094130B2 (en) | Method, an apparatus and a computer program product for video encoding and video decoding | |
US20200389640A1 (en) | Method and device for transmitting 360-degree video by using metadata related to hotspot and roi | |
JP7072649B2 (ja) | 高品質のエクスペリエンスのためのオーディオメッセージの効率的な配信および使用のための方法および装置 | |
US11943421B2 (en) | Method, an apparatus and a computer program product for virtual reality | |
JP5121935B2 (ja) | LASeRベースの端末のためのステレオスコピック3D映像コンテンツの提供装置及び方法 | |
JPWO2002037841A1 (ja) | デジタル映像コンテンツの配信システム及び再生方法並びにその再生プログラムを記録した記録媒体 | |
JP2005513831A (ja) | 多数の異種装置に配信するためのマルチメディアデータの変換 | |
JP2015187797A (ja) | 画像データ生成装置および画像データ再生装置 | |
US20030001948A1 (en) | Content distribution system and distribution method | |
TWI716418B (zh) | 資訊處理裝置、資料配訊伺服器、資訊記錄媒體、及資訊處理方法、及程式產品 | |
EP3777184A2 (en) | A method, an apparatus and a computer program product for virtual reality | |
WO2021065277A1 (ja) | 情報処理装置、再生処理装置及び情報処理方法 | |
US20220303641A1 (en) | Information processing device and information processing method | |
TW202133610A (zh) | 基於網路之媒體處理應用中利用軌道推導產生新軌道之方法和裝置 | |
US20220150296A1 (en) | Method and apparatus for grouping entities in media content | |
JP4017436B2 (ja) | 3次元動画像データの提供方法とその表示方法、該提供システムと該表示端末、該方法の実行プログラム、および該方法の実行プログラムを記録した記録媒体 | |
JP2002176638A (ja) | データ通信システムおよび装置、データ通信方法、記録媒体 | |
US11722751B2 (en) | Method, an apparatus and a computer program product for video encoding and video decoding | |
Jamil et al. | Overview of JPEG Snack: A Novel International Standard for the Snack Culture | |
US8117241B2 (en) | Method and apparatus for generating media-exchangeable multimedia data and method and apparatus for reconstructing media-exchangeable multimedia data | |
JP2024510139A (ja) | メディアストリーミング及び再生中のプレロール及びミッドロールをサポートするための方法、装置及びコンピュータプログラム | |
JP2006189936A (ja) | 出版物発行配信システム | |
VRT et al. | First Version of Playout Clients |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070227 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070501 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070911 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070918 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100928 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110928 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120928 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130928 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |