JP6027272B2 - 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル - Google Patents

2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル Download PDF

Info

Publication number
JP6027272B2
JP6027272B2 JP2015556869A JP2015556869A JP6027272B2 JP 6027272 B2 JP6027272 B2 JP 6027272B2 JP 2015556869 A JP2015556869 A JP 2015556869A JP 2015556869 A JP2015556869 A JP 2015556869A JP 6027272 B2 JP6027272 B2 JP 6027272B2
Authority
JP
Japan
Prior art keywords
image
image portion
content
information
dimension content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015556869A
Other languages
English (en)
Other versions
JP2016513390A (ja
Inventor
ビン イム、ヒョン
ビン イム、ヒョン
ジュン イ、セ
ジュン イ、セ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mooovr Inc
Original Assignee
Mooovr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mooovr Inc filed Critical Mooovr Inc
Publication of JP2016513390A publication Critical patent/JP2016513390A/ja
Application granted granted Critical
Publication of JP6027272B2 publication Critical patent/JP6027272B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/361Reproducing mixed stereoscopic images; Reproducing mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/144Processing image signals for flicker reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、2D−3D複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービスの提供方法に関するものであり、1つのファイルに2D画像部分と3D画像部分が同時に含まれている複合次元コンテンツを単一の再生手段によって提供されるようにする2D−3D複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービスの提供方法に関するものである。
従来、一般的なカメラで複数の角度の写真を多数撮影してパノラマ写真や画像を作って提供することには、撮影可能な装備とそれを見る特殊なビューアがあっても、ユーザのコンピュータの仕様が良くないと、動画自体が円滑に再生されないという問題があった。しかしながら、より便利に3D画像が撮影できる装置が開発されるとともに、ユーザのコンピュータの仕様が次第にアップグレードされ、現在はいかに良いコンテンツをユーザに提供するかが問題となった。
3D画像と2D画像は、それぞれユーザにアピールできる点が異なっている。したがって、2D画像と3D画像を1つのコンテンツに複合させる複合次元コンテンツが開発されたら、多くのユーザに人気を集めると予測される。
一方、2D画像と3D画像をそれぞれ撮影して、各画像を視聴できる2Dまたは、3Dプレーヤで片方が終わる時点で他のプレーヤが引き続き再生する方法で再生する場合には、続く時点、すなわち、異なる種類の画像が交代された時点において現れるプレーヤのリフレッシュ状態で意外に長い時間がかかり、ユーザに最後の画像の再生が終わったという錯覚を起こす恐れがある。
よって、2Dと3D画像の統合編集で構成される複合次元コンテンツの必要性が台頭している。しかし、統合編集方式は様々な問題点があり、統合編集の際、2Dと3D画像のサイズが異なるため発生する、2D上、下の部分が黒い、余白部分の制御問題や、2Dと3D画像が出る時点を判断して3Dレンダリングを制御する問題などがあった。
したがって、複合次元コンテンツの導入、複合次元コンテンツの構成及び複合次元コンテンツのサービスのための技術的な問題の解決方法が切実に求められていた。
通常、画像(動画など)をユーザに提供するとき、2Dコンテンツについては2Dプレーヤで再生して、ユーザに提供された。そして、パノラマ画像は、3Dコンテンツ専用に再生する3Dプレーヤを介してのみ提供された。
このとき、2Dと3Dコンテンツを同じ再生手段でユーザに提供してはおらず、さらに、少なくとも一部分以上の2D画像部分と少なくとも一部分以上の3D画像部分とが1つの単一のファイルに統合された場合に、これらの単一ファイルに対する単一の再生手段によるサービスの提供はなかった。
特に、スポーツ、音楽、映画、ドキュメンタリー、教育、広告など様々なコンテンツにおいて、2D画像部と3D画像部が複合されたコンテンツを構成して提供すると、ユーザに特別な経験を提供してもよい。よって、2D画像部と3D画像部分複合されている複合次元コンテンツを提供するシステム及びその提供方法の開発が切実に求められていた。
本発明が解決しようとする第1の課題は、複合次元コンテンツ提供システムを提案するものである。
本発明が解決しようとする第2の課題は、複合次元コンテンツ提供システムの情報処理方法を提案するものである。
本発明が解決しようとする第3の課題は、複合次元コンテンツファイルの構成を提案するものである。
本発明が解決しようとする技術的課題を達成するために、少なくとも1つ以上の2D画像部分と少なくとも1つ以上の3D画像部分が結合されている複合次元コンテンツをユーザに提供する複合次元コンテンツ提供システムの情報処理方法において、前記複合次元コンテンツ提供システムが2D画像部分を2D再生手段で再生するステップ(a)と、3D画像部分を2D再生手段で再生するステップ(b)と、前記ステップ(b)で再生される歪み再生画像を取得するステップ(c)と、前記ステップ(c)で取得した前記歪み再生画像を3Dレンダリング(rendering)エンジンでレンダリング処理するステップ(d)と、前記レンダリング処理が行われた画像をユーザに提供するステップ(e)とを含むことを特徴とする複合次元コンテンツ提供システムの情報処理方法を提案する。
前記複合次元コンテンツ提供システムは、前記複合次元コンテンツを構成する前記2D画像部分と前記3D画像部分それぞれに対する開始位置情報や区間位置情報を取得して、前記2D画像部分の開始位置から前記ステップ(a)を行い、前記3D画像部分の開始位置から前記ステップ(b)を行うことが好ましい。
前記開始位置情報や区間位置情報は、前記複合次元コンテンツの外部に記憶されているもの、または前記複合次元コンテンツファイルのヘッダに含まれているものが好ましい。
前記開始位置情報や区間位置情報は、前記複合次元コンテンツの管理情報であり、前記複合次元コンテンツが記憶されている記憶装置と同様の記憶装置または記憶システムに記憶されているものか、または、前記複合次元コンテンツを再生する前に有線または無線ネットワークを介して前記開始位置情報を提供する第3のシステムから送信されるものであることが好ましい。
前記開始位置情報や区間位置情報は、時間区間単位または開始時刻を含んで構成されるものか、または、フレーム番号区間単位または開始フレーム番号を含んで構成されるものであることが好ましい。
前記2D画像部分と前記3D画像部の境界情報を取得するステップ(f)と、取得された境界情報に基づいて、前記2D画像部分と前記3D画像部分の境界部からの所定の境界範囲で次元変換処理を行うステップ(g)とをさらに含むことが好ましい。
前記ステップ(c)は、ビットマップ画像をフレーム単位で取得することであり、前記ステップ(d)は、フレーム単位でレンダリング処理を行うことが好ましい。
前記ステップ(d)は、球形状(sphere)でレンダリング処理を行うか、または、キューブ形状(cube)でレンダリング処理を行うことが好ましい。
前記複合次元コンテンツ提供システムは、ユーザ端末において駆動するものであり、前記ステップ(e)は、前記ユーザ端末に含まれているか、前記ユーザ端末と有線または無線ネットワークに接続される少なくとも1つ以上のディスプレイ装置に記憶されるものであり、前記複合次元コンテンツは、前記ユーザ端末に記憶されているものか、または前記ユーザ端末と有線または無線ネットワークに接続される少なくとも1つ以上のサーバからリアルタイムに提供されるものであることが好ましい。
前記複合次元コンテンツが前記ユーザ端末に提供される方法は、前記サーバから前記ユーザ端末へHTTPまたはRTMPのいずれかのプロトコルを利用して、複合次元コンテンツ画像情報を送信することが好ましい。
前記複合次元コンテンツが前記ユーザ端末に提供される方法は、前記サーバから前記ユーザ端末にプログレッシブダウンロード方式またはライブストリーミング方式で前記コンテンツ画像情報を送信することが好ましい。前記ステップ(e)は、前記2D再生手段が再生する音声情報と,前記ステップ(d)でレンダリング処理された画像を同期(sync)させて音声情報と画像情報が一緒に提供されるものであることが好ましい。
前記ステップ(e)は、前記レンダリング処理された画像の所定の少なくとも一領域がユーザに表示される視聴画面領域に提供されることが好ましい。
前記視聴画面領域の設定に関する情報は、前記複合次元コンテンツのヘッダ情報に記憶されているものか、前記複合次元コンテンツを提供するサーバから送信されるものか、前記複合次元コンテンツ提供システムで設定されるものか、または所定の視聴画面領域の設定規則に応じて変更されるものであることが好ましい。
前記視聴画面領域の設定は、前記ユーザが設定するものであり、前記視聴画面領域の設定は前記ユーザが前記複合次元コンテンツの再生中に変更できるものであることが好ましい。
前記視聴画面領域の設定は、前記ユーザが視聴画面領域を設定するための視聴領域の方向を指定または変更するものであり、前記視聴領域の方向の指定や変更は、キーボード入力、キーパッド入力、タッチ入力、音声入力、動作入力のいずれか1つ以上の入力によって行われるものであることが好ましい。
前記視聴画面領域の設定に変更がある場合には、前記複合次元コンテンツ提供システムは、変更された視聴画面領域の設定情報を用いて前記レンダリング処理された画像において、ユーザに表示される視聴画面領域を変更することが好ましい。
前記視聴領域の方向が変更される場合には、前記複合次元コンテンツ提供システムは、前記レンダリング処理された画像において、変更された視聴領域の方向を反映してユーザに表示される視聴画面領域を連続的に変更することが好ましい。
前記複合次元コンテンツ提供システムは、前記2D画像部分の再生結果がユーザに提供される時、前記2D画像部分の所定の余白領域が除かれてユーザに提供されるように制御することが好ましい。
前記境界情報は、前記複合次元コンテンツを構成する前記2D画像部分と前記3D画像部分それぞれの開始位置情報や区間位置情報を利用し、前記次元変換処理を行うことは、前記境界部に基づく所定の時間区間または所定のフレーム区間を対象にしてフェードイン(fade in)、フェードアウト(fade out)効果が出るように処理することが好ましい。
本発明が解決しようとする技術的課題を達成するために、少なくとも1つ以上の2D画像部分と少なくとも1つ以上3D画像部分が結合されている複合次元コンテンツをユーザに提供する複合次元コンテンツ提供システムにおいて、前記複合次元コンテンツ提供システムは、2D画像部分と3D画像部分を再生する2D再生部と、再生対象となる画像部分が2D画像部分であるか3D画像部分であるかに対する再生区間属性情報を取得する再生区間属性情報取得部と、前記2D再生部が3D画像部分を再生した結果を取得する歪み画像取得部と、前記歪み画像取得部が取得する歪み画像を3Dレンダリングエンジンでレンダリング処理するレンダリング部とを含むことを特徴とする複合次元コンテンツ提供システムを提案する。
前記再生区間属性情報取得部は、前記複合次元コンテンツを構成する前記2D画像部分と前記3D画像部分それぞれの開始位置情報や区間位置情報を取得することか、前記複合次元コンテンツを構成する前記2D画像部分と前記3D画像部分それぞれの時間区間対応情報またはフレーム区間対応情報を取得することが好ましい。
前記再生区間属性情報取得部は、前記開始位置情報や前記区間位置情報や前記時間区間対応情報または前記フレーム区間対応情報を前記複合次元コンテンツファイルのヘッド部で取得するか、前記複合次元コンテンツファイルとは別に外部に存在する再生区間属性情報ファイルから取得するか、または、前記複合次元コンテンツ画像情報を提供する複合次元コンテンツ提供サーバから取得することが好ましい。
前記開始位置情報や前記区間位置情報や前記時間区間対応情報または前記フレーム区間対応情報は、時間区間単位または開始時刻を含んで構成されるか、フレーム番号区間単位または開始フレーム番号を含んで構成されることが好ましい。
前記2D画像部分と前記3D画像部の境界情報を取得して、取得した境界情報に基づいて、前記2D画像部分と前記3D画像部分の境界部からの所定の境界範囲で次元変換処理を行う次元変換処理部とをさらに含むことが好ましい。
前記歪み画像は、フレーム単位のビットマップ画像であり、前記レンダリング部がレンダリング処理を行う単位はフレーム単位で処理することが好ましい。
前記レンダリング処理部がレンダリング処理を行うことは球形状(sphere)でレンダリング処理することか、または、キューブ形状(cube)でレンダリング処理することが好ましい。
前記複合次元コンテンツ提供システムは、ユーザ端末において駆動するものであり、前記ユーザ端末は、PC、スマートフォン、タブレットコンピュータ、ポータブルコンピュータ、ゲーム機、スマートTV、キオスク端末、通信可能であり、ディスプレイ装置が含まれている端末、外部から複合次元コンテンツファイルが取得でき、ディスプレイ装置が内蔵されたもの、及び有線または無線ネットワークでディスプレイ装置と通信可能な端末のいずれか1つ以上であることが好ましい。
前記複合次元コンテンツ提供システムが駆動されるユーザ端末は、少なくとも1つ以上の複合次元コンテンツ提供サーバからΗTTΡまたはRTMPのいずれかのプロトコルを利用して、複合次元コンテンツ画像情報を送信されるか、または、前記複合次元コンテンツを提供サーバからプログレッシブダウンロード方式またはライブストリーミング方式で前記コンテンツ画像情報が送信されることが好ましい。
前記2D再生手段が再生する音声情報とレンダリング処理された画像を同期化する同期処理部をさらに含むことが好ましい。
前記レンダリング処理された画像の所定の少なくとも一領域がユーザに表示される視聴画面領域に提供されることが、前記ユーザによって調節できるように支援する視聴画面領域選択支援部をさらに含むことが好ましい。
前記視聴画面領域選択支援部は、前記ユーザにとって視聴画面領域の設定を支援するものであり、前記視聴画面領域の設定は、前記ユーザが視聴画面領域を設定するための視聴領域の方向を指定または変更するものであり、前記視聴領域の方向の指定や変更は、キーボード入力、キーパッド入力、タッチ入力、音声入力、動作入力の内いずれか1つ以上の入力によって行われることが好ましい。
前記視聴画面領域の設定に変更がある場合には、前記複合次元コンテンツ提供システムは、変更された視聴画面領域の設定情報を用いて前記レンダリング処理された画像において、ユーザに表示される視聴画面領域を変更することが好ましい。
前記視聴領域の方向が変更される場合には、前記複合次元コンテンツ提供システムは、前記レンダリング処理された画像において、変更された視聴領域の方向を反映してユーザに表示される視聴画面領域を連続的に変更することが好ましい。
前記境界情報は、前記複合次元コンテンツを構成する前記2D画像部分と前記3D画像部分それぞれの開始位置情報や区間位置情報を利用し、前記次元変換処理を行うことは、前記境界部に基づく所定の時間区間または所定のフレーム区間を対象にしてフェードイン、フェードアウト効果が出るように処理することが好ましい。
本発明が解決しようとする技術的課題を達成するために、ファイルヘッダ部と、画像データ部とを含み、前記画像データ部は少なくとも1つ以上の2D画像部分と、少なくとも1つ以上の3D画像部分とを含み、前記2D画像部分と前記3D画像部分は、少なくとも1回以上交互に表示されることを特徴とする複合次元コンテンツファイルを提案する。
前記ファイルヘッダ部には、再生区間属性情報がさらに含まれることが好ましい。
前記再生区間属性情報には、前記画像データ部の中から、前記2D画像部分と前記3D画像部分に対応する画像データに関する情報がさらに含まれることが好ましい。
再生区間属性情報は、前記2D画像部分と前記3D画像部分それぞれの開始位置情報や区間位置情報を取得するか、または、前記2D画像部分と前記3D画像部分それぞれの時間区間対応情報またはフレーム区間対応情報であることが好ましい。
前記2D画像部分と前記3D画像部分は、物理的な境界の区別なく接続されていることが好ましい。
本発明によれば、次のような効果が得られる。
第一に、複合次元コンテンツを単一の再生手段でユーザに歪みなく提供することができる。
第二に、3D画像の中からユーザが希望する3D画像部分の特定部分を選択することができ、選択された3D画像部分をユーザに提供することができる。
第三に、スポーツ、音楽、映画、ドキュメンタリー、教育、広告など様々なコンテンツにおいて、2D画像部と3D画像部が複合されたコンテンツを構成して提供すれば、ユーザに特別な経験を提供することができる。
本発明による複合次元コンテンツを提供するためのシステムの構成に関する一実施例を示す図。 本発明による複合次元コンテンツを提供するための他のシステムの構成に関する一実施例を示す図。 本発明による複合次元コンテンツ提供システムの一実施例の情報処理方法に関する一実施例を示す図。 本発明による複合次元コンテンツ提供システムの他の一実施例の情報処理方法に関する一実施例を示す図。 本発明による複合次元コンテンツ提供システムのさらに他の一実施例の情報処理方法に関する一実施例を示す図。 本発明による複合次元コンテンツを提供するためのさらに他のシステムの構成に関する一実施例を示す図。 本発明による複合次元コンテンツの一実施例の構成に関する一実施例を示す図。 本発明による複合次元コンテンツの他の一実施例の構成に関する一実施例を示す図。 3D画像と2D画像の概略的な比較を示す図。 3D画像の選択に関する図。 2D画像の提供において、黒い枠が削除された画像が提供される図。
以下、添付図面を参照して詳細に説明する。
図1から図2は、本発明の複合次元コンテンツを提供するための構成に関する実施例を示す図である。本発明の複合次元コンテンツ提供システム1000が含まれている少なくとも1つ以上のユーザ端末100は、有線または無線ネットワーク500を介して少なくとも1つ以上の複合次元コンテンツ提供サーバ200に接続されている。前記複合次元コンテンツ提供システム1000は、前記複合次元コンテンツ提供サーバ200から複合次元コンテンツファイルをダウンロードしたり、前記ユーザ端末100に記憶されている複合次元コンテンツファイルを対象に本発明の思想を実施したり、前記複合次元コンテンツ提供サーバ200から取得する複合次元コンテンツ画像情報を対象に本発明の思想を実施したりする複合次元コンテンツ提供エンジン1100を含んでいる。
前記複合次元コンテンツ提供エンジン1100は、本発明の複合次元コンテンツを再生する2D再生部1110と、前記複合次元コンテンツに対して2D画像部分と3D画像部分の情報を取得する再生区間属性情報取得部1120と、前記複合次元コンテンツに含まれている3D画像部分を前記2D再生部1110が再生するときに生成される歪み画像を取得する歪み画像取得部1130と、前記歪み画像をレンダリング処理するレンダリング部1140とを含んでいる。一方、前記複合次元コンテンツ提供エンジン1100は、前記2D再生部1110が再生する画像と前記複合次元コンテンツに含まれている音声情報が同期されて、ユーザ端末の出力装置2000から出力されるように制御する同期処理部1150をさらに含んでもよい。そして、前記複合次元コンテンツ提供エンジン1100は、前記複合次元コンテンツで2D画像部分から3D画像部分に変わったり3D画像部分から2D画像部分に変わったりするとき、ユーザのディスプレイ装置2100に提供される画像の品質を高める次元変換処理部1160をさらに含んでもよい。なお、前記複合次元コンテンツ提供エンジン1100は、3D画像部分において、ユーザが視聴を希望する視聴画面領域620の設定と変更を支援する視聴画面領域選択支援部1170をさらに含んでもよい。
前記複合次元コンテンツ提供システム1000が処理する画像情報には、大きく2つの形式がある。第1の形式は、前記複合次元コンテンツ提供サーバ200が、ストリーミングまたはプログレッシブダウンロード方式などで前記ユーザ端末100に送信される複合次元コンテンツ画像情報の形式であり、第2の形式は、複合次元コンテンツが記憶されている複合次元コンテンツファイルの形式である。図1は、前記ユーザ端末100の複合次元コンテンツ画像情報取得部1200が前記複合次元コンテンツ提供サーバ200の複合次元コンテンツ画像情報送信部220から複合次元コンテンツ画像情報を受信する方式で取得する複合次元コンテンツ画像情報を前記複合次元コンテンツ提供エンジン1100が処理する方式に関する一実施例を示す図である。図2は、前記ユーザ端末100の複合次元コンテンツファイル取得部が前記複合次元コンテンツ提供サーバ200の複合次元コンテンツファイル送信部から複合次元コンテンツファイルを受信して、前記複合次元コンテンツファイルを前記複合次元コンテンツ提供エンジン1100が処理する方式に関する一実施例を示す図である。もちろん、前記ユーザ端末100には、図1および図2の機能が全部含まれてもよく、前記複合次元コンテンツ提供サーバ200も図1および図2の機能を全部含んでもよい。前記ユーザ端末100は、ある複合次元コンテンツ提供サーバ200からは、複合次元コンテンツ画像情報を取得して、他の複合次元コンテンツ提供サーバ200からは、複合次元コンテンツファイルを取得してもよく、USBや添付ファイルなどの任意の方法で少なくとも1つ以上の複合次元コンテンツファイルが前記ユーザ端末100に記憶されるようにしてもよい。一方、同様の複合次元コンテンツ提供サーバ200が複合次元コンテンツ画像情報をユーザ端末100に送信してもよく、同時に複数次元コンテンツファイルをユーザ端末100に送信してもよい。したがって、図示してはいないが、図1および図2の発明の思想が結合されたハイブリッド型が構成されてもよいことは、当業者にとって明らかである。
本発明の複合次元コンテンツファイルは、特別な方式で構成されている。図7から図8は、本発明の複合次元コンテンツファイルの構成形態の一実施例の構成を示す。
複合次元コンテンツファイルは、複合次元コンテンツヘッド部と複合次元コンテンツデータ部を含んで構成される。図7には、通常のファイルヘッド部が示され、図8には、本発明の特有な複合次元コンテンツヘッド部が示されている。図8の複合次元コンテンツヘッド部は、通常のファイルヘッド部と、本発明の複合次元コンテンツ再生区間情報が含まれている複合次元コンテンツ再生区間情報ヘッド部をさらに含んでいる。図7と図8から分かるように、本発明の複合次元コンテンツデータは、2Dデータ部分と3Dデータ部分がそれぞれ1つ以上ずつ含まれていることを特徴とする。前記図7及び図8に例示される複合次元コンテンツは、3つの2Dデータ部分と2つの3Dデータ部分を含むものが例示されている。前記2Dデータ部分の画像情報は、再生対象の観点から2D画像部分に対応し、前記3Dデータ部分の画像情報は、3D画像部分に対応する。図7及び図8には、複合次元コンテンツデータ部が2D画像部分から始まり、2D画像部分で終了すると示されているが、3D画像部分から始まり、3D画像部分で終了してもよいことは、当業者にとって明らかである。一方、2D画像部分と3D画像部分との間には、前記2D画像部分と3D画像部分の境界となる境界部が含まれている。前記境界部は、物理的な実体というより2D画像部分から3D画像部分に移るか、または3D画像部分から2D画像部分に移る境界であり、概念的対象として把握することが好ましい。
本発明の複合次元コンテンツデータは、2D画像部分と3D画像部分が交代されることが特徴であるが、前記2D画像部分と前記3D画像部分は、再生の観点から時間区間またはフレーム区間と対応することになる。
下記表1は、これらの画像部分と時間間隔またはフレーム区間との対応情報を説明している。
上記表1の対応フレーム番号区間で_a、_b、_c、_d、_eなどはフレームの番号の表示である。
図面符号410aに対応する2D画像部分は再生時間を基準にT1からT2の間に対応し、画像のフレーム番号区間を基準にFrame Number_aからFrame Number_bに対応する。通常T1、T2などの時間は、秒単位または秒単位より細分化された時間単位になるのが一般的である。画像再生において、通常、正常的な画像再生速度で再生時間1秒は28フレームまたは32フレームの画面に対応するが、場合によってはこれより多いフレームまたは少ないフレームの画面に対応してもよい。最初の3D画像部分である図面符号420aに対応するフレーム番号(Frame Number)の開始は、Frame Number_b+1で表示した。Frame Number_b+1は直前2D画像部分の最後のフレーム番号Frame Number_bより1フレーム大きいものである。もちろん、最初の3D画像部分である図面符号420aに対応するT2も直前2D画像部分の最後の時間T2よりも最小時間の表示単位よりも1が大きいと表示することが妥当であるが、最初の3D画像部分に対応する時間区間を通常T2〜T3で表示しても、時間区間の変動の表示において当業者が本発明の思想及び趣旨を理解するには充分である。前記T1や、Frame Number_aなどは2D画像部分の開始位置情報にしてもよく、T2や、Frame Number_b+1などは3D画像部分の開始位置情報にしてもよい。
上記表1のような複合次元コンテンツ再生区間情報(ある時間区間またはあるフレーム番号区間で2D画像部分や3D画像部分が対応するという情報)は、図8のように、本発明の複合次元コンテンツ再生区間情報ヘッド部に含まれてもよい。この場合、前記再生手段は、これらの複合次元コンテンツ再生区間情報を利用して、現在再生中の画像が2D画像であるか3D画像であるかを区別できるようになる。
前記複合次元コンテンツ再生区間情報が複合次元コンテンツ再生区間情報ヘッド部に存在することとは別に、前記複合次元コンテンツ再生区間情報は、前記複合次元コンテンツ再生区間情報ヘッド部の外部に存在してもよい。図1に示すように、前記再生区間属性情報取得部1120が、前記複合次元コンテンツ提供サーバ200の複合次元コンテンツ画像情報送信部220を介して複合次元コンテンツ画像情報を受信する際に、前記複合次元コンテンツ提供サーバ200から前記複合次元コンテンツに対する複合次元コンテンツ再生区間情報を別途にまたは前記複合次元コンテンツ画像情報の送信時に受信してもよい。受信した複合次元コンテンツ再生区間情報を撮影し、前記複合次元コンテンツ提供エンジン1100の歪み画像取得部1130は、2D再生手段を通じて3D画像部分が再生されるときに生成される歪み画像を取得して、前記レンダリング部1140がレンダリング処理を行うように支援する。一方、図2に例示されるように、前記複合次元コンテンツファイルが取得されるとき、前記複合次元コンテンツファイルとは別途に前記複合次元コンテンツ再生区間情報も取得してもよい。通常、画像ファイルがある場合、画像ファイルの字幕情報がsmiファイル形式で提供されるように、前記複合次元コンテンツ再生区間情報もこれらの独立したファイル形式で提供されてもよく、前記再生区間属性情報取得部1120は、これらの複合次元コンテンツの再生区間情報が含まれている再生区間属性情報ファイルを取得して、本発明の思想を実施することに用いられる。複合次元コンテンツ再生区間情報は、図2に示すように、個別の複合次元コンテンツが記憶されている複合次元コンテンツファイル部1300に記憶されてもよい。
前記複合次元コンテンツの再生区間情報が含まれているファイルには、表1のような情報(対応フレーム番号区間情報が含まれることがより妥当である。)が含まれている。これらのファイルの内容の情報は、次のようになる。
<StartFrame Number_a>
2D
<EndFrame Number_b>
<StartFrame Number_b+1>
3D
<EndFrame Number_c>
<StartFrame Number_c+1>
2D
<EndFrame Number_d>
<StartFrame Number_d+1>
3D
<EndFrame Number_e>
<StartFrame Number_e+1>
2D
<EndFrame Number_f>
StartFrame Numberは開始するFrame Numberであり、EndFrame Numberは終了するFrame Numberである。
区間を検出するためには、画像に2D画像部分と3D画像部分それぞれが時間(秒または秒以下)単位またはフレーム単位でどこからどこまでどのように再生されるかを設定する必要がある。これらの情報は、複合次元コンテンツと関連する複合次元コンテンツの再生区間情報に記憶され、記憶形式は、xmlファイル形式であってもよい。一方、再生手段内で例示的にGTweenTimelineというオブジェクトが画像の再生から終了の間にタイムラインを設定して、実際の画像がストリーミングされて再生される場合、複合次元コンテンツ提供サーバ200から画像のメタ情報をリアルタイムに所定の秒単位または秒以下の単位で取得して、現在行われている時間を判断して、複合次元コンテンツ再生区間情報が含まれたxmlファイルに設定された2D画像部分と3D画像部分の再生区間/再生時間区間と一致する時間/フレーム番号になるか否かを判断してもよい。
次に、添付図面を参照して、本発明の思想をさらに詳細に説明する。図3は、本発明の複合次元コンテンツ提供システム1000の一実施例の情報処理方法を示している。前記複合次元コンテンツ提供システム1000は、2D画像部分を2D再生手段で再生して(ステップS11)、3D画像部分の開始を認知して(ステップS12)、3D画像部分を2D再生手段で再生して(ステップS13)、再生されるビットマップ画像をフレーム単位で取得して(ステップS14)、取得されるビットマップ画像を3Dエンジンでレンダリングして(ステップS15)、レンダリングされた画像をフレームごとに出力して(ステップS16)、出力されたレンダリング画像を音声と同期させて提供する(ステップS17)。
本発明の複合次元コンテンツ提供システム1000は、2D画像部分も3D画像部分も1つの2D再生手段で再生することを特徴とする。3D画像部分を2D再生手段で再生すると、歪んだ画像が生成されることになる。
前記再生区間属性情報取得部1120は、特定の時点で再生されている画像部分が3D画像部分であるという事実を取得している場合、前記複合次元コンテンツ提供エンジン1100は、再生される3D画像部分をすぐにユーザ端末の出力装置2000に送信しない。前記歪み画像取得部1130は、2D再生部1110を通じて再生される3D画像部分の再生結果である歪みビットマップ画像を取得する。
前記レンダリング部1140の前記レンダリング処理部1142は、レンダリング対象画像取得部1141が取得したレンダリング対象画像の取得された歪みビットマップ画像を対象にレンダリング処理を行う。歪みビットマップ画像の取得は、フレーム単位で行われ、レンダリングもフレーム単位のビットマップ画像を対象に行われる。
レンダリング処理は、球形状とキューブ形状の2種類があってもよい。まず、sphere type(円/球形状)で画面をレンダリングする方法がある。この方法は、球にレンダリングするのでより繊細な画面が見られる。しかし、球形状のため直線が多いコンテンツを表現する際、線がくしゃくしゃになる場合もある。次に、cube typeであり、正六角形で6面にtextureのビットマップデータをレンダリングする方法がある。この方法によれば、水平と垂直が多い動画の場合、線がsphere typeより一直線に表現してもよい。しかし、一回の撮影で結果が得られる撮影方式では作業が不可能であり、各面を別々に撮影してレンダリングしる方式である。
例えば、Papervision3dというプログラムを使用すれば、ビットマップデータでキャプチャしたデータをSphereオブジェクトがSphere形状にレンダリングされるように、キャプチャしたフレーム単位のビットマップデータを変換してもよい。このとき、変換されたデータが30フレーム未満になると、実際Papervision3dでのレンダリングエンジンであるQuadrant Render Engineオブジェクトがフレームごとに画面をsphere形状に3Dレンダリングを開始する。レンダリングされた画像は、レンダリング画像提供部1143を介してレンダリング部1140の外部に提供される。
本発明の同期処理部1150は、前記2D再生手段が再生する音声情報とレンダリング処理された画像を同期させて音声情報と画像情報が同時に提供されるように制御する。歪み画像の発生やレンダリング処理とは別に、バックグラウンドでは前記2D再生手段によって2D画像部分や3D画像部分の再生が持続的に行われている。このとき、2D再生手段によって再生される歪み画像は、レンダリング処理が伴うので、通常の2D再生手段による2D画像部分の再生画像の提供よりは時間がかかることになる。したがって、2D再生手段が3D画像部分の再生時の音声や音などと前記レンダリング処理された画像とを提供するには、同期化が必要である。レンダリング処理された画像と2D再生手段によって3D画像部分が再生されながら生成される音(音声など)の情報の具体的な同期化方法は、当業者にとって明らかなので詳細な説明は省略する。
次に、図4を参照して、本発明の次元変換処理部1160について説明する。
2D画像部分と3D画像部分は表示されるときに、ユーザの表示画面において、変換中に複数の原因(特に再生するコンピュータの仕様)などにより途中で画面が割れるなどの現象が起こり、ユーザに不快感を与えることがある。よって、2D画像から3D画像への画面変換時などにおいて、ユーザに不快感を与えない変換やスイッチングが必要となる。
前記次元変換処理部は、前記2D画像部分と前記3D画像部の境界情報を取得して(ステップS21)、取得した境界情報に基づいて、前記2D画像部分と前記3D画像部分の境界部における所定の境界範囲で次元変換処理を行う(ステップS22)。前記次元変換処理部1160は、前記2D画像部分と前記3D画像部の境界情報を取得して、取得された境界情報に基づいて、前記2D画像部分と前記3D画像部分の境界部から所定の境界の範囲内で次元変換処理を行う。前記次元変換処理部1160の境界情報取得部1161は、境界部の情報を取得して境界部の近くで次元変換処理を行う。
2D画像部分と3D画像部分の再生の際に、境界部分で実際起こるのはsphereオブジェクトとplaneオブジェクトとの間の変換である。このとき、変換される間にフェードイン・アウト(fade in/out)を処理するロジックを入れると、自然な画面変換ができるようになる。このように、次元変換処理部は、2D画像部分から3D画像部分に変更される瞬間(境界部)または3D画像部分から2D画像部分に変更される瞬間〔境界部〕において、フェードイン・アウト効果を出すオブジェクトを境界部の近くまたは境界部の前後の所定の時間またはフレーム数だけ追加したり交換したりすることにより、変更時に画面の割れる部分が見られないようにしてもよい。
次に、図5から図6を参照して、本発明の視聴画面領域選択支援部1170について説明する。
前記複合次元コンテンツ提供エンジン1100は、前記レンダリング処理された画像の所定の少なくとも一領域がユーザに見られる視聴画面領域620に提供されるようにしてもよい。このような視聴画面領域620の設定は、前記ユーザが設定するものであり、前記視聴画面領域620の設定は、前記ユーザが前記複合次元コンテンツの再生中に変更できるものが好ましい。もちろん、このような視聴画面領域620の設定に関する情報は、前記複合次元コンテンツのヘッダ情報に記憶されたり、前記複合次元コンテンツを提供する複合次元コンテンツ提供サーバ200から受信したり、前記複合次元コンテンツ提供システム1000で設定されたり、所定の視聴画面領域の設定規則に基づいて変更されたりしてもよい。
図5は、ユーザではなく、外部によって視聴画面領域620が設定される方式に関する例示的な構成である。前記視聴画面領域選択支援部1170は、ユーザに表示される視聴画面領域620の設定のための情報を取得して(ステップS31)、取得した視聴画面領域620の設定情報を利用して視聴画面領域620に対応する3D画像部分情報を取得する(ステップS32)。
図6には、前記視聴画面領域選択支援部1170の情報処理方法に関する一実施例の構成が示されている。前記視聴画面領域選択支援部1170は、ユーザからユーザが視聴を希望する3D画像部分に対する選択情報を取得して(ステップS41)、選択情報を取得した3D画像部分を取得する(ステップS42)。
3D画像部分の再生の途中で視聴画面領域620の設定により、ユーザは自分が望む方向の3D画像を視聴することができる。前記視聴画面領域620の設定は、前記ユーザが視聴画面領域620を設定するための視聴領域の方向を指定または変更するものであり、前記視聴領域の方向の指定や変更は、キーボード入力、キーパッド入力、タッチ入力、音声入力、動作入力のいずれか1つ以上の入力を介して行われることが好ましい。これらの入力を介して前記視聴画面領域620の設定に変更がある場合、前記複合次元コンテンツ提供システム1000は、変更された視聴画面領域の設定情報を用いて、前記レンダリング処理された画像において、ユーザに表示される視聴画面領域620を変更することが好ましい。例えば、前記図10で視聴画面領域620を左方向に指定すると(ユーザ端末100に表示される選択3D画像630の画面において指などで右から左に画面をスクロールするなどの行為をすると)、子犬を抱いた大人と子供が出てくる現在画面(630に出てくる画像)において、前記3D画像610で現在の視聴画面領域620の左側にある画像(例えば、大人がベビーカーを押していく方向にある画像)が表示されて制御されてもよい。
本発明の思想を利用すれば、特に、3D画像部分が多数個のカメラレンズから取得される画像が1つの画面に結合されて表示されるように構成されている場合、ユーザが視聴画面領域620の変更のために方向を移動する場合には、移動した方向に対応する画像が提供されてもよい。つまり、1つのカメラに上下・左右・前後のいずれか2つ以上の方向に対応する画像を取得する多数個のレンズがあり、これらのレンズから取得されたそれぞれの画像が結合され、1つの3D画像になってもよい。そして、画像の結合の際に特定のレンズを介して取得される画像は、3D画像の特定の位置または領域に配置されるように制御または編集されてもよい。このような場合、現在ユーザが見ている画面で左ボタンを押したり、左側にタッチがあったりする場合には現在見ている画像の左側にある画像を新しい視聴画面領域にしてユーザに提供されてもよい。これは、まっすぐに見ている人が左側に頭を回して左側方向を眺める際、左側方向にある光景が人の目に入るのと似ている。このとき、前記視聴領域の方向が変更される場合には、前記複合次元コンテンツ提供システム1000は、前記レンダリング処理された画像から変更された視聴領域の方向を反映して、ユーザに表示される視聴画面領域を連続的に変更することが好ましい。
本発明の3D画像の一例は、パノラマ画像であってもよい。前記パノラマ画像は、1つのカメラに上下・左右・前後のいずれか2つ以上の方向に対応する画像を取得する多数個のレンズがあり、これらのレンズから取得されたそれぞれの画像が結合されるか、または複数台のカメラを用いて、各カメラから取得された画像を結合して1つのパノラマ画像にしてもよい。この場合、前記3D画像部分はパノラマ画像部分になってもよい。
図10には、上記のような視聴画面領域620の選択に関する本発明の思想の概念図が示されている。図10に示すように、ユーザが視聴する3D画像部分は実際再生されている3D画像部分の一部となる。図10は、実際再生されている3D画像部分である3D画像610の中からボックスの領域に該当する視聴画面領域620内の画像がユーザに提供される選択3D画像630を提供する本発明の思想の概念を示している。このとき、ユーザが見ている画面の視聴方向を変更したい場合、変更方向を設定すると、変更された方向側にある所定のサイズ(例えば、横n×縦mサイズ)に対応する他の画像がユーザに提供される。
このとき、前記レンダリング部1140のレンダリングの対象となるのは、前記3D画像部分の全体に対する再生結果になってもよいが、前記ユーザに提供される視聴画面領域620に対するものだけがレンダリングされてもよい。前者の場合、前記視聴画面領域選択支援部1170における視聴画面領域620の選択結果は、レンダリングされた画像で作用する(選択された視聴画面領域を表示する)が、後者の場合、レンダリングされる対象画像の歪み画像に作用してもよい。
次に、図9と図11を参照して、本発明の余白処理部1180について説明する。図9は、本発明の3D画像と2D画像の一実施の比較例を示している。図9及び図11に示すように、2Dにおいては2D画像660の外郭に黒色の枠部650があることが確認できる。前記複合次元コンテンツ提供システム1000の余白処理部1180は、2D画像部分の再生する際に、前記2D画像部分の余白を削除し、実際の画像のみをユーザに提供してもよい。2D画像や3D画像は、その制作方法は異なるが、両方の画像はすべて2400×1200pixelの一般的な2D画像の形で単一のファイルとして構成される場合がある。(図9に例示されるように、3D画像610と2D画像660の枠部650を含む外郭を基準にすると、同じピクセル数を有していることが分かる。)このとき、単一のファイルは、同じ解像度で製作されるために2D画像のFullHD解像度にも上下60pixel、左右240pixelずつ余白を残して製作される場合が発生する。2D画像部分の画像には、2400×1200のサイズに中心部が再生される1920×1080だけを除いて額縁型黒枠部650が存在するからである。この黒枠は、複合次元コンテンツ画像において、2D画像部分には常に存在するので、前記複合次元コンテンツ提供システム1000は、この部分の黒色を検知して自動的に動画のヘッダにメタデータとして記録するか、または表1のようなタイムテーブルの値を記録するように情報を処理してもよい。その結果、前記複合次元コンテンツの再生では、このタイムテーブルの値を読み込み、これを基準に画像変換が容易に行われるようにしてもよい。
次のように、本発明の余白処理部1180の情報処理を例に挙げて説明する。2D画像部分の再生の際に、Papervision3dライブラリの中でCamera0bject3Dというクラス(このクラスは、3Dオブジェクトを再生するときにzoom、focusなどを指定する部分)を介して画像の実際のサイズを調節してもよい。このとき、2D画像部分の再生区間では、2D画像部分の再生が開始される際、camera.z(ズームを設定する関数)=−200などに設定すれば、画像がズームイン(Zoom in)されて、前記余白(黒枠)がユーザに表示されないように制御してもよい。図11は、本発明の余白処理部1180の情報処理対象(660および650)と余白の処理が行われた後の結果画像670を対比して示している。
前記複合次元コンテンツ提供サーバ200において、前記複合次元コンテンツ提供システム1000が含まれているユーザ端末100への画像情報の伝達方式は、様々な方式が用いられる。伝達される通信プロトコルは、HTTPまたはRTMPのいずれかのプロトコルを使用するのが好ましい。そして、前記複合次元コンテンツがユーザ端末100に提供される方法は、前記複合次元コンテンツ提供サーバ200から前記ユーザ端末100にプログレッシブダウンロード(progressive download)方式またはライブストリーミング(live streaming)方式で前記複合次元コンテンツ画像情報が送信されることが好ましい。
httpプロトコルを使用するプログレッシブダウンロード(progressive download)方式は、インターネットウェブブラウザで使用される基本的なプロトコルにポート80を使用して、サービス画像をダウンロードし、ある程度のバッファリングを置いて画像を再生する方法である。
rtmpプロトコルは、live streaming画像の送信時に使用されるプロトコルに1935ポートを使用して、リアルタイムに送信するヘッダメタ値によって、ユーザが指定した時点で設定されたpostバッファリングを置いて再生する方法である。基本的にリアルタイムに画像のヘッダ値を受けることができるrtmp(live streaming)方式がさらに好ましい。
表2は、プログレッシブダウンロード方式とライブストリーミング方式の特性を比較したものである。
本発明は、スポーツ、音楽、映画、ドキュメンタリー、教育、広告などの様々なコンテンツ関連事業や画像関連産業に広く活用できる。
100:ユーザ端末
200:複合次元コンテンツ提供サーバ
210:複合次元コンテンツファイル管理部
220:複合次元コンテンツ画像情報送信部
221:複合次元コンテンツのストリーミング提供部
222:複合次元コンテンツプログレッシブダウンロード提供部
310:複合次元コンテンツヘッダ部
310a:通常のファイルヘッド部
310b:複合次元コンテンツ再生区間情報ヘッド部
320:複合次元コンテンツデータ部
410:2D画像部分
410a、410b、410c:個別の2D画像部分
420:3D画像部分
420a、420b、420c:個別の3D画像部分
430:境界部
430a、430b、430c、430d:個別の境界部
610:3D画像
620:視聴画面領域
630:選択3D画像
650:枠部
660:2D画像
670:余白処理が行われた後の結果画像
1000:複合次元コンテンツ提供システム
1100:複合次元コンテンツ提供エンジン
1110:2D再生部
1120:再生区間属性情報取得部
1130:歪み画像取得部
1140:レンダリング部
1142:レンダリング画像取得部
1141:レンダリング処理部
1143:レンダリング画像提供部
1150:同期処理部
1160:次元変換処理部
1161:境界情報取得部
1170:視聴画面領域選択支援部
1171:視聴画面領域の選択取得部
1180:余白処理部
1200:複合次元コンテンツ画像情報取得部
1300:複合次元コンテンツファイル部
1310:複合次元コンテンツファイル
1320:複合次元コンテンツ再生区間情報
2000:ユーザ端末出力装置
2100:ディスプレイ装置
2200:サウンド出力装置

Claims (24)

  1. 複合次元コンテンツ提供システムが2D画像部分と3D画像部分が結合されている複合次元コンテンツをユーザに提供する方法において、
    前記複合次元コンテンツ提供システムが、前記複合次元コンテンツにおいて前記2D画像部分と前記3D画像部分それぞれに対応する開始位置情報と区間位置情報のいずれかの情報を判断するステップ(a)と、
    前記複合次元コンテンツ提供システムが、前記2D画像部分と前記3D画像部分それぞれに対応する開始位置情報と区間位置情報のいずれかの情報を参照して取得した前記3D画像部分の区間に含まれるフレームを対象に、前記3D画像部分を2D再生手段でバックグラウンドまたはフォアグラウンドで再生するときに取得できる歪み再生画像を取得するステップ(b)と、
    前記複合次元コンテンツ提供システムが、(i)前記2D画像部分と、(ii)前記3D画像部分に対応する部分として、前記取得された歪み再生画像を対象に3Dレンダリングエンジンを使用してレンダリング処理を行って取得する部分を含むコンテンツをユーザに提供したり、提供できるように支援するステップ(c)とを含む方法。
  2. 前記開始位置情報や前記区間位置情報は、時間区間単位または開始時刻を含んで構成されるか、または、フレーム番号区間単位または開始フレーム番号を含んで構成され、
    前記開始位置情報や前記区間位置情報は、前記複合次元コンテンツの外部に記憶されているか、前記複合次元コンテンツのヘッダに含まれていることを特徴とする請求項1に記載の方法。
  3. 前記ステップ(c)は、
    前記2D画像部分と前記3D画像部分の境界情報に対応する時点の情報に基づいて所定の範囲内の境界区間に属するフレームに対して次元変換処理を行うステップを含むことを特徴とする請求項1に記載の方法。
  4. 前記次元変換処理は、前記境界区間に属する2D画像部分と3D画像部分を対象にフェードイン(fade in)/フェードアウト(fade out)効果が出るように処理することを特徴とする請求項に記載の方法。
  5. 前記3D画像部分に対応する前記歪み再生画像は、フレーム単位のビットマップ画像であり、
    前記複合次元コンテンツ提供システムは、前記歪み再生画像のフレームを対象に球形状(sphere)またはキューブ形状(cube)でレンダリング処理を行うことを特徴とする請求項1に記載の方法。
  6. 前記複合次元コンテンツ提供システムは、前記ユーザの端末または前記ユーザの端末と有線または無線で接続されている少なくとも一つ以上のディスプレイ装置を通じて前記複合次元コンテンツをユーザに提供したり、提供できるように支援したりすることを特徴とする請求項1に記載の方法。
  7. 前記複合次元コンテンツ提供システムは、前記ユーザの端末と接続されている少なくとも一つ以上のサーバから、(i)前記複合次元コンテンツをファイルとしてダウンロードするか、または、(ii)前記複合次元コンテンツのデータをHTTPとRTMPのうち少なくとも一つのプロトコルを利用して、プログレッシブダウンロード方式またはライブストリーミング方式でリアルタイムに送信されることを特徴とする請求項1に記載の方法。
  8. 前記ステップ(c)において、
    前記複合次元コンテンツ提供システムは、前記レンダリング処理を行って取得されるコンテンツの全領域の一部の領域に対応する視聴画面領域を前記ユーザに提供したり、提供されたりするように支援することを特徴とする請求項1に記載の方法。
  9. 前記視聴画面領域は、前記ユーザの入力によって生成された設定情報または所定の設定情報を参照して決定されることを特徴とする請求項8に記載の方法。
  10. 前記複合次元コンテンツ提供システムは、前記ユーザの端末に含まれることを特徴とする請求項1に記載の方法。
  11. 前記ステップ(c)は、
    前記レンダリング処理を行って取得されるコンテンツと前記取得されたコンテンツに対応する音声を対象に同期(sync)させる処理を行い、前記複合次元コンテンツ画像情報と音声情報を一緒に前記ユーザに提供したり、提供できるように支援したりすることを特徴とする請求項1に記載の方法。
  12. 前記複合次元コンテンツ提供システムは、前記3D画像と前記2D画像のピクセル(pixel)数の違いにより前記2D画像部分で発生する余白領域のメタデータ(metadata)を参照して、前記2D画像部分で発生する余白領域が見えないように処理を行ったコンテンツを前記ユーザに提供したり、提供できるように支援したりすることを特徴とする請求項1に記載の方法。
  13. 2D画像部分3D画像部分が結合されている複合次元コンテンツをユーザに提供する複合次元コンテンツ提供システムにおいて、
    前記2D画像部分と前記3D画像部分それぞれに対応する開始位置情報や区間位置情報を取得する再生区間属性情報取得部と、
    前記2D画像部分と前記3D画像部分それぞれに対応する開始位置情報区間位置情報のいずれかの情報を参照して取得した前記3D画像部分の区間に含まれるフレームを対象に、前記3D画像部分を2D再生手段でバックグラウンドまたはフォアグラウンドで再生するときに取得できる歪み再生画像を取得する歪み画像取得部と、
    前記取得された歪み再生画像を対象に3Dレンダリングエンジンを使用してレンダリング処理を行うレンダリング部と、
    (i)前記2D画像部分と、(ii)前記3D画像部分に対応する部分として、前記取得された歪み再生画像を対象に3Dレンダリングエンジンを使用してレンダリング処理を行って取得された部分を含むコンテンツをユーザに提供したり、提供できるように支援したりするコンテンツ提供部とを含む複合次元コンテンツ提供システム。
  14. 前記開始位置情報や前記区間位置情報は、時間区間単位または開始時刻を含んで構成されるか、またはフレーム番号区間単位または開始フレーム番号を含んで構成され、
    前記再生区間属性情報取得部は、前記複合次元コンテンツの外部に記憶され、前記複合次元コンテンツのヘッダに含まれている前記の開始位置情報や前記区間位置情報を取得することを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  15. 前記2D画像部分と前記3D画像部分の境界情報に対応する時点の情報に基づいて所定の範囲内の境界区間に属するフレームに対して次元変換処理を行う次元変換処理部をさらに含むことを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  16. 前記次元変換処理部は、前記境界区間に属する2D画像部分と3D画像部分を対象に、フェードイン(fade in)/フェードアウト(fade out)効果が出るように次元変換処理を行うことを特徴とする請求項15に記載の複合次元コンテンツ提供システム。
  17. 前記3D画像部分に対応する前記歪み再生画像は、フレーム単位のビットマップ画像であり、
    前記レンダリング部は、前記歪み再生画像のフレームを対象に球形状(sphere)またはキューブ形状(cube)でレンダリング処理を行うことを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  18. 前記ユーザの端末または前記ユーザの端末と有線または無線で接続されている少なくとも一つ以上のディスプレイ装置を通じて前記複合次元コンテンツをユーザに提供したり、提供できるように支援したりすることを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  19. 前記ユーザの端末と接続されている少なくとも一つ以上のサーバから、(i)前記複合次元コンテンツをファイルとしてダウンロードするか、または、(ii)前記複合次元コンテンツのデータをHTTPとRTMPのうち少なくとも一つのプロトコルを利用して、プログレッシブダウンロード方式またはライブストリーミング方式でリアルタイムに送信されることを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  20. 前記レンダリング処理を行って取得されるコンテンツの全領域の一部の領域に対応する視聴画面領域を前記ユーザに提供したり、提供できるように支援したりする視聴画面領域選択支援部をさらに含む請求項13に記載の複合次元コンテンツ提供システム。
  21. 前記視聴画面領域は、前記ユーザの入力によって生成された設定情報または所定の設定情報を参照して決定されることを特徴とする請求項20に記載の複合次元コンテンツ提供システム。
  22. 前記複合次元コンテンツ提供システムは、前記ユーザの端末に含まれることを特徴とする請求項13に記載の複合次元コンテンツ提供システム。
  23. 前記レンダリング処理を行って取得されるコンテンツと前記取得されたコンテンツに対応する音声を対象に同期(sync)させる処理を行う同期処理部をさらに含む請求項13に記載の複合次元コンテンツ提供システム。
  24. 前記3D画像と前記2D画像のピクセル(pixel)数の違いにより、前記2D画像部分で発生する余白領域のメタデータ(metadata)を参照して前記2D画像部分で発生する余白領域が見えないように処理を行う余白処理部をさらに含む請求項13に記載の複合次元コンテンツ提供システム。
JP2015556869A 2013-02-20 2013-12-20 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル Expired - Fee Related JP6027272B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2013-0017860 2013-02-20
KR1020130017860A KR101430985B1 (ko) 2013-02-20 2013-02-20 2d-3d 복합 차원 콘텐츠 파일을 사용하는 복합 차원 콘텐츠 서비스 제공 시스템, 그 서비스 제공 방법
PCT/KR2013/011934 WO2014129736A1 (ko) 2013-02-20 2013-12-20 2d-3d 복합 차원 콘텐츠 파일을 사용하는 복합 차원 콘텐츠 서비스 제공 시스템, 그 서비스 제공 방법 및 그 복합 차원 콘텐츠 파일

Publications (2)

Publication Number Publication Date
JP2016513390A JP2016513390A (ja) 2016-05-12
JP6027272B2 true JP6027272B2 (ja) 2016-11-16

Family

ID=51391486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015556869A Expired - Fee Related JP6027272B2 (ja) 2013-02-20 2013-12-20 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル

Country Status (6)

Country Link
US (1) US9491447B2 (ja)
EP (1) EP2942949A4 (ja)
JP (1) JP6027272B2 (ja)
KR (1) KR101430985B1 (ja)
CN (1) CN105191298B (ja)
WO (1) WO2014129736A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11287947B2 (en) 2019-05-15 2022-03-29 Microsoft Technology Licensing, Llc Contextual input in a three-dimensional environment
US11164395B2 (en) 2019-05-15 2021-11-02 Microsoft Technology Licensing, Llc Structure switching in a three-dimensional environment
US11048376B2 (en) * 2019-05-15 2021-06-29 Microsoft Technology Licensing, Llc Text editing system for 3D environment
KR102517796B1 (ko) * 2020-10-30 2023-04-03 조선대학교산학협력단 가상 현실 컨텐츠를 제공하는 방법 및 장치

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11355758A (ja) * 1998-06-09 1999-12-24 Niles Parts Co Ltd テレビ放送システム
CA2373707A1 (en) * 2001-02-28 2002-08-28 Paul Besl Method and system for processing, compressing, streaming and interactive rendering of 3d color image data
JP4251907B2 (ja) * 2003-04-17 2009-04-08 シャープ株式会社 画像データ作成装置
JP2005333552A (ja) * 2004-05-21 2005-12-02 Viewplus Inc パノラマ映像配信システム
WO2006016782A1 (en) * 2004-08-13 2006-02-16 Industry Academic Cooperation Foundation Kyunghee University Method and apparatus to encode image, and method and apparatus to decode image data
KR101450145B1 (ko) * 2007-06-11 2014-10-13 삼성전자 주식회사 스테레오스코픽 영상 비트스트림 생성 방법 및 장치
KR101362647B1 (ko) * 2007-09-07 2014-02-12 삼성전자주식회사 2d 영상을 포함하는 3d 입체영상 파일을 생성 및재생하기 위한 시스템 및 방법
KR101257386B1 (ko) * 2007-10-08 2013-04-23 에스케이플래닛 주식회사 통합 멀티미디어 파일 구조를 이용한 3d 멀티미디어콘텐츠 서비스 시스템 및 방법
KR101480186B1 (ko) * 2007-12-10 2015-01-07 삼성전자주식회사 2d 영상과 3d 입체영상을 포함하는 영상파일을 생성 및재생하기 위한 시스템 및 방법
CN101897195B (zh) * 2007-12-14 2013-03-06 皇家飞利浦电子股份有限公司 用于视频重放的3d模式选择机制
KR20100002032A (ko) * 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
CN101803396B (zh) * 2008-09-17 2014-03-05 松下电器产业株式会社 记录方法、再现装置和集成电路
KR20110011000A (ko) * 2009-07-27 2011-02-08 삼성전자주식회사 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 생성 방법 및 그 장치, 3차원 영상 재생을 위한 부가 정보가 삽입된 3차원 영상 데이터스트림 수신 방법 및 그 장치
WO2011021894A2 (en) * 2009-08-20 2011-02-24 Lg Electronics Inc. Image display apparatus and method for operating the same
KR20110029319A (ko) * 2009-09-15 2011-03-23 삼성전자주식회사 영상 처리 시스템 및 영상 처리 방법
DE102009041328A1 (de) * 2009-09-15 2011-03-24 Natural View Systems Gmbh Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe
JP2011101230A (ja) * 2009-11-06 2011-05-19 Sony Corp 表示制御装置、表示制御方法、プログラム、出力装置、および送信装置
CN104853176A (zh) * 2010-04-02 2015-08-19 三星电子株式会社 发送和接收用于提供立体视频广播服务的数据流的方法
JP5454444B2 (ja) * 2010-10-01 2014-03-26 ソニー株式会社 立体画像データ送信装置、立体画像データ送信方法、立体画像データ受信装置および立体画像データ受信方法
JP2012182785A (ja) * 2011-02-07 2012-09-20 Panasonic Corp 映像再生装置および映像再生方法
CN102170579B (zh) * 2011-03-23 2013-10-09 深圳超多维光电子有限公司 一种图形图像处理系统、方法和芯片
US8913104B2 (en) * 2011-05-24 2014-12-16 Bose Corporation Audio synchronization for two dimensional and three dimensional video signals

Also Published As

Publication number Publication date
EP2942949A1 (en) 2015-11-11
JP2016513390A (ja) 2016-05-12
US9491447B2 (en) 2016-11-08
CN105191298A (zh) 2015-12-23
CN105191298B (zh) 2017-07-11
US20150350634A1 (en) 2015-12-03
WO2014129736A1 (ko) 2014-08-28
KR101430985B1 (ko) 2014-09-18
EP2942949A4 (en) 2016-06-01

Similar Documents

Publication Publication Date Title
US7739584B2 (en) Electronic messaging synchronized to media presentation
KR101604250B1 (ko) 게임 동영상 추천 서비스 제공 방법
JP4360425B2 (ja) 画像処理装置、その処理方法およびプログラム
US11582507B2 (en) Methods and apparatuses for combining and distributing user enhanced video/audio content
JP6332930B2 (ja) ゲームシステム、サーバシステム及びプログラム
KR101791778B1 (ko) 게임 플레이 동영상에 광고 컨텐츠를 추가 적용하여 제공하는 서비스 방법
JP6027272B2 (ja) 2d−3d複合次元コンテンツファイルを用いた複合次元コンテンツサービス提供システム、そのサービス提供方法及びその複合次元コンテンツファイル
JP6004475B2 (ja) 再生制御装置、再生制御方法及びプログラム
JP2013251667A (ja) 情報処理装置、および情報処理方法、並びにプログラム
JP5393237B2 (ja) 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
JP5407708B2 (ja) 撮影映像処理装置、制御方法及びプログラム
JP6043753B2 (ja) コンテンツ再生システム、サーバ、携帯端末、コンテンツ再生方法、プログラムおよび記録媒体
JP2010258917A (ja) 撮影装置、プログラム、及び撮影方法
WO2014129735A1 (ko) 복합 차원 콘텐츠 제공 시스템, 그 제공 방법 및 복합 차원 콘텐츠 파일
KR101796226B1 (ko) 복수개의 동영상을 동시에 출력하는 시스템
JP4200858B2 (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP2006157197A (ja) フォトムービー作成装置及びフォトムービー作成プログラム
JP5895921B2 (ja) 撮影映像処理装置、制御方法及びプログラム
JP5265498B2 (ja) 情報処理装置、チューナーおよび情報処理方法
JP2006279294A (ja) コンテンツ再生システム、コンテンツ再生方法、およびコンピュータプログラム
JPH1138954A (ja) 画像表示装置、画像表示方法および画像表示プログラムを記録した媒体
JP7365076B2 (ja) 映像配信装置、映像配信システム、映像配信方法、及びプログラム
JP6473469B2 (ja) 映像配信システム
JP6020665B2 (ja) 再生制御装置、再生制御方法及びプログラム
JP2023166836A (ja) 多視点画像管理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161013

R150 Certificate of patent or registration of utility model

Ref document number: 6027272

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees