JP7196089B2 - 仮想現実映像の再生方法及びこれを用いたプログラム - Google Patents

仮想現実映像の再生方法及びこれを用いたプログラム Download PDF

Info

Publication number
JP7196089B2
JP7196089B2 JP2019547702A JP2019547702A JP7196089B2 JP 7196089 B2 JP7196089 B2 JP 7196089B2 JP 2019547702 A JP2019547702 A JP 2019547702A JP 2019547702 A JP2019547702 A JP 2019547702A JP 7196089 B2 JP7196089 B2 JP 7196089B2
Authority
JP
Japan
Prior art keywords
video
client
frame
direction data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019547702A
Other languages
English (en)
Other versions
JP2020509706A (ja
Inventor
ウク キム,テ
ラム イ,ハ
ヨン ジョン,ドク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clicked Inc
Original Assignee
Clicked Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clicked Inc filed Critical Clicked Inc
Publication of JP2020509706A publication Critical patent/JP2020509706A/ja
Application granted granted Critical
Publication of JP7196089B2 publication Critical patent/JP7196089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/452Remote windowing, e.g. X-Window System, desktop virtualisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は仮想現実映像の伝送方法、仮想現実映像の再生方法及びこれを用いたプログラムに関する。より詳細には、無線通信を介して高いスペックを要求する仮想現実コンテンツのリアルタイム伝送及び再生を行う方法又はプログラムに関する。
仮想現実(VR;Virtual Reality)とは、コンピュータを介して生成された仮想の空間であって、3次元の視覚効果を通じて現実感を付与する空間のことをいう。仮想現実の実現のための技術は、ユーザの入力をリアルタイムで処理してユーザが現実世界に存在するかのように感じられる技術であって、マルチメディアに勝る次世代技術である。
仮想現実環境は、ユーザに臨場感あふれる没入感を提供することによって実在する物体をシミュレーションできるだけでなく、実際に存在しない物体や状況を体験できるようにする。このような仮想現実環境は、多様な分野に適用することができる。例えば、自動車の設計やシミュレーション実験などの工学分野から医療分野、文化コンテンツ分野に至るまでまさに多様な分野で用いられている。
このような仮想現実(VR)は、視点に応じて仮想環境(Virtual Environment)、仮想実在(Virtual Presence)、人工世界(Artifical World)、仮想世界(Virtual World)、サイバースペース(Cyber Space)といった用語で使われているが、一般に、コンピュータが創り出す、実世界と類似する3次元の仮想世界をユーザに提供し、その仮想世界とリアルタイムで自由に操作できる入力手段と、ユーザの操作に対応して現実的感覚を提供する感覚フィードバック(Sensory feedback)手段とを、提供することによって、人工的な体験と経験ができるようにする技術と言える。
近年、技術の発展に伴い、仮想現実コンテンツを利用できる装置も多数登場している。従来は、高スペックの仮想現実映像を生成するためにデスクトップなどのPCにケーブルでVR再生装置を接続した状態で、ユーザが着用して用いていた。しかし、このような場合、ユーザは、ケーブルを介してVR装置を着用しているので、動ける行動半径が制限される。このため、ユーザが、VR装置を着用して外部を確認できずケーブルに引っ掛かって倒れる事故などが発生し得るという問題があった。また、PCがある場合でしかVR装置を用いて仮想現実映像を楽しむことができないという不便さが存在していた。
また、近年は、移動端末をVR装置に結合し、移動端末がVR映像を生成するための情報処理を行った後、VR装置に伝達する方式が登場している。ここでは、情報処理を行うコンピュータである移動端末と、再生するVR装置とが有線で接続される。この場合、移動端末及びVR装置の結合によって、ケーブルにより発生する問題は解決できる。しかし、移動端末はPCに比べて高スペックのプログラムを駆動し難いため、高スペックのVRゲームを駆動したり、高い解像度のVR映像を再生したりすることが難しいという問題がある。
そこで、本発明は上記事情に鑑みてなされたものであって、その目的は、情報処理装置とVR装置との間で無線通信を介して映像フレームを伝送して再生するようにし、場所及び行動半径に制限を受けることなく、高スペックのコンピュータからVR映像の提供を受けられる仮想現実映像の伝送方法、再生方法及びこれを用いたプログラムを、提供することにある。
本発明が解決しようとする課題は、以上で言及された課題に限定されず、言及されていない他の課題は、以下の記載から通常の技術者が明確に理解できるはずである。
上述した課題を解決するための本発明の一側面に係る仮想現実映像の再生方法は、クライアントがサーバから映像フレームを受信する段階と、前記受信した映像フレームを第1レイヤに割り当てる段階と、少なくとも1つのグラフィックユーザインターフェースを含む第2レイヤを生成する段階と、前記第1レイヤ及び前記第2レイヤを合成して最終の映像フレームを生成する段階と、前記生成された最終の映像フレームを表示する段階とを含む。
また、少なくとも1つのコントローラの制御情報を表示する第3レイヤを生成する段階を更に含み、前記最終の映像フレームを生成する段階は、前記第1レイヤ、前記第2レイヤ及び前記第3レイヤを合成して前記最終の映像フレームを生成する段階を含むことができる。
更に、前記第3レイヤを生成する段階は、前記クライアントが前記少なくとも1つのコントローラの動作情報を受信する段階と、前記受信した動作情報を用いて前記少なくとも1つのコントローラの制御情報を示す映像を生成する段階と、前記生成された映像を前記第3レイヤに割り当てる段階とを含むことができる。
また、前記映像フレームを受信する段階は、前記クライアントが前記サーバから第1時点に相応する第1映像フレームを受信する段階を含み、前記仮想現実映像の再生方法は、前記第1時点に相応する再生方向データ及び映像方向データを獲得する段階を更に含み、前記再生方向データは、特定時点に前記クライアントの画面上に再生されるべき映像フレームの方向に関するデータであり、前記映像方向データは、前記サーバにより生成された映像フレームの3次元空間上の方向に関するデータであり得る。
更に、前記再生方向データを獲得する段階は、ユーザの首の動きを測定して前記再生方向データを獲得する段階を含むことができる。
また、前記映像フレームを受信する段階は、第2時点の映像フレームが受信されない場合、前記第1時点の映像方向データと前記第2時点の再生方向データとの差値を算出し、前記差値に基づいて前記第1映像フレームを補正する段階を更に含み、前記第2時点は、前記第1時点から前記映像フレームの伝送周期が経過した時点であり得る。
更に、前記第1映像フレームを補正する段階は、前記差値に基づいて前記第1映像フレームを移動又は変換させて第2代替映像フレームを生成する段階を含み、前記第1レイヤに割り当てる段階は、前記生成された第2代替映像フレームを前記第1レイヤに割り当てる段階を含むことができる。
また、前記再生方向データ及び前記映像方向データは、高低角データ及び方位角データを含み、前記差値算出段階は、前記第2時点の再生方向データと前記第1時点の映像方向データ間の高低角及び方位角の差を算出することを特徴とすることができる。
更に、前記再生方向データ及び前記映像方向データは、ユーザの正面方向を軸にする回転角度である傾斜データを含み、第1映像フレームを補正する段階は、前記第2時点の再生方向データと前記第1時点の映像方向データ間の前記傾斜データの差に基づいて、前記第1映像フレームを回転して補正する段階を更に含むことができる。
また、第n時点(nは2よりも大きい自然数)に相応する映像フレームが受信されないと、第n-1時点に相応する映像方向データと前記第n時点に相応する再生方向データとを比較して差値を算出する段階と、前記算出された差値だけ第n-1代替映像フレームを補正して第n代替映像フレームを生成する段階とを更に含み、前記第n時点は、第n番目の映像フレームが受信される時点であり、前記第n-1時点から映像フレームの伝送周期が経過した時点であり得る。
上述した課題を解決するための本発明の他の側面に係る仮想現実映像再生プログラムは、ハードウェアであるコンピュータと結合され、開示された実施形態による仮想現実映像の再生方法を実行させるために媒体に格納される。
本発明のその他の具体的な事項は、詳細な説明及び図面に含まれている。
前記のような本発明によれば、以下のような多様な効果を奏する。
第一に、仮想現実映像フレームを無線で伝送するのに伴う特定時点の映像フレームの欠落を補完でき、ユーザは特定の映像フレームが受信されない場合にも仮想現実空間の全体的な時点が揺れることなく、自然に映像が再生され得るという効果を奏する。
第二に、ユーザはサーバコンピュータが遠く離れている状態でもセルラー通信やWLAN通信を用いてどこでも途切れることなく仮想現実映像を楽しむことができる。
第三に、映像フレームが受信されない場合に補完することによって、仮想現実映像を無線で伝送できるので、コンピュータに接続されているケーブルにより行動が制限されるという問題、ケーブルに引っ掛かって不注意による事故が発生するという問題を解決することができる。
第四に、サーバは、クライアントにより要請される再生方向データに対応する全体映像のうち1つのフレームのみ抽出して伝送するか、再生方向データに対応する方向のフレームのみ生成して伝送すればよいので、無線通信のネットワーク帯域幅を削減することができる。
第五に、同一のデータ容量で全ての方向に対する全体映像を伝送するのではなく、1つのフレームのみ伝送するので、多くの通信トラフィックを占めることなく、高解像度の映像を伝送できる。これにより、クライアントを着用するユーザは、遠距離から高解像度の映像を視聴できる。
第六に、クライアントはサーバから再生が要求される方向の映像フレームのみを受信するので、所望の方向を再生するためにクライアントが全体映像の中から再生する方向のフレームを抽出するプロセスを実行する必要がない。これにより、高スペックのクライアントが不要になり得る。
本発明の効果は、以上で言及された効果に限定されず、言及されていない他の効果は、以下の記載から通常の技術者が明確に理解できるはずである。
本発明の一実施形態に係る仮想現実映像送受信システムの構成図である。 本発明の一実施形態に係る仮想現実映像の伝送方法に対する順序図である。 本発明の一実施形態に係る最初の全体映像に基づいて生成された仮想現実映像フレームの伝送方法に対する順序図である。 本発明の一実施形態に係るクライアントの仮想現実映像の再生方法に対する順序図である。 第2最終映像フレームが欠落し、第2代替映像フレームが提供されない場合、クライアントを介してユーザに提供される映像の変化を示す例示図である。 本発明の一実施形態において、クライアントで第1時点の映像方向データと第2時点の再生方向データの差値に基づいて生成した第2代替映像フレームの例示図である。 クライアントが移動する場合、最終の映像フレームが欠落したフレームがなく順番に提供されることに伴う物体の位置変化を示す例示図である。 本発明の一実施形態において、クライアントの移動程度を反映して第1最終映像フレームでそれぞれの物体位置を補正した第2代替映像フレームを提供する例示図である。 一実施形態において、1つ以上のレイヤを用いて仮想現実映像を再生する方法を示すフローチャートである。 一実施形態において、第1レイヤ及び第2レイヤを含む仮想現実映像の再生方法を示す図である。 一実施形態において、第1レイヤ、第2レイヤ及び第3レイヤを含む仮想現実映像の再生方法を示す図である。
以下、添付の図面を参照して本発明の好適な実施形態を詳細に説明する。本発明の利点及び特徴、そしてそれらを実現する方法は、添付の図面と共に詳細に後述されている実施形態を参照すれば明確になる。しかし、本発明は、以下で開示される実施形態に限定されるものではなく、互いに異なる多様な形態で実現することができる。但し、本実施形態は本発明の開示を完全なものにし、本発明が属する技術分野において通常の知識を有する者に発明の範疇を完全に理解させるために提供されるものであり、本発明は請求範囲の範疇により定義されるに過ぎない。明細書全体に亘って同一の参照符号は、同一の構成要素を示す。
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野において通常の知識を有する者に共通して理解され得る意味として使用され得る。また、一般に用いられる辞典に定義されている用語は、特別且つ明白に定義されていない限り、理想的に又は過度に解釈されない。
本明細書で用いられた用語は、実施形態を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数型は特に言及しない限り複数型も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外に1つ以上の他の構成要素の存在又は追加を排除するものではない。
以下、図面を参照して本発明の実施形態に係る仮想現実映像送受信システムについて説明する。
図1は、本発明の一実施形態に係る仮想現実映像送受信システムの構成図である。
本発明の一実施形態に係る仮想現実映像送受信システムは、サーバ100及びクライアント200を含む。
サーバ100は、仮想現実(Virtual Reality;VR)映像を生成するコンピュータである。サーバ100は、情報処理を内部で行ってクライアント200に提供するVR映像を生成する機能をする。例えば、VR映像が特定のゲーム実行による映像である場合、サーバ100は、ゲームプログラムを実行して適切な映像フレームを生成して無線通信を介してクライアント200に伝送できる。
また、サーバ100は、生成されるVR映像に映像方向データをメタ情報として結合する機能を行える。前記映像方向データは、サーバ100により生成された映像フレームの3次元空間上の方向に関するデータであり得る。
更に、サーバ100は、クライアント200から再生方向データを受信することができる。サーバ100は、映像フレームに結合する映像方向データを受信した再生方向データとして決定し、再生方向データ(又は映像方向データ)に相応するVR映像フレームを生成できる。
クライアント200は、仮想現実映像に該当する映像フレーム(即ち、後述する最終の映像フレーム)を受信して再生する装置である。即ち、クライアント200は、サーバ100から受信したVR映像フレームを再生して着用者に提供する機能をする。クライアント200は、VR装置そのものであってもよく、VR装置に移動端末が結合されている形態であってもよい。例えば、VR装置及び移動端末が結合されてクライアント200になる場合、クライアント200では、移動端末が、サーバ100から生成された映像フレームを受信し、これに接続されている有線ケーブル又は近距離無線通信を介してVR装置に映像フレームを伝達する。これにより、VR装置は、映像フレームを画面に表示できる。
VR装置は、多様な形態で構成されることができる。例えば、VR装置は両眼に適したそれぞれの映像を含む映像フレームを1つのディスプレイ部に表示し、各眼球方向の魚眼レンズにより3次元映像に生成できる。また、他の実施形態において、VR装置は、それぞれの眼球に対応する映像を提供する2つのディスプレイ部を備えることができる。
また、クライアント200は、再生方向データを測定する役割を果たすことができる。前記再生方向データは、特定時点に前記クライアント200の画面上に再生されるべき映像フレームの方向に関するデータであり得る。即ち、着用者がクライアント200を眼球に着用した場合、クライアント200は、眺める方向を測定し、これを再生方向データとして決定できる。例えば、再生方向データは、高低角データ、方位角データ又は傾斜データを含むことができる。クライアント200は、1つ以上のセンサ(例えば、ジャイロセンサ、加速度センサ、地磁気センサなど)を備え、クライアント200を着用したユーザの頭(又は首)の動きを測定して高低角データ、方位角データ、傾斜データなどを含むことができる。また、クライアント200は、測定した再生方向データをサーバ100に無線通信を介して伝送する機能を行える。
前記高低角データは、水平面(例えば、地平線)とクライアント200の視線方向がなす角を、意味し得る。即ち、前記高低角データは、ユーザの首の上下の動きに応じて水平面となす角であり得る。
前記方位角データは方位を示す角度であって、水平面上で特定の基準方向を基準として回転した角度を意味し得る。即ち、前記方位角データは、ユーザの胴体(又は首)を軸にして回転する首の動きにより変更され得る。
前記傾斜データは、ユーザの正面方向を軸にして首が回転する角を意味し得る。即ち、前記傾斜データは、ユーザの左右への首の動き又はユーザの身体の全体的な回転などにより変更され得る。
また、クライアント200は、着用者の移動を測定することもできる。例えば、仮想シミュレーショントレーニング又はゲームを行う場合、ユーザはクライアント200を着用し移動するので、クライアント200は、測定されたユーザの移動程度に基づいて、移動した位置に対応する映像フレームをサーバ100に要請できる。また、クライアント200は、後述するように、ユーザが移動した特定時点の映像フレームが受信されない場合、映像フレーム伝送周期間のユーザの移動程度を反映して、映像フレームの補正を行うことができる。
更に、クライアント200は、無線通信で映像フレームを受信する場合に特定の映像フレームが受信されないと、以前に受信した映像フレームをユーザの動きに適するように補正して画面上に表示できる。即ち、クライアント200は第2時点の最終の映像フレームが受信されない場合、第1時点の映像方向データと前記第2時点の再生方向データとの差値を算出し、前記差値に基づいて第1時点の最終の映像フレームを補正できる。前記第2時点は、前記第1時点から前記最終の映像フレームの伝送周期が経過した時点であり得る。
サーバ100とクライアント200は、無線通信を介して接続されることができる。無線通信方式としては、Wi-Fi方式、セルラー通信などが活用され得る。例えば、サーバ100がユーザの位置する特定の空間内(例えば、家の内部、仮想現実体験空間内など)に配置されたコンピュータである場合、無線AP(例えば、Wi-Fi AP)を介してクライアント200及びサーバ100の間の通信が遂行され得る。また、例えば、サーバ100が外部の遠距離に配置されたコンピュータである場合、遠距離のサーバ100が、セルラー通信又はLAN通信などを介して、クライアント200に生成された映像フレームを伝送できる。クライアント200は、セルラー通信を介して基地局から映像フレームを受信するか、無線APからWLANを介して映像フレームを受信することができる。これにより、ユーザは、無線通信が可能なクライアント200を所持していれば、サーバ100に近い位置にいなくても、サーバ100から提供されるVR映像を受信して利用できる。
以下、図面を参照して本発明の実施形態に係る仮想現実映像の伝送方法、再生方法及びプログラムについて説明する。
無線通信を介して仮想現実映像(VR映像)を伝送する場合、無線通信網の状態が円滑でないことにより、特定の映像フレームが欠落することがある。このような場合に、着用者は映像フレーム内の物体が揺れるかのように感じられ、乗り物酔い症状が現れることがある。このような問題を解決するためには、欠落した映像フレームに代わる代替映像フレームを、以前の時点に受信した映像フレームから生成して、ユーザに提供する必要がある。
既存のサーバ100及びクライアント200がケーブルを介して有線で接続される方式では、映像を生成するサーバ100により映像の補正までが行われる。このため、この有線方式では、補正のための基準を別途用意する必要がない。一方で、無線通信を用いてサーバ100及びクライアント200の間で映像フレームを伝送する方式では、サーバ100により映像フレームが生成され、クライアント200により欠落した特定時点の映像フレームが補完される。このように、この無線方式では、役割が分担されるので、映像を補正するための基準が必要である。従って、以下では、無線通信を介して受信されない映像フレームを補完することによって、ユーザに映像が揺れるなどの不快さを感じさせないようにするためのサーバ100の仮想現実映像の生成及び伝送方法とクライアント200の仮想現実映像の再生方法を、説明する。
図2は、本発明の一実施形態に係る仮想現実映像の伝送方法に対する順序図である。
図2を参照すれば、本発明の一実施形態に係る仮想現実映像の伝送方法は、サーバ100が最初の映像フレームを生成する段階(S120)と、前記最初の映像フレームに相応する映像方向データを判断する段階(S140)と、前記最初の映像フレームに前記映像方向データをメタ情報として結合して最終の映像フレームを生成する段階(S160)と、前記最終の映像フレームを無線通信を介してクライアント200に伝送する段階(S180)とを含む。
サーバ100が最初の映像フレームを生成する(S120)。サーバ100は、内部にインストールされたプログラムを駆動して最初の映像フレームを生成できる。前記最初の映像フレームは、クライアント200に送信された後、特定映像フレームの不受信時の補完のための情報処理が行われない映像フレームを意味する。例えば、サーバ100がゲームプログラムを駆動してゲーム映像フレームを生成できる。
サーバ100は、前記最初の映像フレームに相応する映像方向データを判断する(S140)。前記映像方向データは、前記サーバ100により生成された映像フレームの3次元空間上の方向に関するデータである。サーバ100により映像が生成される前に映像方向データを決定(例えば、特定方向の映像の提供が要請されることによって生成する映像方向が定められた後、対応する最初の映像フレームを生成)することができ、映像フレームを生成した後、対応する映像方向データを決定することもできる。
サーバ100は、最初の映像フレームに映像方向データをメタ情報として結合して最終の映像フレームを生成する(S160)。その後、サーバ100は、無線通信を介して最終の映像フレームをクライアント200に伝送する(S180)。即ち、サーバ100は、クライアント200が映像フレームに対応する方向を判断できるか、次の伝送時点(即ち、第2時点)の映像フレームが受信されない場合に以前時点(即ち、第1時点)の映像フレームの補正により補完できるように、最初の映像フレームに映像方向データを結合した最終の映像フレームをクライアント200に伝送できる。
クライアント200は、サーバ100から第2時点の最終の映像フレームが通信状態の問題などにより受信されない場合、第1時点の映像方向データと前記第2時点の再生方向データとの差値を算出し、前記差値に基づいて前記第1時点の最終の映像フレームを補正できる。前記第2時点は、前記第1時点から前記最終の映像フレームの伝送周期が経過した時点であり得る。
また、前記クライアント200から再生方向データを受信する段階(S110)を、更に含むことができる。例えば、着用者がクライアント200を着用して動けば、クライアント200は、特定時点に、画面を介してユーザに提供されるべき映像フレームの方向に関するデータ(例えば、ユーザの首の動きに関するデータ)を獲得してサーバ100に伝送できる。再生方向データは、クライアント200により測定されるデータである。サーバ100は、映像方向データ判断段階(S120)でクライアント200から受信した再生方向データに基づいて映像方向データを決定できる。即ち、サーバ100は、クライアント200から受信した再生方向データと一致する方向を、映像を生成する方向として決定できる。従って、サーバ100は、クライアント200から受信した再生方向データを映像方向データと設定し(S120)、設定された映像方向データに対応する最初の映像フレーム(S100)を生成できる。
更に、前記最終の映像フレーム生成段階(S140)は、前記最終の映像フレームをそれぞれの眼球用映像フレームに変換する段階を更に含むことができる。3次元映像が提供されるためには、左眼用映像及び右眼用映像に視差が必要であり得る。従って、サーバ100は、クライアント200に伝送する最終の映像フレームを左眼用最終映像フレーム及び左右眼用最終映像フレームとしてそれぞれ生成できる。
また、前記最終の映像フレーム生成段階(S140)は、前記クライアント200の画面に対応する大きさに前記最終の映像フレームを変換する段階を、更に含むことができる。即ち、サーバ100は、クライアント200が最終の映像フレームを受信して直ちに再生できるように、クライアント200の画面の大きさに対応するように、映像フレームの大きさを変換できる。これにより、サーバ100に比べて情報処理のためのスペックが低いクライアント200において画面の大きさに対応するように変換するプロセスで発生し得る時間遅延(delay)を、最小化できる。
図3は、本発明の一実施形態に係る最初の全体映像に基づいて生成された仮想現実映像フレームの伝送方法に対する順序図である。
本発明の他の実施形態に係る仮想現実映像の伝送方法は、サーバ100が特定時点の最初の全体映像を生成する段階(S100)と、前記クライアント200から再生方向データを受信する段階(S110)と、前記最初の全体映像から前記再生方向データに相応する最初の映像フレームを抽出する段階(S121)と、前記再生方向データを映像方向データとして決定する段階(S141)と、前記最初の映像フレームに前記映像方向データをメタ情報として結合して最終の映像フレームを生成する段階(S160)と、前記最終の映像フレームを無線通信を介してクライアント200に伝送する段階(S180)とを、含む。以下、既に説明された段階についての具体的な説明は省略する。
サーバ100が特定時点の最初の全体映像を獲得する(S100)。前記最初の全体映像は、ユーザの視線が向かう全ての方向の映像フレームを含む映像を意味し得る。即ち、サーバ100は、内部の特定のプログラムを駆動して特定時点の全体映像を生成でき、予め生成された一定時間の全体映像(例えば、360°カメラにより一定時間撮影された映像)の中から特定時点の全体映像を抽出できる。
サーバ100がクライアント200から再生方向データを受信する(S110)。
サーバ100が前記最初の全体映像から前記再生方向データに相応する最初の映像フレームを抽出する(S121)。即ち、サーバ100は、クライアント200から受信した再生方向データにより映像フレームが要請される方向を判断し、最初の全体映像から前記再生方向データに相応する最初の映像フレームを抽出できる。
サーバ100は、前記再生方向データを映像方向データとして決定する(S141)。即ち、サーバ100は、抽出された最初の映像フレームが前記再生方向データに対応する方向の映像フレームであるので、クライアント200から受信した再生方向データを、前記抽出された最初の映像フレームの映像方向データと設定することができる。
サーバ100は、前記最初の映像フレームに前記映像方向データをメタ情報として結合して、最終の映像フレームを生成する(S160)。サーバ100は、無線通信を介して、前記最終の映像フレームをクライアント200に伝送する(S180)。
図4は、本発明の一実施形態に係るクライアント200の仮想現実映像の再生方法に対する順序図である。
本発明の更に他の実施形態に係る仮想現実映像の再生方法は、クライアント200がサーバ100から第1時点に相応する第1最終映像フレームを受信する段階(S200)と、第2時点に相応する第2最終映像フレームが受信されないと、前記第1時点に相応する映像方向データと前記第2時点に相応する再生方向データとを比較して差値を算出する段階(S220)と、前記算出された差値だけ前記第1最終映像フレームを補正して受信されていない前記第2最終映像フレームに代わる第2代替映像フレームを生成する段階(S240)と、前記第2代替映像フレームを画面に表示する段階(S260)とを含む。
クライアント200がサーバ100から第1時点に相応する第1最終映像フレームを受信する(S200)。即ち、クライアント200は、無線通信を介して、サーバ100から映像方向データがメタ情報として結合されている第1最終映像フレームを、受信することができる。前記映像方向データは、前記サーバ100により獲得された映像フレームの3次元空間上の方向に関するデータであり得る。前記最終の映像フレームは、前記サーバ100により前記映像方向データをメタ情報として含む映像フレームであり得る。
クライアント200は、第2時点に相応する第2最終映像フレームが受信されないと、前記第1時点に相応する映像方向データと前記第2時点に相応する再生方向データとを比較して、差値を算出する(S220)。前記第2時点は、前記第1時点から前記最終の映像フレームの伝送周期が経過した時点であり得る。クライアント200は、第1時点に対応する第1最終映像フレームを受信して表示した後に最終の映像フレームの伝送周期が経過すると、第2時点に通信状態の不良などの理由により第2最終映像フレームを受信できなくなる恐れがある。ここで、第2時点で期待される第2最終映像フレームの代りに第1最終映像フレームが継続して表示された場合、第2時点の再生方向データと第1最終映像フレームの映像方向データ間の差だけ物体が揺れる現象が発生し得る。即ち、第2時点で第1時点に相応する第1最終映像フレームを継続して表示した後に、第3時点(即ち、第2時点から最終の映像フレームの伝送周期が経過した時点)に新しい最終の映像フレーム(即ち、第3最終映像フレーム)が受信される。この場合、図5に示すように、映像フレームは、第1最終映像フレームから第3最終映像フレームへ直接変更される。例えば、第2時点に相応する物体の位置が省略され、物体の位置が第1時点の物体位置から第3時点の物体位置へ移動するので、ユーザは、不自然に物体が動いたり、揺れたりするかのような現象を、感じることができる。このような現象が継続して発生すると、ユーザは乗り物酔い症状を感じることができる。これを解決するために、クライアント200は、欠落した第2最終映像フレームに代わる映像フレームを生成する必要がある。従って、クライアント200は、第1時点で受信した第1最終映像フレームを修正して第2時点の映像フレーム(即ち、第2代替映像フレーム)として生成できる。
クライアント200は、第1最終映像フレームを第2時点に対応する映像フレームに変換するために補正の水準を決定する必要がある。このために、クライアント200は、前記第1時点に相応する映像方向データと前記第2時点に相応する再生方向データとを比較して、差値を算出できる。再生方向データは、特定時点に前記クライアント200の画面上に再生されるべき映像フレームの方向に関するデータであり得る。再生方向データは、VR装置内に備えられたセンサ(例えば、ジャイロセンサ、地磁気センサ、加速度センサなど)を介して測定され得る。例えば、クライアント200は、サーバ100から再生方向データに対応する映像方向データを含む映像フレームを受信してユーザに提供する場合、クライアント200は、映像フレームが提供されるべき方向に該当する第2再生方向データと第1最終映像フレームの方向に該当する第1映像方向データとの差を計算し、第1最終映像フレームを補正すべき値として算出できる。
前記再生方向データ及び前記映像方向データは、高低角データ及び方位角データを含むことができる。クライアント200は、第2時点の再生方向データと第1時点の映像方向データ間の高低角及び方位角の差を算出できる。
また、前記再生方向データ及び前記映像方向データは、着用者の正面方向を軸とする回転角度である傾斜データを含むことができる。クライアント200は、第2時点の再生方向データと第1時点の映像方向データ間の傾斜データの差を算出できる。
クライアント200は、前記算出された差値だけ前記第1最終映像フレームを補正して、受信されていない前記第2最終映像フレームに代わる第2代替映像フレームを、生成する(S240)。一実施形態として、クライアント200は、前記差値に基づいて前記第1最終映像フレームを移動できる。即ち、クライアント200は、高低角の差値だけ第1最終映像フレームを垂直方向へ移動させることができ、方位角の差値だけ第1最終映像フレームを水平方向へ移動させることができる。また、クライアント200は、傾斜データの差値だけ第1最終映像フレームを回転できる。ユーザの正面方向を軸に特定の方向に首を傾けると、ユーザに見える物体は回転するので、第1時点の映像方向データと第2時点の再生方向データ間の傾斜データの差値だけ、第1最終映像フレームを回転できる。
クライアント200が第1最終映像フレームを前記差値に応じて補正する場合、ユーザに提供される第2代替映像フレーム上には、図6に示すように、空白領域が発生するようになる。前記空白領域は白黒で処理されるか、着用者が視覚的に最小限に認知するように類似する色の組み合わせで処理されることもできる。
クライアント200は、前記第2代替映像フレームを画面に表示する(S260)。即ち、クライアント200は、第2時点に欠落した第2最終映像フレームに代えて、第1最終映像フレームを補正した第2代替映像フレームを、画面に表示できる。
また、ユーザがクライアント200を着用して移動する場合、クライアント200は、ユーザの移動程度(例えば、移動距離及び移動方向、移動した歩数など)を把握する。第2時点の最終の映像フレームが受信されない場合、クライアント200は、ユーザの移動程度に対応するように、第1最終映像フレームを補正できる。一実施形態として、ユーザが移動する場合に、物体はユーザから離れた距離に応じて位置変化の度合いに差がある。図7に示すように、近くに位置する物体は、ユーザの移動に応じて大幅に移動する。遠くに位置する物体は、近くに位置する物体に比べて、ユーザの移動に応じて小幅に移動する。従って、仮想現実映像でも、このような遠近による物体の移動幅の差を反映しなければ、ユーザに高い現実感を提供できない。このために、複数の物体(即ち、映像フレーム内で各ピクセルの集合で表現された物体)がクライアントからそれぞれ離れた距離情報(以下、深さ情報)をメタ情報として含む最終の映像フレームを、サーバが生成して伝送できる。第2時点の第2最終映像フレームが欠落する場合、クライアントは、含まれている1つ以上のセンサ(例えば、ジャイロセンサ、加速度センサ、地磁気センサなど)を用いてユーザの移動程度を算出し、第1最終映像フレーム内のそれぞれの物体に対して各物体の深さ情報を反映して第2代替映像フレームを生成できる。即ち、図8に示すように、クライアントは、第1時点と第2時点とのクライアント位置(即ち、クライアントを着用したユーザの位置)の差に応じて、第1最終映像フレーム内の複数の物体に相応するピクセル別に補正を行って、第2代替映像フレームを生成できる。また、追加的に、クライアントは、物体が配置された距離に応じた物体の移動幅の差を反映してピクセル単位の物体補正を行った後、既存に第1最終映像フレームで物体が配置されていた領域を補正する作業を行うことができる。クライアントは、周辺の色を反映して特定の色組み合わせで既存の物体配置空間を満たすことができる。
更に、他の実施形態として、物体の移動幅が異なる場合、クライアントは最も大きな大きさの物体の配置位置に合うように映像フレームを移動させた後、残りの物体をピクセル単位で調節できる。これにより、最も大きな大きさの物体に対してはピクセル単位の作業を行わないので、ピクセル単位の移動に応じて生成される第2代替映像フレーム内の空き空間が、最小化され得る。また、他の実施形態として、クライアントを着用したユーザが、前方又は後方にのみ移動する場合、クライアントは、第1最終映像フレームを拡大又は縮小して、欠落した第2最終映像フレームに代わる第2代替映像フレームを、生成できる。
また、第n時点(nは1よりも大きい自然数)に相応する最終の映像フレームが受信されないと、前記第n-1時点に相応する映像方向データと前記第n時点に相応する再生方向データとを比較して差値を算出する段階と、前記算出された差値だけ前記第n-1代替映像フレームを補正して第n代替映像フレームを生成する段階とを、更に含むことができる。即ち、第2時点に第2最終映像フレームが受信されず、第2代替映像フレームが提供された後に第3時点に第3最終映像フレームが受信されると、ユーザは映像内の物体が円滑に移動するものと知覚できる。しかし、第2時点以後にも映像フレームが連続的に受信されない場合、クライアント200は以前に生成された代替映像フレーム(例えば、第2代替映像フレーム又は第n-1代替映像フレーム)に基づいて、次の代替映像フレーム(例えば、第3代替映像フレーム又は第n代替映像フレーム)を生成する必要がある。クライアント200は、第n-1時点の第n-1代替映像フレーム内の映像方向データ(又は第n-1時点に測定された再生方向データ)と第n時点に測定された再生方向データとを比較して差値を算出し、算出された差値だけ第n-1代替映像フレームを補正(例えば、移動又は変換)して、第n代替映像フレームを生成できる。これにより、クライアント200は、通信状態の不良により連続的にサーバ100から最終の映像フレームが受信されない場合も、自然な仮想現実映像をユーザに提供できる。
以下、クライアント200が1つ以上のレイヤを用いて仮想現実映像を再生する実施形態を具体的に説明する。
図9は、一実施形態において、1つ以上のレイヤを用いて仮想現実映像を再生する方法を示すフローチャートである。
段階S310で、クライアント200が、サーバ100から映像フレームを受信し、受信した映像フレームを第1レイヤに割り当てる。
段階S320で、クライアント200が、少なくとも1つのグラフィックユーザインターフェース(Graphic User Interface、GUI)を含む第2レイヤを、生成する。
段階S330で、クライアント200が、少なくとも1つのコントローラの制御情報を表示する第3レイヤを、生成する。
段階S340で、クライアント200が、最終の映像フレームを生成し、生成された最終の映像フレームを表示する。
一実施形態において、クライアント200は、第1レイヤ及び第2レイヤを合成して最終の映像フレームを生成し、生成された最終の映像フレームを表示する。
他の実施形態において、クライアント200は、第1レイヤ、第2レイヤ及び第3レイヤを合成して最終の映像フレームを生成し、生成された最終の映像フレームを表示する。
図10は、一実施形態において、第1レイヤ及び第2レイヤを含む仮想現実映像の再生方法を示す図である。
図10を参照すれば、サーバから受信した映像フレームが表示される第1レイヤ400及び少なくとも1つのグラフィックユーザインターフェース510、520が表示される第2レイヤ500が、示されている。
第1レイヤ400に表示された映像フレームは、サーバ100から映像フレームが伝送される伝送周期毎に変更される。
第2レイヤ500に表示された少なくとも1つのグラフィックユーザインターフェース510、520は、クライアント200又はクライアント200で表示される映像に対応するアプリケーションを制御するか、クライアント200で表示される映像に対応する情報を表示するために、用いられる。
例えば、少なくとも1つのグラフィックユーザインターフェース510、520は、クライアント200に表示される映像の再生を制御するか、映像に対応する情報を表示するための少なくとも1つのユーザインターフェースを、含むことができる。
他の例として、少なくとも1つのグラフィックユーザインターフェース510、520は、クライアント200に表示されるゲームの操作又はゲームに対応する情報を表示するための少なくとも1つのユーザインターフェースを、含むことができる。
ユーザの動きによりクライアント200が移動する場合、第1レイヤ400に表示される映像フレームは、クライアント200の位置又は方向によって決定される再生方向データ及び映像方向データに対応する映像フレームに、変更される。しかし、第2レイヤ500に表示されるグラフィックユーザインターフェースの位置は、変更されず、ユーザの視線と共に移動し得る。
同様に、開示された実施形態において、第1レイヤ400に第1時点の映像フレームが表示され、第1時点から映像フレームの伝送周期が経過した時点で、ある第2時点の映像フレームが受信されない場合、クライアント200は、第1時点の映像方向データと第2時点の再生方向データの差異点を算出し、差値に基づいて第1映像フレームを補正して第2代替映像フレームを生成する。
仮りに、1つのレイヤに映像フレーム及びグラフィックユーザインターフェースが共に表示された状態で、前記実施形態において第1映像フレームが補正される場合、第1映像フレームに表示されたグラフィックユーザインターフェースも共に移動又は回転するようになり、ユーザに不便さを感じさせることがある。
従って、図10に示す実施形態によれば、映像フレームを第1レイヤ400に割り当て、グラフィックユーザインターフェース510、520を第2レイヤ500に割り当てることによって、映像フレームの補正に伴う不便を解消することができる。
具体的に、クライアント200は、生成された第2代替映像フレームを第1レイヤ400に割り当てて表示するようにする。
反面、第2レイヤ500は、クライアント200で生成されるため、遅延又は欠落が発生しない。また、第2レイヤ500に表示されるグラフィックユーザインターフェース510、520の位置は、フレーム内で変更されないので、第2レイヤ500に表示されるフレームに対して補正をする必要がない。
従って、クライアント200は、補正が完了した第2代替映像フレームを含む第1レイヤ400と未補正の第2レイヤ500とを合成して最終の映像フレームを生成し、生成された最終の映像フレームを表示する。
クライアント200は、第2レイヤ500に表示されるグラフィックユーザインターフェース510、520を生成するための情報をサーバ100から受信してもよく、直接獲得してもよい。
サーバ100から情報を受信してグラフィックユーザインターフェース510、520を生成する場合、グラフィックユーザインターフェース510、520を生成するために必要な情報の量は、第1レイヤ400に表示される映像フレームに含まれている情報の量に比べて非常に少ない。また、グラフィックユーザインターフェース510、520は、第1レイヤ400に表示される映像フレームとは異なり、クライアント200の動きや時間の経過に伴い、即時に変化するものではない場合が多い。このため、第1レイヤ400と第2レイヤ500とを分離して処理することによって、容易に映像を補正でき、開示された実施形態による映像フレームの補正過程でグラフィックユーザインターフェースが共に補正でき、ユーザに不便を与える現象も防止できる。
図11は、一実施形態において、第1レイヤ、第2レイヤ及び第3レイヤを含む仮想現実映像の再生方法を示す図である。
図11は、図10に示す実施形態において第3レイヤ600が追加された実施形態を示す図である。従って、第1レイヤ400及び第2レイヤ500と関連して省略される内容であっても、図10で説明した内容は、図11に示す第1レイヤ400及び第2レイヤ500にも適用される。
一実施形態において、クライアント200は、1つ以上のコントローラ(図示せず)と接続される。コントローラは、仮想現実映像の制御又は仮想現実映像に対応するアプリケーションやゲームの制御のために用いられる。
クライアント200は、コントローラの動作情報を受信し、受信した動作情報を用いて少なくとも1つのコントローラの制御情報を示す映像を生成する。
クライアント200は、コントローラの制御情報を示す映像を第3レイヤ600に割り当てる。
図11を参照すれば、第3レイヤ600は、少なくとも1つのコントローラの位置、方向及び動作情報のうちの少なくとも1つを示すコントローライメージ610、620を表示する。
クライアント200は、少なくとも1つのコントローラの位置、方向及び動作情報のうちの少なくとも1つを獲得し、獲得した情報を用いてコントローラの制御情報を示す映像を生成する。クライアント200は、生成された映像の1フレームを第3レイヤ600に表示する。
第3レイヤ600に表示される情報は、クライアント200がコントローラから受信して表示するものであるので、サーバ100との通信状態とは関係なく、クライアント200が獲得又は生成して表示できる。
クライアント200は、サーバ100との通信過程で発生し得る遅延(latency)現象なしにコントローラの制御情報を表示できる。
従って、第2レイヤ500と同様、第3レイヤ600に対しては、フレーム補正を行う必要がない。
クライアント200は、第1レイヤ400に表示される映像フレームに対してのみ補正を行い、補正により生成された第2代替映像フレームを第1レイヤ400に割り当て、第1レイヤ400、第2レイヤ500及び第3レイヤ600を合成して最終の映像フレームを生成する。
クライアント200は、生成された最終の映像フレームを表示する。
以上で前述した本発明の一実施形態に係る仮想現実映像の伝送方法、仮想現実映像の再生方法及び仮想現実映像の補正方法は、ハードウェアであるサーバ100又はクライアント200と結合されて実行するためにプログラム(又はアプリケーション)で実現して媒体に格納し得る。
前述したプログラムは、前記コンピュータがプログラムを読み込んでプログラムで実現した前記方法を実行させるために、前記コンピュータのプロセッサ(CPU)が前記コンピュータの装置インターフェースを介して読み取られるC、C++、JAVA(登録商標)、機械語などのコンピュータ言語でコード化されたコード(Code)を含むことができる。このようなコードは、前記方法を実行する必要な機能を定義した関数などと関連する機能的なコード(Functional Code)を含むことができ、前記機能を前記コンピュータのプロセッサが所定の手順通りに実行させるために必要な実行手順関連の制御コードを含むことができる。また、このようなコードは、前記機能を前記コンピュータのプロセッサが実行させるために必要な追加の情報やメディアが、前記コンピュータの内部又は外部メモリのどの位置(アドレス)で参照されるべきかに対するメモリ参照関連のコードを更に含むことができる。また、前記コンピュータのプロセッサが前記機能を実行させるために遠隔(Remote)にある任意の他のコンピュータやサーバなどと通信が必要な場合、コードは、前記コンピュータの通信モジュールを用いて遠隔にある任意の他のコンピュータやサーバなどと如何に通信すべきか、通信時に如何なる情報やメディアを送受信すべきかなどに対する通信関連のコードを更に含むことができる。
前記格納される媒体は、レジスタ、キャッシュ、メモリなどのように短い瞬間にデータを格納する媒体ではなく半永久的にデータを格納し、機器により読み取り(reading)可能な媒体を意味する。具体的には、前記格納される媒体の例としては、ROM、RAM、CD-ROM、磁気テープ、フロッピーディスク、光データ格納装置などが挙げられるが、これに制限されない。即ち、前記プログラムは、前記コンピュータが接続できる多様なサーバ上の多様な記録媒体又はユーザの前記コンピュータ上の多様な記録媒体に格納されることができる。また、前記媒体は、ネットワークで接続されたコンピュータシステムに分散され、分散方式でコンピュータが読み取れるコードを格納することができる。
前記のような本発明によれば、以下のような多様な効果を奏する。
第一に、仮想現実映像フレームを無線で伝送するのに伴う特定時点の映像フレームの欠落を補完でき、ユーザは特定の映像フレームが受信されない場合にも仮想現実空間の全体的な時点が揺れることなく、自然に維持され得るという効果がある。
第二に、ユーザは、サーバコンピュータが遠く離れている状態でもセルラー通信やWLAN通信を用いてどこでも途切れることなく仮想現実映像を楽しむことができる。
第三に、映像フレームが受信されない場合に補完することによって、仮想現実映像を無線で伝送できるので、コンピュータに接続されているケーブルにより行動が制限されるという問題、ケーブルに引っ掛かって不注意による事故が発生するという問題を解決することができる。
第四に、サーバは、クライアントにより要請される再生方向データに対応する全体映像のうち1つのフレームのみ抽出して伝送するか、再生方向データに対応する方向のフレームのみ生成して伝送すればよいので、無線通信のネットワーク帯域幅を削減することができる。
第五に、同一のデータ容量で全ての方向に対する全体映像を伝送するのではなく、1つのフレームのみ伝送するので、多くの通信トラフィックを占めることなく、高解像度の映像を伝送できる。これにより、クライアントを着用するユーザは、遠距離から高解像度の映像を視聴できる。
第六に、クライアントは、サーバから再生が要求される方向の映像フレームのみを受信するので、所望の方向を再生するためにクライアントが全体映像の中から再生する方向のフレームを抽出するプロセスを実行する必要がない。これにより、高スペックのクライアントが不要になり得る。
以上、添付の図面を参照して本発明の実施形態を説明したが、本発明が属する技術分野において通常の知識を有する者は本発明がその技術的思想や必須な特徴を変更することなく、他の具体的な形態で実施され得るということが理解できる。従って、以上で記述した実施形態はあらゆる面で例示的なものであり、限定的ではないものとして理解すべきである。

Claims (7)

  1. クライアントがサーバから映像フレームを受信する段階と、
    特定時点に前記クライアントの画面上に再生されるべき前記映像フレームの方向に関する再生方向データ、及び前記サーバにより生成された前記映像フレームの3次元空間上の方向に関する映像方向データを、獲得する段階と、
    前記受信した映像フレームを第1レイヤに割り当てる段階と、
    少なくとも1つのグラフィックユーザインターフェースを含む第2レイヤを生成する段階と、
    前記第1レイヤ及び前記第2レイヤを合成して最終の映像フレームを生成する段階と、
    前記生成された最終の映像フレームを表示する段階と、
    を含み、
    前記再生方向データ及び前記映像方向データは、高低角データ及び方位角データを含み、
    前記映像フレームを受信する段階は、前記クライアントが、前記サーバから第1時点に相応する第1映像フレームと、第2時点に相応する第2映像フレームとを、受信する段階を、含み、
    前記クライアントが前記サーバから前記映像フレームを受信可能な状態において、前記第2時点の第2映像フレームが受信されない場合、前記第2時点の再生方向データと前記第1時点の映像方向データとの間の前記高低角データ及び前記方位角データの差値を算出し、前記差値に基づいて前記第1映像フレームを補正し、空白領域が類似色の組み合わせによって処理される第2代替映像フレームを生成し、
    前記クライアントが前記サーバから前記映像フレームを受信可能な状態において、第n時点(nは2よりも大きい自然数)に相応する映像フレームが受信されない場合、前記第n時点の再生方向データと前記第n-1時点の映像方向データとの間の前記高低角データ及び前記方位角データの差値を算出し、前記差値に基づいて第n-1代替映像フレームを補正し、空白領域が類似色の組み合わせによって処理される第n代替映像フレームを生成し、
    前記第2時点は、第2番目の映像フレームが受信される時点であり、前記第1時点から前記映像フレームの伝送周期が経過した時点であり、前記第n時点は、第n番目の映像フレームが受信される時点であり、前記第n-1時点から前記映像フレームの伝送周期が経過した時点である、
    仮想現実映像の再生方法。
  2. 少なくとも1つのコントローラの制御情報を表示する第3レイヤを生成する段階を更に含み、
    前記最終の映像フレームを生成する段階は、前記第1レイヤ、前記第2レイヤ及び前記第3レイヤを合成して前記最終の映像フレームを生成する段階を含むことを特徴とする請求項1に記載の仮想現実映像の再生方法。
  3. 前記第3レイヤを生成する段階は、
    前記クライアントが前記少なくとも1つのコントローラの動作情報を受信する段階と、
    前記受信した動作情報を用いて前記少なくとも1つのコントローラの制御情報を示す映像を生成する段階と、
    前記生成された映像を前記第3レイヤに割り当てる段階と、
    を含むことを特徴とする請求項2に記載の仮想現実映像の再生方法。
  4. 前記再生方向データを獲得する段階は、ユーザの首の動きを測定して前記再生方向データを獲得する段階を含むことを特徴とする請求項1に記載の仮想現実映像の再生方法。
  5. 前記第1映像フレームを補正する段階は、前記差値に基づいて前記第1映像フレームを移動又は変換させて第2代替映像フレームを生成する段階を含み、
    前記第1レイヤに割り当てる段階は、前記生成された第2代替映像フレームを前記第1レイヤに割り当てる段階を含むことを特徴とする請求項1に記載の仮想現実映像の再生方法。
  6. 前記再生方向データ及び前記映像方向データは、ユーザの正面方向を軸にする回転角度である傾斜データを含み、
    前記第1映像フレームを補正する段階は、前記第2時点の再生方向データと前記第1時点の映像方向データ間の前記傾斜データの差に基づいて、前記第1映像フレームを回転して補正する段階を更に含むことを特徴とする請求項1に記載の仮想現実映像の再生方法。
  7. ハードウェアであるコンピュータと結合され、請求項1~の何れか一項の方法を実行させるために媒体に格納された、仮想現実映像再生プログラム。
JP2019547702A 2017-03-03 2018-02-27 仮想現実映像の再生方法及びこれを用いたプログラム Active JP7196089B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020170027851A KR101874111B1 (ko) 2017-03-03 2017-03-03 가상현실영상 재생방법 및 이를 이용한 프로그램
KR10-2017-0027851 2017-03-03
PCT/KR2018/002398 WO2018159981A1 (ko) 2017-03-03 2018-02-27 가상현실영상 재생방법 및 이를 이용한 프로그램

Publications (2)

Publication Number Publication Date
JP2020509706A JP2020509706A (ja) 2020-03-26
JP7196089B2 true JP7196089B2 (ja) 2022-12-26

Family

ID=62918022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019547702A Active JP7196089B2 (ja) 2017-03-03 2018-02-27 仮想現実映像の再生方法及びこれを用いたプログラム

Country Status (7)

Country Link
US (1) US10540826B2 (ja)
EP (1) EP3422701B1 (ja)
JP (1) JP7196089B2 (ja)
KR (1) KR101874111B1 (ja)
CN (1) CN110383821B (ja)
TW (2) TWI681673B (ja)
WO (1) WO2018159981A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102090009B1 (ko) * 2018-08-07 2020-03-17 클릭트 주식회사 3차원 영상 콘텐츠를 제공하는 방법 및 프로그램
CN114581631A (zh) * 2020-12-02 2022-06-03 腾讯科技(深圳)有限公司 沉浸式媒体的数据处理方法、装置和计算机可读存储介质
JP7049515B1 (ja) * 2021-11-11 2022-04-06 株式会社Cygames 情報処理装置、プログラム及び描画方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008300983A (ja) 2007-05-29 2008-12-11 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2009111511A (ja) 2007-10-26 2009-05-21 Canon Inc 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
JP2015095045A (ja) 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2018087849A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4560368B2 (ja) * 2004-10-08 2010-10-13 キヤノン株式会社 眼検出装置および画像表示装置
KR101409653B1 (ko) * 2007-12-18 2014-06-19 삼성전자주식회사 파노라마 사진 자동 촬영 방법
JP5347716B2 (ja) * 2009-05-27 2013-11-20 ソニー株式会社 画像処理装置、情報処理方法およびプログラム
JP2012048597A (ja) * 2010-08-30 2012-03-08 Univ Of Tokyo 複合現実感表示システム、画像提供画像提供サーバ、表示装置及び表示プログラム
US8953022B2 (en) * 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
KR20140010616A (ko) * 2012-07-16 2014-01-27 한국전자통신연구원 3d 가상 객체에 대한 조작 처리 장치 및 방법
GB201305402D0 (en) * 2013-03-25 2013-05-08 Sony Comp Entertainment Europe Head mountable display
KR20150037254A (ko) * 2013-09-30 2015-04-08 엘지전자 주식회사 착용형 디스플레이 디바이스 및 레이어 제어 방법
KR102182161B1 (ko) * 2014-02-20 2020-11-24 엘지전자 주식회사 Hmd 및 그 제어 방법
US10048347B2 (en) * 2014-07-07 2018-08-14 General Electric Company Power measurement on magnetic resonance imaging coil at different frequency than Larmor frequency
KR102244222B1 (ko) * 2014-09-02 2021-04-26 삼성전자주식회사 가상 현실 서비스를 제공하기 위한 방법 및 이를 위한 장치들
KR102313485B1 (ko) * 2015-04-22 2021-10-15 삼성전자주식회사 가상현실 스트리밍 서비스를 위한 영상 데이터를 송수신하는 방법 및 장치
US9240069B1 (en) * 2015-06-30 2016-01-19 Ariadne's Thread (Usa), Inc. Low-latency virtual reality display system
CN106131539A (zh) * 2016-06-30 2016-11-16 乐视控股(北京)有限公司 一种虚拟现实vr设备及其视频播放方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008300983A (ja) 2007-05-29 2008-12-11 Canon Inc 頭部装着型表示装置、及びその制御方法
JP2009111511A (ja) 2007-10-26 2009-05-21 Canon Inc 画像表示システム、画像表示装置及びその制御方法、コンピュータプログラム
JP2015095045A (ja) 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2018087849A (ja) 2016-11-28 2018-06-07 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
TW201834465A (zh) 2018-09-16
KR101874111B1 (ko) 2018-07-03
US10540826B2 (en) 2020-01-21
WO2018159981A1 (ko) 2018-09-07
TWI755636B (zh) 2022-02-21
JP2020509706A (ja) 2020-03-26
CN110383821B (zh) 2022-04-29
EP3422701C0 (en) 2024-07-17
TW202029779A (zh) 2020-08-01
TWI681673B (zh) 2020-01-01
EP3422701A1 (en) 2019-01-02
CN110383821A (zh) 2019-10-25
EP3422701A4 (en) 2019-05-01
EP3422701B1 (en) 2024-07-17
US20190005738A1 (en) 2019-01-03

Similar Documents

Publication Publication Date Title
JP6422137B2 (ja) ヘッドマウントディスプレイのための知覚に基づく予測追跡
JP6731482B2 (ja) 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
KR101788545B1 (ko) 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램
US11099392B2 (en) Stabilized and tracked enhanced reality images
JP7196089B2 (ja) 仮想現実映像の再生方法及びこれを用いたプログラム
US11187895B2 (en) Content generation apparatus and method
US20190295324A1 (en) Optimized content sharing interaction using a mixed reality environment
US11127208B2 (en) Method for providing virtual reality image and program using same
KR102192153B1 (ko) 가상현실 영상 제공 방법 및 이를 이용한 프로그램
KR102179810B1 (ko) 가상현실영상 재생방법 및 이를 이용한 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201030

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210412

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220112

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220112

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20220202

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20220208

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20220325

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20220329

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220621

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20221115

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20221213

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20221213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221214

R150 Certificate of patent or registration of utility model

Ref document number: 7196089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150