JP7026213B2 - 仮想現実画像の提供方法及びこれを用いたプログラム - Google Patents

仮想現実画像の提供方法及びこれを用いたプログラム Download PDF

Info

Publication number
JP7026213B2
JP7026213B2 JP2020517853A JP2020517853A JP7026213B2 JP 7026213 B2 JP7026213 B2 JP 7026213B2 JP 2020517853 A JP2020517853 A JP 2020517853A JP 2020517853 A JP2020517853 A JP 2020517853A JP 7026213 B2 JP7026213 B2 JP 7026213B2
Authority
JP
Japan
Prior art keywords
image
image frame
virtual reality
data
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020517853A
Other languages
English (en)
Other versions
JP2020535542A (ja
Inventor
ウク キム,テ
ラム イ,ハ
ヨン ジョン,ドク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Clicked Inc
Original Assignee
Clicked Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clicked Inc filed Critical Clicked Inc
Publication of JP2020535542A publication Critical patent/JP2020535542A/ja
Application granted granted Critical
Publication of JP7026213B2 publication Critical patent/JP7026213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/16Indexing scheme for image data processing or generation, in general involving adaptation to the client's capabilities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/21Collision detection, intersection

Description

本発明は、仮想現実画像の提供方法及びこれを用いたプログラムに関し、より詳細には、仮想現実コンテンツ内のオブジェクトに形状及び表面に符合するようにイメージを合成して提供する方法又はプログラムに関する。
仮想現実(VR;Virtual Reality)とは、コンピュータにより生成された仮想の空間であって、3次元の視覚効果を通じて現実感を付与する空間のことをいう。仮想現実の実現のための技術は、ユーザの入力をリアルタイムで処理して現実世界にいるかのように感じられる技術であって、マルチメディアに勝る次世代技術である。
仮想現実環境は、ユーザに臨場感あふれる没入感を提供することによって、実在する物体をシミュレーションできるだけでなく、実際には存在しない物体や状況を体験可能とする。このような仮想現実環境は、多様な分野に適用することができる。例えば、自動車の設計やシミュレーション実験などの工学分野から医療分野、文化コンテンツ分野に至るまでまさに多様な分野で用いられている。
このような仮想現実(VR)は、見る観点に応じて仮想環境(Virtual Environment)、仮想実在(Virtual Presence)、人工世界(Artifical World)、仮想世界(Virtual World)、サイバースペース(Cyber Space)といった用語で使われているが、一般に、コンピュータが創り出す実世界と類似する3次元の仮想世界をユーザに提供し、その仮想世界とリアルタイムで自由に操作できる入力手段と、ユーザの操作に応じて現実的感覚を提供する感覚フィードバック(Sensory feedback)手段を提供することによって、人工的な体験と経験ができるようにする技術と言える。
一方、近年は移動端末をVR装置に結合し、移動端末がVR画像を生成するための情報処理を行った後、VR装置に伝達する方式が登場している。これは情報処理を行うコンピュータである移動端末と、再生するVR装置とが有線で接続されるが、移動端末をVR装置に結合できるため、ケーブルにより発生する不具合は解決できる。しかし、移動端末はPCに比べて高仕様のプログラムを駆動し難いため、高仕様のVRゲームを駆動したり、高解像度のVR画像を再生したりすることが難しいという問題がある。
そこで、本発明は、上記事情に鑑みてなされたものであって、その目的は、仮想現実画像を生成するコンピュータ装置と仮想現実画像に表現されるべきコンテンツを生成する装置とを分離し、無線で高仕様の仮想現実画像を提供できることにある。
また、本発明は一実施例によって仮想現実画像内に存在する対象体の表面に表示されるべきコンテンツを最適の形状に変形してユーザに提供できる。
本発明が解決しようとする課題は、以上で言及した課題に制限されず、言及していない他の課題は、下記の記載から通常の技術者が明確に理解できるであろう。
本発明の一実施例による仮想現実画像の提供方法は、サーバから仮想現実画像データを受信して第1レイヤに割り当てる段階と、少なくとも1つのコントローラの制御情報を表示する第2レイヤを生成する段階と、前記少なくとも1つのコントローラの動作情報を受信し、前記動作情報に基づいて前記仮想現実画像データ内の所定のオブジェクトと前記制御情報の衝突地点を決定する段階と、前記衝突地点の法線ベクトルを考慮して変形された前記制御情報を含む結合データを前記第2レイヤに割り当てる段階と、前記第1レイヤ及び前記第2レイヤを合成して最終画像フレームを生成する段階と、を含むことができる。
他の実施例によって前記仮想現実データを受信して第1レイヤに割り当てる段階は、前記仮想現実画像データを複数のオーバーレイ項目に分割してそれぞれ別途のチャネル単位で受信する段階と、前記別途のチャネルを介して受信した複数のオーバーレイ項目を結合して複数の第1レイヤに割り当てる段階とを含むことができる。
更に他の実施例によって前記衝突地点を決定する段階は、第1チャネルを介して、前記衝突地点を決定するためのオブジェクトを含むオーバーレイ項目を受信する段階と、前記受信したオーバーレイ項目を用いて、前記クライアントで衝突地点を決定する段階と、前記衝突地点の法線ベクトルを決定する段階とを含むことができる。
別の実施例によって、仮想現実画像の提供方法の前記衝突地点を決定する段階は、前記コントローラの動作情報をサーバに伝送し、前記衝突地点及び法線ベクトルを要請する段階と、前記サーバで決定された前記仮想現実画像データ内の所定のオブジェクトと前記制御情報の衝突地点及び法線ベクトルを受信する段階とを含むことができる。
この他にも、本発明を実現するための他の方法、他のシステム及び前記方法を実行するためのコンピュータプログラムを記録するコンピュータで読み取り可能な記録媒体を更に提供できる。
前記のような本発明によれば、以下のような多様な効果を奏することができる。
一実施例によって、仮想現実画像フレームを無線で伝送することによる特定時点の画像フレームの欠落を補完できるため、ユーザは特定の画像フレームが受信されない場合にも、仮想現実空間の全体的な時点が揺れることなく、自然に画像を再生できる。
また、一実施例によって全体画像のうち1つのフレームのみ抽出して伝送するか、再生方向データに符合するフレームのみを生成して伝送することによって、無線方式で仮想現実画像コンテンツを提供する際にも、高解像度の画像を提供できるとともに、通信トラフィックを低減できる。
更に、一実施例によってユーザの動きに即時反応し、仮想現実画像のオブジェクトの表面に最適化したリアルタイム画像を提供できる。従って、仮想現実画像の現実感と没入感を向上させることができる。
また、一実施例によってネットワーク上の遅延によりフレームの欠落が発生する場合や仮想現実画像の補正時にも画像フレームの欠落を補完できるため、十字線(crosshair)のようなイメージがユーザにより実際に指示される地点ではなく、他の地点に表示されるのを防止できる。
本発明の効果は、以上で言及した効果に制限されず、言及していない他の効果は、下記の記載から通常の技術者が明確に理解できるであろう。
一実施例による仮想現実画像提供システムの構成図である。 一実施例による仮想現実画像の提供方法に対する順序図である。 一実施例による仮想現実画像に制御情報を表示する一例を示す図である。 一実施例による法線ベクトルを活用する一例を示す図である。 一実施例による法線ベクトルを活用する一例を示す図である。 一実施例によって第1レイヤ及び第2レイヤを含む仮想現実画像の再生方法を示す図である。 本発明の一実施例による仮想現実画像の伝送方法に対する順序図である。 本発明の一実施例による最初の全体画像を基に生成された仮想現実画像フレームの伝送方法に対する順序図である。 本発明の一実施例によるクライアントの仮想現実画像の再生方法に対する順序図である。 第2最終画像フレームが欠落し、第2代替画像フレームが提供されない場合、クライアントを介してユーザに提供される画像の変化を示す例示図である。 本発明の一実施例によってクライアントで第1時点の画像方向データと第2時点の再生方向データの差値に基づいて生成した第2代替画像フレームの例示図である。 クライアントが移動する場合、最終画像フレームが欠落したフレームがなく順番通りに提供されることによる物体の位置変化を示す例示図である。 本発明の一実施例によってクライアントの移動程度を反映して第1最終画像フレームでそれぞれの物体の位置を補正した第2代替画像フレームを提供する例示図である。
以下、添付の図面を参照して本発明の好適な実施例を詳細に説明する。本発明の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は、以下に開示される実施例に限定されるものではなく、互いに異なる多様な形態で実現することができる。但し、本実施例は、本発明の開示を完全なものにし、本発明が属する技術分野における通常の知識を有する者に本発明の範疇を完全に理解させるために提供されるものであり、本発明は請求範囲の範疇により定義されるに過ぎない。明細書全体に亘って同一の参照符号は同一の構成要素を示す。
他の定義がなければ、本明細書で用いられる全ての用語(技術及び科学的用語を含む)は、本発明が属する技術分野における通常の知識を有する者が共通して理解できる意味として用いられることができる。また、一般に用いられる辞典に定義されている用語は、明白に特に定義されていない限り、理想的に又は過度に解釈されない。
本明細書で用いられた用語は、実施例を説明するためのものであり、本発明を制限しようとするものではない。本明細書において、単数形は特に言及しない限り複数形も含む。明細書で用いられる「含む(comprises)」及び/又は「含んでいる(comprising)」は、言及された構成要素以外の1つ以上の他の構成要素の存在又は追加を排除しない。
以下、図面を参照して本発明の実施例による仮想現実画像の送受信システムについて説明する。
図1は、本発明の一実施例による仮想現実画像の送受信システムの構成図である。
本発明の一実施例による仮想現実画像の送受信システムは、サーバ100及びクライアント200を含む。
サーバ100は、仮想現実(Virtual Reality;VR)画像を生成するコンピュータである。サーバ100は、内部で情報処理を行ってクライアント200に提供するVR画像を生成する機能を有する。例えば、VR画像が特定のゲームを実行するによる画像である場合、サーバ100は、ゲームプログラムを実行して適切な画像データを生成して、有線通信又は無線通信を介してクライアント200に伝送できる。
また、サーバ100で画像データを受信すると、仮想現実画像に表示されるべき情報の表示をクライアント200から実行して画面に表示できる。このとき、情報表示にはコントローラ及びコントローラの中心ポインタを含むユーザグラフィックインターフェースを含むことができる。
更に、ユーザの視線やコントローラ又はHMDの中心ポインタが向かう位置に制御情報(例えば、十字線)が正確に表現されるように、仮想現実画像に含まれているオブジェクトと上のポインタが向かう方向による衝突地点を決定できる。衝突地点の決定は、サーバ100又はクライアント200で実行できる。クライアント200は、決定された衝突地点及び衝突地点の法線ベクトルに基づいて、変形された制御情報が結合された最終画像フレームを生成できる。具体的には、「ユーザの視線」、「コントローラの中心ポインタ」などを示すための結合データと仮想現実画像の衝突地点を計算し、衝突地点の法線ベクトルを基に結合データを最適な形状に変形して、最終的にレンダリングされる最終仮想現実画像フレームをユーザに提供できる。これについては、図2に関する説明で詳述する。
また、サーバ100は、生成されるVR画像に画像方向データをメタ情報として結合する機能を有する。前記画像方向データは、サーバ100により生成された画像フレームの3次元空間上の方向に関するデータとできる。
更に、サーバ100は、クライアント200から再生方向データを受信することができる。サーバ100は、画像フレームに結合する画像方向データを受信した再生方向データとして決定し、再生方向データ(又は画像方向データ)に対応するVR画像フレームを生成できる。
クライアント200は、仮想現実画像に該当する画像データを受信して再生する装置である。即ち、クライアント200は、サーバ100から受信したVR画像データを再生して使用者に提供する機能を有する。クライアント200は、VR装置自体であってもよく、VR装置に移動端末が結合された形態であってもよい。例えば、VR装置と移動端末が結合されてクライアント200を構成する場合、移動端末がサーバ100から生成された画像データを受信し、これを接続されている有線ケーブル又は近距離無線通信を介してVR装置に画像フレームを伝達して画面に表示できる。
VR装置は多様な形態にて構成できる。例えば、VR装置は、両眼に適したそれぞれの画像を含む画像フレームを1つのディスプレイ部に表示し、各眼球方向の魚眼レンズにより3次元画像を生成できる。また、他の実施例において、VR装置はそれぞれの眼球に対応する画像を提供する2つのディスプレイ部を備えることができる。
また、クライアント200は、再生方向データを測定する役割を果たすことができる。前記再生方向データは、特定時点に前記クライアント200の画面上に再生されるべき画像フレームの方向に関するデータとできる。即ち、使用者がクライアント200を眼球に着用して眺める方向を測定し、これを再生方向データとして決定できる。例えば、再生方向データは高低角データ、方位角データ又は傾斜データを含むことができる。クライアント200は、1つ以上のセンサ(例えば、ジャイロセンサ、加速度センサ、地磁気センサなど)を備え、クライアント200を着用したユーザの頭(又は首)の動きを測定して高低角データ、方位角データ、傾斜データなどを含むことができる。更に、クライアント200は、測定した再生方向データをサーバ100に無線通信を介して伝送する機能を有する。
前記高低角データは、水平面(例えば、地平線)とクライアント200の視線方向とがなす角を意味する。即ち、前記高低角データは、ユーザーの頭の上下動に応じて生じる水平面とのなす角とできる。
前記方位角データは、方位を示す角度であって、水平面上で特定の基準方向を基準として回転した角度を意味する。即ち、前記方位角データは、ユーザの胴体(又は首)を軸にして回転する首の動きにより変更できる。
前記傾斜データは、ユーザの正面方向を軸にして首が回転する角を意味する。即ち、前記傾斜データは、ユーザの左右への首の動き又はユーザの身体の全体的な回転などにより変更できる。
また、クライアント200は、使用者の移動を測定することもできる。例えば、仮想シミュレーショントレーニング又はゲームを実行する場合、ユーザはクライアント200を着用して移動するので、クライアント200は、測定されたユーザの移動程度に基づいて移動した位置に符合する画像フレームをサーバ100に要請できる。また、クライアント200は、後述するように、ユーザが移動した特定時点の画像フレームが受信されない場合、画像フレームの伝送周期間のユーザの移動程度を反映して画像フレームの補正を行うことができる。
更に、クライアント200は、無線通信で画像フレームを受信する場合に特定の画像フレームが受信されないと、以前に受信した画像フレームをユーザの動きに適するように補正して画面上に表示できる。即ち、クライアント200は、第2時点の最終画像フレームが受信されない場合、第1時点の画像方向データと前記第2時点の再生方向データとの差値を算出し、前記差値に基づいて第1時点の最終画像フレームを補正できる。前記第2時点は、前記第1時点から前記最終画像フレームの伝送周期が経過した時点とできる。
サーバ100とクライアント200は、無線通信を介して接続することができる。無線通信方式としては、Wi-Fi(登録商標)方式、セルラー通信などを活用できる。例えば、サーバ100がユーザが位置する特定の空間内(例えば、家の内部、仮想現実の体験空間内など)に配置されたコンピュータである場合、無線AP(例えば、Wi-Fi(登録商標) AP)を介してクライアント200とサーバ100間の通信が可能となる。また、例えば、サーバ100が外部の遠距離に配置されたコンピュータである場合、遠距離のサーバ100がセルラー通信又はLAN通信などを介してクライアント200に生成した画像フレームを伝送できる。クライアント200は、セルラー通信を介して基地局から画像フレームを受信するか、無線APからWLANを介して画像フレームを受信することができる。これにより、ユーザは、無線通信が可能なクライアント200を持っていれば、サーバ100のコンピュータに近い位置にいなくてもサーバ100から提供されるVR画像を受信して利用できる。
以下、図面を参照して本発明の実施例による仮想現実画像の提供方法及びプログラムについて説明する。
図2は、本発明の一実施例による仮想現実画像の伝送方法に対する順序図である。
段階S10で、クライアント200は、サーバ100から仮想現実画像データを受信して第1レイヤに割り当てる。
また、クライアント200は、仮想現実画像データを複数のオーバーレイ項目に分割して、それぞれ別途のチャネル単位で受信することができる。また、その後に別途のチャネルを介して受信した複数のオーバーレイ項目を結合して複数の第1レイヤに割り当てることができる。
従って、サーバ100は、各オーバーレイ項目を全体の1つのイメージとして伝送する必要はなく、複数のイメージとして伝送可能である。(例えば、右側上端にエネルギーバー、下端にアイテム目録などを別途に伝送可能である。)
各オーバーレイ項目の別途の圧縮方式を支援可能である。また、各オーバーレイ項目は、クライアント200の画面に表示するために(x,y)座標を有していなければならず、各オーバーレイ項目がz-order(深さに関する情報)も有していれば、オーバーレイ項目同士で他のレイヤに割り当てることができる。従って、サーバ100は、オーバーレイ項目を更新する必要がある毎にクライアント200に該当部分のみを伝送できる。このような方式を利用すれば、後述するように、衝突地点の決定をクライアント200においても特定範囲内のデータのみを受信してリアルタイムに実行可能である。
段階S20で、クライアント200は、少なくとも1つのコントローラの制御情報を表示する第2レイヤを生成する。第2レイヤは、少なくとも1つのグラフィックユーザインターフェース(GUI:Graphic User Interface)を含む。コントローラの制御情報は、コントローラの仮想現実画像でのイメージデータ、コントローラが指示する方向を示すイメージ、コントローラと仮想現実画像内のオブジェクトが衝突する地点を示すイメージ(例えば、十字線)などを含むことができる。
一実施例による仮想現実画像の提供方法でコントローラの制御による動きを表示するために、マウスのカーソル及び/又は十字線のような制御情報を表示できるが、コンテンツがユーザの動きに即時反応するようにネットワークの遅延を最小化するために、制御情報は別途のレイヤに割り当てられる。
一方、このような制御情報を仮想現実画像に共に表示するためには、仮想現実画像内のオブジェクトと相互作用する結果が反映される必要がある。
例えば、図3を参照すれば、仮想現実画像300内のコントローラが現在何を指しているかを正確に表示するために、コントローラのイメージ301及びコントローラが指示する地点の真上に制御情報(302、ポインタ)を表示できる。もちろん、このような構成に限定されるものではなく、視線の中央にポインタイメージを表示する場合、より自然な没入感をユーザに提供することもできる。一方、一実施例によるポインタが表示されるコンテンツオブジェクトは、サーバ100上に存在するので、ネットワークを介してこれを実現するために、コントローラ及びポインタを、直接クライアント200において別途のレイヤに割り当て、サーバから伝送した画像データとポインタが衝突する地点をサーバ100又はクライアント200が決定し反映するようにできる。
更に、図2を参照すれば、段階S30で、少なくとも1つのコントローラの動作情報がクライアント200にて受信され、動作情報に基づいて仮想現実画像データ内の所定のオブジェクトと制御情報の衝突地点が決定される。ここで、コントローラは、マウス、ジョイスティック、HMD(Head Mounted Device)などの制御装置を含むことができる。コントローラの動作情報には、コントローラの位置情報及びコントローラが指示する方向に関する情報を含めることができる。
一実施例による衝突地点及び法線ベクトルは、クライアント200にて決定できる。
サーバ100は、第1チャネルを介して、衝突地点を決定するためのオブジェクトを含むオーバーレイ項目をクライアント200に伝送する。クライアント200は、受信したオーバーレイ項目を用いて衝突地点を算出できる。また、クライアント200は、衝突地点での法線ベクトルを決定できる。ここで、サーバ100は、衝突地点の計算に必要なオーバーレイ項目のみを別途のチャネルでクライアント200に伝送することによって、クライアント200でも比較的に低いリソースを活用して衝突地点の計算が可能となる。
他の実施例による衝突地点及び法線ベクトルは、サーバ100にて決定してクライアント200に伝送できる。
クライアント200は、コントローラの動作情報をサーバ100に伝送し、サーバ100は、受信したコントローラの動作情報に基づいて、仮想現実画像内のオブジェクトと衝突する地点及び法線ベクトルを決定できる。サーバ100は、衝突の計算に用いられたコントローラの動作情報、コントローラが指示する方向線上のオブジェクトと衝突する位置及び衝突位置上の衝突オブジェクトに関する法線ベクトル情報をクライアント200に伝送する。
更に他の実施例によるサーバ100は、衝突の計算に用いられたコントローラの位置情報、コントローラが指示する方向線上のオブジェクトと衝突する位置情報及び衝突位置上の衝突オブジェクトに対する法線ベクトルをクライアント200に伝送できる。ユーザの動きが直接的に反映される要素であるコントローラ及びポインタの動きに対する遅延は、没入感を大きく阻害するが、ユーザの動きに対する間接的な反応を表現する要素であるコントローラとポインタ間の距離及びポインタの方向に対する遅延は没入感に大きな妨害要素とならないため、サーバで衝突の計算が行われるにも拘らず、ユーザの没入感を維持できる。
段階S40で、クライアント200は、衝突地点の法線ベクトルに基づいて変形された制御情報を含む少なくとも1つの結合データを第2レイヤに割り当てることができる。
段階S50で、クライアント200は、第1レイヤ及び第2レイヤを合成して最終画像フレームを生成できる。
図4及び図5は、制御情報を表示するために法線ベクトルが必要な理由を説明する図である。
図4は、仮想現実画像401にて法線ベクトルを考慮せず、オブジェクト410上にポインタイメージ420が表示された場合を示す。また、図5は、仮想現実画像402にて法線ベクトルを考慮してオブジェクト上にポインタイメージ430が表示された一例を示す。即ち、法線ベクトルを活用すると、仮想現実画像内でイメージを結合するオブジェクトの配置状態(傾いたり、横たわっている状態)を把握できる。一方、図5では直四角状のオブジェクトを例として挙げたが、オブジェクトが曲面を有する場合、曲面の形状を把握するための情報を追加で考慮することができる。(例えば、1つの領域内で複数の位置データと各地点での法線データをサーバから受信することができる。)
図6は、一実施例によって第1レイヤ及び第2レイヤを含む仮想現実画像の再生方法を示す図である。
図6を参照すれば、サーバから受信した画像フレームが表示される第1レイヤ300及び少なくとも1つのグラフィックユーザインターフェース及び制御情報(410及び420)が表示される第2レイヤ400が示されている。
第1レイヤ300に表示された画像フレームは、サーバ100から画像フレームが伝送される伝送周期毎に変更される。
第2レイヤ400に表示された少なくとも1つのグラフィックユーザインターフェース(410及び420)は、クライアント200又はクライアント200で表示される画像に対応するアプリケーションを制御するか、クライアント200で表示される画像に対応する情報を表示するのに利用される。
例えば、少なくとも1つのグラフィックユーザインターフェース及び制御情報(410及び420)は、クライアント200に表示される画像の再生を制御するか、画像に対応する情報を表示するための少なくとも1つのユーザインターフェースを含むことができる。
他の例として、少なくとも1つのグラフィックユーザインターフェース及び制御情報(410及び420)は、クライアント200に表示されるゲームの操作又はゲームに対応する情報を表示するための少なくとも1つのユーザインターフェースを含むことができる。
ユーザの動きによってクライアント200が移動する場合、第1レイヤ300に表示される画像フレームは、クライアント200の位置又は方向によって決定される再生方向データ及び画像方向データに対応する画像フレームに変更される。しかし、第2レイヤ400に表示されるグラフィックユーザインターフェースの位置は変更されず、ユーザの視線と共に移動できる。
同様に、開示された実施例によって第1レイヤ300に第1時点の画像フレームが表示され、第1時点から画像フレームの伝送周期が経過した時点である第2時点の画像フレームが受信されない場合、クライアント200は、第1時点の画像方向データと第2時点の再生方向データとの差異を算出し、この差異に基づいて第1画像フレームを補正して第2代替画像フレームを生成する。
仮に1つのレイヤに画像フレームとグラフィックユーザインターフェースが共に表示される場合、前記実施例によって第1画像フレームを補正する場合に第1画像フレームに表示されたグラフィックユーザインターフェースも共に移動又は回転して、ユーザが不便を感じる恐れがある。
従って、図6に示された実施例によれば、画像フレームを第1レイヤ300に割り当て、グラフィックユーザインターフェース410及び制御情報420を第2レイヤ400に割り当てることによって、画像フレームの補正による不便を解消するようにする。
具体的には、クライアント200は、生成された第2代替画像フレームを第1レイヤ300に割り当てて表示するようにする。
反面、第2レイヤ400は、クライアント200で生成されるため、遅延又は欠落が発生しない。また、第2レイヤ400に表示されるグラフィックユーザインターフェース410及び制御情報420の位置は、フレーム内で変更されないので、第2レイヤ400に表示されるフレームに対しては補正を実行する必要がない。
従って、クライアント200は、補正が完了した第2代替画像フレームを含む第1レイヤ300と、補正が行われない第2レイヤ400とを合成して最終画像フレームを生成し、生成された最終画像フレームを表示する。
クライアント200は、第2レイヤ400に表示されるグラフィックユーザインターフェース(410及び420)を生成するための情報をサーバ100から受信することもでき、直接取得することもできる。
サーバ100から情報を受信してグラフィックユーザインターフェース410及び制御情報420を生成する場合にも、グラフィックユーザインターフェース410及び制御情報420を生成するために必要な情報の量は、第1レイヤ300に表示される画像フレームに含まれている情報の量に比べて非常に少ない。また、グラフィックユーザインターフェース410及び制御情報420は、第1レイヤ300に表示される画像フレームとは異なり、クライアント200の動きや時間の経過に伴って即時に変化しなくてもよい場合が多いので、第1レイヤ300と第2レイヤ400とを分離して処理することによって、容易に画像を補正でき、開示された実施例による画像フレームの補正過程でグラフィックユーザインターフェースが共に補正され、ユーザに不便を与える現象も防止できるという効果がある。
図7は、一実施例による仮想現実画像の伝送方法に対する順序図である。
図7を参照すれば、本発明の一実施例による仮想現実画像の伝送方法は、サーバ100が最初の画像フレームを生成する段階(S120)と、前記最初の画像フレームに対応する画像方向データを判断する段階(S140)と、前記最初の画像フレームに前記画像方向データをメタ情報として結合して最終画像フレームを生成する段階(S160)と、前記最終画像フレームを無線通信を介してクライアント200に伝送する段階(S180)とを含む。
サーバ100が最初の画像フレームを生成する(S120)。サーバ100は、内部にインストールされたプログラムを実行して最初の画像フレームを生成できる。前記最初の画像フレームは、クライアント200に送られた後、特定の画像フレームが受信されない際の補完のための情報処理が行われていない画像フレームを意味する。例えば、サーバ100がゲームプログラムを実行してゲーム画像フレームを生成できる。
サーバ100は、前記最初の画像フレームに対応する画像方向データを判断する(S140)。前記画像方向データは、前記サーバ100により生成された画像フレームの3次元空間上の方向に関するデータである。サーバ100により画像が生成される前に画像方向データを決定(例えば、特定方向の画像提供が要請されることによって生成する画像方向が定められた後、対応する最初の画像フレームを生成)することができ、画像フレームを生成した後に対応する画像方向データを決定することもできる。
サーバ100は、最初の画像フレームに画像方向データをメタ情報として結合して最終画像フレームを生成する(S160)。その後、サーバ100は、最終画像フレームを無線通信を介してクライアント200に伝送する(S180)。即ち、サーバ100は、クライアント200が画像フレームに対応する方向を判断するか、次の伝送時点(即ち、第2時点)の画像フレームが受信されていない場合に以前の時点(即ち、第1時点)の画像フレームを補正して補完できるように、最初の画像フレームに画像方向データを結合した最終画像フレームをクライアント200に伝送できる。
クライアント200は、サーバ100から第2時点の最終画像フレームが通信状態の不良などにより受信されない場合、第1時点の画像方向データと前記第2時点の再生方向データとの差異を算出し、前記差異に基づいて前記第1時点の最終画像フレームを補正できる。前記第2時点は、前記第1時点から前記最終画像フレームの伝送周期が経過した時点とできる。
また、前記クライアント200から再生方向データを受信する段階(S110)を更に含むことができる。例えば、使用者がクライアント200を着用して動くと、クライアント200は、特定時点に画面を介してユーザに提供されるべき画像フレームの方向に関するデータ(例えば、ユーザーの頭の動きに関するデータ)を獲得してサーバ100に伝送できる。クライアント200により測定されるデータを再生方向データとし、サーバ100は、画像方向データ判断段階(S120)でクライアント200から受信した再生方向データに基づいて画像方向データを決定できる。即ち、サーバ100は、クライアント200から受信した再生方向データと一致する方向を、画像を生成する方向として決定できる。従って、サーバ100は、クライアント200から受信した再生方向データを画像方向データに設定し(S120)、設定された画像方向データに符合する最初の画像フレーム(S100)を生成できる。
更に、前記最終画像フレーム生成段階(S140)は、前記最終画像フレームをそれぞれの眼球用画像フレームに変換する段階を更に含むことができる。3次元画像を提供するためには、左眼用画像と右眼用画像に差が必要となる。従って、サーバ100は、クライアント200に伝送する最終画像フレームを左眼用最終画像フレーム及び右眼用最終画像フレームとしてそれぞれ生成できる。
更に、前記最終画像フレーム生成段階(S140)は、前記クライアント200の画面に符合する大きさに前記最終画像フレームを変換する段階を更に含むことができる。即ち、サーバ100は、クライアント200が最終画像フレームを受信して直ぐに再生できるように、クライアント200の画面の大きさに符合するように画像フレームの大きさを変換できる。これにより、サーバ100に比べて情報処理のための仕様が低いクライアント200で画面の大きさに符合するように変換する過程で発生し得る時間遅延(delay)を最小化できる。
図8は、本発明の一実施例による最初の全体画像を基に生成された仮想現実画像フレームの伝送方法に対する順序図である。
本発明の他の実施例による仮想現実画像の伝送方法は、サーバ100が特定時点の最初の全体画像を生成する段階(S100)と、前記クライアント200から再生方向データを受信する段階(S110)と、前記最初の全体画像から前記再生方向データに対応する最初の画像フレームを抽出する段階(S121)と、前記再生方向データを画像方向データとして決定する段階(S141)と、前記最初の画像フレームに前記画像方向データをメタ情報として結合して最終画像フレームを生成する段階(S160)と、前記最終画像フレームを無線通信を介してクライアント200に伝送する段階(S180)と、を含む。以下、前述した段階についての具体的な説明は省略する。
サーバ100が特定時点の最初の全体画像を獲得する(S100)。前記最初の全体画像は、ユーザの視線が向かう全ての方向の画像フレームを含む画像を意味する。即ち、サーバ100は、内部の特定のプログラムを実行して特定時点の全体画像を生成でき、予め生成された一定時間の全体画像(例えば、360度カメラにより一定時間撮影された画像)の中から特定時点の全体画像を抽出できる。
サーバ100がクライアント200から再生方向データを受信する(S110)。
サーバ100が前記最初の全体画像から前記再生方向データに対応する最初の画像フレームを抽出する(S121)。即ち、サーバ100は、クライアント200から受信した再生方向データを通じて画像フレームが要請される方向を判断し、最初の全体画像から前記再生方向データに対応する最初画像フレームを抽出できる。
サーバ100は、前記再生方向データを画像方向データとして決定する(S141)。即ち、サーバ100は、抽出された最初の画像フレームが前記再生方向データに対応する方向の画像フレームであるので、クライアント200から受信した再生方向データを前記抽出された最初画像フレームの画像方向データとして設定することができる。
サーバ100が前記最初の画像フレームに前記画像方向データをメタ情報として結合して最終画像フレームを生成する(S160)。サーバ100が前記最終画像フレームを無線通信を介してクライアント200に伝送する(S180)。
図9は、本発明の一実施例によるクライアント200の仮想現実画像の再生方法に対する順序図である。
本発明の更に他の一実施例による仮想現実画像の再生方法は、クライアント200がサーバ100から第1時点に対応する第1最終画像フレームを受信する段階(S200)と、第2時点に対応する第2最終画像フレームが受信されない場合に、前記第1時点に対応する画像方向データと前記第2時点に対応する再生方向データとを比較して差異を算出する段階(S220)と、前記算出された差異だけ前記第1最終画像フレームを補正して、受信されていない前記第2最終画像フレームに代わる第2代替画像フレームを生成する段階(S240)と、前記第2代替画像フレームを画面に表示する段階(S260)とを含む。
クライアント200がサーバ100から第1時点に対応する第1最終画像フレームを受信する(S200)。即ち、クライアント200は、サーバ100から画像方向データがメタ情報として結合された第1最終画像フレームを無線通信を介して受信することができる。前記画像方向データは、前記サーバ100により獲得された画像フレームの3次元空間上の方向に関するデータであり、前記最終画像フレームは、前記サーバ100により前記画像方向データをメタ情報として含む画像フレームであり得る。
クライアント200は、第2時点に対応する第2最終画像フレームが受信されない場合に、前記第1時点に対応する画像方向データと前記第2時点に対応する再生方向データとを比較して差異を算出する(S220)。前記第2時点は、前記第1時点から前記最終画像フレームの伝送周期が経過した時点とできる。クライアント200は、第1時点に対応する第1最終画像フレームを受信して表示した後に最終画像フレームの伝送周期が経過した後、第2時点に通信状態の不良などの理由により第2最終画像フレームを受信できない恐れがある。このような場合、第2時点で期待される第2最終画像フレームの代わりに第1最終画像フレームが継続して表示されることで、第2時点の再生方向データと第1最終画像フレームの画像方向データ間の差だけ物体が揺れる現象が発生しうる。即ち、第2時点に第1時点に対応する第1最終画像フレームを継続して表示した後に第3時点(即ち、第2時点から最終画像フレームの伝送周期が経過した時点)に新たな最終画像フレーム(即ち、第3最終画像フレーム)が受信されると、図10に示すように、ユーザは、第1最終画像フレームから第3最終画像フレームへ直接変更されることによって第2時点に対応する物体の位置を飛ばして第1時点の物体の位置から第3時点の物体の位置へ移動することによって不自然に物体が動いたり揺れたりするかのような現象を感じることがある。このような現象が継続的に発生すると、ユーザは目眩を感じる恐れがある。これを解決するために、クライアント200は、欠落した第2最終画像フレームに代わる画像フレームを生成する必要がある。従って、クライアント200は、第1時点で受信した第1最終画像フレームを修正して第2時点の画像フレーム(即ち、第2代替画像フレーム)として生成できる。
クライアント200は、第1最終画像フレームを第2時点に符合する画像フレームに変換するために補正水準を決定する必要がある。このために、クライアント200は、前記第1時点に対応する画像方向データと前記第2時点に対応する再生方向データとを比較して差異を算出できる。再生方向データは、特定時点に前記クライアント200の画面上に再生されるべき画像フレームの方向に関するデータとできる。再生方向データは、VR装置内に備えられたセンサ(例えば、ジャイロセンサ、地磁気センサ、加速度センサなど)を用いて測定できる。例えば、クライアント200は、サーバ100から再生方向データに対応する画像方向データを含む画像フレームを受信してユーザに提供する場合、クライアント200は、画像フレームが提供されるべき方向に該当する第2再生方向データと第1最終画像フレームの方向に該当する第1画像方向データの差を計算し、第1最終画像フレームを補正すべき値として算出できる。
前記再生方向データ及び前記画像方向データは、高低角データ及び方位角データを含むことができる。クライアント200は、第2時点の再生方向データと第1時点の画像方向データ間の高低角及び方位角の差を算出できる。
また、前記再生方向データ及び前記画像方向データは、使用者の正面方向を軸とする回転角度である傾斜データを含むことができる。クライアント200は、第2時点の再生方向データと第1時点の画像方向データ間の傾斜データの差を算出できる。
クライアント200は、前記算出された差異だけ前記第1最終画像フレームを補正して受信されていない前記第2最終画像フレームに代わる第2代替画像フレームを生成する(S240)。一実施例として、クライアント200は、前記差異に基づいて前記第1最終画像フレームを移動できる。即ち、クライアント200は、高低角の差異だけ第1最終画像フレームを垂直方向に移動させることができ、方位角の差異だけ第1最終画像フレームを水平方向に移動させることができる。また、クライアント200は、傾斜データの差異だけ第1最終画像フレームを回転できる。ユーザの正面方向を軸に特定の方向に首を傾けると、ユーザが見る物体は回転するので、第1時点の画像方向データと第2時点の再生方向データ間の傾斜データの差異だけ第1最終画像フレームを回転できる。
クライアント200が第1最終画像フレームを前記差異によって補正する場合、ユーザに提供される第2代替画像フレーム上には、図11に示すように、空白領域が発生する。前記空白領域は白黒で処理されるか、使用者が視覚的に最小限に認知するように類似する色の組み合わせで処理されることもできる。
クライアント200は、前記第2代替画像フレームを画面に表示する(S260)。即ち、クライアント200は、第2時点に欠落した第2最終画像フレームに代えて第1最終画像フレームを補正した第2代替画像フレームを画面に表示できる。
また、ユーザがクライアント200を着用して移動する場合、クライアント200は、ユーザの移動程度(例えば、移動距離及び移動方向、移動した歩数など)を把握し、第2時点の最終画像フレームが受信されない場合、ユーザの移動程度に符合するように第1最終画像フレームを補正できる。一実施例として、ユーザが移動する場合、各物体はユーザから離れた距離に応じて位置変化の程度に差がある。図12に示すように、近くに位置する物体はユーザの移動に応じて大幅に移動し、遠くに位置する物体はユーザの移動に応じて近くに位置する物体に比べて小幅に移動するようになる。従って、仮想現実画像でもこのような遠近による物体の移動幅の差を反映しなければ、ユーザに高い現実感を提供できない。このために、サーバが複数の物体(即ち、画像フレーム内で各ピクセルの集合として表現された物体)がクライアントからそれぞれ離れた距離情報(以下、深さ情報)をメタ情報として含んで最終画像フレームを生成して伝送できる。第2時点の第2最終画像フレームが欠落する場合、クライアントは含まれている1つ以上のセンサ(例えば、ジャイロセンサ、加速度センサ、地磁気センサなど)を用いてユーザの移動程度を算出し、第1最終画像フレーム内のそれぞれの物体に各物体の深さ情報を反映して第2代替画像フレームを生成できる。即ち、図13に示すように、クライアントは、第1時点と第2時点のクライアント位置(即ち、クライアントを着用したユーザの位置)の差によって第1最終画像フレーム内の複数の物体に相応するピクセル別に補正を行って第2代替画像フレームを生成できる。また、追加的に、クライアントは、物体が配置された距離による物体の移動幅の差を反映してピクセル単位の物体補正を行った後、既存に第1最終画像フレームで物体が配置されていた領域を補償する作業を行える。クライアントは、周辺の色を反映して特定の色の組み合わせで既存の物体配置空間を埋めることができる。
また、他の実施例として、物体の移動幅が異なる場合、クライアントは、最も大きな物体の配置位置に合うように画像フレームを移動させた後、残りの物体をピクセル単位で調節できる。これにより、最大の物体に対してはピクセル単位の作業を行わないので、第2代替画像フレーム内にピクセル単位の移動によって生成される空き空間を最小化できる。更に、他の実施例として、クライアントを着用したユーザが前方又は後方にのみ移動する場合、クライアントは、第1最終画像フレームを拡大又は縮小して欠落した第2最終画像フレームに代わる第2代替画像フレームを生成できる。
また、第n時点(nは1よりも大きな自然数)に対応する最終画像フレームが受信されないと、前記第n-1時点に対応する画像方向データと前記第n時点に対応する再生方向データとを比較して差異を算出する段階と、前記算出された差異だけ前記第n-1代替画像フレームを補正して第n代替画像フレームを生成する段階とを更に含むことができる。即ち、第2時点に第2最終画像フレームが受信されず、第2代替画像フレームが提供された後に第3時点に第3最終画像フレームが受信されると、ユーザは、画像内の物体が円滑に移動することを自覚できる。しかし、第2時点の後にも画像フレームが連続的に受信されない場合、クライアント200は以前に生成された代替画像フレーム(例えば、第2代替画像フレーム又は第n-1代替画像フレーム)を基に次の代替画像フレーム(例えば、第3代替画像フレーム又は第n代替画像フレーム)を生成する必要がある。クライアント200は、第n-1時点の第n-1代替画像フレーム内の画像方向データ(又は第n-1時点に測定された再生方向データ)と第n時点に測定された再生方向データとを比較して差異を算出し、算出された差異だけ第n-1代替画像フレームを補正(例えば、移動又は変換)して第n代替画像フレームを生成できる。これにより、クライアント200は、通信状態の不良により連続的にサーバ100から最終画像フレームが受信されない場合にも自然な仮想現実画像をユーザに提供できる。
前述したように、一実施例による仮想現実画像の提供方法は、仮想現実画像フレームを無線で伝送することによる特定時点の画像フレームの欠落を補完できるため、ユーザは、特定の画像フレームが受信されない場合にも仮想現実空間の全体的な時点が揺れることなく、自然に画像を再生できる。
また、一実施例によって全体画像のうち1つのフレームのみ抽出して伝送するか、再生方向データに符合するフレームのみを生成して伝送することによって、無線方式で仮想現実画像コンテンツを提供する際にも、高解像度の画像を提供できるとともに、通信トラフィックを低減できる。
更に、一実施例によってユーザの動きに即時反応し、仮想現実画像の対象体の表面に最適化したリアルタイム画像を提供できる。従って、仮想現実画像の現実感と没入感を向上させることができる。
また、一実施例によってネットワーク上の遅延によりフレームの欠落が発生する場合や仮想現実画像の補正時にも画像フレームの欠落を補完できるため、十字線(crosshair)のようなイメージがユーザにより実際に指示される地点ではなく、他の地点に表示されるのを防止できる。
前述した本発明の説明は例示のためのものであり、本発明が属する技術分野における通常の知識を有する者は、本発明の技術的思想や必須な特徴を変更することなく、他の具体的な形態に容易に変形可能であるということが理解できるであろう。従って、以上で述べた実施例はあらゆる面で例示的なものであり、限定的ではないものとして理解すべきである。例えば、単一の形態で説明されている各構成要素は分散させて実現することもでき、同様に分散されたものとして説明されている構成要素も結合された形態で実現することができる。
本発明の範囲は、前記詳細な説明よりは後述する特許請求の範囲により表され、特許請求の範囲の意味及び範囲そしてその均等な概念から導き出される全ての変更又は変形された形態が本発明の範囲に含まれるものとして解釈されるべきである。

Claims (7)

  1. 仮想現実画像の提供方法において、
    サーバから仮想現実画像データを受信して第1レイヤに割り当てる段階と、
    少なくとも1つのコントローラの制御情報を表示する第2レイヤを生成する段階と、
    前記少なくとも1つのコントローラの動作情報を受信し、前記動作情報に基づいて前記仮想現実画像データ内の所定のオブジェクトと前記制御情報の衝突地点を決定する段階と、
    前記衝突地点の法線データに基づいて変形された前記制御情報を含む結合データを前記第2レイヤに割り当てる段階と、
    前記第1レイヤ及び前記第2レイヤを合成して最終画像フレームを生成する段階と、を含み、
    前記仮想現実画像データを前記第1レイヤに割り当てる段階は、
    前記仮想現実画像データを複数のオーバーレイ項目に分割してそれぞれ別途のチャネル単位で受信する段階と、
    前記別途のチャネルを介して受信した複数のオーバーレイ項目を結合して複数の第1レイヤに割り当てる段階と、
    前記サーバから第1時点の第1画像フレームが受信されたが、前記第1時点より後の第2時点の第2画像フレームが受信されない場合、前記第1時点の画像方向データと前記第2時点の再生方向データとの差異を算出する段階と、
    前記差異に基づいて前記第1画像フレームを補正して第2代替画像フレームを生成する段階と、
    前記第2代替画像フレームを前記第1レイヤに割り当てる段階と、
    を含み、
    前記最終画像フレームを生成する段階は、前記第2代替画像フレームを含む第1レイヤと、補正が行われていない前記第2レイヤとを合成して最終画像フレームを生成する段階を含み、
    前記再生方向データは、特定時点にクライアントの画面上に再生されるべき画像フレームの方向に関するデータであり、
    前記画像方向データは、前記サーバにより生成された画像フレームの3次元空間上の方向に関するデータであり、
    前記法線データは、仮想現実画像内の前記衝突地点における前記所定のオブジェクトの配置状態を把握するためのものであり、
    前記第2レイヤに割り当てる段階は、前記法線データに基づいて、前記衝突地点における前記所定のオブジェクトの配置状態を把握し、前記制御情報を前記法線データの垂直方向に合うように変形させた結合データを前記第2レイヤに割り当てる段階を含み、
    前記動作情報は、前記少なくとも1つのコントローラの位置情報及び前記コントローラが指す方向に関する情報を含み、
    前記制御情報は、前記コントローラの仮想現実画像におけるイメージデータ、前記コントローラが指示する方向を示すイメージ、前記コントローラと仮想現実画像内のオブジェクトが衝突する地点を示すイメージ、及びコントローラが指す地点のすぐ上に表示されたグラフィックユーザインターフェースを含み、
    ユーザーの動きに応じてクライアントが移動する場合、前記第1レイヤに表示される前記仮想現実画像データの画像フレームは、前記クライアントの位置又は方向に応じて決定される再生方向データ及び画像方向データに対応する画像フレームに変更され、前記第2レイヤに表示される前記グラフィックユーザインターフェースの位置は変更されず、ユーザーの視線と共に移動する、
    仮想現実画像の提供方法。
  2. 前記衝突地点を決定する段階は、
    第1チャネルを介して、前記衝突地点を決定するためのオブジェクトを含むオーバーレイ項目を受信する段階と、
    前記受信したオーバーレイ項目を用いて、クライアントで衝突地点を決定する段階と、
    前記衝突地点の法線ベクトルを決定する段階と、
    を含むことを特徴とする請求項に記載の仮想現実画像の提供方法。
  3. 前記オーバーレイ項目は(x,y)座標を有しており、
    前記サーバは、前記オーバーレイ項目を更新する必要がある毎に該当部分をクライアントに伝送することを特徴とする請求項に記載の仮想現実画像の提供方法。
  4. 前記衝突地点を決定する段階は、
    前記コントローラの動作情報をサーバに伝送し、前記衝突地点及び法線データを要請する段階と、
    前記サーバで決定された前記仮想現実画像データ内の所定のオブジェクトと前記制御情報の衝突地点及び法線データを受信する段階と、
    を含むことを特徴とする請求項1に記載の仮想現実画像の提供方法。
  5. 前記制御情報は、ユーザーの視線及びコントローラの中心ポインタのうち少なくとも1つを示すイメージを含むことを特徴とする請求項1に記載の仮想現実画像の提供方法。
  6. 前記再生方向データを獲得する段階は、ユーザーの頭の動きを測定して前記再生方向データを獲得する段階を含むことを特徴とする請求項1に記載の仮想現実画像の提供方法。
  7. 媒体に格納され、請求項1~の何れか一項に記載の方法をハードウェアであるコンピュータに実行させるための仮想現実画像の再生プログラム。
JP2020517853A 2017-09-29 2018-09-28 仮想現実画像の提供方法及びこれを用いたプログラム Active JP7026213B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2017-0128020 2017-09-29
KR1020170128020A KR101990373B1 (ko) 2017-09-29 2017-09-29 가상현실 영상 제공 방법 및 이를 이용한 프로그램
PCT/KR2018/011594 WO2019066591A1 (ko) 2017-09-29 2018-09-28 가상현실 영상 제공 방법 및 이를 이용한 프로그램

Publications (2)

Publication Number Publication Date
JP2020535542A JP2020535542A (ja) 2020-12-03
JP7026213B2 true JP7026213B2 (ja) 2022-02-25

Family

ID=65903521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020517853A Active JP7026213B2 (ja) 2017-09-29 2018-09-28 仮想現実画像の提供方法及びこれを用いたプログラム

Country Status (7)

Country Link
US (1) US11127208B2 (ja)
EP (1) EP3691259B1 (ja)
JP (1) JP7026213B2 (ja)
KR (1) KR101990373B1 (ja)
CN (1) CN111345037B (ja)
TW (1) TWI728269B (ja)
WO (1) WO2019066591A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3470974A1 (en) * 2017-10-10 2019-04-17 Thomson Licensing Selection of animated viewing angle in an immersive virtual environment
JP2021022182A (ja) * 2019-07-29 2021-02-18 株式会社電通グループ 表示制御方法、表示制御装置、表示制御プログラムおよび表示制御システム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004505394A (ja) 2000-08-04 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド イメージ変換および符号化技術
JP2012124884A (ja) 2010-12-07 2012-06-28 Fujifilm Corp 立体視画像表示装置および方法並びにプログラム
JP2012141939A (ja) 2010-12-16 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP2017004356A (ja) 2015-06-12 2017-01-05 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
KR101716326B1 (ko) 2015-09-08 2017-03-14 클릭트 주식회사 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6898320B2 (en) * 2000-03-14 2005-05-24 Samsung Electronics Co., Ltd. Method for processing nodes in 3D scene and apparatus thereof
JP4651435B2 (ja) * 2005-03-31 2011-03-16 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及び画像生成システム
KR101661142B1 (ko) * 2009-09-04 2016-10-11 삼성전자주식회사 영상처리장치 및 영상처리장치의 제어 방법
EP2299699A3 (en) * 2009-09-04 2012-10-31 Samsung Electronics Co., Ltd. Image processing apparatus and controlling method of the same
US9778814B2 (en) * 2014-12-19 2017-10-03 Microsoft Technology Licensing, Llc Assisted object placement in a three-dimensional visualization system
KR20160139461A (ko) * 2015-05-27 2016-12-07 엘지전자 주식회사 헤드 마운티드 디스플레이 및 그 제어 방법
US10222932B2 (en) * 2015-07-15 2019-03-05 Fyusion, Inc. Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations
WO2017024142A1 (en) * 2015-08-04 2017-02-09 Google Inc. Input via context sensitive collisions of hands with objects in virtual reality
US20170052701A1 (en) * 2015-08-19 2017-02-23 Vrideo Dynamic virtual keyboard graphical user interface
TW201721519A (zh) * 2015-12-01 2017-06-16 英業達股份有限公司 虛擬試衣系統及虛擬試衣方法
CN105447898B (zh) * 2015-12-31 2018-12-25 北京小鸟看看科技有限公司 一种虚拟现实设备中显示2d应用界面的方法和装置
KR101769118B1 (ko) * 2016-02-05 2017-08-17 주식회사 케이티 텔레프레젠스 영상 합성 장치, 텔레프레젠스 영상 합성 시스템 및 원격지 촬영 장치
CN105912123A (zh) * 2016-04-15 2016-08-31 北京小鸟看看科技有限公司 一种三维沉浸式环境下的界面布局方法和装置
US10218793B2 (en) * 2016-06-13 2019-02-26 Disney Enterprises, Inc. System and method for rendering views of a virtual space
JP6681352B2 (ja) * 2017-01-06 2020-04-15 任天堂株式会社 情報処理システム、情報処理プログラム、情報処理装置、情報処理方法、ゲームシステム、ゲームプログラム、ゲーム装置、及びゲーム方法
KR101788545B1 (ko) * 2017-03-06 2017-10-20 클릭트 주식회사 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004505394A (ja) 2000-08-04 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド イメージ変換および符号化技術
JP2012124884A (ja) 2010-12-07 2012-06-28 Fujifilm Corp 立体視画像表示装置および方法並びにプログラム
JP2012141939A (ja) 2010-12-16 2012-07-26 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP2017004356A (ja) 2015-06-12 2017-01-05 株式会社コロプラ 仮想空間位置指定方法、プログラム、プログラムを記録した記録媒体、および、装置
KR101716326B1 (ko) 2015-09-08 2017-03-14 클릭트 주식회사 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램

Also Published As

Publication number Publication date
US20200286287A1 (en) 2020-09-10
KR101990373B1 (ko) 2019-06-20
EP3691259A4 (en) 2021-05-19
TWI728269B (zh) 2021-05-21
EP3691259A1 (en) 2020-08-05
EP3691259B1 (en) 2022-11-23
CN111345037B (zh) 2023-06-09
JP2020535542A (ja) 2020-12-03
TW201916681A (zh) 2019-04-16
US11127208B2 (en) 2021-09-21
KR20190038044A (ko) 2019-04-08
WO2019066591A1 (ko) 2019-04-04
CN111345037A (zh) 2020-06-26

Similar Documents

Publication Publication Date Title
JP6298432B2 (ja) 画像生成装置、画像生成方法、及び画像生成プログラム
US10629107B2 (en) Information processing apparatus and image generation method
JP6731482B2 (ja) 仮想現実映像伝送方法、再生方法、及びこれらを用いたプログラム
US10701344B2 (en) Information processing device, information processing system, control method of an information processing device, and parameter setting method
KR101788545B1 (ko) 가상현실영상 전송방법, 재생방법 및 이를 이용한 프로그램
JP7026213B2 (ja) 仮想現実画像の提供方法及びこれを用いたプログラム
TWI755636B (zh) 虛擬實境影像播放方法及使用其之程式
KR102192153B1 (ko) 가상현실 영상 제공 방법 및 이를 이용한 프로그램
US11880499B2 (en) Systems and methods for providing observation scenes corresponding to extended reality (XR) content
JP2020071718A (ja) 情報処理装置、情報処理方法及びプログラム
WO2021200494A1 (ja) 仮想空間における視点変更方法
JP7471307B2 (ja) シーンの画像表現
KR102179810B1 (ko) 가상현실영상 재생방법 및 이를 이용한 프로그램
JPWO2019229816A1 (ja) 画像生成装置、画像生成方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200526

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220214

R150 Certificate of patent or registration of utility model

Ref document number: 7026213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150