JP2019106628A - 画像補正装置、画像補正方法およびプログラム - Google Patents

画像補正装置、画像補正方法およびプログラム Download PDF

Info

Publication number
JP2019106628A
JP2019106628A JP2017238042A JP2017238042A JP2019106628A JP 2019106628 A JP2019106628 A JP 2019106628A JP 2017238042 A JP2017238042 A JP 2017238042A JP 2017238042 A JP2017238042 A JP 2017238042A JP 2019106628 A JP2019106628 A JP 2019106628A
Authority
JP
Japan
Prior art keywords
image
time
mounted display
head mounted
attitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017238042A
Other languages
English (en)
Other versions
JP2019106628A5 (ja
JP6944863B2 (ja
Inventor
宣之 中村
Noriyuki Nakamura
宣之 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2017238042A priority Critical patent/JP6944863B2/ja
Priority to PCT/JP2018/044798 priority patent/WO2019116994A1/ja
Priority to US16/766,864 priority patent/US10969591B2/en
Publication of JP2019106628A publication Critical patent/JP2019106628A/ja
Publication of JP2019106628A5 publication Critical patent/JP2019106628A5/ja
Application granted granted Critical
Publication of JP6944863B2 publication Critical patent/JP6944863B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4318Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/442Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
    • H04N21/44213Monitoring of end-user related data
    • H04N21/44218Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4781Games
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Databases & Information Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】画像の生成、配信から表示までの遅延に応じて画像を補正する。【解決手段】送受信部210は、第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を第1時刻の位置または姿勢の情報とともに受信する。補正部260は、画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、第1時刻の位置または姿勢と第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、画像を補正する。【選択図】図5

Description

この発明は、画像を生成し補正する装置および方法に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。また、ヘッドマウントディスプレイに仮想現実(Virtual Reality)の映像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度見渡せる全周囲の仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
このようにヘッドマウントディスプレイにヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイに表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
さらに、ヘッドマウントディスプレイに表示される映像がサーバからストリーム配信される場合、通信遅延が加わるため、映像の生成時点と映像の表示時点の時間差が大きくなる。またネットワークの輻輳状態によって遅延の予測が難しく、受信エラーが発生することもある。
本発明はこうした課題に鑑みてなされたものであり、その目的は、画像の生成、配信から表示までの遅延に応じて画像を補正することのできる画像補正技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像補正装置は、第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を前記第1時刻の位置または姿勢の情報とともに取得する取得部と、前記画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、前記第1時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、前記画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記画像を補正する補正部とを含む。
本発明の別の態様は、画像補正方法である。この方法は、第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を前記第1時刻の位置または姿勢の情報とともに取得する取得ステップと、前記画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、前記第1時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、前記画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記画像を補正する補正ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、画像の生成、配信から表示までの遅延に応じて画像を補正することができる。
ヘッドマウントディスプレイの外観図である。 本実施の形態に係る画像生成システムの構成図である。 ヘッドマウントディスプレイの機能構成図である。 本実施の形態に係る画像生成装置の機能構成図である。 本実施の形態に係る画像補正装置の機能構成図である。 本実施の形態の画像生成手順を説明するフローチャートである。 本実施の形態の画像生成手順の詳細なタイムチャートである。 図8(a)〜図8(c)は、ビルボードの回転移動を説明する図である。 ビルボードの回転移動を詳細に説明する図である。 回転後のビルボードのスクリーンへの投影を説明する図である。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100にはカメラユニットが搭載されており、ユーザがヘッドマウントディスプレイ100を装着している間、外界を撮影することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像生成システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェース300で画像補正装置200に接続される。
画像補正装置200の一例はゲーム機である。画像補正装置200はネットワーク400を介して画像生成装置500に接続される。画像補正装置200はクライアントであり、画像生成装置500はサーバである。画像生成装置500は、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像補正装置200に提供してもよい。
画像補正装置200は、ヘッドマウントディスプレイ100の位置・姿勢情報を画像生成装置500に送信する。画像生成装置500は、受信されたヘッドマウントディスプレイ100の位置・姿勢情報にもとづいてヘッドマウントディスプレイ100に表示されるべき画像を描画し、描画データを符号化してビデオストリームとして画像補正装置200に送信する。画像補正装置200は、受信したビデオストリームを復号し、描画データをヘッドマウントディスプレイ100の最新の位置・姿勢に合わせて補正し、ヘッドマウントディスプレイ100に表示する。
図3は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイパネル32に表示する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を画像補正装置200との間で送受信する。HDMI送受信部90は、画像補正装置200により生成された画像をHDMI伝送路で画像補正装置200から受信し、制御部10に供給する。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイパネル32に表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報は、通信制御部40または外部入出力端子インタフェース70を介して画像補正装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報を画像補正装置200に送信してもよい。
図4は、本実施の形態に係る画像生成装置500の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
画像生成装置500の少なくとも一部の機能を画像補正装置200に実装してもよい。
送受信部560は、ヘッドマウントディスプレイ100の現在(「第1時刻」と呼ぶ)の位置・姿勢情報を画像補正装置200から受信し、位置・姿勢取得部510に供給する。
視点・視線設定部520は、位置・姿勢取得部510により取得された第1時刻のヘッドマウントディスプレイ100の位置・姿勢情報を用いて、ユーザの視点位置および視線方向を設定する。
レンダリング部530は、視点・視線設定部520によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える仮想空間のオブジェクトをレンダリングし、画像記憶部540に記憶する。
符号化部550は、画像記憶部540に記憶されたレンダリング結果を符号化し、符号化されたビデオストリームを送受信部560に与える。
送受信部560は、レンダリング部530による描画に使用された第1時刻のヘッドマウントディスプレイ100の位置・姿勢情報を位置・姿勢取得部510から受け取り、ビデオストリームデータを第1時刻の位置・姿勢情報とともに画像補正装置200に送信する。これにより、フレーム単位でビデオデータと位置・姿勢情報が関連づけられたビデオストリームがサーバである画像生成装置500からクライアントである画像補正装置200に配信される。
図5は、本実施の形態に係る画像補正装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
画像補正装置200の少なくとも一部の機能をヘッドマウントディスプレイ100の制御部10に実装してもよい。
送受信部210は、ビデオストリームデータと描画に使用された第1時刻のヘッドマウントディスプレイ100の位置・姿勢情報をフレーム単位で画像生成装置500から受信する。送受信部210は、受信したビデオストリームデータを復号部220に与え、第1時刻のヘッドマウントディスプレイ100の位置・姿勢情報を位置・姿勢取得部230に与える。
復号部220は、ビデオストリームデータを復号し、復号画像を第1時刻の位置・姿勢情報とともに画像記憶部250に記憶する。
HDMI送受信部270は、ヘッドマウントディスプレイ100から最新(「第2時刻」と呼ぶ)の位置・姿勢情報を受信し、位置・姿勢取得部230に与える。
位置・姿勢取得部230は、第1時刻の位置・姿勢情報と第2時刻の位置・姿勢情報を補正部260に与える。
補正部260は、画像記憶部250から復号画像を読み出し、第1時刻の位置・姿勢情報と第2時刻の位置・姿勢情報の差分に応じて画像データを補正するリプロジェクション処理を行い、ヘッドマウントディスプレイ100の最新の視点位置・視線方向から見える画像に変換する。補正部260は補正された画像データをHDMI送受信部270に与え、HDMI送受信部270は補正された画像データをヘッドマウントディスプレイ100に送信する。
エラー検出部240は、ネットワークの輻輳などによってビデオストリームデータが遅延し、送受信部210がフレームの描画タイミングにおいて必要なビデオストリームデータを受信できなかった場合をエラーとして検出する。エラー検出部240は、エラー発生を補正部260に通知する。補正部260は、遅延によりエラーが発生した場合、画像記憶部250から一つ前のフレームの復号画像を読み出し、一つ前のフレームの復号画像の描画に使用された過去の時刻の位置・姿勢情報と第2時刻の位置・姿勢情報の差分に応じて一つ前のフレームの復号画像を補正するリプロジェクション処理を行い、ヘッドマウントディスプレイ100の最新の視点位置・視線方向から見える画像に変換する。
ここで、リプロジェクションについて説明する。ヘッドマウントディスプレイ100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイ100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
このように、ヘッドマウントディスプレイ100の動きを検知し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われており、ヘッドマウントディスプレイ100の動きを検知してから画像を出力するまでに1フレーム分の遅れが生じるとする。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
さらに、サーバがレンダリングした画像データを符号化してネットワークを介してクライアントに伝送すると、レンダリングに要した時間に通信時間が加わるため、ヘッドマウントディスプレイ100に表示されるまでにさらに遅れが生じる。
そこで、「タイムワープ」または「リプロジェクション」と呼ばれる処理を行い、レンダリングした画像をヘッドマウントディスプレイ100の最新の位置と姿勢に合わせて補正することで人間がずれを感知しにくいようにする。
図6は、本実施の形態の画像生成手順を説明するフローチャートである。
クライアントである画像補正装置200の送受信部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報をサーバである画像生成装置500に送信する(S10)。
画像生成装置500において、送受信部560は、画像補正装置200からヘッドマウントディスプレイ100の現在の位置・姿勢情報を受信する(S12)。レンダリング部530は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報にもとづいてヘッドマウントディスプレイ100に表示されるべき画像をレンダリングする(S14)。
符号化部550は、レンダリング結果の画像データを符号化する(S16)。送受信部560は、符号化されたビデオストリームを描画に使用されたヘッドマウントディスプレイ100の位置・姿勢情報とともに画像補正装置200に送信する(S18)。
画像補正装置200において、送受信部210は、画像生成装置500からビデオストリームと描画に使用されたヘッドマウントディスプレイ100の位置・姿勢情報を受信する(S20)。復号部220は、ビデオストリームを復号する(S22)。補正部260は、描画データをヘッドマウントディスプレイ100の最新の位置・姿勢に合わせて補正するリプロジェクション処理を実行する(S24)。HDMI送受信部270は、補正後の画像データをヘッドマウントディスプレイ100に伝送し、ヘッドマウントディスプレイ100に表示させる(S26)。
ステップS10において画像補正装置200がヘッドマウントディスプレイ100の位置・姿勢情報を画像生成装置500に送信してから、ヘッドマウントディスプレイ100に画像が表示されるまでのラウンドトリップタイム(RTT)の遅延が生じる。ステップS24におけるリプロジェクション処理はこの遅延をユーザに感じさせないように画像を補間する。
図7は、本実施の形態の画像生成手順の詳細なタイムチャートである。
時刻T1において、クライアントである画像補正装置200は、ヘッドマウントディスプレイ100の位置・姿勢情報を取得し、サーバである画像生成装置500に送信する。
時刻T2において、画像生成装置500は、受信したヘッドマウントディスプレイ100の位置・姿勢情報に応じてヘッドマウントディスプレイ100に表示すべき画像を描画する。時刻T3において、画像生成装置500は描画された画像を符号化し、符号化されたビデオストリームデータを描画に用いたヘッドマウントディスプレイ100の位置・姿勢情報とともに画像補正装置200に送信する。
時刻T4において、画像補正装置200は受信したビデオストリームを復号する。時刻T5において、画像補正装置200は復号画像にリプロジェクション処理を施す。復号画像は時刻T1のヘッドマウントディスプレイ100の位置・姿勢情報にもとづいて描画されたものである。時刻T5ではヘッドマウントディスプレイ100を装着したユーザは頭部を角度θ1だけ回転させており、差分ΔT=T5−T1の間のヘッドマウントディスプレイ100の位置・姿勢情報の変化に応じて復号画像が補間される。時刻T6において、画像補正装置200はリプロジェクション処理された復号画像をヘッドマウントディスプレイ100に表示させる。
時刻T7において、画像補正装置200は、ヘッドマウントディスプレイ100の位置・姿勢情報を取得し、画像生成装置500に送信する。
時刻T8において、画像生成装置500は、受信したヘッドマウントディスプレイ100の位置・姿勢情報に応じてヘッドマウントディスプレイ100に表示すべき画像を描画する。時刻T9において、画像生成装置500は描画された画像を符号化し、符号化されたビデオストリームデータを描画に用いたヘッドマウントディスプレイ100の位置・姿勢情報とともに画像補正装置200に送信するが、ネットワークの輻輳によって遅延が発生し、次のフレームのタイミングに間に合わない。
時刻T10において、画像補正装置200はデータの受信にエラーが発生したことを検知し、一つ前のフレームである時刻T4における復号画像(「前回の復号画像」と呼ぶ)をメモリから読み出す。時刻T11において、画像補正装置200は前回の復号画像にリプロジェクション処理を施す。前回の復号画像は時刻T1のヘッドマウントディスプレイ100の位置・姿勢情報にもとづいて描画されたものである。時刻T11ではヘッドマウントディスプレイ100を装着したユーザは頭部を角度θ2だけ回転させており、差分ΔT=T11−T1の間のヘッドマウントディスプレイ100の位置・姿勢情報の変化に応じて画像が補間される。時刻T12において、画像補正装置200はリプロジェクション処理された画像をヘッドマウントディスプレイ100に表示させる。
図8〜図10を参照して、画像補正装置200の補正部260によるリプロジェクション処理を詳しく説明する。本実施の形態ではサーバが既に描画した画像をクライアントが受信して補間するため、画素単位のリプロジェクションは行わず、ビルボードを回転させて視野移動分を補間する方法を用いる。スクリーン座標の4頂点の座標値を変換することで画像の線形補間を行うため、クライアントのグラフィックス・プロセッシング・ユニット(GPU)の線形補間の機能を用いて簡単に実装することができる。
図8(a)〜図8(c)は、ビルボードの回転移動を説明する図である。
図8(a)は、ヘッドマウントディスプレイ100を装着したユーザが正面を見ているときの第1視野600と、ユーザが頭部を角度θだけ右に回転させたときの第2視野610を示す。ユーザが正面を見ている第1時刻においてサーバは第1視野600に画像を描画するが、描画された画像を表示するタイミングは、ユーザが頭部を角度θだけ回転させた第2時刻である。第2時刻では角度θの方向に垂直な面である第2視野610に描画された画像を補正して表示する必要がある。
図8(b)は、図8(a)の視野の角度θの回転移動を補間するために、ビルボードを回転させる方法を示す。正面の第1視野600のビルボードを角度θだけ逆方向に回転させ、第1視野600に描画された画像を回転後のビルボード620にテクスチャとして貼り付ける。これにより、第1視野600に描画された画像が線形補間されて図8(a)の第2視野610に表示されることになる。
図8(c)は、ユーザが頭部を角度θだけ右に回転させたときにヘッドマウントディスプレイ100に表示される補間画像を示す。第1視野600に描画された画像が線形補間されて第2視野610に表示されている。
図8(b)のビルボードの回転移動は、第1視野600の4頂点を3次元に拡張した座標系で角度θだけ逆に回転させることにより行われる。4頂点のx、y座標はスクリーン座標であり、z座標は、回転中心からの距離dであり、距離dは視野角Fovから計算した値を用いる。
なお、ヘッドマウントディスプレイ100を装着したユーザが頭部を平行移動させた場合は、第1視野600のビルボードを逆方向に平行移動させ、第1視野600のテクスチャを貼り付ければよい。
図9は、ビルボードの回転移動を詳細に説明する図である。
視野のビルボードの4頂点P、P、P、Pのスクリーン座標はそれぞれ(−1,−1)、(−1,1)、(1,−1)、(1,1)であり、3次元に拡張した座標系では、視点からスクリーンまでの距離dをz座標に用いて、(−1,−1,d)、(−1,1,d)、(1,−1,d)、(1,1,d)と表される。
ここで、視点からスクリーンまでの距離dは、左右の視野角Fovleft、Fovrightから次式で計算される。
a=2×Fovleft/(Fovleft+Fovright
b=2×Fovright/(Fovleft+Fovright
d=b/tan(Fovright
ビルボードの4頂点P、P、P、Pを3次元空間において角度θだけ逆に回転させ、回転後のビルボードの4頂点P’、P’、P’、P’の座標値を計算する。ヘッドマウントディスプレイ100の姿勢をクオータニオン(4元数)で表すなら、回転角は、第1視野600におけるヘッドマウントディスプレイ100の姿勢と第2視野610におけるヘッドマウントディスプレイ100の姿勢の差分により計算される。
クオータニオンを用いたコンピュータグラフィックスに関する3次元回転などの計算方法については「3D−CGプログラマーのためのクォータニオン入門」(工学社、2004年1月)に記載されている。
第1視野600、第2視野610におけるヘッドマウントディスプレイ100の姿勢q、qは次式で表される。
qA = (qxA, qyA, qzA, qwA)
qB = (qxB, qyB, qzB, qwB)
ヘッドマウントディスプレイ100の回転角qABは、第1視野600、第2視野610におけるヘッドマウントディスプレイ100の姿勢q、qの差を次式で計算することにより求められる。
qAB = qA * qB -1
クオータニオンの逆数q −1
qB -1 = (-qxB, -qyB, -qzB, qwB)
であるから、回転角qABは次式で求められる。
qAB = qA * qB -1
= (qxA, qyA, qzA, qwA) * (-qxB, -qyB, -qzB, qwB)
= ( qwA * qxB + qxA * qwB + qyA * (-qzB) - qzA * (-qyB),
qwA * qyB - qxA * (-qzB) + qyA * qwB + qzA * (-qxB),
qwA * qzB + qxA * (-qyB) - qyA * (-qxB) + qzA * qwB,
qwA * qwB - qxA * (-qxB) - qyA * (-qyB) - qzA * (-qzB))
ビルボードの4頂点P、P、P、Pを回転角qABで回転させてP’、P’、P’、P’の座標値を求める。4頂点をクオータニオンで回転させるため、4頂点の座標値を以下のように4次元ベクトルで表す。
=(−1,−1,d,0)
=(−1,1,d,0)
=(1,−1,d,0)
=(1,1,d,0)
点pのクオータニオンqによる回転は、q−1*p*qで与えられるので、回転後の4頂点P’、P’、P’、P’は次式で求められる。ただし、次式においてnは1から4のいずれかである。px、pyはスクリーン座標であり、上述のように1または−1で与えられる。pzは視点からスクリーンまでの距離dである。また、回転角qAB=(qxAB,qyAB,qzAB,qwAB)とおいた。
Pn' = qAB -1 * Pn * qAB
= (-qxAB, -qyAB, -qzAB, qwAB) * (px, py, pz, 0) * (qxAB, qyAB, qzAB, qwAB)
= ( qwAB * px + (-qyAB) * pz - (-qzAB) * py,
qwAB * py - (-qxAB) * pz + (-qzAB) * px,
qwAB * pz + (-qxAB) * py - (-qyAB) * px,
-(-qxAB) * px - (-qyAB) * py - (-qzAB) * pz) * (qxAB, qyAB, qzAB, qwAB)
= ((qxAB 2-qyAB 2-qzAB 2+qwAB 2)px + 2(qxAB*qyAB+qzAB*qwAB)py + 2(qxAB*qzAB-qyAB*qwAB)pz,
2(qxAB*qyAB-qzAB*qwAB)px - (qxAB 2-qyAB 2+qzAB 2-qwAB 2)py + 2(qyAB*qzAB+qxAB*qwAB)pz,
2(qxAB*qzAB+qyAB*qwAB)px + 2(qyAB*qzAB-qxAB*qwAB)py - (qxAB 2+qyAB 2-qzAB 2-qwAB 2)pz,
-2*qyAB*qzAB*pxAB)
図10は、回転後のビルボードのスクリーンへの投影を説明する図である。
回転後のビルボードの4頂点P’、P’、P’、P’は3次元空間にあるため、これをスクリーンに再度投影する必要がある。次式のように、視点からスクリーンまでの距離dと回転後のビルボードの奥行きpz’の比を回転後のビルボードの4頂点P’の座標値px’、py’に乗算することにより、スクリーン上の4頂点Pscreenの座標値を求める。ただし、nは1から4のいずれかである。
Pn’screen = (px', py') * d / pz'
= (px' * d / pz', py' * d / pz')
以上、本発明の実施の形態を説明した。通常のリプロジェクション処理は描画から表示までの処理時間を埋めるために行われ、画像生成時点の視点位置および視線方向を前提に生成された画像を、画像表示時点の視点位置および視線方向を用いて補正することにより、画像生成時点から画像表示時点までの時間差分を吸収する。それに対して、本実施の形態のようにヘッドマウントディスプレイ100にネットワークを介して画像をストリーミング配信する場合は、通信時間も含めた時間差分を吸収するためにリプロジェクション処理が行われる。
ストリーム配信の場合、クライアントはヘッドマウントディスプレイ100の現在の位置・姿勢情報をサーバに送信し、サーバは受信した位置・姿勢情報にもとづいて描画し、サーバからビデオストリームとともに描画の際に利用した位置・姿勢情報をクライアントに送信する。クライアントは、描画の際に利用した位置・姿勢情報と最新の位置・姿勢情報の差を埋めるために、サーバが描画した画像にリプロジェクション処理を施す。これにより、クライアントがサーバに描画をリクエストした時点から、通信時間も含めて、画像を表示する時点までの時間差分を吸収することができる。
また、ストリーム配信の場合、ネットワークの輻輳などにより通信遅延が発生し、ビデオストリームが時間通りに到着しないエラーが発生しうる。データの到着エラーが発生した場合は、前回の復号画像を再利用し、ヘッドマウントディスプレイ100の最新の位置・姿勢に合うように前回の復号画像に対してリプロジェクション処理を施すことで通信遅延に柔軟に対処できる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 ディスプレイパネル、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 90 HDMI送受信部、 100 ヘッドマウントディスプレイ、 200 画像補正装置、 210 送受信部、 220 復号部、 230 位置・姿勢取得部、 240 エラー検出部、 250 画像記憶部、 260 補正部、 270 HDMI送受信部、 300 インタフェース、 400 ネットワーク、 500 画像生成装置、 510 位置・姿勢取得部、 520 視点・視線設定部、 530 レンダリング部、 540 画像記憶部、 550 符号化部、 560 送受信部。

Claims (5)

  1. 第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を前記第1時刻の位置または姿勢の情報とともに取得する取得部と、
    前記画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、前記第1時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、前記画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記画像を補正する補正部とを含むことを特徴とする画像補正装置。
  2. 前記取得部は、前記画像が符号化された符号化ストリームをネットワークを介して受信し、
    前記符号化ストリームを復号して復号画像を取得する復号部をさらに含み、
    前記補正部は、前記復号画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記復号画像を補正することを特徴とする請求項1に記載の画像補正装置。
  3. 前記復号部により復号された過去の時刻における復号画像を前記過去の時刻のヘッドマウントディスプレイの位置または姿勢の情報とともに保持する記憶部と、
    前記符号化ストリームが表示タイミングに間に合って受信されないエラーを検出する検出部とをさらに含み、
    前記補正部は、前記エラーが検出された場合、前記過去の時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、前記スクリーン座標系の視野を平行移動または回転移動させ、前記過去の時刻における復号画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記過去の時刻における復号画像を補正することを特徴とする請求項2に記載の画像補正装置。
  4. 第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を前記第1時刻の位置または姿勢の情報とともに取得する取得ステップと、
    前記画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、前記第1時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、前記画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記画像を補正する補正ステップとを含むことを特徴とする画像補正方法。
  5. 第1時刻のヘッドマウントディスプレイの位置または姿勢にもとづいて描画された画像を前記第1時刻の位置または姿勢の情報とともに取得する取得機能と、
    前記画像を表示する際の第2時刻のヘッドマウントディスプレイの位置または姿勢の情報を取得し、前記第1時刻の位置または姿勢と前記第2時刻の位置または姿勢の差分に応じて、ヘッドマウントディスプレイのスクリーン座標系の視野を平行移動または回転移動させ、前記画像を平行移動または回転移動後の視野にテクスチャとして貼り付けることにより、前記画像を補正する補正機能とをコンピュータに実現させることを特徴とするプログラム。
JP2017238042A 2017-12-12 2017-12-12 画像補正装置、画像補正方法およびプログラム Active JP6944863B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017238042A JP6944863B2 (ja) 2017-12-12 2017-12-12 画像補正装置、画像補正方法およびプログラム
PCT/JP2018/044798 WO2019116994A1 (ja) 2017-12-12 2018-12-05 画像補正装置、画像補正方法およびプログラム
US16/766,864 US10969591B2 (en) 2017-12-12 2018-12-05 Image correction apparatus, image correction method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017238042A JP6944863B2 (ja) 2017-12-12 2017-12-12 画像補正装置、画像補正方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2019106628A true JP2019106628A (ja) 2019-06-27
JP2019106628A5 JP2019106628A5 (ja) 2020-08-13
JP6944863B2 JP6944863B2 (ja) 2021-10-06

Family

ID=66819195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017238042A Active JP6944863B2 (ja) 2017-12-12 2017-12-12 画像補正装置、画像補正方法およびプログラム

Country Status (3)

Country Link
US (1) US10969591B2 (ja)
JP (1) JP6944863B2 (ja)
WO (1) WO2019116994A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014673A1 (ja) 2019-07-25 2021-01-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像表示制御装置、方法およびプログラム
WO2021065628A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像データ転送装置、画像処理方法、および画像データ転送方法
WO2021230366A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔作業装置とそのプログラム
WO2021230363A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
WO2021230364A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
WO2022190572A1 (ja) * 2021-03-09 2022-09-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、プログラム、画像生成方法および画像表示システム

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109637406A (zh) * 2019-01-04 2019-04-16 京东方科技集团股份有限公司 一种显示装置的显示方法、显示装置以及可读存储介质
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
US20230139216A1 (en) * 2020-03-30 2023-05-04 Sony Interactive Entertainment Inc. Image display system, image processing device, and image display method
CN115327782B (zh) * 2022-10-11 2023-03-24 歌尔股份有限公司 显示控制方法、装置、头戴显示设备以及可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JP2015095045A (ja) * 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6866297B2 (ja) * 2015-06-12 2021-04-28 グーグル エルエルシーGoogle LLC ヘッドマウントディスプレイの電子ディスプレイ安定化
DE102016109153A1 (de) * 2016-05-18 2017-11-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren zum einstellen einer blickrichtung in einer darstellung einer virtuellen umgebung
US20190333480A1 (en) * 2017-01-05 2019-10-31 Philipp K. Lang Improved Accuracy of Displayed Virtual Data with Optical Head Mount Displays for Mixed Reality
US10684469B2 (en) * 2018-10-23 2020-06-16 Dell Products L.P. Detecting and mitigating motion sickness in augmented and virtual reality systems

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) * 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JP2015095045A (ja) * 2013-11-11 2015-05-18 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014673A1 (ja) 2019-07-25 2021-01-28 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像表示制御装置、方法およびプログラム
JP2021022075A (ja) * 2019-07-25 2021-02-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 映像表示制御装置、方法およびプログラム
US11610343B2 (en) 2019-07-25 2023-03-21 Ntt Communications Corporation Video display control apparatus, method, and non-transitory computer readable medium
WO2021065628A1 (ja) * 2019-09-30 2021-04-08 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像データ転送装置、画像処理方法、および画像データ転送方法
WO2021230366A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔作業装置とそのプログラム
WO2021230363A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システム、遠隔作業装置、映像処理装置およびプログラム
WO2021230364A1 (ja) 2020-05-14 2021-11-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 遠隔制御システムとその遠隔作業装置、映像処理装置およびプログラム
WO2022190572A1 (ja) * 2021-03-09 2022-09-15 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、プログラム、画像生成方法および画像表示システム

Also Published As

Publication number Publication date
WO2019116994A1 (ja) 2019-06-20
US20200319463A1 (en) 2020-10-08
JP6944863B2 (ja) 2021-10-06
US10969591B2 (en) 2021-04-06

Similar Documents

Publication Publication Date Title
WO2019116994A1 (ja) 画像補正装置、画像補正方法およびプログラム
US11119319B2 (en) Rendering device, head-mounted display, image transmission method, and image correction method
JP5891131B2 (ja) 画像生成装置および画像生成方法
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
WO2019082794A1 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP6216398B2 (ja) 画像生成装置および画像生成方法
JP7157985B2 (ja) ユーザに再生するためのオーディオ信号をレンダリングするための装置および方法
JP6391423B2 (ja) 画像生成装置、画像抽出装置、画像生成方法、および画像抽出方法
US11003408B2 (en) Image generating apparatus and image generating method
WO2019098198A1 (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
JP2018033107A (ja) 動画の配信装置及び配信方法
JP6518645B2 (ja) 情報処理装置および画像生成方法
US11100716B2 (en) Image generating apparatus and image generation method for augmented reality
JP6487512B2 (ja) ヘッドマウントディスプレイおよび画像生成方法
WO2021006191A1 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP7377014B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP7047085B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP7429761B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
KR101773929B1 (ko) 광 시야각 영상 처리 시스템, 광 시야각 영상의 전송 및 재생 방법, 및 이를 위한 컴퓨터 프로그램
US11863902B2 (en) Techniques for enabling high fidelity magnification of video
KR101947799B1 (ko) 가상현실 콘텐츠 서비스를 위한 360도 vr 어안 렌더링 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6944863

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150