JP7047085B2 - 画像生成装置、画像生成方法、およびプログラム - Google Patents

画像生成装置、画像生成方法、およびプログラム Download PDF

Info

Publication number
JP7047085B2
JP7047085B2 JP2020521665A JP2020521665A JP7047085B2 JP 7047085 B2 JP7047085 B2 JP 7047085B2 JP 2020521665 A JP2020521665 A JP 2020521665A JP 2020521665 A JP2020521665 A JP 2020521665A JP 7047085 B2 JP7047085 B2 JP 7047085B2
Authority
JP
Japan
Prior art keywords
image
reprojection
head
mounted display
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020521665A
Other languages
English (en)
Other versions
JPWO2019229816A1 (ja
Inventor
貴一 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2019229816A1 publication Critical patent/JPWO2019229816A1/ja
Application granted granted Critical
Publication of JP7047085B2 publication Critical patent/JP7047085B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • A63F13/26Output arrangements for video game devices having at least one additional display device, e.g. on the game controller or outside a game booth
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/537Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game using indicators, e.g. showing the condition of a game character on screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6692Methods for processing data by generating or executing the game program for rendering three dimensional images using special effects, generally involving post-processing, e.g. blooming
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/04Exchange of auxiliary data, i.e. other than image data, between monitor and graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Description

この発明は、画像生成技術に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。また、ヘッドマウントディスプレイに仮想現実(Virtual Reality)の映像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度見渡せる全周囲の仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
このようにヘッドマウントディスプレイにヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイに表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
そこで、映像生成時の姿勢データと映像表示時の姿勢データの差分にもとづいて描画画像を映像表示時の姿勢に合ったものに補正するリプロジェクション処理が一般的に用いられている。しかしながら、画面に表示されるFPS(First Person Shooter)の照準マークやメッセージ用ユーザインタフェースなどユーザの姿勢に関係なく画面の一定の位置に表示されるべき重畳画像までもリプロジェクション処理によって動いてしまうという不都合が生じていた。
本発明はこうした課題に鑑みてなされたものであり、その目的は、リプロジェクションによる不都合が生じない画像生成技術を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、別のデバイスでレンダリングされた画像に対してリプロジェクション処理を施すリプロジェクション部と、リプロジェクション処理の対象外の重畳画像を前記リプロジェクション部によるリプロジェクション処理後の画像に合成する合成部とを含む。
本発明の別の態様は、画像生成方法である。この方法は、別のデバイスでレンダリングされた画像に対してリプロジェクション処理を施すリプロジェクションステップと、リプロジェクション処理の対象外の重畳画像を前記リプロジェクションステップによるリプロジェクション処理後の画像に合成する合成ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、リプロジェクションによる不都合が生じない画像生成技術を提供することができる。
ヘッドマウントディスプレイの外観図である。 本実施の形態に係る画像転送システムの構成図である。 図3(a)および図3(b)は、リプロジェクション処理の課題を説明する図である。 図4(a)および図4(b)は、リプロジェクション処理の別の課題を説明する図である。 図2のレンダリング装置においてリプロジェクション処理を行う場合の機能構成を説明する図である。 図2のヘッドマウントディスプレイにおいてリプロジェクション処理を行う場合の機能構成を説明する図である。 本実施の形態に係るヘッドマウントディスプレイの機能構成を説明する図である。 本実施の形態に係るヘッドマウントディスプレイの機能構成図である。 本実施の形態に係るレンダリング装置の機能構成図である。 本実施の形態に係る画像生成手順を説明するシーケンス図である。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100には、さらに、ユーザの目を撮影するカメラが設けられてもよい。ヘッドマウントディスプレイ100に搭載されたカメラにより、ユーザの凝視方向、瞳孔の動き、瞬きなどを検出することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像転送システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)や、映像出力インタフェースの規格であるDisplayPortなどのインタフェースでレンダリング装置200に接続される。
本実施の形態では、ヘッドマウントディスプレイ100とレンダリング装置200の間のデータ伝送路300はHDMI伝送路またはDisplayPort伝送路である。
HDMI規格またはDisplayPort規格では、画像フレームに紐付けてセカンダリデータパケットを伝送することができ、セカンダリデータパケットにフレームに関連するメタデータを含めることができる。
HDMI2.1規格には動的HDR(High Dynamic Range)と呼ばれる機能があり、映像の動的メタデータ(Dynamic Metadata)を参照してシーンに応じてフレーム毎に輝度や色の深度を最適に調整した映像を生成することができる。HDMI2.1規格では動的メタデータは、シーンの最大輝度、平均輝度、最小輝度など動的HDRに必要な情報を映像に同期させて伝送することができる。
ヘッドマウントディスプレイ100とレンダリング装置200の通信インタフェースは、メタデータを映像と同期させて伝送できるものであれば、HDMIやDisplayPortに限られない。
レンダリング装置200の一例はゲーム機である。レンダリング装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションをレンダリング装置200に提供してもよい。ヘッドマウントディスプレイ100は、レンダリング装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
ヘッドマウントディスプレイ100に表示される映像は、あらかじめカメラで撮影された映像の他、ゲーム映像のようなコンピュータグラフィックスによる映像であってもよい。また、ネットワーク経由で配信される遠隔地のライブ映像であってもよい。
ヘッドマウントディスプレイ100の姿勢を検知し、次の描画範囲を確定し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われているとすると、CPUが十分高速であったとしても、ヘッドマウントディスプレイ100の回転を検知してから画像を出力するまでに1フレーム分の遅れが生じる。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
さらに、レンダリング装置200で描画された画像をデータ伝送路300でヘッドマウントディスプレイ100に伝送する際にもレイテンシが生じる。
そこで、生成された画像に対してリプロジェクション処理を行うことで人間がずれを感知しにくいようにしている。レンダリング装置200が遅延時間経過後のヘッドマウントディスプレイ100の位置・姿勢情報を予測して描画を行うこともリプロジェクションの一種であるが、本実施の形態では、レンダリング装置200が描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報と、レンダリング装置200により描画された画像をヘッドマウントディスプレイ100で表示する際のヘッドマウントディスプレイ100の最新の位置・姿勢情報とのずれを補償するための画像の補正処理をリプロジェクションと呼ぶ。
具体的には描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報とヘッドマウントディスプレイ100の最新の位置・姿勢情報の差分を求め、ヘッドマウントディスプレイ100の最新の位置・姿勢情報に合うように画像を補正する処理が行われ、画像変換やフレーム補間などの技術が用いられる。
本実施の形態では、レンダリング装置200が映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測して画像を描画し、画像合成に必要な情報をメタデータとして映像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送する。ヘッドマウントディスプレイ100は、レンダリング装置200から受信した画像を最新のヘッドマウントディスプレイ100の位置・姿勢情報にもとづいて補正するリプロジェクション処理を施し、メタデータを参照して重畳画像をリプロジェクション処理後の画像に合成する。
本実施の形態では、ヘッドマウントディスプレイ100の描画処理性能の制約から、レンダリング処理はレンダリング装置200において行い、描画画像出力およびリプロジェクション処理などの軽度のグラフィックス処理をヘッドマウントディスプレイ100が担うことを前提として説明する。まず、本実施の形態の画像生成技術により解決すべきリプロジェクション処理の課題を説明する。
図3(a)および図3(b)は、リプロジェクション処理の課題を説明する図である。
図3(a)は、描画された元画像400に重畳画像410が重畳された合成画像を示す。元画像400は、ヘッドマウントディスプレイ100を装着するユーザの姿勢に合わせて描画されており、重畳画像410はゲームなどのアプリケーションに応じて表示されるFPSの照準マークやメッセージなどのユーザインタフェースである。ここでは重畳画像410は元画像400の中央に位置する。
図3(b)は、ユーザの最新の姿勢に合わせて図3(a)の合成画像にリプロジェクション処理を施した結果を示す。ここではユーザが右に首を振ったため、合成画像を左下方向に移動する補正が行われる。言い換えれば、表示範囲402が右上方向に移動することになる。合成画像全体を移動させるため、重畳画像412も一緒に移動してしまい、重畳画像412はもはや表示範囲402の中央ではなくなる。本来は中央に位置しているはずの重畳画像412がリプロジェクション処理によって左下方向にずれるため、ユーザは違和感を感じることになる。
図4(a)および図4(b)は、リプロジェクション処理の別の課題を説明する図である。
図4(a)は、図3(a)と同様に、描画された元画像400に重畳画像410が重畳された合成画像を示す。ここでは、合成画像全体にリプロジェクション処理を施す代わりに、重畳画像410の領域にはリプロジェクション処理を施さず、重畳画像410の領域以外にリプロジェクション処理を施す。
図4(b)は、ユーザの最新の姿勢に合わせて図4(a)の合成画像に内、重畳画像410の領域以外にリプロジェクション処理を施した結果を示す。重畳画像410の領域以外は、図3(b)と同様に、左下方向に移動するが、重畳画像416の領域はリプロジェクション処理が施されないため、そのまま表示範囲402の中央に位置する。しかしながら、図4(a)の元画像400において重畳画像410が存在していた領域は描画データが存在しないため、リプロジェクション処理の結果、図4(b)に示すように黒領域414になってしまう。
図3(b)および図4(b)で説明したような不都合を解決するには、元画像400にあらかじめリプロジェクション処理を施し、リプロジェクション処理後の画像に重畳画像410を合成して合成画像を生成する必要がある。
図5は、レンダリング装置200においてリプロジェクション処理を行う場合の機能構成を説明する図である。
レンダリング装置200にリプロジェクション部500と合成部510が設けられる。リプロジェクション部500は、ヘッドマウントディスプレイ100の姿勢を予測して描画された元画像530に対してリプロジェクション処理を施し、リプロジェクション処理後の画像532を生成する。合成部510は、リプロジェクション処理後の画像532に重畳画像540を合成し、合成画像550を生成する。合成画像550はデータ伝送路300を経由してヘッドマウントディスプレイ100に送信される。
レンダリング装置200がリプロジェクション処理後の画像532に重畳画像540を合成するため、重畳画像540はリプロジェクション処理を受けず、図3(b)および図4(b)で説明したような不都合は生じない。これはレンダリング処理とリプロジェクション処理が同一のデバイスで行われるという閉じた環境であることが前提となっている。しかしながら、レンダリング装置200では、ヘッドマウントディスプレイ100の姿勢を予測してリプロジェクション処理を実行することはできるが、ヘッドマウントディスプレイ100に表示される時点での現実の姿勢を反映することができない。そのため、表示される画像を予測した姿勢に合わせることができても、最新の姿勢に合わせることができないという問題がある。
また、処理系によってはヘッドマウントディスプレイ100側でリプロジェクション処理を行う必要がある。たとえば、HD(High Definition)等のディスプレイパネルの特性に合わせて画像の解像度やフレームレートなどを変換する処理が必要になる場合、ヘッドマウントディスプレイ100側でパネル特性に合わせたリプロジェクション処理を行うことが望ましい。また、ネットワークを介してヘッドマウントディスプレイ100に画像を伝送する場合は、遅延時間が長くなり、また遅延時間に変動があるため、ヘッドマウントディスプレイ100側で最新の姿勢に合わせたリプロジェクション処理を行うことが望ましい。
そこで、次にヘッドマウントディスプレイ100側でリプロジェクション処理と合成処理を行う構成を検討する。
図6は、ヘッドマウントディスプレイ100においてリプロジェクション処理を行う場合の機能構成を説明する図である。
レンダリング装置200は、描画された元画像530と重畳画像540をデータ伝送路300を経由してヘッドマウントディスプレイ100に送信する。ヘッドマウントディスプレイ100にリプロジェクション部60と合成部66が設けられる。リプロジェクション部60は、別のデバイスであるレンダリング装置200から受け取った元画像530に対してヘッドマウントディスプレイ100の最新の姿勢にもとづいてリプロジェクション処理を施し、リプロジェクション処理後の画像532を生成する。合成部66は、リプロジェクション処理後の画像532にレンダリング装置200から受け取った重畳画像540を合成し、合成画像550を生成する。合成画像550はディスプレイ68に表示される。
ヘッドマウントディスプレイ100がリプロジェクション処理後の画像532に重畳画像540を合成するため、重畳画像540はリプロジェクション処理の対象外であり、図3(b)および図4(b)で説明したような不都合は生じない。また、ヘッドマウントディスプレイ100によるリプロジェクション処理には予測した姿勢ではなく、現実の姿勢を反映させることができるため、表示される画像を最新の姿勢に正確に合わせることができる。しかしながら、この構成を実現するには、レンダリング装置200が元画像530と重畳画像540の両方をデータ伝送路300を経由してヘッドマウントディスプレイ100に送信する必要があるが、データ伝送路300の伝送帯域不足や伝送インタフェースの規格上の制約から、二つの画像を同時に送信することはできないという問題がある。
そこで、本実施の形態では、元画像530と重畳画像540を同時に伝送するのではなく、重畳画像540を前もってヘッドマウントディスプレイ100側に記憶しておき、重畳画像540を合成するために必要な情報をメタデータとして元画像530と同期して伝送する。こうすることにより、重畳画像540を元画像530と同時に伝送する必要がなくなる。
図7は、本実施の形態のヘッドマウントディスプレイ100の機能構成を説明する図である。
重畳画像540はあらかじめヘッドマウントディスプレイ100に記憶されている。レンダリング装置200が重畳画像540を生成してヘッドマウントディスプレイ100に前もって送信してもよい。重畳画像540は固定位置に表示するFPSの照準やメニュー画面であるという特性上、元画像530に比べて高頻度で更新されないことから、レンダリング装置200は、事前に重畳画像540を生成してヘッドマウントディスプレイ100に供給することができる。あるいは、ヘッドマウントディスプレイ100が重畳画像540を生成してもよい。重畳画像540は元画像530よりもサイズも小さく、解像度も低くてよいため、ヘッドマウントディスプレイ100で生成することも可能である。いずれにしても、重畳画像540は、ヘッドマウントディスプレイ100とレンダリング装置200の間で画像インデックスによって一意に特定されるように構成される。
レンダリング装置200は、描画された元画像530とメタデータ542をデータ伝送路300を経由してヘッドマウントディスプレイ100に送信する。メタデータ542には、重畳画像540を元画像530に合成するために必要な合成情報が格納される。合成情報には、重畳画像の使用の有無、重畳画像を一意に特定可能な識別情報(画像インデックス)、合成用アルファ値、重畳画像を合成する画像上の位置情報、画像サイズ、画像の縦横のスケール(倍率)などが含まれる。
重畳画像は、複数枚用意してもよい。重畳画像はヘッドマウントディスプレイ100で生成して記憶してもよい。その場合、ヘッドマウントディスプレイ100は、重畳画像の合成情報をレンダリング装置200に送信し、レンダリング装置200側で重畳画像を特定し、重畳画像の合成情報を指定することができるようにする。
あるいは、レンダリング装置200が重畳画像を生成し、ヘッドマウントディスプレイ100に描画データを送信しないタイミングで重畳画像をあらかじめヘッドマウントディスプレイ100に送信してもよい。たとえば、描画が60Hzで行われ、リプロジェクション処理で120Hzのフレームレートに変換する場合、本実施の形態ではヘッドマウントディスプレイ100でリプロジェクション処理をするため、データ伝送路300の伝送帯域は60Hzでよい。描画データを伝送しない空き時間が生じるので、重畳画像をその間に送信することができる。即ち、重畳画像のフレームレートは、ヘッドマウントディスプレイ100でレンダリングされた画像のフレームレートよりも低くてもよい。
ヘッドマウントディスプレイ100にリプロジェクション部60と合成部66が設けられる。リプロジェクション部60は、描画された元画像530に対してヘッドマウントディスプレイ100の最新の姿勢にもとづいてリプロジェクション処理を施し、リプロジェクション処理後の画像532を生成する。合成部66は、メタデータ542を参照してリプロジェクション処理後の画像532に対して重畳画像540を合成し、合成画像550を生成する。合成画像550はディスプレイ68に表示される。
本実施の形態の構成では、レンダリング装置200が元画像530と重畳画像540の両方を同時にデータ伝送路300を経由してヘッドマウントディスプレイ100に送信する必要がなく、レンダリング装置200は元画像530にメタデータ542を同期させてヘッドマウントディスプレイ100に送信すればよい。データ伝送路300の伝送インタフェースの規格におけるセカンダリパケットなどの機能を用いれば、メタデータ542を元画像530に同期させて送信することができる。
以下、本実施の形態のヘッドマウントディスプレイ100とレンダリング装置200の構成と動作を詳細に説明する。
図8は、ヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイに表示させる。バックライト32は、液晶ディスプレイにバックライトを供給する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
時計部80は、制御部10からの設定信号によって時間情報を設定し、時間データを制御部10に供給する。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を送受信する。HDMI送受信部90がレンダリング装置200から受け取るフレームデータにはメタデータが関連づけられており、メタデータにはフレームデータに合成されるべき重畳画像を特定する識別情報と重畳画像の合成位置を指定する位置情報が含まれる。また、メタデータにはレンダリング装置200が当該フレームデータの描画の際に前提としたヘッドマウントディスプレイ100の予測位置・姿勢情報L2が含まれる。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイに表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1は、通信制御部40または外部入出力端子インタフェース70を介してレンダリング装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をレンダリング装置200に送信してもよい。レンダリング装置200は、受信したヘッドマウントディスプレイ100の現在の位置・姿勢情報L1から、映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、ヘッドマウントディスプレイ100の予測位置・姿勢情報L2を前提としてヘッドマウントディスプレイ100に表示されるべき画像を描画する。
姿勢センサ64は、レンダリング装置200から描画データを受け取った際、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62に与える。位置・姿勢差分計算部62は、レンダリング装置200が描画の際に前提とした予測位置・姿勢情報L2をHDMI送受信部90から受け取る。位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求め、リプロジェクション部60に与える。ここで、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLは、一般にはヘッドマウントディスプレイ100の位置情報と姿勢情報の両方が異なるが、位置情報と姿勢情報のいずれか一方のみが異なる場合もあることに留意する。
リプロジェクション部60は、HDMI送受信部90がレンダリング装置200から受け取った描画データに対して差分ΔLにもとづいた補正をかけることにより、リプロジェクションを実行し、リプロジェクション後の描画データを制御部10に与える。
合成部66は、メタデータによって指定される重畳画像を記憶部50から読み出し、リプロジェクション後の描画データに重畳画像を合成して合成画像を生成する。制御部10は、合成画像を出力インタフェース30に供給してディスプレイに表示させる。
図9は、本実施の形態に係るレンダリング装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
レンダリング装置200の少なくとも一部の機能をヘッドマウントディスプレイ100に実装してもよい。あるいは、レンダリング装置200の少なくとも一部の機能を、ネットワークを介してレンダリング装置200に接続されたサーバに実装してもよい。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1をヘッドマウントディスプレイ100から取得する。
遅延時間取得部220は、ある時刻での視点位置から視線方向に見える画像を描画してからヘッドマウントディスプレイ100に表示するまでに要する遅延時間を取得する。この遅延時間には描画処理に要する時間の他、画像データを伝送するのに要する時間が含まれる。遅延時間取得部220は、3次元描画ハードウェア性能と伝送路の伝送遅延にもとづいて遅延時間を求める。
位置・姿勢予測部230は、遅延時間取得部220により求められた遅延時間の間の位置および姿勢の変化量を予測する。位置・姿勢予測部230は、ヘッドマウントディスプレイ100を装着したユーザの頭部の並進速度や角速度に遅延時間を乗じることで位置および姿勢の変化量を求めることができる。位置・姿勢予測部230は、現在の位置・姿勢情報L1に遅延時間の間の位置および姿勢の変化量を加算することにより遅延時間経過後の予測位置・姿勢情報L2を予測し、予測位置・姿勢情報L2を視点・視線設定部240とメタデータ生成部270に供給する。
視点・視線設定部240は、位置・姿勢予測部230により取得されたヘッドマウントディスプレイ100の予測位置・姿勢情報L2を用いて、ユーザの視点位置および視線方向を更新する。
画像生成部250は、画像記憶部260から画像データを読み出し、視点・視線設定部240によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える画像を生成し、HDMI送受信部280に与える。ここで、画像データは、事前に作成された動画または静止画コンテンツであってもよく、レンダリングされたコンピュータグラフィックスであってもよい。
メタデータ生成部270は、フレームデータに重畳画像を合成するために必要な合成情報をフレームデータに関連づけるべきメタデータに埋め込む。また、メタデータ生成部270は、位置・姿勢予測部230から予測位置・姿勢情報L2を取得し、フレームデータに関連づけるべきメタデータに予測位置・姿勢情報L2を埋め込む。メタデータ生成部270は、メタデータをHDMI送受信部280に供給する。
HDMI送受信部280は、画像生成部250からフレームデータを受け取り、メタデータ生成部270から重畳画像の合成情報および予測位置・姿勢情報L2が埋め込まれたメタデータを受け取る。HDMI送受信部280は、HDMIにしたがってフレームデータにメタデータを同期させ、フレームデータとメタデータをヘッドマウントディスプレイ100に伝送する。
メタデータをフレームデータに同期させて同一の伝送路で伝送する方法を説明する。フレームデータと動的メタデータは一例としてHDMI伝送路で伝送される。各フレームデータの直前には垂直ブランキング信号VBlankが挿入されるが、垂直ブランキング信号VBlankにメタデータが挿入される。
このように各フレームデータの垂直ブランキング信号VBlankに各フレームデータに適用すべき各メタデータを挿入して同一のHDMI伝送路で伝送すれば、各フレームデータに各メタデータが同期するため、ヘッドマウントディスプレイ100は各メタデータを対応する各フレームデータに正しく適用することができる。
HDMI2.1規格では各フレームデータのVBlank信号に各フレームに適用すべきメタデータを挿入して伝送することが検討されている。ここではHDMI2.1規格のVBlank信号にメタデータを挿入する例を説明したが、これは一例であり、各フレームに同期する何らかの同期信号にメタデータを挿入して伝送すればよい。
図10は、本実施の形態に係る画像生成手順を説明するシーケンス図である。
ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報L1を検出する(S10)。ヘッドマウントディスプレイ100は現在の位置・姿勢情報L1をレンダリング装置200に通知する(S12)。
レンダリング装置200は、ヘッドマウントディスプレイ100とレンダリング装置200の間の伝送遅延とレンダリング装置200における描画にかかる処理遅延により発生する遅延時間を求める。レンダリング装置200の位置・姿勢予測部230は、現在の位置・姿勢情報L1から、遅延時間を経過した後のヘッドマウントディスプレイ100の予測位置・姿勢情報L2を予測する(S14)。
レンダリング装置200の画像生成部250は、予測位置・姿勢情報L2にもとづいてヘッドマウントディスプレイ100を装着したユーザに見える画像を描画する(S16)。
レンダリング装置200のHDMI送受信部280は、描画されたフレームデータに予測位置・姿勢情報L2と重畳画像を合成するために必要な合成情報とをメタデータとして関連づけてヘッドマウントディスプレイ100に伝送する(S18)。
レンダリング装置200からフレームデータを受け取ると、ヘッドマウントディスプレイ100の姿勢センサ64は、ヘッドマウントディスプレイ100の最新の位置・姿勢情報L3を検出し、位置・姿勢差分計算部62は、最新の位置・姿勢情報L3と予測位置・姿勢情報L2の差分ΔLを求める(S20)。
リプロジェクション部60は、差分ΔLにもとづいてフレームデータにリプロジェクション処理を施し、最新の位置・姿勢情報L3に合った画像を生成する(S22)。
合成部66は、メタデータに含まれる合成情報を参照し、合成情報に含まれる識別情報にもとづいて重畳画像を特定し、合成情報に含まれる位置情報とスケールにもとづいて重畳画像をリプロジェクション後の画像の指定された位置に指定されたスケールで合成する(S24)。ヘッドマウントディスプレイ100は合成画像を表示する(S26)。
以上述べたように、本実施の形態のレンダリング装置200によれば、画像をレンダリングし、重畳画像を合成するために必要な合成情報をメタデータとして画像のフレームデータに同期させてヘッドマウントディスプレイ100に伝送することができる。ヘッドマウントディスプレイ100は、メタデータから合成情報を抽出し、画像のフレームデータにリプロジェクションを施した後、合成情報に指定されたパラメータにしたがって、あらかじめ用意された重畳画像をリプロジェクション後の画像に合成することができる。これにより、固定した位置に表示すべき重畳画像がリプロジェクション処理の影響を受けるのを防ぐことができる。また、重畳画像を描画フレームと同時に伝送する必要がないため、データ伝送路300の伝送帯域に制約がある状況でも実施することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。そのような変形例を説明する。
上記の説明では、レンダリング装置200で描画された元画像をヘッドマウントディスプレイ100でリプロジェクション処理し、重畳画像を合成する場合を説明したが、元画像をレンダリングするデバイスと、元画像に対してリプロジェクション処理を行うデバイスが異なるものであれば、本実施の形態の画像生成技術を適用することができる。したがって、リプロジェクション処理と合成処理を行うデバイスはヘッドマウントディスプレイ100に限定されるものではなく、たとえば、携帯端末などであってもよい。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 バックライト、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 60 リプロジェクション部、 62 位置・姿勢差分計算部、 64 姿勢センサ、 66 合成部、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 時計部、 90 HDMI送受信部、 100 ヘッドマウントディスプレイ、 200 レンダリング装置、 210 位置・姿勢取得部、 220 遅延時間取得部、 230 位置・姿勢予測部、 240 視点・視線設定部、 250 画像生成部、 260 画像記憶部、 270 メタデータ生成部、 280 HDMI送受信部、 300 データ伝送路。
画像生成技術に利用できる。

Claims (7)

  1. 画像生成装置であって、
    別のデバイスでレンダリングされた画像に対してリプロジェクション処理を施すリプロジェクション部と、
    リプロジェクション処理の対象外の重畳画像であってユーザの姿勢に関係なく画面の一定の位置に表示されるべき重畳画像を前記リプロジェクション部によるリプロジェクション処理後の画像に合成する合成部とを含み、
    前記リプロジェクション処理の対象外の重畳画像は、あらかじめ当該画像生成装置に記憶されており、前記リプロジェクション処理の対象外の重畳画像を前記リプロジェクション部によるリプロジェクション処理後の画像に合成するために必要な合成情報が、前記別のデバイスでレンダリングされた画像のメタデータとして提供されることを特徴とする画像生成装置。
  2. 前記合成情報は、前記リプロジェクション処理の対象外の重畳画像を合成する位置に関する情報を含むことを特徴とする請求項1に記載の画像生成装置。
  3. 前記リプロジェクション処理の対象外の重畳画像は、前記別のデバイスと当該画像生成装置との間で一意に特定可能な識別情報が付与され、前記識別情報が前記メタデータに含まれることを特徴とする請求項1または2に記載の画像生成装置。
  4. 前記メタデータは前記別のデバイスでレンダリングされた画像のフレームデータに同期して伝送される同期信号に挿入されることを特徴とする請求項1から3のいずれかに記載の画像生成装置。
  5. 前記リプロジェクション処理の対象外の重畳画像のフレームレートは、前記別のデバイスでレンダリングされた画像のフレームレートよりも低いことを特徴とする請求項1から4のいずれかに記載の画像生成装置。
  6. 画像生成装置における画像生成方法であって、
    別のデバイスでレンダリングされた画像に対してリプロジェクション処理を施すリプロジェクションステップと、
    リプロジェクション処理の対象外の重畳画像であってユーザの姿勢に関係なく画面の一定の位置に表示されるべき重畳画像を前記リプロジェクションステップによるリプロジェクション処理後の画像に合成する合成ステップとを含み、
    前記リプロジェクション処理の対象外の重畳画像は、あらかじめ当該画像生成装置に記憶されており、前記リプロジェクション処理の対象外の重畳画像を前記リプロジェクションステップによるリプロジェクション処理後の画像に合成するために必要な合成情報が、前記別のデバイスでレンダリングされた画像のメタデータとして提供されることを特徴とする画像生成装置における画像生成方法。
  7. 別のデバイスでレンダリングされた画像に対してリプロジェクション処理を施すリプロジェクション機能と、
    リプロジェクション処理の対象外の重畳画像であってユーザの姿勢に関係なく画面の一定の位置に表示されるべき重畳画像を前記リプロジェクション機能によるリプロジェクション処理後の画像に合成する合成機能とをコンピュータに実現させ、
    前記リプロジェクション処理の対象外の重畳画像は、あらかじめ当該コンピュータに記憶されており、前記リプロジェクション処理の対象外の重畳画像を前記リプロジェクション機能によるリプロジェクション処理後の画像に合成するために必要な合成情報が、前記別のデバイスでレンダリングされた画像のメタデータとして提供されることを特徴とするプログラム。
JP2020521665A 2018-05-28 2018-05-28 画像生成装置、画像生成方法、およびプログラム Active JP7047085B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/020398 WO2019229816A1 (ja) 2018-05-28 2018-05-28 画像生成装置、画像生成方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2019229816A1 JPWO2019229816A1 (ja) 2021-05-13
JP7047085B2 true JP7047085B2 (ja) 2022-04-04

Family

ID=68697936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020521665A Active JP7047085B2 (ja) 2018-05-28 2018-05-28 画像生成装置、画像生成方法、およびプログラム

Country Status (3)

Country Link
US (1) US11270673B2 (ja)
JP (1) JP7047085B2 (ja)
WO (1) WO2019229816A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114935971B (zh) * 2021-02-05 2024-08-20 京东方科技集团股份有限公司 显示装置和显示驱动方法
WO2024171650A1 (ja) * 2023-02-17 2024-08-22 ソニーグループ株式会社 情報処理装置、情報処理方法、および、コンピュータ読み取り可能な非一時的記憶媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JP2013003339A (ja) 2011-06-16 2013-01-07 Canon Inc 画像表示システム及びその制御方法
JP6207685B1 (ja) 2016-07-25 2017-10-04 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103929606B (zh) * 2014-04-01 2017-10-10 北京智谷睿拓技术服务有限公司 图像呈现控制方法及图像呈现控制装置
US11024014B2 (en) * 2016-06-28 2021-06-01 Microsoft Technology Licensing, Llc Sharp text rendering with reprojection
US10546557B2 (en) * 2016-11-14 2020-01-28 Adobe Inc. Removing overlays from a screen to separately record screens and overlays in a digital medium environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012033038A (ja) 2010-07-30 2012-02-16 Fujitsu Ltd 模擬映像生成装置、方法、プログラム
JP2013003339A (ja) 2011-06-16 2013-01-07 Canon Inc 画像表示システム及びその制御方法
JP6207685B1 (ja) 2016-07-25 2017-10-04 株式会社コロプラ 表示制御方法および当該表示制御方法をコンピュータに実行させるためのプログラム

Also Published As

Publication number Publication date
JPWO2019229816A1 (ja) 2021-05-13
US20210151009A1 (en) 2021-05-20
WO2019229816A1 (ja) 2019-12-05
US11270673B2 (en) 2022-03-08

Similar Documents

Publication Publication Date Title
US11119319B2 (en) Rendering device, head-mounted display, image transmission method, and image correction method
WO2017086263A1 (ja) 情報処理装置および画像生成方法
JP6732716B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
WO2017208957A1 (ja) 画像生成装置、画像生成システム、および画像生成方法
US20200319463A1 (en) Image correction apparatus, image correction method and program
US10871822B2 (en) Image generation apparatus, image generation system, and image generation method
JP6978289B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
US11003408B2 (en) Image generating apparatus and image generating method
JP7047085B2 (ja) 画像生成装置、画像生成方法、およびプログラム
US11187895B2 (en) Content generation apparatus and method
WO2020129115A1 (ja) 情報処理システム、情報処理方法およびコンピュータプログラム
TWI681673B (zh) 虛擬實境影像播放方法及使用其之程式
US11100716B2 (en) Image generating apparatus and image generation method for augmented reality
WO2021006191A1 (ja) 画像表示装置、画像表示システムおよび画像表示方法
US20220317765A1 (en) Image generation apparatus, image generation method, and image displaying program
US20240137482A1 (en) Image generation device, program, image generation method, and image displaying system

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A527

Effective date: 20201022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220323

R150 Certificate of patent or registration of utility model

Ref document number: 7047085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150