JP6978289B2 - 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム - Google Patents

画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム Download PDF

Info

Publication number
JP6978289B2
JP6978289B2 JP2017222897A JP2017222897A JP6978289B2 JP 6978289 B2 JP6978289 B2 JP 6978289B2 JP 2017222897 A JP2017222897 A JP 2017222897A JP 2017222897 A JP2017222897 A JP 2017222897A JP 6978289 B2 JP6978289 B2 JP 6978289B2
Authority
JP
Japan
Prior art keywords
image
computer graphics
unit
alpha
reprojection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017222897A
Other languages
English (en)
Other versions
JP2019095916A (ja
JP2019095916A5 (ja
Inventor
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Priority to JP2017222897A priority Critical patent/JP6978289B2/ja
Priority to PCT/JP2018/042003 priority patent/WO2019098198A1/ja
Priority to US16/762,786 priority patent/US11204502B2/en
Publication of JP2019095916A publication Critical patent/JP2019095916A/ja
Publication of JP2019095916A5 publication Critical patent/JP2019095916A5/ja
Application granted granted Critical
Publication of JP6978289B2 publication Critical patent/JP6978289B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

この発明は、画像生成装置、ヘッドマウントディスプレイ、画像生成システム、および画像生成方法に関する。
ゲーム機に接続されたヘッドマウントディスプレイを頭部に装着して、ヘッドマウントディスプレイに表示された画面を見ながら、コントローラなどを操作してゲームプレイすることが行われている。ヘッドマウントディスプレイを装着すると、ヘッドマウントディスプレイに表示される映像以外はユーザは見ないため、映像世界への没入感が高まり、ゲームのエンタテインメント性を一層高める効果がある。また、ヘッドマウントディスプレイに仮想現実(VR(Virtual Reality))の映像を表示させ、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると、360度見渡せる全周囲の仮想空間が表示されるようにすると、さらに映像への没入感が高まり、ゲームなどのアプリケーションの操作性も向上する。
また、非透過型ヘッドマウントディスプレイを装着したユーザは外界を直接見ることができなくなるが、ヘッドマウントディスプレイに搭載されたカメラによって外界の映像を撮影してディスプレイパネルに表示することのできるビデオ透過(ビデオシースルー)型ヘッドマウントディスプレイもある。ビデオ透過型ヘッドマウントディスプレイでは、カメラで撮影される外界の映像にコンピュータグラフィックス(CG(Computer Graphics))によって生成された仮想世界のオブジェクトを重畳させることで拡張現実(AR(Augmented Reality))の映像を生成して表示することもできる。拡張現実の映像は、現実世界から切り離された仮想現実とは違って、現実世界が仮想オブジェクトで拡張されたものであり、ユーザは現実世界とのつながりを意識しつつ、仮想世界を体験することができる。
拡張現実の映像をヘッドマウントディスプレイに表示する場合、ヘッドマウントディスプレイに搭載されたカメラではユーザの頭部の動きに連動して高フレームレートで外界の映像が取り込まれるのに対して、重畳される仮想世界はレンダリングに時間がかかるため、仮想世界のフレームレートはカメラに比べると低い。そのため、カメラの高フレームレートに合わせて拡張現実の映像を生成することができず、ユーザは拡張現実の映像に微妙な遅れを感じ、現実世界とのつながり感を失うことになる。
本発明はこうした課題に鑑みてなされたものであり、その目的は、拡張現実の映像の品質を向上させることのできる画像生成装置、ヘッドマウントディスプレイ、画像生成システム、および画像生成方法を提供することにある。
上記課題を解決するために、本発明のある態様の画像生成装置は、仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成部と、前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換するリプロジェクション部と、リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を前記ヘッドマウントディスプレイに送信する送信部とを含む。
本発明の別の態様は、ヘッドマウントディスプレイである。このヘッドマウントディスプレイは、現実空間の撮影画像を新たな視点位置または視線方向に合うように変換するリプロジェクション部と、アルファ付きコンピュータグラフィックス画像を受信する受信部と、リプロジェクション処理が施された前記現実空間の撮影画像に前記アルファ付きコンピュータグラフィックス画像を重畳して拡張現実画像を生成する重畳部とを含む。
本発明のさらに別の態様は、画像生成システムである。この画像生成システムは、ヘッドマウントディスプレイと画像生成装置を含む画像生成システムであって、前記画像生成装置は、仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、前記ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成部と、前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を前記ヘッドマウントディスプレイに送信する送信部とを含む。前記ヘッドマウントディスプレイは、前記現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、前記画像生成装置からアルファ付きコンピュータグラフィックス画像を受信する受信部と、リプロジェクション処理が施された現実空間の撮影画像に前記アルファ付きコンピュータグラフィックス画像を重畳して拡張現実画像を生成する重畳部とを含む。
本発明のさらに別の態様は、画像生成方法である。この方法は、仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリングステップと、ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成ステップと、前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換するリプロジェクションステップと、リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を前記ヘッドマウントディスプレイに送信する送信ステップとを含む。
本発明のさらに別の態様は、画像生成装置である。この装置は、仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、現実空間の撮影画像に重畳するために前記コンピュータグラフィックス画像を奥行き情報とともにヘッドマウントディスプレイに送信する送信部とを含む。
本発明のさらに別の態様は、ヘッドマウントディスプレイである。このヘッドマウントディスプレイは、現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、奥行き情報付きのコンピュータグラフィックス画像を受信する受信部と、コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳部とを含む。
本発明のさらに別の態様は、画像生成システムである。この画像生成システムは、ヘッドマウントディスプレイと画像生成装置を含む画像生成システムであって、前記画像生成装置は、仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、現実空間の撮影画像に重畳するために前記コンピュータグラフィックス画像を奥行き情報とともに前記ヘッドマウントディスプレイに送信する送信部とを含む。前記ヘッドマウントディスプレイは、現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、前記画像生成装置から奥行き情報付きのコンピュータグラフィックス画像を受信する受信部と、前記コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳部とを含む。
本発明のさらに別の態様は、画像生成方法である。この方法は、現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクションステップと、奥行き情報付きのコンピュータグラフィックス画像を受信する受信ステップと、前記コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクションステップと、リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳ステップとを含む。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、拡張現実の映像の品質を向上させることができる。
ヘッドマウントディスプレイの外観図である。 本実施の形態に係る画像生成システムの構成図である。 前提技術に係るヘッドマウントディスプレイの機能構成図である。 前提技術に係る画像生成装置の機能構成図である。 カメラ画像にCG画像を重畳して拡張現実画像を生成するための前提技術に係る画像生成システムの構成を説明する図である。 第1の実施の形態に係るヘッドマウントディスプレイの機能構成図である。 第1の実施の形態に係る画像生成装置の機能構成図である。 カメラ画像にCG画像を重畳して拡張現実画像を生成するための第1の実施の形態に係る画像生成システムの構成を説明する図である。 第2の実施の形態に係る画像生成装置の機能構成図である。 カメラ画像にCG画像を重畳して拡張現実画像を生成するための第2の実施の形態に係る画像生成システムの構成を説明する図である。 カメラ画像にCG画像を重畳して拡張現実画像を生成するための第2の実施の形態に係る画像生成システムの構成の変形例を説明する図である。
図1は、ヘッドマウントディスプレイ100の外観図である。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。
ヘッドマウントディスプレイ100に内蔵または外付けされたジャイロセンサや加速度センサなどによりヘッドマウントディスプレイ100を装着したユーザの頭部の位置情報と頭部の回転角や傾きなどの姿勢(orientation)情報を計測することができる。
ヘッドマウントディスプレイ100にはカメラユニットが搭載されており、ユーザがヘッドマウントディスプレイ100を装着している間、外界を撮影することができる。
ヘッドマウントディスプレイ100は、「ウェアラブルディスプレイ」の一例である。ここでは、ヘッドマウントディスプレイ100に表示される画像の生成方法を説明するが、本実施の形態の画像生成方法は、狭義のヘッドマウントディスプレイ100に限らず、めがね、めがね型ディスプレイ、めがね型カメラ、ヘッドフォン、ヘッドセット(マイクつきヘッドフォン)、イヤホン、イヤリング、耳かけカメラ、帽子、カメラつき帽子、ヘアバンドなどを装着した場合にも適用することができる。
図2は、本実施の形態に係る画像生成システムの構成図である。ヘッドマウントディスプレイ100は、一例として、映像・音声をデジタル信号で伝送する通信インタフェースの標準規格であるHDMI(登録商標)(High-Definition Multimedia Interface)などのインタフェース300で画像生成装置200に接続される。
画像生成装置200は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報から、映像の生成から表示までの遅延を考慮してヘッドマウントディスプレイ100の位置・姿勢情報を予測し、ヘッドマウントディスプレイ100の予測位置・姿勢情報を前提としてヘッドマウントディスプレイ100に表示されるべき画像を描画し、ヘッドマウントディスプレイ100に伝送する。
画像生成装置200の一例はゲーム機である。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置200に提供してもよい。ヘッドマウントディスプレイ100は、画像生成装置200の代わりに、コンピュータや携帯端末に接続されてもよい。
図3〜図5を参照して、本実施の形態の前提技術を説明する。
図3は、前提技術に係るヘッドマウントディスプレイ100の機能構成図である。
制御部10は、画像信号、センサ信号などの信号や、命令やデータを処理して出力するメインプロセッサである。入力インタフェース20は、ユーザからの操作信号や設定信号を受け付け、制御部10に供給する。出力インタフェース30は、制御部10から画像信号を受け取り、ディスプレイパネル32に表示する。
通信制御部40は、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、制御部10から入力されるデータを外部に送信する。通信制御部40は、また、ネットワークアダプタ42またはアンテナ44を介して、有線または無線通信により、外部からデータを受信し、制御部10に出力する。
記憶部50は、制御部10が処理するデータやパラメータ、操作信号などを一時的に記憶する。
姿勢センサ64は、ヘッドマウントディスプレイ100の位置情報と、ヘッドマウントディスプレイ100の回転角や傾きなどの姿勢情報を検出する。姿勢センサ64は、ジャイロセンサ、加速度センサ、角加速度センサなどを適宜組み合わせて実現される。3軸地磁気センサ、3軸加速度センサおよび3軸ジャイロ(角速度)センサの少なくとも1つ以上を組み合わせたモーションセンサを用いて、ユーザの頭部の前後、左右、上下の動きを検出してもよい。
外部入出力端子インタフェース70は、USB(Universal Serial Bus)コントローラなどの周辺機器を接続するためのインタフェースである。外部メモリ72は、フラッシュメモリなどの外部メモリである。
カメラユニット80は、レンズ、イメージセンサ、測距センサなど撮影に必要な構成を含み、撮影された外界の映像と奥行き情報を制御部10に供給する。制御部10は、カメラユニット80のフォーカスやズームなどを制御する。
HDMI送受信部90は、HDMIにしたがって映像・音声のデジタル信号を画像生成装置200との間で送受信する。HDMI送受信部90は、カメラユニット80により撮影された外界の映像と奥行き情報を制御部10から受け取り、HDMI伝送路で画像生成装置200に送信する。HDMI送受信部90は、画像生成装置200により生成された画像をHDMI伝送路で画像生成装置200から受信し、制御部10に供給する。
制御部10は、画像やテキストデータを出力インタフェース30に供給してディスプレイパネル32に表示させたり、通信制御部40に供給して外部に送信させることができる。
姿勢センサ64が検出したヘッドマウントディスプレイ100の現在の位置・姿勢情報は、通信制御部40または外部入出力端子インタフェース70を介して画像生成装置200に通知される。あるいは、HDMI送受信部90がヘッドマウントディスプレイ100の現在の位置・姿勢情報を画像生成装置200に送信してもよい。
図4は、前提技術に係る画像生成装置200の機能構成図である。同図は機能に着目したブロック図を描いており、これらの機能ブロックはハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現することができる。
画像生成装置200の少なくとも一部の機能をヘッドマウントディスプレイ100に実装してもよい。あるいは、画像生成装置200の少なくとも一部の機能を、ネットワークを介して画像生成装置200に接続されたサーバに実装してもよい。
位置・姿勢取得部210は、ヘッドマウントディスプレイ100の現在の位置・姿勢情報をヘッドマウントディスプレイ100から取得する。
視点・視線設定部220は、位置・姿勢取得部210により取得されたヘッドマウントディスプレイ100の位置・姿勢情報を用いて、ユーザの視点位置および視線方向を設定する。
HDMI送受信部280は、ヘッドマウントディスプレイ100からカメラユニット80により撮影された現実空間の映像を受信し、画像信号処理部250に供給する。
画像信号処理部250は、ヘッドマウントディスプレイ100のカメラユニット80により撮影されたRaw画像に対してRGB変換(デモザイク処理)、ホワイトバランス、色補正、ノイズリダクションなどの画像信号処理(ISP(Image Signal Processing))を施し、さらにカメラユニット80の光学系による歪みなどを取り除く歪み補正処理を施す。画像信号処理部250は画像信号処理および歪み補正処理が施されたRGB画像を画像生成部230に供給する。
画像生成部230は、画像記憶部260からコンピュータグラフィックスの生成に必要なデータを読み出し、仮想空間のオブジェクトをレンダリングしてCG画像を生成し、画像信号処理部250から提供される現実空間のカメラ画像に重畳することで拡張現実画像を生成し、画像記憶部260に出力する。
画像生成部230は、レンダリング部232と、AR重畳部234と、ポストプロセス部236と、リプロジェクション部240と、歪み処理部242とを含む。
レンダリング部232は、視点・視線設定部220によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える仮想空間のオブジェクトをレンダリングし、AR重畳部234に与える。
AR重畳部234は、画像信号処理部250から供給されるカメラ画像にレンダリング部232により生成されたCG画像を重畳することで拡張現実画像を生成し、ポストプロセス部236に与える。
ポストプロセス部236は、拡張現実画像に対して、被写界深度調整、トーンマッピング、アンチエイリアシングなどのポストプロセスを施し、現実空間の画像に仮想オブジェクトが重畳された拡張現実画像が自然で滑らかに見えるように後処理する。
リプロジェクション部240は、位置・姿勢取得部210からヘッドマウントディスプレイ100の最新の位置・姿勢情報を受け取り、ポストプロセスが施された拡張現実画像に対してリプロジェクション処理を施し、ヘッドマウントディスプレイ100の最新の視点位置・視線方向から見える画像に変換する。
ここで、リプロジェクションについて説明する。ヘッドマウントディスプレイ100にヘッドトラッキング機能をもたせて、ユーザの頭部の動きと連動して視点や視線方向を変えて仮想現実の映像を生成した場合、仮想現実の映像の生成から表示までに遅延があるため、映像生成時に前提としたユーザの頭部の向きと、映像をヘッドマウントディスプレイ100に表示した時点でのユーザの頭部の向きとの間でずれが発生し、ユーザは酔ったような感覚(「VR酔い(Virtual Reality Sickness)」などと呼ばれる)に陥ることがある。
このように、ヘッドマウントディスプレイ100の動きを検知し、CPUが描画コマンドを発行し、GPU(Graphics Processing Unit)がレンダリングを実行し、描画された画像がヘッドマウントディスプレイ100に出力されるまでには時間がかかる。描画がたとえば60fps(フレーム/秒)のフレームレートで行われており、ヘッドマウントディスプレイ100の動きを検知してから画像を出力するまでに1フレーム分の遅れが生じるとする。これはフレームレート60fpsのもとでは、16.67ミリ秒ほどであり、人間がずれを感知するには十分な時間である。
そこで、「タイムワープ」または「リプロジェクション」と呼ばれる処理を行い、レンダリングした画像をヘッドマウントディスプレイ100の最新の位置と姿勢に合わせて補正することで人間がずれを感知しにくいようにする。
歪み処理部242は、リプロジェクション処理が施された拡張現実画像に対してヘッドマウントディスプレイ100の光学系で生じる歪みに合わせて画像を変形(distortion)させて歪ませる処理を施し、画像記憶部260に記憶する。
HDMI送受信部280は、画像記憶部260から画像生成部230により生成された拡張現実画像のフレームデータを読み出し、HDMIにしたがってヘッドマウントディスプレイ100に伝送する。
図5は、カメラ画像にCG画像を重畳して拡張現実画像を生成するための前提技術に係る画像生成システムの構成を説明する図である。ここでは、説明を簡単にするため、拡張現実画像を生成するためのヘッドマウントディスプレイ100と画像生成装置200の主な構成を図示して説明する。
ヘッドマウントディスプレイ100のカメラユニット80により撮影された外界のカメラ画像は画像生成装置200に送信され、画像信号処理部250に供給される。画像信号処理部250は、カメラ画像に対して画像信号処理と歪み補正処理を施し、AR重畳部234に与える。
画像生成装置200のレンダリング部232は、ヘッドマウントディスプレイ100を装着したユーザの視点位置・視線方向から見た仮想オブジェクトを生成し、AR重畳部234に与える。
AR重畳部234は、カメラ画像にCG画像を重畳し、拡張現実画像を生成する。ポストプロセス部236は拡張現実画像にポストプロセスを施す。リプロジェクション部240はポストプロセスが施された拡張現実画像を最新の視点位置・視線方向に合うように変換する。歪み処理部242はリプロジェクション後の拡張現実画像に歪み処理を施す。歪み処理後の最終的なRGB画像はヘッドマウントディスプレイ100に送信され、ディスプレイパネル32に表示される。
上述の前提技術に係る画像生成システムでは、画像生成装置200によるCG画像のレンダリングのフレームレートに合わせてカメラ画像を重畳することになる。レンダリングは処理時間がかかるため、レンダリング部232による仮想空間のレンダリングのフレームレートは、カメラユニット80による現実空間の撮影のフレームレートに比べると遅い。たとえば、カメラユニット80により120fpsの撮影が行われても、レンダリングは60fpsでしか描画できないことがある。そのため、ヘッドマウントディスプレイ100のディスプレイパネルに表示されるシースルー映像のフレームレートはレンダリングのフレームレートに合わせて低下し、シースルー映像がとぎれとぎれになり、拡張現実の映像を見ても現実感が伴わない結果となる。
以下、前提技術に係る画像生成システムにおける課題を克服したいくつかの実施の形態に係る画像生成システムを説明するが、前提技術と重複する説明は適宜省略し、前提技術から改善した構成について説明する。
図6は、第1の実施の形態に係るヘッドマウントディスプレイ100の機能構成図である。
姿勢推定部81は、カメラユニット80により撮影された画像の特徴点からヘッドマウントディスプレイ100の姿勢情報(位置と回転)を推定する。送受信部92は、姿勢推定部81によって推定された姿勢情報を画像生成装置200に送信する。
画像信号処理部82は、カメラユニット80により撮影されたRaw画像に対してRGB変換(デモザイク処理)、ホワイトバランス、色補正、ノイズリダクションなどの画像信号処理を施し、さらにカメラユニット80の光学系による歪みなどを取り除く歪み補正処理を施す。画像信号処理部82は画像信号処理および歪み補正処理が施されたカメラ画像を制御部10に供給する。
リプロジェクション部84は、姿勢推定部81または姿勢センサ64が検出したヘッドマウントディスプレイ100の最新の位置・姿勢情報にもとづき、カメラ画像に対してリプロジェクション処理を施し、ヘッドマウントディスプレイ100の最新の視点位置・視線方向から見える画像に変換する。
歪み処理部86は、リプロジェクション処理が施されたカメラ画像に対してヘッドマウントディスプレイ100の光学系で生じる歪みに合わせて画像を変形させて歪ませる処理を施し、歪み処理が施されたカメラ画像を制御部10に供給する。
AR重畳部88は、歪み処理が施されたカメラ画像に画像生成装置200により生成されたアルファ付きCG画像を重畳することで拡張現実画像を生成し、制御部10に供給する。
送受信部92は、映像・音声のデジタル信号を画像生成装置200との間で送受信する。送受信部92は、カメラ画像の奥行き情報を制御部10から受け取り、画像生成装置200に送信する。送受信部92は、画像生成装置200により生成された奥行き情報を含む画像を画像生成装置200から受信し、制御部10に供給する。
図7は、第1の実施の形態に係る画像生成装置200の機能構成図である。
送受信部282は、ヘッドマウントディスプレイ100からカメラユニット80により撮影された現実空間の映像の奥行き情報を受信し、デプス取得部252に供給する。
画像生成部230は、画像記憶部260からコンピュータグラフィックスの生成に必要なデータを読み出し、仮想空間のオブジェクトをレンダリングしてCG画像を生成し、デプス取得部252から提供される現実空間のカメラ画像の奥行き情報にもとづいてCG画像からアルファ付きCG画像を生成し、画像記憶部260に出力する。
画像生成部230は、レンダリング部232と、アルファ付き画像生成部233と、ポストプロセス部236と、リプロジェクション部240と、歪み処理部242とを含む。
レンダリング部232は、視点・視線設定部220によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える仮想空間のオブジェクトをレンダリングしてCG画像を生成し、アルファ付き画像生成部233に与える。
アルファ付き画像生成部233は、デプス取得部252から与えられたカメラ画像の奥行き(デプス)情報にもとづいてCG画像からアルファ付きCG画像を生成する。具体的には、現実空間のオブジェクトと仮想空間のオブジェクトの位置関係を判定し、CG画像において仮想オブジェクトの背景の領域や仮想オブジェクトよりも手前にある現実空間のオブジェクトによって隠れて見えないオクルージョンの領域は透明になるようにアルファ値を設定する。アルファ付き画像生成部233は、アルファ付きCG画像をポストプロセス部236に与える。
ポストプロセス部236は、アルファ付きCG画像に対して、被写界深度調整、トーンマッピング、アンチエイリアシングなどのポストプロセスを施し、アルファ付きCG画像が自然で滑らかに見えるように後処理する。
アンチエイリアシングの際、CG画像とカメラ画像の境界が半透明になるようにアルファ値を設定することもできる。
リプロジェクション部240は、位置・姿勢取得部210からヘッドマウントディスプレイ100の最新の位置・姿勢情報を受け取り、ポストプロセスが施されたアルファ付きCG画像に対してリプロジェクション処理を施し、ヘッドマウントディスプレイ100の最新の視点位置・視線方向から見える画像に変換する。
歪み処理部242は、リプロジェクション処理が施されたアルファ付きCG画像に対してヘッドマウントディスプレイ100の光学系で生じる歪みに合わせて画像を変形させて歪ませる処理を施し、画像記憶部260に記憶する。
送受信部282は、画像記憶部260から画像生成部230により生成されたアルファ付きCG画像のフレームデータを読み出し、RGBA画像信号を伝送可能な通信インタフェースを介してアルファ付きCG画像をヘッドマウントディスプレイ100に伝送する。ここでRGBA画像信号とは、画素毎に赤、緑、青の各色の値にアルファ値を加えた画像信号である。
図8は、カメラ画像にCG画像を重畳して拡張現実画像を生成するための第1の実施の形態に係る画像生成システムの構成を説明する図である。
ヘッドマウントディスプレイ100のカメラユニット80により撮影された外界のカメラ画像とデプス情報とタイプスタンプは画像信号処理部82に供給される。また、カメラ画像とタイムスタンプは姿勢推定部81に供給される。姿勢推定部81はカメラ画像からヘッドマウントディスプレイ100の姿勢情報を推定し、姿勢情報とタイムスタンプをレンダリング部232に供給する。画像信号処理部82は、カメラ画像に対して画像信号処理と歪み補正処理を施し、カメラ画像とタイプスタンプをリプロジェクション部84に与える。画像信号処理部82は、デプス情報を画像生成装置200に送信し、アルファ付き画像生成部233に供給する。
画像生成装置200のレンダリング部232は、ヘッドマウントディスプレイ100を装着したユーザの視点位置・視線方向から見た仮想オブジェクトを生成し、CG画像とタイムスタンプをアルファ付き画像生成部233に与える。タイムスタンプはアルファ付き画像生成部233からポストプロセス部236、リプロジェクション部240に渡される。
アルファ付き画像生成部233は、デプス情報にもとづきCG画像からアルファ付きCG画像を生成する。ポストプロセス部236はアルファ付きCG画像にポストプロセスを施す。リプロジェクション部240はポストプロセスが施されたアルファ付きCG画像をタイムスタンプを基準にして最新の視点位置・視線方向に合うように変換する。歪み処理部242はリプロジェクション後のアルファ付きCG画像に歪み処理を施す。歪み処理後の最終的なRGBA画像はヘッドマウントディスプレイ100に送信され、AR重畳部88に供給される。このRGBA画像は、カメラ画像が重畳されるべき領域は透明であることを示すアルファ値が設定されたCG画像である。
ヘッドマウントディスプレイ100のリプロジェクション部84は、画像信号処理と歪み補正処理が施されたカメラ画像をタイムスタンプを基準にして最新の視点位置・視線方向に合うように変換し、歪み処理部86に供給する。歪み処理部86はリプロジェクション後のカメラ画像に歪み処理を施す。AR重畳部88は、画像生成装置200から供給されるアルファ付きCG画像を歪み処理後のカメラ画像に重畳することにより、拡張現実画像を生成する。生成された拡張現実画像は、ディスプレイパネル32に表示される。
第1の実施の形態の画像生成システムによれば、ヘッドマウントディスプレイ100のカメラユニット80によって撮影されたカメラ画像を画像生成装置200に転送しないため、高フレームレートで撮影されたカメラ画像を画像生成装置200が生成するCG画像に重畳することができる。そのためシースルー映像がとぎれとぎれになることがなく、ヘッドマウントディスプレイ100で拡張現実の映像を見ているユーザが現実世界とのつながり感をもつことができる。
第2の実施の形態について説明する。ヘッドマウントディスプレイ100の構成は基本的には図6に示したものと同じであるが、リプロジェクション部84は、カメラ画像用の第1のリプロジェクション部84aとCG画像用の第2のリプロジェクション部84bを有する。
図9は、第2の実施の形態に係る画像生成装置200の機能構成図である。
第2の実施の形態の画像生成装置2000は、ヘッドマウントディスプレイ100からカメラユニット80により撮影されたカメラ画像とデプス情報は受信しない。
画像生成部230は、画像記憶部260からコンピュータグラフィックスの生成に必要なデータを読み出し、仮想空間のオブジェクトをレンダリングしてCG画像を生成し、ポストプロセスを施し、画像記憶部260に出力する。
画像生成部230は、レンダリング部232と、ポストプロセス部236とを含む。
レンダリング部232は、視点・視線設定部220によって設定されたユーザの視点位置および視線方向にしたがって、ヘッドマウントディスプレイ100を装着したユーザの視点位置から視線方向に見える仮想空間のオブジェクトをレンダリングしてCG画像を生成し、ポストプロセス部236に与える。
ポストプロセス部236は、CG画像に対してポストプロセスを施し、CG画像が自然で滑らかに見えるように後処理し、画像記憶部260に記憶する。
送受信部282は、画像記憶部260から画像生成部230により生成されたアルファ値とデプス情報を含むCG画像のフレームデータを読み出し、RGBAD画像信号を伝送可能な通信インタフェースを介してRGBAD画像としてヘッドマウントディスプレイ100に伝送する。ここでRGBAD画像信号は、画素毎に赤、緑、青の各色の値にアルファ値およびデプス値を加えた画像信号である。
図10は、カメラ画像にCG画像を重畳して拡張現実画像を生成するための第2の実施の形態に係る画像生成システムの構成を説明する図である。
ヘッドマウントディスプレイ100のカメラユニット80により撮影された外界のカメラ画像とデプス情報とタイプスタンプは画像信号処理部82に供給される。また、カメラ画像とタイムスタンプは姿勢推定部81に供給される。姿勢推定部81はカメラ画像からヘッドマウントディスプレイ100の姿勢情報を推定し、姿勢情報とタイムスタンプをレンダリング部232に供給する。画像信号処理部82は、カメラ画像に対して画像信号処理と歪み補正処理を施し、カメラ画像とデプス情報とタイプスタンプを第1のリプロジェクション部84aに与える。
画像生成装置200のレンダリング部232は、ヘッドマウントディスプレイ100を装着したユーザの視点位置・視線方向から見た仮想オブジェクトを生成し、CG画像とタイムスタンプをポストプロセス部236に与える。
ポストプロセス部236はCG画像にポストプロセスを施し、アルファ値とデプス情報を含むRGBAD画像としてタイムスタンプとともにヘッドマウントディスプレイ100に送信し、リプロジェクション部84bに供給される。
ヘッドマウントディスプレイ100の第1のリプロジェクション部84aは、画像信号処理と歪み補正処理が施されたカメラ画像をタイムスタンプを基準にして最新の視点位置・視線方向に合うように変換し、AR重畳部88に供給する。
ヘッドマウントディスプレイ100の第2のリプロジェクション部84bは、CG画像をタイムスタンプを基準にして最新の視点位置・視線方向に合うように変換し、AR重畳部88に供給する。ここでCG画像にはデプス情報が含まれるため、第2のリプロジェクション部84bは、デプス情報を利用して回転成分だけでなく並進成分も考慮してリプロジェクション処理を行うことができる。
ここで、ヘッドマウントディスプレイ100において、カメラ画像用の第1のリプロジェクション部84aとCG画像用の第2のリプロジェクション部84bに分かれているのは、画像生成装置200のレンダリングには時間がかかり、リプロジェクションによって補正すべき差分量が異なるからである。たとえば、第1のリプロジェクション部84aで1フレーム先のリプロジェクションを行うのに対して、第2のリプロジェクション部84bでは2フレーム先のリプロジェクションを行う必要がある。
AR重畳部88は、第2のリプロジェクション部84bによりリプロジェクション処理が施されたCG画像を、第1のリプロジェクション部84aによりリプロジェクション処理が施されたカメラ画像に重畳することにより、拡張現実画像を生成し、歪み処理部86に供給する。ここで、カメラ画像にもCG画像にもデプス情報があるため、AR重畳部88は、双方のデプス情報を利用して画素単位で重畳処理が可能である。
歪み処理部86は拡張現実画像に歪み処理を施す。生成された拡張現実画像は、ディスプレイパネル32に表示される。
図11は、カメラ画像にCG画像を重畳して拡張現実画像を生成するための第2の実施の形態に係る画像生成システムの構成の変形例を説明する図である。図10の構成とは異なる点を説明する。
図11の変形例では、第1のリプロジェクション部84aはAR重畳部88の後段に設けられ、画像信号処理部82はカメラ画像とデプス情報とタイプスタンプをAR重畳部88に直接供給する。タイプスタンプはAR重畳部88から第1のリプロジェクション部84aに渡される。第2のリプロジェクション部84bは、CG画像をタイムスタンプを基準にして最新の視点位置・視線方向に合うように変換し、AR重畳部88に供給する。AR重畳部88は、第2のリプロジェクション部84bによりリプロジェクション処理が施されたCG画像をカメラ画像に重畳することにより、拡張現実画像を生成する。第1のリプロジェクション部84aはタイムスタンプを基準にして拡張現実画像を出力タイミングを予想して出力タイミングにおける視点位置・視線方向に合うように変換し、歪み処理部86に供給する。
第2の実施の形態の画像生成システムによれば、第1の実施の形態と同様に、高フレームレートで撮影されたカメラ画像をCG画像に重畳することができるため、シースルー映像がとぎれとぎれになることがなく、現実感のある拡張現実の映像を提供することができるという利点の他、次の利点がある。CG画像をデプス情報も含めてヘッドマウントディスプレイ100に送信するため、ヘッドマウントディスプレイ100側で画素毎にデプス情報を参照してカメラ画像を高い精度で重畳することができる。また、映像シースルー型だけでなく光学シースルー型のヘッドマウントディスプレイ100にも応用できる。また、デプス情報があればヘッドマウントディスプレイ100のリプロジェクション部84bにおいて回転成分だけでなく並進成分も含めて予測変換が可能であり、画素毎に3次元変換をして高い精度でリプロジェクション処理を施すことができる。
また、ヘッドマウントディスプレイ100側でCG画像に対してリプロジェクション処理を施すため、ディスプレイパネル32に表示する直前の視点位置・視線方向に合うようにCG画像を変換でき、高い精度で追従性のある拡張現実画像を提供できる。また、画像生成装置200側のリプロジェクション処理の負担を軽減できるので、画像生成装置200側ではレンダリングにより多くのリソースをかけることができる。
さらに、ホログラムディスプレイのように表示対象の虚像距離まで再現できる表示装置を利用する場合、CG画像のデプス情報を反映して仮想オブジェクトを3D表示することもできる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
図8、図10、図11において、姿勢推定部81をヘッドマウントディスプレイ100に設けた実施例を説明したが、変形例として姿勢推定部81を画像生成装置200に設けてもよい。
上記の説明では、ビデオ透過(ビデオシースルー)型のヘッドマウントディスプレイを例に説明したが、表示部をハーフミラー等で構成し、ユーザに眼前の現実空間を視認させる光学透過(オプティカルシースルー)型のヘッドマウントディスプレイの場合にも本実施の形態を適用することができる。光学透過型のヘッドマウントディスプレイの場合、カメラ画像の奥行き情報とCG画像の奥行き情報を比較して、仮想空間のオブジェクトよりも手前に現実空間のオブジェクトが存在する領域については、CG画像を削除し現実空間を透過して視認させる。光学透過型のヘッドマウントディスプレイの場合、カメラ画像をCG画像に重畳させる必要がないため、カメラ画像に関する画像信号処理やリプロジェクション処理は不要であり、カメラユニット80からのデプス情報がAR重畳部88において利用される。
10 制御部、 20 入力インタフェース、 30 出力インタフェース、 32 ディスプレイパネル、 40 通信制御部、 42 ネットワークアダプタ、 44 アンテナ、 50 記憶部、 64 姿勢センサ、 70 外部入出力端子インタフェース、 72 外部メモリ、 80 カメラユニット、 81 姿勢推定部、 82 画像信号処理部、 84 リプロジェクション部、 86 歪み処理部、 88 AR重畳部、 90 HDMI送受信部、 92 送受信部、 100 ヘッドマウントディスプレイ、 200 画像生成装置、 210 位置・姿勢取得部、 220 視点・視線設定部、 230 画像生成部、 232 レンダリング部、 233 アルファ付き画像生成部、 234 AR重畳部、 236 ポストプロセス部、 240 リプロジェクション部、 242 歪み処理部、 250 画像信号処理部、 252 デプス取得部、 260 画像記憶部、 280 HDMI送受信部、 282 送受信部、 300 インタフェース。

Claims (10)

  1. 仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、
    ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成部と、
    前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換するリプロジェクション部と、
    リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して前記ヘッドマウントディスプレイに送信する送信部とを含むことを特徴とする画像生成装置。
  2. 前記アルファ付き画像生成部により生成された前記アルファ付きコンピュータグラフィックス画像にポストプロセスを施すポストプロセス部をさらに含み、
    前記リプロジェクション部は、ポストプロセスが施された前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換することを特徴とする請求項1に記載の画像生成装置。
  3. 現実空間の撮影画像を新たな視点位置または視線方向に合うように変換するリプロジェクション部と、
    アルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して受信する受信部と、
    リプロジェクション処理が施された前記現実空間の撮影画像に前記アルファ付きコンピュータグラフィックス画像を重畳して拡張現実画像を生成する重畳部とを含むことを特徴とするヘッドマウントディスプレイ。
  4. ヘッドマウントディスプレイと画像生成装置を含む画像生成システムであって、
    前記画像生成装置は、
    仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、
    前記ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成部と、
    前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、
    リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して前記ヘッドマウントディスプレイに送信する送信部とを含み、
    前記ヘッドマウントディスプレイは、
    前記現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、
    前記画像生成装置からアルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して受信する受信部と、
    リプロジェクション処理が施された現実空間の撮影画像に前記アルファ付きコンピュータグラフィックス画像を重畳して拡張現実画像を生成する重畳部とを含むことを特徴とする画像生成システム。
  5. 仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリングステップと、
    ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成ステップと、
    前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換するリプロジェクションステップと、
    リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して前記ヘッドマウントディスプレイに送信する送信ステップとを含むことを特徴とする画像生成方法。
  6. 仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング機能と、
    ヘッドマウントディスプレイから提供される現実空間の撮影画像の奥行き情報にもとづいてアルファ付きコンピュータグラフィックス画像を生成するアルファ付き画像生成機能と、
    前記アルファ付きコンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換するリプロジェクション機能と、
    リプロジェクション処理が施された前記アルファ付きコンピュータグラフィックス画像を、前記アルファ付きコンピュータグラフィックス画像のフレームデータをRGBA画像信号として伝送可能な通信インタフェースを介して前記ヘッドマウントディスプレイに送信する送信機能とをコンピュータに実現させることを特徴とするプログラム。
  7. 現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、
    奥行き情報付きのコンピュータグラフィックス画像を、前記奥行き情報付きのコンピュータグラフィックス画像のフレームデータをRGBD画像信号として伝送可能な通信インタフェースを介して受信する受信部と、
    コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、
    リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳部とを含むことを特徴とするヘッドマウントディスプレイ。
  8. ヘッドマウントディスプレイと画像生成装置を含む画像生成システムであって、
    前記画像生成装置は、
    仮想空間のオブジェクトをレンダリングしてコンピュータグラフィックス画像を生成するレンダリング部と、
    現実空間の撮影画像に重畳するために奥行き情報付きの前記コンピュータグラフィックス画像を、前記奥行き情報付きのコンピュータグラフィックス画像のフレームデータをRGBD画像信号として伝送可能な通信インタフェースを介して前記ヘッドマウントディスプレイに送信する送信部とを含み、
    前記ヘッドマウントディスプレイは、
    現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション部と、
    前記画像生成装置から奥行き情報付きのコンピュータグラフィックス画像を、前記奥行き情報付きのコンピュータグラフィックス画像のフレームデータをRGBD画像信号として伝送可能な通信インタフェースを介して受信する受信部と、
    前記コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション部と、
    リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳部とを含むことを特徴とする画像生成システム。
  9. 現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクションステップと、
    奥行き情報付きのコンピュータグラフィックス画像を、前記奥行き情報付きのコンピュータグラフィックス画像のフレームデータをRGBD画像信号として伝送可能な通信インタフェースを介して受信する受信ステップと、
    前記コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクションステップと、
    リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳ステップとを含むことを特徴とする画像生成方法。
  10. 現実空間の撮影画像を新たな視点位置または視線方向に合うように変換する第1のリプロジェクション機能と、
    奥行き情報付きのコンピュータグラフィックス画像を、前記奥行き情報付きのコンピュータグラフィックス画像のフレームデータをRGBD画像信号として伝送可能な通信インタフェースを介して受信する受信機能と、
    前記コンピュータグラフィックス画像を新たな視点位置または視線方向に合うように変換する第2のリプロジェクション機能と、
    リプロジェクション処理が施された前記現実空間の撮影画像にリプロジェクション処理が施された前記奥行き情報付きのコンピュータグラフィックス画像を画素単位で奥行き情報を参照して重畳することにより拡張現実画像を生成する重畳機能とをコンピュータに実現させることを特徴とするプログラム。
JP2017222897A 2017-11-20 2017-11-20 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム Active JP6978289B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017222897A JP6978289B2 (ja) 2017-11-20 2017-11-20 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
PCT/JP2018/042003 WO2019098198A1 (ja) 2017-11-20 2018-11-13 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US16/762,786 US11204502B2 (en) 2017-11-20 2018-11-13 Image generation apparatus, head mounted display, image generation system, image generation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017222897A JP6978289B2 (ja) 2017-11-20 2017-11-20 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム

Publications (3)

Publication Number Publication Date
JP2019095916A JP2019095916A (ja) 2019-06-20
JP2019095916A5 JP2019095916A5 (ja) 2020-10-08
JP6978289B2 true JP6978289B2 (ja) 2021-12-08

Family

ID=66539649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017222897A Active JP6978289B2 (ja) 2017-11-20 2017-11-20 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム

Country Status (3)

Country Link
US (1) US11204502B2 (ja)
JP (1) JP6978289B2 (ja)
WO (1) WO2019098198A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220319105A1 (en) * 2019-07-10 2022-10-06 Sony Interactive Entertainment Inc. Image display apparatus, image display system, and image display method
JP7377014B2 (ja) 2019-07-10 2023-11-09 株式会社ソニー・インタラクティブエンタテインメント 画像表示装置、画像表示システムおよび画像表示方法
JP7217206B2 (ja) 2019-07-10 2023-02-02 株式会社ソニー・インタラクティブエンタテインメント 画像表示装置、画像表示システムおよび画像表示方法
JP7429633B2 (ja) 2020-12-08 2024-02-08 Kddi株式会社 情報処理システム、端末、サーバ及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015098292A1 (ja) * 2013-12-25 2015-07-02 ソニー株式会社 画像処理装置及び画像処理方法、コンピューター・プログラム、並びに画像表示システム
GB2523740B (en) * 2014-02-26 2020-10-14 Sony Interactive Entertainment Inc Image encoding and display
JP2015191314A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 画像処理装置、画像処理システム及び画像処理方法
JP6294780B2 (ja) * 2014-07-17 2018-03-14 株式会社ソニー・インタラクティブエンタテインメント 立体画像提示装置、立体画像提示方法、およびヘッドマウントディスプレイ
US10102666B2 (en) * 2015-06-12 2018-10-16 Google Llc Electronic display stabilization for head mounted display
JP6087453B1 (ja) * 2016-02-04 2017-03-01 株式会社コロプラ 仮想空間の提供方法、およびプログラム
US11024014B2 (en) * 2016-06-28 2021-06-01 Microsoft Technology Licensing, Llc Sharp text rendering with reprojection
US10394313B2 (en) * 2017-03-15 2019-08-27 Microsoft Technology Licensing, Llc Low latency cross adapter VR presentation

Also Published As

Publication number Publication date
US11204502B2 (en) 2021-12-21
US20210191124A1 (en) 2021-06-24
JP2019095916A (ja) 2019-06-20
WO2019098198A1 (ja) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6732716B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
US11119319B2 (en) Rendering device, head-mounted display, image transmission method, and image correction method
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US11373379B2 (en) Image generation apparatus and image generation method for generating augmented reality images based on user interaction
US11120632B2 (en) Image generating apparatus, image generating system, image generating method, and program
JP6978289B2 (ja) 画像生成装置、ヘッドマウントディスプレイ、画像生成システム、画像生成方法、およびプログラム
US20200319463A1 (en) Image correction apparatus, image correction method and program
US11003408B2 (en) Image generating apparatus and image generating method
JP7234021B2 (ja) 画像生成装置、画像生成システム、画像生成方法、およびプログラム
JPWO2020026419A1 (ja) 画像生成装置および画像生成方法
JP6711803B2 (ja) 画像生成装置および画像生成方法
JP7047085B2 (ja) 画像生成装置、画像生成方法、およびプログラム
WO2021006191A1 (ja) 画像表示装置、画像表示システムおよび画像表示方法
JP7377014B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
US20240236290A9 (en) Image generation device, program, image generation method, and image displaying system
US20240137482A1 (en) Image generation device, program, image generation method, and image displaying system
JP7429761B2 (ja) 画像表示装置、画像表示システムおよび画像表示方法
WO2021106136A1 (ja) 表示端末装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200828

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211111

R150 Certificate of patent or registration of utility model

Ref document number: 6978289

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150