WO2020218131A1 - 画像生成装置および情報提示方法 - Google Patents

画像生成装置および情報提示方法 Download PDF

Info

Publication number
WO2020218131A1
WO2020218131A1 PCT/JP2020/016648 JP2020016648W WO2020218131A1 WO 2020218131 A1 WO2020218131 A1 WO 2020218131A1 JP 2020016648 W JP2020016648 W JP 2020016648W WO 2020218131 A1 WO2020218131 A1 WO 2020218131A1
Authority
WO
WIPO (PCT)
Prior art keywords
viewpoint
image
user
head
displayed
Prior art date
Application number
PCT/JP2020/016648
Other languages
English (en)
French (fr)
Inventor
村本 准一
Original Assignee
株式会社ソニー・インタラクティブエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・インタラクティブエンタテインメント filed Critical 株式会社ソニー・インタラクティブエンタテインメント
Priority to US17/439,014 priority Critical patent/US20220147138A1/en
Publication of WO2020218131A1 publication Critical patent/WO2020218131A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment

Abstract

画像生成装置200において視点情報取得部50は、ヘッドマウントディスプレイ100を装着したユーザの視点に係る情報を取得する。実空間情報取得部58は、ユーザや情報提供者のいる実空間に係る情報を取得する。視点制御部52は、表示における視点を、ユーザの視点から、実空間に存在する物を視野に含む他者視点へ移動させる。画像生成部54は決定された視点に対する画像を生成し、出力部56から出力する。

Description

画像生成装置および情報提示方法
 本発明は、ヘッドマウントディスプレイに表示させる画像を生成する画像生成装置およびそれが行う情報提示方法に関する。
 対象空間を自由な視点から鑑賞できる画像表示システムが普及している。例えばヘッドマウントディスプレイにパノラマ映像を表示し、ヘッドマウントディスプレイを装着したユーザが頭部を回転させると視線方向に応じたパノラマ画像が表示されるようにしたシステムが開発されている。ヘッドマウントディスプレイを利用することで、映像への没入感を高めたり、ゲームなどのアプリケーションの操作性を向上させたりすることもできる。また、ヘッドマウントディスプレイを装着したユーザが物理的に移動することで映像として表示された空間内を仮想的に歩き回ることのできるウォークスルーシステムも開発されている。
 外光を遮断する遮蔽型のヘッドマウントディスプレイの場合、それを装着したユーザには当然、外界の様子がわからない。そのため方向感覚を失ったり、実空間で思わぬ位置に移動していたりすることがあり得る。外部の人間が方向などの情報を伝えようとしても伝達手段が限られ、画像の鑑賞を中断したりヘッドマウントディスプレイを外したりしなければわからない場合もある。
 本発明はこうした課題に鑑みてなされたものであり、その目的は、ヘッドマウントディスプレイを装着したユーザに、外部の人間が容易に情報を伝えることのできる技術を提供することにある。
 上記課題を解決するために、本発明のある態様は画像生成装置に関する。この画像生成装置は、ヘッドマウントディスプレイを装着しているユーザの頭部の動きに基づき当該ユーザの視点に係る情報を取得する視点情報取得部と、ユーザのいる実空間の状態を検出するセンサからの情報に基づき当該実空間の状態に係る情報を取得する実空間情報取得部と、ヘッドマウントディスプレイに表示させる画像に対する視点を制御する視点制御部と、視点に対応する視野で表示対象を表した画像を生成する画像生成部と、生成された画像をヘッドマウントディスプレイに出力する出力部と、を備え、視点制御部は、表示させる画像に対する視点を、ユーザの視点と、実空間に存在する物を視野に含む、ユーザの視点と異なる他者視点との間で移動させることを特徴とする。
 本発明の別の態様は、情報提示方法に関する。この情報提示方法は、ヘッドマウントディスプレイを装着しているユーザの頭部の動きに基づき当該ユーザの視点に係る情報を取得するステップと、ユーザのいる実空間の状態を検出するセンサからの情報に基づき当該実空間の状態に係る情報を取得するステップと、ヘッドマウントディスプレイに表示させる画像に対する視点を制御するステップと、視点に対応する視野で表示対象を表した画像を生成するステップと、生成された画像をヘッドマウントディスプレイに出力するステップと、を含み、視点を制御するステップは、表示させる画像に対する視点を、ユーザの視点と、実空間に存在する物を視野に含む、ユーザの視点と異なる他者視点との間で移動させるステップを含むことを特徴とする。
 なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、ヘッドマウントディスプレイを装着したユーザに、外部の人間が容易に情報を伝えることができる。
本実施の形態のヘッドマウントディスプレイの外観例を示す図である。 本実施の形態の情報処理システムの構成図である。 本実施の形態を適用できる表示形態の例を模式的に示す図である。 本実施の形態を実現するためのシステム構成の例を模式的に示す図である。 本実施の形態の画像生成装置の内部回路構成を示す図である。 本実施の形態における画像生成装置の機能ブロックの構成を示す図である。 本実施の形態において、ユーザの視点と他者視点における表示画像の変化を例示する図である。 本実施の形態におけるユーザの視点から他者視点への視点移動の例を示す図である。 本実施の形態におけるユーザの視点から他者視点への視点移動の別の例を示す図である。 本実施の形態における画像生成装置が表示画像を生成し、ヘッドマウントディスプレイに表示させる処理手順を示すフローチャートである。
 図1は、ヘッドマウントディスプレイ100の外観例を示す。ヘッドマウントディスプレイ100は、本体部110、前頭部接触部120、および側頭部接触部130を含む。ヘッドマウントディスプレイ100は、ユーザの頭部に装着してディスプレイに表示される静止画や動画などを鑑賞し、ヘッドホンから出力される音声や音楽などを聴くための表示装置である。ヘッドマウントディスプレイ100に内蔵または外付けされたモーションセンサにより、ヘッドマウントディスプレイ100を装着したユーザの頭部の回転角や傾きといった姿勢情報を計測することができる。これにより、ユーザの頭部の動きに応じて表示画像の視野を変化させれば、画像世界にいるような感覚を与えることができる。
 ただし本実施の形態のヘッドマウントディスプレイの形状や構造は図示するものに限らない。例えばヘッドマウントディスプレイ100の前面に、ユーザの顔が向いた方向の実空間の様子を撮影するカメラを設けてもよい。この場合、撮影画像を解析することによりユーザの顔の向きや頭部の位置を取得したり、前方にある実物体の位置を求めたりすることができる。当該撮影画像は表示画像に利用することもできる。
 図2は、本実施の形態に係る情報処理システムの構成図である。ヘッドマウントディスプレイ100は、無線通信またはUSBなどの周辺機器を接続するインタフェース205により画像生成装置200に接続される。画像生成装置200は、さらにネットワークを介してサーバに接続されてもよい。その場合、サーバは、複数のユーザがネットワークを介して参加できるゲームなどのオンラインアプリケーションを画像生成装置200に提供してもよい。
 画像生成装置200は、ヘッドマウントディスプレイ100を装着したユーザの頭部の位置や姿勢に基づき、表示画像に対する仮想的な視点の位置や視線の方向を決定し、それに応じた視野となるように表示画像を生成してヘッドマウントディスプレイ100に出力する。この限りにおいて画像を表示する目的は様々であってよい。例えば画像生成装置200は、電子ゲームを進捗させつつゲームの舞台である仮想世界を表示画像として生成してもよいし、仮想世界が実世界かに関わらず観賞用として静止画像または動画像を表示させてもよい。
 仮想的な視点を中心に広い角度範囲で全天周(360°)画像を表示すれば、画像世界に没入している感覚を与えられる。なお画像生成装置200は図示するように、ヘッドマウントディスプレイ100とインタフェース205で接続された別の装置であってもよいし、ヘッドマウントディスプレイ100の内部に一体的に設けられていてもよい。
 図3は、本実施の形態を適用できる表示形態の例を模式的に示している。ユーザ10はヘッドマウントディスプレイ100を装着している。表示対象の画像は、例えば全天周画像であり、図ではそれにより表される範囲を球面14で示している。ただし表示対象を全天周画像に限定する趣旨ではない。また表示対象は事前に撮影された実写画像でもよいし、仮想オブジェクトが存在する3次元の仮想世界などでもよい。さらに表示対象は静止画でも動画でもよい。
 画像生成装置200は、ヘッドマウントディスプレイ100に、それを装着したユーザ10の頭部の位置や姿勢、ひいては視点の位置や視線の方向に対応する画像を表示させる。具体的には、ユーザ10の頭部の位置や姿勢に係る情報に基づき、表示対象の仮想空間にビュースクリーン16を設定し、表示対象の画像や3次元オブジェクトを射影することで表示画像を生成する。
 ユーザ10の視点の位置や視線の方向(以後、これらを包括的に「視点」と呼ぶ場合がある)を所定のレートで取得し、これに応じてビュースクリーン16の位置や方向を変化させれば、ユーザの視点に対応する視野で画像を表示させることができる。視差を有するステレオ画像を生成し、ヘッドマウントディスプレイ100において左右の目の前に表示させれば、表示対象の空間を立体視させることもできる。これにより、例えば所望の土地への旅行を疑似体験したり、実際には行けない場所や架空の場所にいるような感覚を得たりすることができる。
 このような画像表示を、図1に示したような遮蔽型のヘッドマウントディスプレイ100により実現すれば、ユーザ10はより高い没入感を得ることができる。一方で、ヘッドマウントディスプレイ100を装着していることにより、外界の様子を把握できないという問題がある。例えばユーザ10の近くにいる人12が、ユーザ10に何かを伝えたい場合、ユーザ10に触れる、あるいは声で知らせる、といった手段が考えられる。しかしながらそのような手段で伝えられる内容には限りがある。
 例えば観光案内サービス、仮想体験のアトラクション、商品のプレゼンテーションなどにおいては、人12である案内人が、表示対象の画像世界のうち客に見て欲しい方向へ視線を誘導したい場合がある。このとき音声のみで方向を適切に表現するのは難しい。特に案内人1人に対しユーザ10のような客が複数人存在すれば、向いている方向も様々になる可能性があり、誘導したい方向を一律に表現することが困難になる。
 ユーザ10が方向を客観的に把握するため画像上に矢印などを重畳表示させることも考えられるが、見ている画像の一部が隠蔽されてしまい邪魔に感じることがある。ヘッドマウントディスプレイ100に実世界の撮影画像を表示させることも考えられるが、それまで見ていた画像から完全に切り替わることにより没入感が途切れてしまう。またそれまで見ていた画像における位置や方向との関係が理解しづらい。
 そこで本実施の形態では、ヘッドマウントディスプレイ100を装着していない外部の人12が情報を伝える期間において、表示画像に対する仮想的な視点を、ユーザ10の視点と異なる位置に移動させることにより、ユーザ10自身がいる領域を視野に含める。例えばユーザ10と外部の人12とが視野に入るように仮想的な視点を移動させることにより、ユーザ10には自分自身と人12(厳密にはそのアバターである仮想オブジェクト)が見えるようにする。これにより、自分と人12との位置関係や方向を、直感的に把握できるようにする。
 また、人12がレーザーポインタなどで方向を指示している場合、当該ポインタによって示されている位置や方向も視野に入れるようにすることで、指定された方向へ自然に向けるようにする。なお以後の説明では、ヘッドマウントディスプレイ100を装着しているユーザ10に何らかの情報を与える人12を「情報提供者」と呼ぶ。ここで情報とは、上述のとおり視線の向くべき方向でもよいし、それ以外に、ジェスチャなどで伝えられるいかなる情報でもよい。
 図4は、本実施の形態を実現するためのシステム構成の例を模式的に示している。図示するシステム構成20は、図3で示した環境を俯瞰した状態を示している。すなわちヘッドマウントディスプレイ100を装着したユーザ10と情報提供者12が同じ空間に存在する。画像生成装置200は、ユーザ10の頭部の位置や顔の向きに応じて、仮想的な球面14によって表される画像のうち視野内の表示画像を生成し、ヘッドマウントディスプレイ100に送信する。これによりユーザ10には、視点や視線の動きによって様々な方向の画像を見ることができる。
 さらにこの例のシステム構成20では、実空間の状態を検出するセンサ22と、ユーザ10が操作する入力装置24が含まれる。センサ22は例えば可視光の像を撮影する単眼カメラ、多眼カメラ、赤外線を照射してその反射光を検出するToF(Time of Flight)カメラ、ユーザ10や情報提供者12が装着する所定波長帯の発光体を検出するセンサ、サーモグラフィーカメラなど、実空間に存在する物の位置や状態を検出できる装置であればその種類は限定されない。
 画像生成装置200は、情報提供者12が情報を提供している期間における表示画像に対する視点を、センサ22からの情報に基づき決定する。以後、そのように決定された視点を「他者視点」と呼ぶ。入力装置24は、情報提供者12が情報を提供している期間において、表示画像への視点をユーザの視点から他者視点へ移動させる操作、他者視点からユーザの視点に戻す操作を受け付ける。入力装置24は、リモートコントローラ、ゲームコントローラ、携帯端末、押下用ボタン、ジョイスティック、マウス、キーボードなど一般的な入力装置のいずれでもよい。
 例えば情報提供者12が、「こちらを見てください」といった声かけにより方向指示があることを音声で伝えると、ユーザ10は好適なタイミングで入力装置24の所定の入力手段を操作することにより視点の移動を開始させる。そして他者視点からの画像を見て、情報提供者12が示している方向を認識したユーザ10は、自然に当該方向へ身体を向けることができる。その状態で、再び入力装置24を用い、ユーザ自身の視点へ戻す操作を行うと、情報提供者12が示した方向の画像を見ることができる。
 情報提供者12が指示を出しても、視点移動の制御はユーザ10自身ができるようにすることで、勝手に視点が移動することによるストレスを抑える。また意に反した視点の移動による映像酔いを防ぐ。ただし場合によっては、情報提供者12が入力装置24を操作して視点の移動を制御してもよい。また画像生成装置200は、視点移動の開始/終了操作に応じて徐々に視点を移動させ、その経路上から見える画像も表示させる。これにより、それまで見ていた画像と、他者視点からの画像との関連性が明確となり、空間的な把握が容易になる。
 なおセンサ22と入力装置24の形状や位置は図示するものに限らない。例えばセンサ22は天井などから室内を俯瞰する状態で設置してもよいし、可動としてもよい。また入力装置24を、ヘッドマウントディスプレイ100が内蔵するモーションセンサなどとし、ユーザ10の頭部の動きによる操作を取得してもよい。いずれにしろ画像生成装置200は、センサ22、入力装置24とも、有線または無線で接続され、それぞれから送信される情報を随時取得する。
 図5は画像生成装置200の内部回路構成を示している。画像生成装置200は、CPU(Central Processing Unit)222、GPU(Graphics Processing Unit)224、メインメモリ226を含む。これらの各部は、バス230を介して相互に接続されている。バス230にはさらに入出力インタフェース228が接続されている。
 入出力インタフェース228には、USBやIEEE1394などの周辺機器インタフェースや、有線又は無線LANのネットワークインタフェースからなる通信部232、ハードディスクドライブや不揮発性メモリなどの記憶部234、ヘッドマウントディスプレイ100へデータを出力する出力部236、ヘッドマウントディスプレイ100、センサ22、入力装置24からデータを入力する入力部238、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部240が接続される。
 CPU222は、記憶部234に記憶されているオペレーティングシステムを実行することにより画像生成装置200の全体を制御する。CPU222はまた、リムーバブル記録媒体から読み出されてメインメモリ226にロードされた、あるいは通信部232を介してダウンロードされた各種プログラムを実行する。GPU224は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU222からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部236に出力する。メインメモリ226はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。
 図6は、本実施の形態における画像生成装置200の機能ブロックの構成を示している。画像生成装置200は上述のとおり、電子ゲームを進捗させたりサーバと通信したりする一般的な情報処理を行ってよいが、図6では特に、情報提供者が情報を提供する際の表示画像の制御機能に着目して示している。なお図6で示される画像生成装置200の機能のうち少なくとも一部を、ヘッドマウントディスプレイ100に実装してもよい。あるいは、画像生成装置200の少なくとも一部の機能を、ネットワークを介して画像生成装置200に接続されたサーバに実装してもよい。
 また図6に示す機能ブロックは、ハードウェア的には、図5に示したCPU、GPU、各種メモリなどの構成で実現でき、ソフトウェア的には、記録媒体などからメモリにロードした、データ入力機能、データ保持機能、画像処理機能、通信機能などの諸機能を発揮するプログラムで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。
 画像生成装置200は、ユーザの視点に係る情報を取得する視点情報取得部50、表示画像に対する視点を制御する視点制御部52、実空間の状態を取得する実空間情報取得部58、表示画像を生成する画像生成部54、表示画像の生成に必要な画像データを記憶する画像データ記憶部60、およびヘッドマウントディスプレイ100に表示画像を出力する出力部56を備える。
 視点情報取得部50は、図5の入力部238、CPU222などで構成され、ユーザの視点の位置や視線の方向を所定のレートで取得する。例えばヘッドマウントディスプレイ100に内蔵した加速度センサの出力値を逐次取得し、それによって頭部の姿勢を取得する。ヘッドマウントディスプレイ100の外部に図示しない発光マーカーを設け、その撮影画像を図示しない撮像装置から取得することで、実空間での頭部の位置を取得してもよい。
 あるいはヘッドマウントディスプレイ100側に、ユーザの視野に対応する画像を撮影する図示しないカメラを設け、SLAM(Simultaneous Localization and Mapping)などの技術により頭部の位置や姿勢を取得してもよい。頭部の位置や姿勢が判明すれば、ユーザの視点の位置および視線の方向はおよそ特定できる。このほか、ユーザの視点に係る情報を取得する手法として様々に考えられることは当業者には理解されるところである。
 実空間情報取得部58は図5の入力部238、CPU222で実現され、センサ22から送信される検出結果を取得し、実空間におけるユーザ10や情報提供者12の位置、情報提供者12が指示する位置や方向、の少なくともいずれかの情報を取得する。実空間情報取得部58はさらに、ユーザ10や情報提供者12の顔が向いている方向、身体の動き、姿勢、動作なども取得してよい。例えば撮影画像を解析することによりそれらの情報を取得できることは広く知られている。
 実空間情報取得部58が多くの情報を取得するほど、他者視点に視点を移動させた際に表示される実空間を詳細に表すことができ、ユーザの状態把握の助けになる。その一方、情報提供者との位置関係が把握できれば足りるような場合、単純な図形などで実空間をシンプルに表す方が、処理の負荷や表示遅延の面で有利と考えられる。したがって、情報提供者から取得すべき情報の内容や、画像生成装置200の処理性能などに応じて、実空間情報取得部58が取得する情報を適宜選択する。またこれに応じて、センサ22の種類も適切に選択することが望ましい。
 視点制御部52は図5の入力部238、CPU222で決定され、表示画像に対する仮想的な視点の位置や視線の方向を所定のレートで決定する。視点制御部52は基本的に、視点情報取得部50が取得した、ユーザの視点の位置や視線の方向に対応するように、表示世界に対する視点や視線を決定する。一方、情報提供者が情報を提供している期間にユーザが視点移動操作を行ったら、所定の規則で決定した他者視点に視点を移動させる。
 例えばユーザ自身、情報提供者、情報提供者が指している位置や方向、の少なくともいずれかが視野に入るように、他者視点の位置およびその視線の方向を決定する。そのため視点制御部52は、実空間情報取得部58が取得した、その時点でのユーザや情報提供者の位置に基づく他者視点の決定規則を内部で保持する。視点制御部52は、入力装置24が視点移動操作を受け付けたことを契機として、ユーザの視点から他者視点への移動、他者視点からユーザの視点への移動を開始する。画像生成部54は図5のCPU222、GPU224、メインメモリ226などで実現され、表示対象の仮想3次元空間を生成するとともに、視点制御部52が決定した視点に対応する表示画像を所定のレートで生成する。
 すなわち視点制御部52が決定した視点に対応するようにビュースクリーンを設定し、表示対象の画像や仮想オブジェクトを当該ビュースクリーンに射影することで表示画像とする。結果として他者視点においては、ユーザ10や情報提供者12を模した仮想オブジェクトが視野に含まれることになる。当該仮想オブジェクトは、実空間情報取得部58が取得した実際の位置や向きに対応するように配置する。情報提供者がレーザーポインターなどで位置や方向を指示している場合は、その位置や方向を表す仮想オブジェクトや図形も配置する。ステレオ画像により立体視を実現する場合、画像生成部54は、左右の眼のそれぞれに対しビュースクリーンを設定することにより、左目用、右目用の画像を生成する。
 画像データ記憶部60は図5のメインメモリ226で実現され、表示画像の生成に必要な画像のデータを格納する。例えば通常の画像鑑賞時に表示対象となる全天周画像や仮想世界の3Dモデルなどとともに、ユーザや情報提供者を模した仮想オブジェクトの3Dモデルなどを格納する。出力部56は、図5のCPU222、メインメモリ226、出力部236などで構成され、画像生成部54が生成した表示画像のデータを、ヘッドマウントディスプレイ100に所定のレートで送出する。
 画像生成部54が、立体視のためステレオ画像を生成した場合、出力部56はそれらを左右につなげた画像を表示画像として生成し出力する。レンズを介して表示画像を鑑賞する構成のヘッドマウントディスプレイ100の場合、出力部56は、当該レンズによる歪みを考慮した補正を表示画像に施す。
 図7は、ユーザの視点と他者視点における表示画像の変化を例示している。図の(a)はユーザの視点において表示される画像であり、表示対象の街の風景の画像のうち、ユーザの視点に対応する視野の範囲に相当する。ヘッドマウントディスプレイ100の場合、実際には、接眼レンズにより画像が拡大されるなどして、ユーザの視界全体で当該画像が視認されることにより、実際に町にいるような感覚を得ることができる。また、左右に視差のあるステレオ画像を表示することにより、立体的に見せることができる。
 (b)は他者視点において表示される画像であり、ユーザのオブジェクト70、情報提供者のオブジェクト72、情報提供者がポインタで指している位置を表す図形74が表されている。図示する例では、ユーザが自分の視点でそれまで見ていた画像を表すスクリーン面76も視野に含めている。ただし上述のとおり、他者視点において表示画像に含める対象は、伝える情報の内容によって様々でよい。(b)の場合、(a)におけるユーザの視点から、後ろ側に下がった位置に他者視点を設定している。
 このとき画像生成装置200は、視点の移動経路における画像も表示することにより、(a)の画像から(b)の画像へ表示画像を徐々に遷移させる。ユーザのオブジェクト70、情報提供者のオブジェクト72は、位置関係がわかる程度の図形としてもよいし、顔の向きや動作まで表した詳細なオブジェクトでもよい。さらに他者視点では、スクリーン面76のようにユーザの視点でそれまで表示されていた視野に限定せず、より広い範囲で表示対象の画像を表示させてもよい。
 いずれにしろ(b)に示したように、他者視点で自分を含めた画像を表示させることにより、ユーザには情報提供者がどの方向にいるか、どの位置や方向を指しているか、どのような動作をしているか、といったことが、ヘッドマウントディスプレイ100を外すことなく確認できる。またユーザの視点でそれまで見ていた画像から連続的に視点を移動させることにより、元の画像の世界観を途切れさせることなく必要な情報を確認でき、再びユーザの視点に戻って自然に元の画像の鑑賞を再開できる。
 図8はユーザの視点から他者視点への視点移動の例を示している。この例は表示対象を仮想3次元空間としている。俯瞰図82は、当該仮想3次元空間に存在する仮想オブジェクト84a、84bとユーザ10を含む空間を俯瞰した状態を示している。他者視点への移動前、視点80はユーザ10の頭部の位置にあり、その視野角を網掛けの三角形で示している。実空間ではユーザ10の右前に情報提供者12が存在するが、この時点では視野に含まれていない。
 その結果、ヘッドマウントディスプレイ100には、画像86aのように仮想空間に存在するオブジェクトのみが表される。この状態で他者視点への視点移動操作がなされると、視点制御部52は、ユーザ10と情報提供者12の双方が視野に入るように、他者視点83をユーザ10の後方に決定する。この他者視点83により、画像86bのように、ユーザ10のオブジェクト88(図では球体)と情報提供者12のオブジェクト90(図では錐体)を含む画像が表示される。なお画像86bには、視点移動前の画像86aに対応する画角92も示している。
 図9は、ユーザの視点から他者視点への視点移動の別の例を示している。(a)、(b)、(c)はいずれも、図8と同様に、仮想オブジェクト84a、84b、ユーザ10、情報提供者12を含む空間の俯瞰図150a、150b、150cと、それぞれの他者視点154a、154b、154cでの表示画像152a、152b、152cを示している。(a)のケースでユーザ10と情報提供者12は図8のケースと同じ位置関係にあるが、他者視点の決定に別の条件が加わったことにより、他者視点154aが異なる位置にある。
 例えばユーザ10や情報提供者12に対応する仮想世界の位置の近傍に壁などの遮蔽物がある場合など、仮想世界の設定によっては、ユーザ10や情報提供者12のオブジェクトを見ることのできる視点が限られる場合がある。そこで視点制御部52は、ユーザ10と情報提供者12の双方が視野に入る視点、という条件に、仮想世界に表されているオブジェクトによって双方が隠蔽されない視点、という条件を加えて他者視点を決定する。このため視点制御部52は、画像生成部54から、表示対象の3次元空間に係る情報を取得し、上記条件で他者視点を決定する。
 図示する例では、ユーザ10を挟んで情報提供者12と逆方向に他者視点154aを設定している。その結果、ユーザのオブジェクト156aと情報提供者のオブジェクト158aが見える表示画像152aが表示される。(b)のケースでは、ユーザ10の後方に情報提供者12が存在する。この場合、図示するように情報提供者12の後方や、ユーザ10の前方などに他者視点を決定することが考えられる。より具体的には、ユーザ10と情報提供者12を通る線上、または当該線から所定範囲の領域に他者視点を決定する。あるいはユーザの視線の延長線上、または当該線から所定範囲の領域としてもよい。
 このような条件によれば、表示画像152bのように、ユーザ10と情報提供者12の双方のオブジェクトを、遮蔽物による隠蔽なく視野に含められる可能性が高くなる。なお(a)に示す例も、同様の条件で他者視点を決定している。(c)のケースは、元のユーザ10の視点においても情報提供者が視野に入っている。この場合は、さらにユーザ10を視野に含めるように他者視点を決定する。例えばユーザ10と情報提供者12を結ぶ線分を垂直2等分する線上、または当該線から所定範囲の領域であることを条件として他者視点を決定する。これにより、表示画像152cのように、ユーザ10と情報提供者12の双方のオブジェクトを視野に含めることができる。なお視点は図示するような2次元での移動に限定されず、ユーザ10の上方など3次元空間で他者視点を決定してよい。
 次に、以上の構成によって実現できる画像生成装置200の動作について説明する。図10は、本実施の形態における画像生成装置200が表示画像を生成し、ヘッドマウントディスプレイ100に表示させる処理手順を示すフローチャートである。このフローチャートは、ユーザがヘッドマウントディスプレイ100を装着し、画像生成装置200がヘッドマウントディスプレイ100、入力装置24、およびセンサ22と通信を確立した状態で開始される。ここでヘッドマウントディスプレイ100は、モーションセンサの計測値を画像生成装置200に送信している。センサ22は実空間に係る所定のデータを画像生成装置200に送信している。
 その状態で画像生成装置200の視点情報取得部50は、ヘッドマウントディスプレイ100から送信されたモーションセンサの計測値などに基づき、ユーザの視点の位置や視線の方向などの視点情報を取得する(S10)。すると視点制御部52は当該ユーザの視点を表示対象に対する視点とし、画像生成部54が当該視点に対応する表示画像を生成することにより、出力部56から表示画像のデータが出力される(S12)。これにより図7の(a)に示したような表示対象の画像世界が視認される。
 視点を他者視点に移動させる操作がなされないうちは(S14のN)、画像表示を終了させる必要が生じない限り(S26のN)、ユーザの視点での表示画像の生成、出力を継続する(S10、S12)。他者視点へ視点を移動させる操作を、入力装置24を介して受け付けたら(S14のY)、視点制御部52は、他者視点の位置および視線の方向を決定する(S16)。すなわち視点制御部52は、実空間情報取得部58が取得した、実空間におけるユーザや情報提供者の位置に応じて、それらが視野に入る視点の位置および視線の方向を決定する。
 このとき画像生成部54は、ユーザおよび情報提供者の実空間での位置に対応するように、表示対象の仮想空間にそれぞれを表すオブジェクトを配置する。なお他者視点での画像表示期間において、ユーザや情報提供者は動いたり移動したりしている場合があるため、画像生成部54はそれらをオブジェクトの動きに反映させる。また情報提供者のオブジェクトについては、ユーザの視点か他者視点かに関わらず、仮想空間に配置しておいてもよい。
 次に視点制御部52は、それまでのユーザの視点から、決定した他者視点まで所定の速度で視点を移動させ、画像生成部54は、その経路で移動中の視点からの画像を所定のレートで生成し、出力部56から出力する(S18)。ユーザの視点から他者視点までの視点の移動経路は、仮想空間においてそれら2点を結ぶ直線状としてもよいし、所定の規則で決定した曲線状としてもよい。このとき視線の方向も徐々に変化させていくことにより、ユーザの視点から他者視点への移行をスムーズに行える。
 視点が他者視点まで到達したら、視点制御部52はそこで視点の移動を止める。そして画像生成部54は、当該視点からの画像を生成し、出力部56から出力する(S20)。これにより図7の(b)に示したような、ユーザ自身を含む空間が視認される。これによりユーザは、自分自身のオブジェクトとの相対的な位置関係において、情報提供者やその指す位置、方向を知ることができる。
 他者視点での表示を終了させる操作がなされないうちは(S22のN)、当該視点での表示画像の生成、出力を継続する(S18)。この期間において、ユーザ、情報提供者、情報提供者が指す位置や方向が動く場合、視点制御部52は、それらが視野から外れないように、他者視点の位置や視線の方向を適宜調整してよい。そして他者視点での表示を終了させる操作を、入力装置24を介して受け付けたら(S22のY)、視点制御部52は、他者視点からユーザの視点まで所定の速度で視点を移動させる。
 そして画像生成部54は、移動中の視点からの画像を所定のレートで生成し、出力部56から出力する(S24)。そしてユーザの視点に到達したら、視点制御部52はそこで視点の移動を止める。画像表示を終了させる必要が生じない限り(S26のN)、ユーザの視点での表示画像の生成、出力を継続する(S10、S12)。以後、S10からS24までの処理を、適宜処理を分岐させながら繰り返し、画像表示を終了させる必要が生じたら全ての処理を終了する(S26のY)。
 以上述べた本実施の形態によれば、ヘッドマウントディスプレイを用いた画像表示時に、外部からの情報提供の必要性に応じて、ユーザの視点と異なる位置へ視点を移動させ、そこから見た画像を表示する。移動先の視点は、ユーザ、情報提供者、情報提供者が指し示す位置や方向、の少なくともいずれかが含まれる、実空間を模した空間が入るように決定する。これにより、外部の状況がわからない遮蔽型のヘッドマウントディスプレイであっても、ユーザは容易に外部の状況や指示を把握できる。
 例えば自分と情報提供者の位置関係が判明するのみでも、情報提供者が指定した「右」や「左」などの方向が、自分にとってどの方向なのかを理解できる。また情報提供者が示した方向を表示に含めれば、自分から見た方向をより直感的に把握できる。方向指示ばかりでなく、情報提供者が行ったジェスチャにしたがって動作することも容易になる。
 さらに視点の移動経路における画像を表示させ、徐々に遷移させていくことにより、元々見ていた画像と実空間という、本来相容れない2種類の世界の位置関係を容易に把握できる。また元の画像に対して向くべき方向を直感的に理解できる。視点の移動を開始するタイミングをユーザ自身が決められるようにすることで、注目していた対象を見失ったり映像酔いが生じたりすることを防止できる。これらの態様はヘッドマウントディスプレイを装着したまま実現できるため、手間をかけることなく外部とのコミュニケーションを容易にとることができる。
 以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 以上のように本発明は、ヘッドマウントディスプレイ、画像生成装置など各種装置と、それを含むシステムなどに利用可能である。
 22 センサ、 24 入力装置、 50 視点情報取得部、 52 視点制御部、 54 画像生成部、 56 出力部、 58 実空間情報取得部、 60 画像データ記憶部、 100 ヘッドマウントディスプレイ、 200 画像生成装置、 222 CPU、 224 GPU、 226 メインメモリ、 236 出力部、 238 入力部。

Claims (13)

  1.  ヘッドマウントディスプレイを装着しているユーザの頭部の動きに基づき当該ユーザの視点に係る情報を取得する視点情報取得部と、
     前記ユーザのいる実空間の状態を検出するセンサからの情報に基づき当該実空間の状態に係る情報を取得する実空間情報取得部と、
     前記ヘッドマウントディスプレイに表示させる画像に対する視点を制御する視点制御部と、
     前記視点に対応する視野で表示対象を表した画像を生成する画像生成部と、
     生成された画像を前記ヘッドマウントディスプレイに出力する出力部と、
     を備え、
     前記視点制御部は、前記表示させる画像に対する視点を、前記ユーザの視点と、前記実空間に存在する物を視野に含む、前記ユーザの視点と異なる他者視点との間で移動させることを特徴とする画像生成装置。
  2.  前記視点制御部は、前記ユーザと、当該ユーザへの情報提供者とが視野に入る視点を、前記他者視点として決定し、
     前記画像生成部は、前記ユーザと前記情報提供者を表す仮想オブジェクトを、前記実空間の状態に係る情報に基づき、表示対象の空間に配置したうえ、前記他者視点に対応する視野で当該表示対象の空間を表した画像を生成することを特徴とする請求項1に記載の画像生成装置。
  3.  前記画像生成部は、前記表示対象の空間として仮想世界を生成し、
     前記視点制御部は、前記仮想世界に表されているオブジェクトによって、前記ユーザと前記情報提供者が隠蔽されない視点を前記他者視点として決定することを特徴とする請求項2に記載の画像生成装置。
  4.  前記視点制御部は、前記表示対象の空間において前記ユーザと前記情報提供者を通る線上、または当該線から所定範囲の領域に前記他者視点を決定することを特徴とする請求項2または3に記載の画像生成装置。
  5.  前記視点制御部は、前記表示させる画像に対する視点が前記ユーザの視点にあるときに、その視野に前記情報提供者が含まれる場合、前記表示対象の空間において前記ユーザと前記情報提供者を結ぶ線分を垂直2等分する線上、または当該線から所定範囲の領域に前記他者視点を決定することを特徴とする請求項2に記載の画像生成装置。
  6.  前記視点制御部はさらに、前記情報提供者が示す位置または方向が視野に入る視点を前記他者視点として決定し、
     前記画像生成部は、前記位置または方向を表す図形を、前記表示対象の空間に配置したうえ、前記他者視点に対応する視野で当該表示対象の空間を表した画像を生成することを特徴とする請求項2に記載の画像生成装置。
  7.  前記視点制御部は、前記ユーザの視点から前記他者視点まで前記画像に対する視点を移動させる期間を設け、
     前記画像生成部は、当該期間において、移動中の視点に対応する視野で表示対象を表した画像を順次生成することを特徴とする請求項1から6のいずれかに記載の画像生成装置。
  8.  前記視点制御部は、前記ユーザが入力装置を介して行った操作に応じて、前記視点を移動させることを特徴とする請求項1から7のいずれかに記載の画像生成装置。
  9.  前記視点制御部は、前記ユーザへの情報提供者が入力装置を介して行った操作に応じて、前記視点を移動させることを特徴とする請求項1から7のいずれかに記載の画像生成装置。
  10.  前記視点制御部は、前記実空間における状態変化に応じて、前記他者視点を調整することを特徴とする請求項1から9のいずれかに記載の画像生成装置。
  11.  前記画像生成部は、前記画像に対する視点が前記ユーザの視点から移動しても、当該ユーザの視点において表示させていた画像の面を、生成する画像に含めることを特徴とする請求項1または2に記載の画像生成装置。
  12.  ヘッドマウントディスプレイを装着しているユーザの頭部の動きに基づき当該ユーザの視点に係る情報を取得するステップと、
     前記ユーザのいる実空間の状態を検出するセンサからの情報に基づき当該実空間の状態に係る情報を取得するステップと、
     前記ヘッドマウントディスプレイに表示させる画像に対する視点を制御するステップと、
     前記視点に対応する視野で表示対象を表した画像を生成するステップと、
     生成された画像を前記ヘッドマウントディスプレイに出力するステップと、
     を含み、
     前記視点を制御するステップは、前記表示させる画像に対する視点を、前記ユーザの視点と、前記実空間に存在する物を視野に含む、前記ユーザの視点と異なる他者視点との間で移動させるステップを含むことを特徴とする画像生成装置による情報提示方法。
  13.  ヘッドマウントディスプレイを装着しているユーザの頭部の動きに基づき当該ユーザの視点に係る情報を取得する機能と、
     前記ユーザのいる実空間の状態を検出するセンサからの情報に基づき当該実空間の状態に係る情報を取得する機能と、
     前記ヘッドマウントディスプレイに表示させる画像に対する視点を制御する機能と、
     前記視点に対応する視野で表示対象を表した画像を生成する機能と、
     生成された画像を前記ヘッドマウントディスプレイに出力する機能と、
     をコンピュータに実現させ、
     前記視点を制御する機能は、前記表示させる画像に対する視点を、前記ユーザの視点と、前記実空間に存在する物を視野に含む、前記ユーザの視点と異なる他者視点との間で移動させることを特徴とするコンピュータプログラム。
PCT/JP2020/016648 2019-04-23 2020-04-16 画像生成装置および情報提示方法 WO2020218131A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/439,014 US20220147138A1 (en) 2019-04-23 2020-04-16 Image generation apparatus and information presentation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-082183 2019-04-23
JP2019082183A JP7349256B2 (ja) 2019-04-23 2019-04-23 画像生成装置および情報提示方法

Publications (1)

Publication Number Publication Date
WO2020218131A1 true WO2020218131A1 (ja) 2020-10-29

Family

ID=72942008

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/016648 WO2020218131A1 (ja) 2019-04-23 2020-04-16 画像生成装置および情報提示方法

Country Status (3)

Country Link
US (1) US20220147138A1 (ja)
JP (1) JP7349256B2 (ja)
WO (1) WO2020218131A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188020A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像再生装置、画像生成方法、及びプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021200494A1 (ja) * 2020-03-30 2021-10-07 ソニーグループ株式会社 仮想空間における視点変更方法
JP2022073651A (ja) * 2020-11-02 2022-05-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115457A (ja) * 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014127987A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
JP2018013562A (ja) * 2016-07-20 2018-01-25 株式会社サイバーウォーカー 仮想現実システムに於ける外部制御手段

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015095802A (ja) * 2013-11-13 2015-05-18 ソニー株式会社 表示制御装置、表示制御方法、およびプログラム
US10099122B2 (en) * 2016-03-30 2018-10-16 Sony Interactive Entertainment Inc. Head-mounted display tracking
US20180196506A1 (en) * 2016-12-28 2018-07-12 Colopl, Inc. Information processing method and apparatus, information processing system, and program for executing the information processing method on computer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014115457A (ja) * 2012-12-10 2014-06-26 Sony Corp 情報処理装置および記録媒体
JP2014127987A (ja) * 2012-12-27 2014-07-07 Sony Corp 情報処理装置および記録媒体
JP2018013562A (ja) * 2016-07-20 2018-01-25 株式会社サイバーウォーカー 仮想現実システムに於ける外部制御手段

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023188020A1 (ja) * 2022-03-29 2023-10-05 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像再生装置、画像生成方法、及びプログラム

Also Published As

Publication number Publication date
JP2020181263A (ja) 2020-11-05
US20220147138A1 (en) 2022-05-12
JP7349256B2 (ja) 2023-09-22

Similar Documents

Publication Publication Date Title
CN109479010B (zh) 通过注视化身的私有通信
US10373392B2 (en) Transitioning views of a virtual model
EP3137982B1 (en) Transitions between body-locked and world-locked augmented reality
JP2023037626A (ja) Hmd環境での高速中心窩レンダリングのための予測及びgpuに対する最新の更新を伴う視線追跡
US20150312561A1 (en) Virtual 3d monitor
WO2020218131A1 (ja) 画像生成装置および情報提示方法
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
EP3486749B1 (en) Provision of virtual reality content
US20210304509A1 (en) Systems and methods for virtual and augmented reality
WO2016201015A1 (en) Display for stereoscopic augmented reality
JP2023139098A (ja) 画像生成装置および画像生成方法
JP2019175323A (ja) シミュレーションシステム及びプログラム
WO2021261346A1 (ja) 情報処理装置、方法、プログラム及び情報処理システム
US11195320B2 (en) Feed-forward collision avoidance for artificial reality environments
JP2020181264A (ja) 画像生成装置、画像表示システム、および情報提示方法
JP2019175322A (ja) シミュレーションシステム及びプログラム
EP3623908A1 (en) A system for controlling audio-capable connected devices in mixed reality environments
US20240078767A1 (en) Information processing apparatus and information processing method
WO2023140004A1 (ja) 情報処理装置および情報処理方法
WO2023162668A1 (ja) 情報処理装置および床面高さ調整方法
WO2024038787A1 (ja) 情報処理装置および情報処理方法
CN114245755A (zh) 信息处理装置、信息处理方法和记录介质
KR20150071824A (ko) 교차 플랫폼 증강 현실 체험 제공 방법
JP2012173822A (ja) プログラム、情報記憶媒体、画像生成システム及びサーバシステム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20795792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20795792

Country of ref document: EP

Kind code of ref document: A1