JP6826029B2 - 画像を表示するための方法、装置およびコンピュータ・プログラム - Google Patents

画像を表示するための方法、装置およびコンピュータ・プログラム Download PDF

Info

Publication number
JP6826029B2
JP6826029B2 JP2017513647A JP2017513647A JP6826029B2 JP 6826029 B2 JP6826029 B2 JP 6826029B2 JP 2017513647 A JP2017513647 A JP 2017513647A JP 2017513647 A JP2017513647 A JP 2017513647A JP 6826029 B2 JP6826029 B2 JP 6826029B2
Authority
JP
Japan
Prior art keywords
real
world
user
display
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017513647A
Other languages
English (en)
Other versions
JP2017528834A (ja
Inventor
レッパネン ユッシ
レッパネン ユッシ
サーリ パシ
サーリ パシ
レポネン エリカ
レポネン エリカ
レフティニエミ アルト
レフティニエミ アルト
Original Assignee
ノキア テクノロジーズ オサケユイチア
ノキア テクノロジーズ オサケユイチア
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オサケユイチア, ノキア テクノロジーズ オサケユイチア filed Critical ノキア テクノロジーズ オサケユイチア
Publication of JP2017528834A publication Critical patent/JP2017528834A/ja
Application granted granted Critical
Publication of JP6826029B2 publication Critical patent/JP6826029B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04895Guidance during keyboard input operation, e.g. prompting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本開示の実施例は、画像を表示するための方法、装置およびコンピュータ・プログラムに関する。上述にとらわれることなく、いくつかの実施例は、仮想現実ディスプレイ・デバイス内で実世界の捕捉画像を表示するための方法、装置およびコンピュータ・プログラムに関する。
仮想現実ディスプレイ・デバイス(例えばヘッド・マウント・ディスプレイ(HMD)、ニア・アイ・ディスプレイ(NED)、仮想現実ゴーグル/ヘルメット)は、典型的に、仮想現実ディスプレイ・デバイスのユーザーが、仮想現実ディスプレイ・デバイスのディスプレイ上に表示されるもの、例えば仮想世界で起こっていることを見ることしかできない可能性があるという点において、完全に没入型である。しかしながら、このような完全没入型仮想現実ディスプレイ・デバイスは、仮想現実ディスプレイ・デバイスのユーザーが実世界とインタラクトしたいと考えた場合に問題を提起する。
本明細書の中の全ての先行公開文書または全ての背景技術の列挙または論述は、必ずしも、この文書または背景技術が、技術的現状の一部であるかまたは共通の一般的知識であることの承認ととらえられるべきではない。本開示の1つ以上の態様/実施例は、背景にある問題の1つ以上に対処する場合もあれば、そうでない場合もある。
本発明は、独立クレーム中に提示されている通りである。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、
ヘッド・マウント・ディスプレイのユーザーの実世界視点内に位置設定された実世界物理オブジェクトを検出し、
前記検出に応答して、検出された実世界物理オブジェクトの少なくとも一部分の少なくとも1つの捕捉画像のヘッド・マウント・ディスプレイ上の表示をトリガーする、
という結果をもたらすアクションを少なくとも一部分行なわせるステップを含む、方法が提供されている。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、少なくとも上述の方法を装置が実施できるようにするように構成された手段を備えた装置が提供されている。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、少なくとも1つのプロセッサと、コンピュータ・プログラム・コードを含む少なくとも1つのメモリとを含み、少なくとも1つのメモリおよびコンピュータ・プログラム・コードが、少なくとも1つのプロセッサを用いて装置に、少なくとも上述の方法を行なわせるように構成されている装置が提供されている。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、少なくとも1つのプロセッサにより実行されたとき、少なくとも上述の方法を実施させるコンピュータ・プログラムが提供されている。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、少なくとも1つのプロセッサにより実行されたとき少なくとも上述の方法を実施させる命令がエンコードされた非一時的コンピュータ可読媒体が提供されている。
必ずしも全てではないが、本開示の少なくともいくつかの実施例によると、少なくとも上述の方法を実施させるように構成された処理回路を含むチップセットまたはモジュールが提供されている。
ここで述べられている実施例および添付のクレームは、当業者には明白である任意の方法で好適に組合わせることができる。
本発明の詳細な説明およびいくつかの実施形態を理解するために有用である本開示のさまざまな実施例をより良く把握するために、ここで、単なる一例として、添付図面に言及する。
方法を概略的に例示する。 さらにもう1つの方法を概略的に例示する。 装置を概略的に例示する。 さらなる装置を概略的に例示する。 方法流れ図を概略的に例示する。 図6Bと共に使用される装置を概略的に示す。 装置の表示の対応する例示的スクリーン・ショットを示す。 図7Bと共に使用される装置を概略的に示す。 装置の表示の対応する例示的スクリーン・ショットを示す。 図8Bと共に使用される装置を概略的に示す。 装置の表示の対応する例示的スクリーン・ショットを示す。 図9Bと共に装置の将来の使用を概略的に示す。 装置の表示の対応する例示的スクリーン・ショットを示す。 図10Bと共に装置の将来の使用を概略的に示す。 装置の表示の対応する例示的スクリーン・ショットを示す。 装置の表示の例示的スクリーン・ショットを示す。 装置の表示の例示的スクリーン・ショットを示す。 装置の表示の例示的スクリーン・ショットを示す。 装置の表示の例示的スクリーン・ショットを示す。
図1は、ヘッド・マウント・ディスプレイ(610)のユーザー(603)の実世界視点(602)内に位置設定された実世界物理オブジェクト(601)を検出し(101)、
前記検出に応答して、検出された実世界物理オブジェクト(601)の少なくとも一部分の少なくとも1つの捕捉画像(601’)のヘッド・マウント・ディスプレイ(610)上の表示をトリガーする(102)、
という結果をもたらすアクションを少なくとも一部分行なわせるステップを含む方法を概略的に例示している。
クレームの範囲を限定することなく、本開示のいくつかの実施例の1つの利点は、ヘッド・マウント・ディスプレイを装着したときユーザーが実世界オブジェクトの捕捉画像を見ることができ、こうして物理実世界オブジェクトとのユーザー・インタラクションを容易にすることができるという点にあると言うことができる。ある特定の実施例において、ヘッド・マウント・ディスプレイは、仮想現実環境を表示するように構成されており、検出されその捕捉画像が表示されている実世界オブジェクトは、仮想現実環境内での制御または通信のためのユーザー入力デバイスに対応する。いくつかの観点から見て、仮想現実が「現実」すなわち実世界オブジェクトの捕捉画像により拡張されている「拡張仮想現実」(「拡張現実」を参照)を提供する本開示の実施例が着想される可能性もあると考えられる。
ヘッド・マウント・ディスプレイ(HMD)は、例えば、ウェアラブル・ディスプレイ・デバイスであることができ、ニア・アイ・ディスプレイ(NED)を含むことができる。ヘッド・マウント・ディスプレイは、例えば、メガネ、ゴーグルまたはヘルメットの形をとることができる。ヘッド・マウント・ディスプレイは、実世界物理オブジェクトの捕捉画像に加えて仮想現実環境を表示するための仮想現実ディスプレイ・デバイスとして構成可能である。
ユーザーの実世界視点は、例えばユーザーの実世界、すなわち視点、視野、パース、視線または基準フレームであることができる。ユーザーの実世界視点は、ユーザーの目および/または頭の向き/方向に依存または関係する。
本開示のさまざまな実施例について、ここで、図を参照しながら説明する。図中では、同様の特徴を示すため、同様の参照番号が使用される。明確さのために、全ての参照番号が必ずしも全ての図に表示されるわけではない。
図1は、本開示の一実施例に係る方法100の流れ図を概略的に示す。図1のコンポーネントブロックは機能的であり、記載されている機能は、(図3の300を参考にして説明されている)単一の物理的エンティティによって行なわれる場合もあればそうでない場合もある。
ブロック101において、ヘッド・マウント・ディスプレイ(図7Aの610)ユーザー(図7Aの603)の実世界視点(図7Aの602a)内に位置設定された実世界物理オブジェクト(例えば図7Aのキーボード601)が選択される。ブロック102で、ユーザーの実世界視点(602a)内の実世界物理オブジェクト(601)の検出は、検出された実世界オブジェクトの少なくとも一部分の少なくとも1つの捕捉画像(図7Aの601’)のヘッド・マウント・ディスプレイ(601)上での表示の生成をトリガーする。
図2は、本開示の一実施例に係るさらなる方法200の流れ図を概略的に例示する。図2の流れ図は、数ある中の1つの考えられるシナリオを表わしている。図示されたブロックの順序は、絶対的要件ではなく、原則としてさまざまなブロックを順不同で行なうことができる。同様に全てのブロックが必要不可欠ではない。
方法200において、ユーザーは、仮想現実環境(例えば図6Bの仮想世界602’)を視るために、ヘッド・マウント・ディスプレイを使用する。ブロック201において、仮想現実環境内に実世界オブジェクトとのユーザー・インタラクションのためのアベイラビリティ/オポチュニティが存在するか否かの決定がなされる。例えば、実世界オブジェクトが、仮想現実環境内にユーザー入力(例えばコマンドまたは通信)を提供するためのユーザー入力デバイスである場合、ユーザー入力デバイスを介したユーザー入力のための適切なオポチュニティが存在するか否かの決定を行なうことができる。例えば図6A〜8Bに示されているある特定の実施例においては、これは、ポップ・アップ・チャート・ボックス605’またはテキスト入力用の他のオポチュニティに対応することができる。実世界オブジェクトとのユーザー・インタラクションのためのアベイラビリティについてのブロック201’での決定に応答して、これにより次に、ブロック101のようにユーザーの実世界視点内で実世界物理オブジェクトを検出するためのプロシージャがトリガーされる可能性がある。
実世界オブジェクトの捕捉画像を示すことでヘッド・マウント・ディスプレイ上のスペースが占有されることから、必要なときにだけ捕捉画像を示すことが望ましい。開示のある実施例においては、実世界オブジェクトを介したユーザー・インタラクションのためのオポチュニティの決定後にのみブロック101のプロセスを開示することによって、ユーザーが実世界オブジェクトとインタラクトするオポチュニティが全く存在しない場合に不必要にブロック101の検出および後続するブロック102の表示を回避するという技術的効果を提供することができる。例えば、テキスト入力のオポチュニティが全く存在しない場合、キーボードの不必要な検出および仮想現実環境内でのその捕捉画像の表示が回避されるが、これにより、そうでなければリソース(例えば特に処理および電力)が浪費されるだけでなく仮想現実環境を遮り、ひいては仮想現実環境内でのユーザーの没入レベルに不利な影響を及ぼすことが回避されると思われる。
ブロック201の決定プロセスに応答して、ユーザーの実世界視点内の実世界物理オブジェクトの検出が、ブロック101で発生し得る。この検出は、ブロック202において、ユーザーの実世界視点の少なくとも一部分の1つ以上の画像の捕捉ステップを含むことができる。これは、例えば、ユーザーの実世界視点のオブジェクト・シーンに対応する1つ以上の一人称パース画像を捕捉する、すなわち実際には、ユーザーがヘッド・マウント・ディスプレイを装着していなかった場合に目にすると思われる実世界シーンの1つ以上の画像を捕捉するように、ヘッド・マウント・ディスプレイ上に適切に、位置づけされ整列されている1つ以上の画像捕捉デバイスを含むヘッド・マウント・ディスプレイを介して達成可能である。ブロック203では、決定ステップ201によりインタラクトするアベイラビリティが存在すると決定された実世界物理オブジェクトなどの実世界物理オブジェクトを特定し検出することを目的として、ブロック202内で捕捉された1つ以上の画像について、オブジェクト/画像認識プロセスが行なわれる。オブジェクト/画像認識を介して検出すべき実世界物理オブジェクトは、1つ以上の既定の物理オブジェクト、例えば、キーボード、ゲーム・コントローラ;およびタッチ・センス入力デバイスおよびタッチ・センシティブ・ディスプレイを含めた他の手で操作する入力デバイスに対応する可能性がある。
ユーザーの実世界視点602a内の実世界物理オブジェクトを検出した後、ブロック102においてヘッド・マウント・ディスプレイ上で検出された実世界オブジェクトを表示させる。ブロック204に示されているように、これには、クロップされた画像が実質的に検出済み実世界物理オブジェクトのみで構成されるように、ユーザーの実世界視点全体の捕捉画像をクロッピングすることが関与する可能性がある。クロップされた画像(例えば図7Bの601’)は、次に、仮想現実環境(602a’)の表示と同時に、ヘッド・マウント・ディスプレイの表示上に表示することができる。こうして、実世界オブジェクトの捕捉画像が仮想環境の表示内に統合される仮想現実と実世界画像のミキシングが提供される。
ブロック205では、ユーザーの視点が監視され追跡される。これは、ヘッド・マウント・ディスプレイの向きおよび方向の変化を監視し検出し、こうしてユーザーの頭の検知された方向または向き(例えばヨー、ピッチおよびロール)に基づいてヘッド・マウント・ディスプレイを装着するユーザーの実世界視点を検出することのできる、ヘッド・マウント・ディスプレイ内に組付け可能な1つ以上の向きまたは方向センサーによって、達成可能である。代替的一実施例においては、ユーザーの頭の動きに基づいてユーザーの視点を決定する代りに、ユーザーの視点をユーザーの目の方向および向きに基づいて決定することができる。この実施例において、ユーザーの目のビューの向きおよび方向を検知するための1つ以上のデバイス、例えば、ユーザーの目に面して内部に組付けられて、ユーザーの目の動きを追跡するカメラなどをヘッド・マウント・ディスプレイ上に具備することができる。
ブロック206においては、ユーザーの実世界視点との関係における実世界オブジェクトの相対的位置が決定される。これは、例えば、ユーザーの実世界視点から捕捉された画像の分析、および捕捉画像内の検出された実世界オブジェクトの位置の決定に基づいて達成可能である。ブロック207において、ユーザーの実世界視点との関係における実世界オブジェクトのこの決定された相対的位置は、ヘッド・マウント・ディスプレイの表示内の実世界オブジェクトの表示された捕捉画像の相対的位置を調整するために使用される。詳細には、表示内の捕捉画像の位置は、ユーザーの仮想視点/仮想環境の表示されたパース内のその相対的位置が、ユーザーの実世界視点との関係における実世界オブジェクトの決定された相対的位置に対応するように調整される。クレームの範囲を限定することなく、本開示のいくつかの実施例の利点は、ユーザーの実世界視点との関係におけるオブジェクトの実世界位置に対応するヘッド・マウント・ディスプレイの表示内に仮想位置で捕捉画像を表示できるようにすることにある可能性がある。ユーザーの実世界視点との関係における実世界オブジェクトの相対的位置を追跡することにより、ユーザーの実世界視点/実世界基準フレームとの関係における実世界オブジェクトの位置と、ユーザーの仮想視点/仮想基準フレームとの関係における実世界オブジェクトの表示された捕捉画像の位置との間の対応を維持することができる。
ブロック208においては、例えばヘッド・マウント・ディスプレイの画像捕捉デバイスにより捕捉され認識された既定のジェスチュアなどのユーザー入力を検出でき、このことが、ブロック209において捕捉画像の表示を除去させる。こうして、ユーザーは、ユーザーがその表示をもはや所望/要求しない場合の捕捉画像の表示の除去を選択的に制御することができるようになる。例えば、ユーザーは、実世界オブジェクトと自らのインタラクションをすでに完了しており、かつ/または実世界オブジェクトとインタラクトすることを所望せず、したがって実世界オブジェクトの捕捉画像の提示を受ける必要がない場合がある。
上述の方法は、ユーザーの実世界視点の1つ以上の画像を捕捉することおよび、捕捉画像に基づいたヘッド・マウント・ディスプレイの表示内で1つ以上の画像を表示することについて述べている。捕捉された少なくとも1つの画像は、画像シーケンス、ビデオ、実時間画像のいずれかに対応し得ることを認識すべきである。表示されるこの少なくとも1つの捕捉画像は同様に、オブジェクトが検出される領域のライブ・カメラ・フィードに対応する場合もある。クレームの範囲を限定することなく、本開示の一部の実施例の1つの利点は、ユーザーが自身のために、実世界オブジェクトと自らのユーザー・インタラクションを実時間で見ることができるようにし、こうしてヘッド・マウント・ディスプレイを装着したままで仮想現実環境を視る一方で、(例えば図7Bに示されているようにキーボード601’上のユーザー自身の手606’の表示を見ながら)実世界オブジェクトとのユーザー・インタラクションを容易にすることができるという点にある可能性がある。
ある実施例においては、1つ以上のブロックを、異なる順序でまたは時間的に重複して、連続してまたは並行して行なうことができ、1つ以上のブロックを、いくつかの組合せた方法で省略、または追加または変更することができる。例えば、ブロック208および209を、流れ図のいずれかの部分に、例えばブロック201、101および102のいずれかの前または後に、移動または追加することができる。
本開示の実施例は、方法、装置またはコンピュータ・プログラムの形をとることができる。したがって、実施例はハードウェア、ソフトウェアまたはハードウェアとソフトウェアの組合せの形で実装することができる。
図1および2中に例示されているブロックは、方法内のアクションおよび/またはコンピュータ・プログラム中の命令セクション/コードを表わすことができる。
各ブロックおよびブロック組合せは、さまざまな手段、例えば1つ以上のコンピュータ・プログラム命令を含むハードウェア、ファームウェアおよび/またはソフトウェアによって実装可能であることが理解される。例えば、上述のプロシージャの1つ以上は、コンピュータ・プログラム命令によって具体化することができる。この点において、上述のプロシージャを具体化するコンピュータ・プログラム命令を、メモリ記憶デバイスによって記憶させプロセッサにより実行させることが可能である。
認識されるように、このようなコンピュータ・プログラム命令はいずれもコンピュータまたは他のプログラマブル装置(すなわちハードウェア)上にロードされてマシンを生成でき、こうして、これらの命令は、プログラマブル装置上で実行された場合にブロック中に規定されている機能を実装するための手段を創出することになる。これらのコンピュータ・プログラム命令は同様に、プログラマブル装置に特定の要領で機能するよう指図することのできるコンピュータ可読媒体内に記憶させることもでき、こうしてコンピュータ可読メモリ内に記憶された命令は、ブロック中に規定されている機能を実装する命令手段を含む製造品を生成することになる。コンピュータ・プログラム命令は同様に、プログラマブル装置上で実行される命令がブロック中に規定されている機能を実装するためのアクションを提供するように、コンピュータ実装されるプロセスを生成する目的でプログラマブル装置上において一連の操作アクションを行なわせるために、プログラマブル装置上にロードされることも可能である。
本開示中の一実施例に係る装置300について、図3との関係においてここで説明する。図3は、装置の動作を説明するために必要な機能的コンポーネントに焦点をあてている。
装置300は、コントローラ301を含む。コントローラ301の実装は、ハードウェア単独(例えば1つ以上のプロセッサを含む処理回路、および1つ以上のメモリ・エレメントを含むメモリ回路)の形で行なわれるか、単独でファームウェアを含むソフトウェアの形のいくつかの態様を有するか、またはハードウェアとソフトウェア(ファームウェアを含む)の組合せであることができる。
コントローラ301は、例えば、コンピュータ可読記憶媒体(ディスク、メモリなど)上に記憶されるかまたは汎用または専用プロセッサにより実行されるべく信号キャリヤによって搬送され得る実行可能なコンピュータ・プログラム命令をこのようなプロセッサ内で使用することによって、ハードウェア機能性を有効にする命令を用いて実装可能である。
例示された実施例において、装置300は、プロセッサ302およびメモリ303により提供されるコントローラ301を含む。単一のプロセッサおよび単一のメモリが例示されているものの、他の実装では、多数のプロセッサが存在でき、かつ/または多数のメモリが存在でき、そのいくつかまたは全てが内蔵されているか/取外し可能であり得、かつ/または永久/半永久/動的/キャッシュ記憶を提供できる。
メモリ303は、プロセッサ302内にロードされた場合に装置の動作を制御するコンピュータ・プログラム命令305を含むコンピュータ・プログラム304を記憶する。コンピュータ・プログラム命令は、装置がここで説明されている方法を実施できるようにする論理およびルーチンを提供する。
少なくとも1つのメモリ303およびコンピュータ・プログラム命令305は、少なくとも1つのプロセッサ302を用いて、例えば図1および2との関係において説明された方法を装置300に少なくとも実施させるように構成されている。
プロセッサ302は、メモリ303から読取りメモリ303に書込むように構成されている。プロセッサ302は同様に、データ(特に例えば実世界オブジェクトの画像を検出し表示するための画像捕捉データ、ユーザーの視点を決定するためのセンサー・データ、仮想現実環境を表示するための仮想現実環境データ、およびユーザー入力データ)および/またはコマンドをプロセッサ302に入力するときに介する入力インターフェース306も含むことができる。プロセッサ302は同様に、データ(特に実世界オブジェクトの捕捉画像およびヘッド・マウント・ディスプレイ上に表示するための仮想現実環境データ)および/またはコマンドをプロセッサ302により出力するときに介する出力インターフェース307を含むこともできる。
コンピュータ・プログラムは、任意の好適な配送メカニズム311を介して、装置300に到達することができる。配送メカニズム311は、例えば、非一時的コンピュータ可読記憶媒体、コンピュータ・プログラム・プロダクト、メモリ・デバイス、コンパクト・ディスク読取り専用メモリまたはデジタル多用途ディスクなどの記録媒体、またはコンピュータ・プログラム304を有形で具体化する製造品であることができる。配送メカニズムは、コンピュータ・プログラム304を高い信頼性で転送するように構成された信号であることができる。
装置300は、コンピュータデータ信号としてコンピュータ・プログラム304を受信、伝播または伝送することができる。
「コンピュータ可読記憶媒体」、「コンピュータ・プログラム・プロダクト」、「有形で具体化されたコンピュータ・プログラム」など、または「コントローラ」、「コンピュータ」、「プロセッサ」などへの言及は、単一/多重プロセッサアーキテクチャおよび逐次(フォン・ノイマン)/並行型アーキテクチャなどの異なるアーキテクチャを有するコンピュータのみならず、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)、特定用途向け回路(ASIC)などの特殊回路、信号処理デバイスおよび他のデバイスをも含むものとして理解されなければならない。コンピュータ・プログラム、命令、コードなどに対する言及は、プログラマブル・プロセッサ用のソフトウェアまたはファームウェア、例えばプロセッサ用の命令であれ固定機能デバイス、ゲート・アレイまたはプログラマブル論理デバイスなどのための構成設定値であれ、ハードウェアデバイスのプログラマブル・コンテンツを含むものとして理解されるべきである。
装置は、例えば、1つ以上の画像捕捉デバイス308、ディスプレイ・デバイス309およびユーザーの実世界視点を検出し監視するためのセンサー(図示せず)などの追加のデバイス/コンポーネントを付加的に含む回路、チップセット、モジュールまたはデバイス/システム310である場合がある。装置は、ヘッド・マウント・ディスプレイ内に含まれるかまたは、ヘッド・マウント・ディスプレイと別個で、例えば有線または無線通信を介してそれと(直接または他の形で)通信状態にある可能性がある。装置は、ヘッド・マウント・ディスプレイのユーザーの実世界視点内で検出された実世界オブジェクトの少なくとも一部分の少なくとも1つの捕捉画像をヘッド・マウント・ディスプレイ上に表示するためのものであることができる。
図4は、本開示の一実施例に係るさらなる装置410を概略的に例示する。装置410は、ニア・アイ・ディスプレイ・デバイスを提供するヘッド・マウント・ディスプレイの形、詳細にはユーザーが装着すべきメガネ/ゴーグルの形をしている。ヘッド・マウント・ディスプレイは、不透明/非透明/非シー・スルー型のウェアラブル・ディスプレイを提供できる。
デバイス410は、図3の装置300および、付加的に、ユーザーに対し立体ディスプレイを提供するための2つのディスプレイ・デバイス409およびユーザー実世界視点の立体画像捕捉を有効にするための2つの画像捕捉デバイス408および408を含む。デバイスは、ユーザーの実世界視点を検出し監視するための1つ以上のセンサー408’(方向/向きを測定するためのセンサー)を含むことができる。デバイスは同様に、1つ以上の音声出力デバイス409’を含むこともできる。さらに、デバイスは、付加的に、例えば、デバイス上に表示された仮想現実環境についてのデータを提供するデータ・ソースなどの遠隔計算デバイスと通信するための通信インターフェース(図示せず)を含むことができる。
装置300/410は、さらに、1つ以上のオーディオ/テキスト/ビデオ通信機能(例えば、遠隔通信、ビデオ通信および/またはテキスト伝送(ショート・メッセージ・サービス(SMS)/マルチメディア・メッセージ・サービス(MMS)/Eメール)機能)、インタラクティブ/非インタラクティブ・ビューイング機能(例えばウェブ−ブラウジング、ナビゲーション、TV/プログラム・ビューイング機能)、ミュージック録音/再生機能(例えばMoving Picture Experts Group・1 Audio Layer 3(MP3)または他のフォーマットおよび/または(周波数変調/振幅変調)ラジオ放送録音/再生)、データのダウンロード/送信機能、画像捕捉機能(例えば(内蔵)デジタルカメラを用いるもの)およびゲーミング機能、を提供することができる。
上述の装置は、さまざまなコンポーネントを含むという観点で以上で説明されているが、コンポーネントを装置の対応する処理要素またはプロセッサとして具体化することあるいはこの要素またはプロセッサにより制御することができる、ということを理解すべきである。この点において、以下で説明するコンポーネントの各々は、以下でより詳細に説明するように、それぞれのコンポーネントの対応する機能を行なうように構成されたハードウェア、ソフトウェアまたはハードウェアとソフトウェアの組合せの形で具体化されるあらゆるデバイス、手段または回路のうちの1つ以上のものであることができる。
本出願中で使用されている「回路」なる用語は、以下の全てを意味する:
(a)ハードウェア単独回路実装(例えば、アナログ・および/またはデジタル回路のみでの実装)、および
(b)回路とソフトウェア(および/またはファームウェア)の組合せ、例えば(該当する場合):(i)プロセッサの組合せ、または(ii)携帯電話またはサーバーなどの装置にさまざまな機能を行なわせるために協働するプロセッサ/ソフトウェア(デジタル信号プロセッサを含む)ソフトウェアおよびメモリの部分、および
(c)物理的にソフトウェアまたはファームウェアが存在しない場合でも、動作のためにソフトウェアまたはファームウェアを必要とする回路、例えばマイクロプロセッサまたはマイクロプロセッサの一部分。
この「回路」の定義は、任意のクレームを含めた本出願中のこの用語の使用全てに適用される。さらなる例として、本出願中に使用されている「回路」なる用語は、同様に、単に1つのプロセッサ(または多数のプロセッサ)またはプロセッサの一部分およびその(またはそれらの)付随するソフトウェアおよび/またはファームウェアの実装もカバーすると考えられる。「回路」なる用語は同様に、例えば特定のクレーム要素に該当する場合、携帯電話向けのベースバンド集積回路またはアプリケーション・プロセッサ集積回路、またはサーバー、セルラー・ネットワーク・デバイスまたは他のネットワーク・デバイス内の類似の集積回路をもカバーすると考えられる。
本開示の実施例は、方法ならびにこの方法のアクションを行なうための機能性を提供するさまざまなモジュールまたは手段で構成される対応する装置の両方を提供する。これらのモジュールおよび手段は、ハードウェアとして実装可能であり、あるいはコンピュータプロセッサにより実行されるべきソフトウェアまたはファームウェアとして実装することもできる。詳細には、ファームウェアまたはソフトウェアの場合、本開示の実施例は、コンピュータプロセッサによる実行のためにコンピュータ・プログラム命令(すなわちソフトウェアまたはファームウェア)を具体化させるコンピュータ可読記憶構造を含むコンピュータ・プログラム・プロダクトとして提供可能である。
装置を、1つのモジュールの形で提供することができる。ここで使用する「モジュール」なる語は、エンド・メーカーまたはユーザーにより追加されると考えられる一定の部品/コンポーネントを除いたユニットまたは装置を意味する。例えば、装置は、ヘッド・マウント・ディスプレイと併用されるべきモジュールとして提供される可能性がある。
ある実装実施例では、装置をヘッド・マウント・ディスプレイ自体の中に具備することができるものの、例えば非限定的に、持ち運び可能な電子デバイス、タブレット、携帯電話、携帯情報端末(PDA)、ポケットベル、モバイル・コンピュータ、デスクトップ・コンピュータ、テレビ、ゲーミング・デバイス、ラップトップ・コンピュータ、カメラ、ビデオレコーダーおよび他のタイプの電子システムなどの他のタイプの電子デバイスに、本開示の実施例に係る装置を具備することも可能である。このような他のデバイスおよび他のタイプのシステムは、ヘッド・マウンタブル・デバイスのディスプレイと通信しそれを制御するように構成されている。
図5は、仮想現実環境/世界におけるキーボードを介したテキスト・エントリの入力に関する本開示の特定の実施例の流れ図500を示す。
最初に、ブロック501において、ユーザーがキーボードを用いて何かを入力できるか否かが決定される。仮想環境/世界ビュー内のユーザーのキーボードを示すことはスクリーンのスペースを占有することから、必要なときにのみキーボードを示すことが望ましい。何かを入力する可能性がない場合には、プロセスの一連の部分は実施されず、キーボードは示されない。テキストを入力する可能性がない場合、システムは、プロシージャを継続する前にテキストを入力する可能性が出て来るまで待機する。
テキストを入力する可能性は、チャット・ウィンドウ・コメント・ボックス605’が仮想環境602’内に存在する/表示されることに対応し得る。これは、キーボード入力が可能であることを標示し得る。テキストを入力する可能性がある場合、流れ図はブロック502へと続行する。
ブロック502では、キーボードがヘッド・マウント・ディスプレイ・デバイスのカメラの視点内にあるか否か、ひいてはキーボードがユーザーの実世界視点内にあるか否かが決定される。ユーザーのキーボードがカメラ・フィード内にない場合(すなわち図6Aの通り)、システムは、キーボードがカメラ・フィード内にあり、および/またはテキストを入力する可能性が出て来る時点まで待機する。図6Aおよび8Aにおいて、ユーザーの実世界視点602は、キーボード601がユーザーの実世界視点602内に位置設定されていない状態にある。したがって、仮想世界環境602’の表示のみが存在している図6Bおよび8Bに示されているように、キーボードのいかなる画像も捕捉されずヘッド・マウント・ディスプレイ上に表示されることはない。表示された仮想世界環境602a’は、ユーザーの実世界視点602aに対応する仮想視点602a’を有し、例えばユーザーが頭を左、右または上方に回した場合に、表示される仮想環境のパースは、左、右または上方を見る対応する仮想パース/視点を表わすように順応すると考えられる。
キーボードがカメラのビュー内にある場合(例えば、カメラのビューが変化し、今やキーボードを検出できるような形でユーザーが見下しているか、または代替的には、キーボードがカメラのビュー内に入り検出可能となるような形で、ユーザーがキーボードを上に移動させた場合)、流れ図はブロック503まで進み、このブロック中でカメラ・フィードがユーザーに表示される。カメラのビューの少なくとも一部分を示すヘッド・マウント・ディスプレイ内で、ビデオ・ウィンドウを表示することができる。キーボードがカメラのビュー内にあるか否かを決定するために、オブジェクト認識方法を捕捉画像上で行なうことができる。ユーザーは、オブジェクト認識およびキーボードの追跡を改善するために自らのキーボードがどのように見えるかをオブジェクト認識システムに教示するように、初期セットアップを行なうことができる。図7Aでは、ユーザーは、キーボード601が今ユーザーの新しい実世界視点602aの中に位置設定されることになるように、下を見ている、すなわち自らの実世界視点602aを順応させている。この視点のカメラのフィードの画像認識の後、キーボードを検出することができ、(ユーザーの実世界視点602aに対応する仮想視点602a’を有する)仮想現実環境602a’と共に、キーボード601’の画像を表示することができる。キーボードの捕捉画像のライブ・フィードが、仮想現実環境の上に重ね合わさるビデオ・ウィンドウ内でユーザーに提示されることから、ユーザーは、キーボードの近傍にユーザーの手606の映像606’を見ることができ、こうして、ユーザーは自らがキーボードを操作し所望のタイピング用キーを選択するのを見ることができる。
カメラ・フィードの関連部分のみ、すなわちカメラ・フィードの視野全体ではなくてキーボード自体の関連部分のみが表示されるように、カメラ・フィードをクロップすることができる。ユーザーがキーボードならびに自らの手がキーボードを操作しているのを見ることができる状態で、ユーザーはテキストを入力し、チャット・ウィンドウに応答することができる。ひとたびユーザーがキーボードの使用を終了したならば、ユーザーは、図8Aに示されているように再度上を見ることができ、こうして図8Bに示されているように、ユーザーの視野はもはやキーボードを含まず、キーボードの画像はもはや表示されなくなる。
図9Aに示されているように、ユーザーの実世界視点602aは、キーボード601がユーザーの実世界視点602aの下部部分に位置設定されることになる状態である。キーボード601’の捕捉画像は、それがユーザーの仮想環境602a’の仮想視野の下部部分にくるように、対応して表示される。これとは対照的に、図10Aでは、ユーザーの実世界視点602bは、キーボード601がユーザーの実世界視点602bの上部部分に位置設定されることになる状態であり、これに対応して、キーボード601’の捕捉画像は、仮想環境602b’のユーザーの仮想視点の上部部分に表示される。したがって、表示されたキーボード画像601’は、ユーザーの実世界視点602bとの関係における実際のキーボードの位置に対応する仮想視点602b’との関係における位置に示される。こうして、キーボードの画像は、実生活におけるその真の位置との関係におけるその適切な位置にあるものとして把握されることから、キーボードとのユーザー・インタラクションは容易になる。
図11Aは、キーボード上で下を見ているユーザーが、特定の仮想視野を有する仮想世界環境602’の表示と併せたキーボード601’の捕捉画像の表示と共に提示されている、ヘッド・マウント・ディスプレイの表示のスクリーン・ショットを示す。ユーザーが、キーボード601’の表示された捕捉画像を見たいと思わない場合、ユーザーは、例えば掌が上になるように両手を回し互いに離してカメラのビューから出るように移動させて、手112を用いたジェスチャを行なうことができる。このような既定のユーザー入力またはジェスチャは、図11Bに示されているようにキーボードの画像を除去させるキーボード601’の表示除去制御信号として検出および解釈され得る。ユーザーの手は、ジェスチャを決定するためにオブジェクト認識技術を用いて追跡可能である。
図12および12Bは、仮想世界環境がキーボードの表示によって遮られる程度を最小限に抑えながら、キーボード601’の捕捉画像の表示の内含に適応するように、内部で仮想世界環境702a’を拡大/圧縮、モーフィングまたは他の形でトランスフォームすることのできる、ヘッド・マウント・ディスプレイのスクリーン・ショットの例を示す。図12Aに示されているように、キーボード601’の画像は、仮想世界環境702a’の背景画像の上に単に重ね合わされる。こうして、キーボードの画像は、仮想世界環境の一部の様相、例えば3つの家の低い方の窓を遮っている。本開示のいくつかの実施例では、提示されている仮想世界環境は、仮想世界内の全てをユーザーにとって可視的である状態に保ち続けながらキーボードの画像に適応させるようにトランスフォームされ(例えばその形状、サイズおよびパースを調整する)、例えば図12Bに示されているように、仮想世界702a’’の画像は、背景現実世界環境を遮るキーボードの重ね合わされた画像を削減/回避するように、キーボードの上方および下方で圧縮され、キーボードの周りで拡大される。こうして、図12Bに示されているように、家の一階の窓は、可視状態にとどまる。本開示のある実施例において、該方法は、キーボードの追加の表示にも関わらずその表示を維持することが望ましいと考えられる何らかの関心あるエリア/ポイント(例えば図12Aおよび12Bの実施例中の低い方の窓)が存在するか否かを決定するステップを含むことができ、その場合、仮想世界環境、特に仮想世界環境内に関心あるエリア/ポイントの可視性を最大化するために、仮想現実環境を適切にトランスフォームすることができる。
本開示の実施例は、流れ図による図解および概略的ブロック図を用いて説明されている。(流れ図図解およびブロック図の)各ブロックおよびブロックの組合せがコンピュータ・プログラムのコンピュータ・プログラム命令によって実装可能であることが理解される。これらのプログラム命令は、1つ以上のプロセッサ、処理回路またはコントローラに提供され得、こうして、それらの上で実行する命令は、ブロック中に規定された機能を実装させるための手段を作り出すことになる。コンピュータ・プログラム命令は、プロセッサ上で実行する命令がブロック中に規定された機能を実装するためのステップを提供するようにコンピュータで実装されるプロセスを生成するべく、プロセッサにより一連の動作ステップを行なわせるために、プロセッサによって実行可能である。
したがって、ブロックは、規定された機能を行なうための手段の組合せ、規定された機能を行なうためのアクションの組合せ、および規定された機能を行なうためのコンピュータ・プログラム命令/アルゴリズムをサポートする。各ブロックおよびブロックの組合せは、規定された機能またはステップを行なう専用ハードウェアベースのシステムまたは専用ハードウェアおよびコンピュータ・プログラム命令の組合せによって実装可能であることも同様に理解される。
先行する説明中に記載された特徴を、明示的に説明された組合せ以外の組合せで使用することも可能である。
機能はある特徴を基準にして説明されているが、これらの機能は、記載の有無に関わらず、他の特徴によって行なうことのできるものである。特徴はある実施例を基準にして説明されているが、これらの特徴は同様に、記載の有無に関わらず、他の実施例にも存在する場合がある。
提供された実施例に対する修正を、クレームに明記された本発明の範囲から逸脱することなく行なうことができる、ということを認識すべきである。
「を含む」なる用語は、本明細書中では、排他的ではなく包含的な意味で使用されている。すなわち、Yを含むXという言及は全て、Xが唯一のYを含むことができるかまたは、2つ以上のYを含むことができる、ということを表わしている。排他的意味で「含む」を使用することが意図されている場合には、それは、「1つのみの...を含む」に言及するかまたは「〜で構成される」を使用することにより、文脈中で明らかにされる。
本明細書においては、さまざまな実施例が言及されている。1つの例との関係における特徴または機能の説明は、これらの特徴または機能がその実施例中に存在することを表わす。本文中の「実施例」または「例えば、または「〜できる(may)」なる用語の使用は、明示的に述べられているか否かに関わらず、このような特徴または機能が一例として記載されているか否かに関わらず、少なくとも記載された実施例中に存在すること、およびそれらがいくつかのまたは全ての他の実施例中に存在し得るものの必ずしもそうではないことを意味する。こうして、「実施例」、「例えば」、または「〜できる(may)」は、ある例示群における特定の事例を意味する。事例の特性は、その事例のみの特性またはその例示群の特性またはその例示群の事例の全部ではないがいくつかを含むその例示群に属する一部の群の特性であり得る。
上述の説明において、説明された装置は、代替的にまたは追加として、他のいくつかの実施例中では装置の分散型システム、例えばクライアント/サーバー装置システムを含む装置を含む。提供された装置が分散型システムを形成する(またはシステムがそのように実装されている)実施例においては、システムのコンポーネントおよび/または一部を形成する各装置は、本開示の一実施形態を集合的に実装することのできる1つ以上の特徴を提供する(または実装する)。いくつかの実施例において、装置は、実行されたとき装置に本開示の一実施形態の一実施例を実装させる(このような実装は、完全に装置によるものであるかまたは上述の装置システムの一部としてのものである)追加のソフトウェアが具備されていることによって、例えばユーザーがこのようなソフトウェアをダウンロードすることによって、本開示の一実施形態を実装するために、その当初のメーカー以外のエンティティによって再構成される。
上述の説明は本開示の一部の実施例を説明しているが、当業者であれば、本明細書中で上述された構造および特徴の具体的実施例と等価の機能性を提供し、簡潔さまたは明確さのために以上の説明では省略されている、考えられる代替的な構造および方法特徴に気付くものである。とはいえ、上述の説明は、本開示の実施形態の上述の説明中でそのような代替的構造または方法特徴が明示的に除外されているのでないかぎり、等価の機能を提供するこのような代替的構造および方法特徴に対する言及を暗示的に含むものとして解釈されるべきである。
上述の明細書中では、特に重要なものと考えられている本発明の特徴に注意を引くように努めてきたが、該出願人は、特別に強調されているか否かに関わらず、以上で言及され、および/または図面中に示されているあらゆる特許性ある特徴または特徴の組合せに関する保護を要求しているという点を、理解すべきである。

Claims (14)

  1. 少なくとも部分的に、ヘッド・マウント・ディスプレイ上に仮想現実環境を表示するステップと、
    実世界オブジェクトとのユーザ・インタラクションのための前記仮想現実環境の内においてオポチュニティが存在するか否かを決定するステップと、
    前記決定されたオポチュニティに応答して、ヘッド・マウント・ディスプレイのユーザの実世界視点内に位置設定された前記実世界オブジェクトを検出するステップと、
    前記検出された実世界物理オブジェクトの少なくとも一部の1つ以上の画像を、前記ヘッド・マウント・ディスプレイ上に表示するようにさせるステップ
    ユーザ入力の検出に応答して前記実世界物理オブジェクトの前記少なくとも一部の前記1つ以上の画像の前記表示を除去するステップと、
    を含む方法。
  2. 前記ヘッド・マウント・ディスプレイの前記ユーザの前記実世界視点は、前記ユーザが、前記ヘッド・マウント・ディスプレイを装着していなかったならば前記ユーザの視点に対応する、請求項1に記載の方法。
  3. 前記実世界オブジェクトの少なくとも1つの捕捉画像が、前記仮想現実環境の前記表示に一体化される、仮想現実と実世界画像のミキシングを提供するステップを更に含む、請求項1または2に記載の方法。
  4. 前記実世界オブジェクトがユーザ入力デバイスである、請求項1ないし3のいずれか1項に記載の方法。
  5. 前記検出された実世界オブジェクトの前記少なくとも1つの画像は、捕捉画像シーケンス、捕捉ビデオ、実時間で捕捉された画像、および、ライブ・カメラのフィードのうちの1つ以上を含む、請求項1ないし4のいずれか1項に記載の方法。
  6. 前記ユーザの実世界視点を監視するステップを更に含む、請求項1ないし5のいずれか1項に記載の方法。
  7. 前記監視されるユーザの実世界視点に依存して、前記ヘッド・マウント・ディスプレイ上の前記少なくとも1つの画像の前記表示を配置するステップを更に備える請求項6に記載の方法。
  8. 前記ユーザの実世界視点の少なくとも1つの画像を捕捉するステップを更に備える請求項1ないし7のいずれか1項に記載の方法。
  9. 前記ユーザの実世界視点内の実世界オブジェクトの検出は、前記ユーザの実世界視点の前記捕捉された少なくとも1つの画像上でオブジェクト認識を行なうことを含む、請求項8に記載の方法。
  10. 前記表示された少なくとも1つの画像は、実質的に前記実世界オブジェクトから成る、請求項1ないし9のいずれか1項に記載の方法。
  11. 前記実世界物理オブジェクトの捕捉された少なくとも1つの画像の前記表示を収容するために、前記ヘッド・マウント・ディスプレイ上に表示された仮想現実環境の表示をトランスフォームするステップを更に含む、請求項1ないし10のいずれか1項に記載の方法。
  12. 少なくとも、請求項1ないし11のいずれか1項に記載の方法を、装置が実施可能にするように構成された手段を備える装置。
  13. 請求項12に記載の装置を含む、デバイスであって、該デバイスは、チップセット、モジュール、または、ヘッド・マウント・ディスプレイのいずれかである、デバイス。
  14. 少なくとも1つのプロセッサを用いて、少なくとも請求項1ないし11のいずれか1項に記載の前記方法を実行させるコンピュータ・プログラム。
JP2017513647A 2014-09-11 2015-09-11 画像を表示するための方法、装置およびコンピュータ・プログラム Active JP6826029B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP14184455.5A EP2996017B1 (en) 2014-09-11 2014-09-11 Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
EP14184455.5 2014-09-11
PCT/FI2015/050595 WO2016038253A1 (en) 2014-09-11 2015-09-11 Method, apparatus and computer program for displaying an image

Publications (2)

Publication Number Publication Date
JP2017528834A JP2017528834A (ja) 2017-09-28
JP6826029B2 true JP6826029B2 (ja) 2021-02-03

Family

ID=51542183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017513647A Active JP6826029B2 (ja) 2014-09-11 2015-09-11 画像を表示するための方法、装置およびコンピュータ・プログラム

Country Status (7)

Country Link
US (1) US10916057B2 (ja)
EP (1) EP2996017B1 (ja)
JP (1) JP6826029B2 (ja)
CN (1) CN106716302B (ja)
MX (1) MX2017003204A (ja)
WO (1) WO2016038253A1 (ja)
ZA (1) ZA201702365B (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6641763B2 (ja) * 2015-08-03 2020-02-05 セイコーエプソン株式会社 表示システム
US10665019B2 (en) * 2016-03-24 2020-05-26 Qualcomm Incorporated Spatial relationships for integration of visual images of physical environment into virtual reality
EP3299931A1 (en) * 2016-09-27 2018-03-28 Alcatel Lucent Altered-reality control method and altered-reality control system
US10168798B2 (en) * 2016-09-29 2019-01-01 Tower Spring Global Limited Head mounted display
EP3327544B1 (en) 2016-11-25 2021-06-23 Nokia Technologies Oy Apparatus, associated method and associated computer readable medium
US10839520B2 (en) * 2017-03-03 2020-11-17 The United States Of America, As Represented By The Secretary, Department Of Health & Human Services Eye tracking applications in computer aided diagnosis and image processing in radiology
US10409363B1 (en) 2017-03-07 2019-09-10 vGolf, LLC Mixed-reality golf tracking and simulation
US10646767B2 (en) 2017-03-07 2020-05-12 vSports, LLC Mixed reality sport simulation and training system
US10525324B2 (en) 2017-03-07 2020-01-07 vSports, LLC Mixed-reality kick tracking and simulation
US10204456B2 (en) * 2017-03-07 2019-02-12 vGolf, LLC Mixed reality golf simulation and training system
GB2555501B (en) * 2017-05-04 2019-08-28 Sony Interactive Entertainment Europe Ltd Head mounted display and method
WO2018227011A1 (en) 2017-06-07 2018-12-13 vSports, LLC Mixed-reality sports tracking and simulation
EP3639114B1 (en) 2017-06-15 2024-03-06 Tencent Technology (Shenzhen) Company Limited System and method of instantly previewing immersive content
CN109844694B (zh) * 2017-06-15 2020-08-25 腾讯科技(深圳)有限公司 使用集线器连接两个不同环境的系统和方法
US11137824B2 (en) 2017-07-21 2021-10-05 Hewlett-Packard Development Company, L.P. Physical input device in virtual reality
US10983663B2 (en) * 2017-09-29 2021-04-20 Apple Inc. Displaying applications
JP7087364B2 (ja) * 2017-12-04 2022-06-21 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システムおよびプログラム
EP3495771A1 (en) * 2017-12-11 2019-06-12 Hexagon Technology Center GmbH Automated surveying of real world objects
US10991138B2 (en) * 2017-12-22 2021-04-27 The Boeing Company Systems and methods for in-flight virtual reality displays for passenger and crew assistance
WO2019200615A1 (en) * 2018-04-20 2019-10-24 Nokia Shanghai Bell Co., Ltd. Apparatus, methods and computer programs for facilitating tuning of an antenna
US10818093B2 (en) 2018-05-25 2020-10-27 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US10984600B2 (en) 2018-05-25 2021-04-20 Tiff's Treats Holdings, Inc. Apparatus, method, and system for presentation of multimedia content including augmented reality content
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US10600246B2 (en) * 2018-06-15 2020-03-24 Microsoft Technology Licensing, Llc Pinning virtual reality passthrough regions to real-world locations
US11366514B2 (en) * 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US10769754B2 (en) 2018-10-31 2020-09-08 Dolby Laboratories Licensing Corporation Virtual reality cinema-immersive movie watching for headmounted displays
US10824244B2 (en) * 2018-11-19 2020-11-03 Facebook Technologies, Llc Systems and methods for transitioning between modes of tracking real-world objects for artificial reality interfaces
JP7238456B2 (ja) * 2019-02-21 2023-03-14 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
US11265487B2 (en) 2019-06-05 2022-03-01 Mediatek Inc. Camera view synthesis on head-mounted display for virtual reality and augmented reality
US11422669B1 (en) 2019-06-07 2022-08-23 Facebook Technologies, Llc Detecting input using a stylus in artificial reality systems based on a stylus movement after a stylus selection action
US11334212B2 (en) 2019-06-07 2022-05-17 Facebook Technologies, Llc Detecting input in artificial reality systems based on a pinch and pull gesture
JP7242448B2 (ja) * 2019-07-03 2023-03-20 エヌ・ティ・ティ・コミュニケーションズ株式会社 仮想現実制御装置、仮想現実制御方法およびプログラム
CN114222942A (zh) * 2019-08-12 2022-03-22 奇跃公司 用于虚拟和增强现实的系统和方法
WO2021061351A1 (en) 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
CN116360601A (zh) 2019-09-27 2023-06-30 苹果公司 用于提供扩展现实环境的电子设备、存储介质和方法
JP7485527B2 (ja) 2020-03-19 2024-05-16 Lineヤフー株式会社 提供装置、提供方法及び提供プログラム
CN112462937B (zh) * 2020-11-23 2022-11-08 青岛小鸟看看科技有限公司 虚拟现实设备的局部透视方法、装置及虚拟现实设备
JP2024506630A (ja) 2021-02-08 2024-02-14 サイトフル コンピューターズ リミテッド 生産性のためのエクステンデッド・リアリティ
EP4288950A1 (en) 2021-02-08 2023-12-13 Sightful Computers Ltd User interactions in extended reality
EP4295314A1 (en) 2021-02-08 2023-12-27 Sightful Computers Ltd Content sharing in extended reality
WO2023009580A2 (en) 2021-07-28 2023-02-02 Multinarity Ltd Using an extended reality appliance for productivity
US11783449B2 (en) * 2021-12-09 2023-10-10 Htc Corporation Method for adjusting displayed content based on host posture, host, and computer readable storage medium
WO2023130435A1 (zh) * 2022-01-10 2023-07-13 深圳市闪至科技有限公司 交互方法、头戴式显示设备、系统及存储介质
US20230334795A1 (en) 2022-01-25 2023-10-19 Multinarity Ltd Dual mode presentation of user interface elements
US11948263B1 (en) 2023-03-14 2024-04-02 Sightful Computers Ltd Recording the complete physical and extended reality environments of a user
US12099696B2 (en) 2022-09-30 2024-09-24 Sightful Computers Ltd Displaying virtual content on moving vehicles
CN117827013B (zh) * 2024-03-05 2024-05-14 青岛三诚众合智能设备科技有限公司 基于图像处理的生产技能智能学习方法及系统、电子设备

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060033724A1 (en) * 2004-07-30 2006-02-16 Apple Computer, Inc. Virtual input device placement on a touch screen user interface
US9595169B2 (en) * 2006-08-31 2017-03-14 Cfph, Llc Game of chance systems and methods
JP2008077572A (ja) * 2006-09-25 2008-04-03 Toshiba Corp 画像表示装置
EP2132650A4 (en) 2007-03-01 2010-10-27 Sony Comp Entertainment Us SYSTEM AND METHOD FOR COMMUNICATING WITH A VIRTUAL WORLD
JP2009025918A (ja) * 2007-07-17 2009-02-05 Canon Inc 画像処理装置、画像処理方法
US8675025B2 (en) 2009-12-17 2014-03-18 Nokia Corporation Method and apparatus for providing control over a device display based on device orientation
US20120113223A1 (en) * 2010-11-05 2012-05-10 Microsoft Corporation User Interaction in Augmented Reality
JP5834439B2 (ja) 2011-03-24 2015-12-24 セイコーエプソン株式会社 頭部装着型表示装置および頭部装着型表示装置の制御方法
KR101591579B1 (ko) * 2011-03-29 2016-02-18 퀄컴 인코포레이티드 증강 현실 시스템들에서 실세계 표면들에의 가상 이미지들의 앵커링
US20120249587A1 (en) * 2011-04-04 2012-10-04 Anderson Glen J Keyboard avatar for heads up display (hud)
US20130257732A1 (en) 2012-03-29 2013-10-03 Robert Duffield Adaptive virtual keyboard
US9128921B2 (en) * 2012-05-31 2015-09-08 Blackberry Limited Touchscreen keyboard with corrective word prediction
US9041622B2 (en) 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US9417692B2 (en) 2012-06-29 2016-08-16 Microsoft Technology Licensing, Llc Deep augmented reality tags for mixed reality
US9378592B2 (en) 2012-09-14 2016-06-28 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
JP2014149712A (ja) 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
EP2956814A1 (en) 2013-02-14 2015-12-23 Seiko Epson Corporation Head mounted display and control method for head mounted display
JP2014164503A (ja) * 2013-02-25 2014-09-08 Sharp Corp 情報端末、画像表示方法及びプログラム
JPWO2014188798A1 (ja) * 2013-05-21 2017-02-23 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
US9908048B2 (en) 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
JP2015114757A (ja) * 2013-12-10 2015-06-22 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
EP3098689B1 (en) 2014-01-23 2019-04-03 Sony Corporation Image display device and image display method
JP6355978B2 (ja) 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
EP3179292B1 (en) * 2014-08-05 2021-03-03 LG Electronics Inc. Head-mounted display device and control method therefor

Also Published As

Publication number Publication date
EP2996017B1 (en) 2022-05-11
WO2016038253A1 (en) 2016-03-17
MX2017003204A (es) 2017-07-20
CN106716302B (zh) 2021-04-13
US20170263056A1 (en) 2017-09-14
US10916057B2 (en) 2021-02-09
CN106716302A (zh) 2017-05-24
EP2996017A1 (en) 2016-03-16
JP2017528834A (ja) 2017-09-28
ZA201702365B (en) 2018-12-19

Similar Documents

Publication Publication Date Title
JP6826029B2 (ja) 画像を表示するための方法、装置およびコンピュータ・プログラム
JP6633220B2 (ja) 装置および関連する方法
KR102411768B1 (ko) 헤드 마운트 디스플레이를 위한 3차원 사용자 인터페이스
US10585473B2 (en) Visual gestures
RU2691589C2 (ru) Невизуальная обратная связь визуального изменения в способе и устройстве отслеживания взгляда
JP2017538218A (ja) 注視対象アプリケーションランチャー
KR102413074B1 (ko) 사용자 단말, 전자 장치 및 이들의 제어 방법
US11868526B2 (en) Method and device for debugging program execution and content playback
WO2021021839A1 (en) Tracking using pixel sensors of an event camera
US11321926B2 (en) Method and device for content placement
US11468611B1 (en) Method and device for supplementing a virtual environment
US20190058861A1 (en) Apparatus and associated methods
EP3914998A1 (en) Method and device for sketch-based placement of virtual objects
US20240248532A1 (en) Method and device for visualizing multi-modal inputs
US20180160133A1 (en) Realtime recording of gestures and/or voice to modify animations
US12001644B2 (en) Method and apparatus for adding interactive objects to a virtual reality environment
US20240019928A1 (en) Gaze and Head Pose Interaction
US20230042447A1 (en) Method and Device for Managing Interactions Directed to a User Interface with a Physical Object
US20230333645A1 (en) Method and device for processing user input for multiple devices
US20230095282A1 (en) Method And Device For Faciliating Interactions With A Peripheral Device
US20240241616A1 (en) Method And Device For Navigating Windows In 3D
KR20240025593A (ko) 객체에 대한 동작 양식을 동적으로 선택하기 위한 방법 및 디바이스

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170419

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190730

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191121

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20191121

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20191128

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20191203

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20191213

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20191217

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20200908

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20201027

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20201110

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20201215

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210114

R150 Certificate of patent or registration of utility model

Ref document number: 6826029

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250