JP2020520487A - Vrインタラクションの改良された方法およびシステム - Google Patents

Vrインタラクションの改良された方法およびシステム Download PDF

Info

Publication number
JP2020520487A
JP2020520487A JP2019553466A JP2019553466A JP2020520487A JP 2020520487 A JP2020520487 A JP 2020520487A JP 2019553466 A JP2019553466 A JP 2019553466A JP 2019553466 A JP2019553466 A JP 2019553466A JP 2020520487 A JP2020520487 A JP 2020520487A
Authority
JP
Japan
Prior art keywords
visual information
person
mounted display
head mounted
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2019553466A
Other languages
English (en)
Inventor
キリスケン,バルバロス
Original Assignee
ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベステル エレクトロニク サナイー ベ ティカレト エー.エス., ベステル エレクトロニク サナイー ベ ティカレト エー.エス. filed Critical ベステル エレクトロニク サナイー ベ ティカレト エー.エス.
Publication of JP2020520487A publication Critical patent/JP2020520487A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/08Mirrors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • H04N5/7475Constructional details of television projection apparatus
    • H04N5/7491Constructional details of television projection apparatus of head mounted projectors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Abstract

本発明は、人(101)の身体部分を表すデータを提供する方法に関する。本発明に係る方法は、少なくとも次のステップを含む。ヘッドマウントディスプレイユニット(102)を提供し、人(101)の前の視覚情報をキャプチャするカメラ手段(103)を提供し、ヘッドマウントディスプレイユニット(102)を装着している人(101)を映すミラー(104)を提供し、カメラ手段(103)で映された視覚情報をキャプチャし、処理ユニットを用いて映された視覚情報を処理し、人(101)に処理された視覚情報を出力する方法であって、ヘッドマウントディスプレイユニット(102)は、人(101)の頭に配置され、ヘッドマウントディスプレイユニット(102)は、人(101)の少なくとも片目の前に配置可能な画定されたスクリーンセクションを有し、視覚情報は、人(101)の少なくとも片目に視覚情報を表示するための画定されたスクリーンセクションに出力可能であり、カメラ手段(103)は、ヘッドマウントディスプレイユニット(102)の一部またはそれに付随したものである。【選択図】図2

Description

本発明は、請求項1に記載の人の身体部分を表すデータを提供する方法、請求項12に記載のそのような方法を実行するコンピュータプログラム製品、請求項13に記載のインタラクション、特に、少なくとも2人の間のコミュニケーションを可能にするコミュニケーションシステムに関する。
仮想現実(VR)、特に、拡張現実(AR)および複合現実(MR)は、急速に進化している技術の分野を含んでいる。そのような技術により、ゲーム、コミュニケーション、および産業の新たな可能性が開かれている。
VRデバイスはユーザーの頭に取り付けられており、腕、手、脚、または足の身体部分に焦点が合っていないため、VRアプリケーション中に手の動きをキャプチャするためには、さらに外部カメラ装置を必要とする。
スマートフォンがVRグラスの内部で使用されている間、スマートフォンの背面カメラおよび前面カメラは使用できない。複合現実アプリケーションのような環境をキャプチャするために背面カメラ(メインカメラ)のみを使用することはできるが、ビデオ会議、テレビ電話、ビデオ電話、テレプレゼンス、仮想空間、または自己のリアルタイム画像を仮想空間に転送するといったアプリケーションにおいて、背面(メイン)カメラおよび/または前面カメラを使用することはできない。そのようなアプリケーションでは、外部カメラでのみ可能であり、外部コンポーネントを必要とし、完全なモバイル環境では役に立たない。
したがって、本発明の目的は、高度なVRシステムを操作する方法を提供し、少なくとも2人の間のインタラクションを可能とする高度なVRインタラクションシステムを提供することである。
上記目的は、人の身体部分を表すデータを提供する請求項1に記載の方法によって解決される。本方法は、少なくとも次のステップを含むことが好ましい。ヘッドマウントディスプレイユニットを提供し、人の前の視覚情報をキャプチャするカメラ手段を提供し、ヘッドマウントディスプレイユニットを装着している人を映すミラーを提供し、カメラ手段で映された視覚情報をキャプチャし、処理ユニットを用いて映された視覚情報を処理する方法であって、ヘッドマウントディスプレイユニットは、人の頭に配置され、ヘッドマウントディスプレイユニットは、人の少なくとも片目の前に配置可能な画定されたスクリーンセクションを有し、視覚情報は、人の少なくとも片目に視覚情報を表示するための画定されたスクリーンセクションに出力可能であり、カメラ手段は、ヘッドマウントディスプレイユニットの一部またはそれに付随したものである。処理された視覚情報は、1人以上のユーザーに出力され、もしくはVRオブジェクト、アバター、および/または設定を制御するためのデータとして出力されることが好ましい。
したがって、本発明は、好ましくはスクリーンとしてスマートフォンを使用し、好ましくは背面(メイン)カメラが開いたままである後部カバーに穴を含むVRグラスからなる。VRグラスなどのヘッドマウントディスプレイを装着したユーザーが鏡の前に行くと、像が反転され、ユーザーが頭の位置を動かした場合でもユーザーの安定した視界が得られる。
本方法は、全ての電気デバイスをヘッドマウントディスプレイに取り付けることができ、またはヘッドマウントディスプレイの一部にすることができるため、有益である。そのため、各ユーザーから離れた場所に配置されたカメラを必要としない。さらに、ミラーはほぼどの家庭にも存在する非常に一般的な物品である。したがって、家庭および企業の現在のインフラストラクチャを使用して、ユーザー体験を容易にすることができる。
さらに好ましい実施形態は、明細書の以下の部分で説明され、および/または従属請求項の主題である。
本発明のさらに好ましい実施形態によれば、処理ユニットは、出力の前に、キャプチャされた視覚情報を回転させる。ミラー反転された視覚情報を非ミラー反転バージョンにするために、特に、180°の回転角度で回転または反転が行われることが好ましい。
本発明のさらに好ましい実施形態によれば、処理ユニットは、キャプチャされた視覚情報の中の少なくとも身体部分、特に、人の手を判定し、身体部分の動きまたはジェスチャーが、処理ユニットを操作するためのコマンドおよび/または視覚情報を修正するためのコマンドにリンクされる。この実施形態は、各身体部分がコントローラデバイスを置き換えることができ、その結果、システム全体がより少ないハードウェアを必要とするため、有益である。
本発明のさらに好ましい実施形態によれば、処理ユニットは、キャプチャされた視覚情報の中の少なくとも2つの身体部分、特に、2つの手を判定し、各身体部分の動きまたはジェスチャーが、処理ユニットを操作するためのコマンドおよび/または視覚情報を修正するためのコマンドにリンクされる。この実施形態は、2つの身体部分をお互いに相対的に移動させることができ、その結果、より多くのコマンドを設定できるため、有益である。
本発明のさらに好ましい実施形態によれば、処理ユニットは、少なくとも1つの仮想オブジェクトを提供し、仮想オブジェクトは、出力される仮想情報の一部としてオーバーレイ方式で表示され、仮想オブジェクトは、判定された身体部分の動きに応じて修正される。本実施形態は、仮想オブジェクトを回転させることができ、および/またはその大きさを変更することができ、および/またはその形状を変更することができるため、有益である。
本発明のさらに好ましい実施形態によれば、処理ユニットは、仮想環境を提供し、仮想環境は人に表示され、少なくとも1つの仮想オブジェクトおよび/または仮想環境は、判定された身体部分の動きに応じて修正される。本方法は、仮想環境をゲーム環境、特に、一人用シューティングゲーム用のゲーム環境にできるので、有益である。仮想オブジェクトは、銃またはアバターである。さらに、複数の仮想オブジェクトが存在することが考えられる。
本発明のさらに好ましい実施形態によれば、スクリーンユニット、特に、スマートフォンまたはタブレットPCは、視覚情報を、人の少なくとも片目、好ましくは両目に表示するための画定されたセクションに配置され、スクリーンユニット、特に、スマートフォンまたはタブレットPCのスクリーンは、ユーザーの目、特に両目に面し、スマートフォンの背面カメラがカメラ手段として機能する。スクリーンユニットのスクリーン側は前面側と定義し、背面側はスクリーンユニットの反対側にある。したがって、ヘッドマウントディスプレイユニットは、スクリーンユニット、特に、スマートフォンまたはタブレットPCを保持するためのフレーム手段を含むことが好ましい。スクリーンユニットは、固定または取り外し可能な方法でフレーム手段に配置することができる。ここで、フレーム手段は、画定されたスクリーンセクションの中でスクリーンデバイスのスクリーンの位置を決めるための位置要素を設けることが好ましい。
映された視覚情報が判定された場合に、処理ユニットは、キャプチャされた視覚情報を所定の方法で処理、特に、出力された視覚情報を回転させて処理する。
本発明のさらに好ましい実施形態によれば、調整スクリーンがビデオシースルー機能として可能であり、ミラーは、調整スクリーンに少なくとも部分的に表示される。キャプチャされた視覚情報の評価が行われることが好ましく、カメラ手段とミラーとの間の距離が判定される。カメラ手段とミラーとの間の距離が最少閾値を下回る、または最大閾値を上回る場合に、信号が出力されることが好ましい。これらの実施形態は、カメラ手段とミラーとの間の最適な距離を容易に設定できるため、有益である。
本発明は、さらに、請求項12に係る本明細書に記載された方法、特に、請求項1乃至請求項11に係る方法を実行するためのコンピュータプログラム製品に関する。
上記の目的は、少なくとも2人の間のインタラクション、特にコミュニケーションを可能にする請求項13に記載のコミュニケーションインタラクティングシステムによっても解決される。インタラクティングシステムは、少なくとも複数のヘッドマウントディスプレイユニットと、各人の前の視覚情報をキャプチャするカメラ手段と、ヘッドマウントディスプレイユニットを装着している各人を映す少なくとも1つのミラーと、を含み、ヘッドマウントディスプレイユニットは、人の頭に配置され、視覚情報は、各人の少なくとも片目に視覚情報を表示するための画定されたスクリーンセクションに出力可能であり、各カメラ手段は、ヘッドマウントディスプレイの一部またはそれに付随したものであり、映された視覚情報は、各カメラ手段でキャプチャされ、映された視覚情報は、少なくとも1つの処理ユニットを用いて処理され、処理された視覚情報は、各人および/または他の人に出力される。本方法は、特に、外部のカメラ手段がなくても、特に、MRまたはARなどのVR環境において、人と人との間のインタラクションが容易に設定できるため、有益である。
本発明のさらに好ましい実施形態によれば、処理ユニットは、キャプチャされた視覚情報の中の各人の少なくとも1つの身体部分、特に手を判定し、身体部分の動きまたはジェスチャーは、処理ユニットを操作するためのコマンドおよび/または視覚情報を修正するためのコマンドにリンクされる。
本発明のさらに好ましい実施形態によれば、仮想環境が提供され、各人に表示され、一方の人によって引き起こされた修正が他方の人に表示される。
本発明のさらなる利点、目的および特徴は、本発明の例示的な構成要素が例示されている添付の図面の以下の明細書によって説明される。少なくとも本質的にそれらの機能に関して適合する本発明に係るシステムおよび方法の構成要素は、同じ参照符号を付すことができ、そのような構成要素は、前記図面に関して何度も付したり説明したりする必要はない。
以下では、添付の図面に関して本発明を例示的に説明する。
ミラーの前のHMDを装着している人を示す。 ミラーによって反射された像を示す。 ユーザーの像およびユーザーの反射された像を示す。 スクリーンデバイスをHMDユニットのフレーム手段に連結するステップを概略的に示す。 カメラ手段が組み込まれたHMDユニットを示す。 本発明に係るルーチンを表すフローチャートを示す。
図1Aは、VRグラスであるHMDユニット102を装着しているユーザー各人101を示す。HMDユニット102は、カメラ手段103を含む。カメラ手段103は、好ましくは、ユーザー101の前の環境をキャプチャできるように、通常の使用状態で配置される。参照番号104はミラーを示す。
図1Bは、ユーザー101の鏡像を示し、ユーザーは参照番号101Mによって反射された像に示されている。HMUユニットを表す反射された像セクションは参照番号102Mで示され、カメラ手段の反射された画セクションは参照番号103Mで示されている。 ユーザー101の後ろ側は、参照番号101Bで示され、参照番号102Bは、ユーザー101の後ろ側に存在するHMDユニットの部分を示す。参照番号105は、ユーザー101がミラー104に面していることを示す。
図2は、ユーザーの通常の外観201を示し、202は、ミラー104によって反射された同じユーザーの像を示す。
図3は、フレーム手段106をスクリーンデバイス301、特に、背面カメラ103Xを有するスマートフォンに連結する連結ステップを示す。スクリーンデバイス301は、所定のスクリーンセクション部分に配置される。
図4は、別の実施形態を示す。図3とは対照的に、カメラ手段103YはHMDユニットの一部であり、HMDユニット102と連結することができる外部スクリーンデバイス103Xの一部ではない。さらに、スクリーンデバイスもスクリーンも固定され、取り外し不可能であり、HMDユニット102の一部であることが考えられる。カメラ手段103Xは、好ましくは、スクリーンデバイスと連結され、カメラ手段103Xによってキャプチャされた視覚情報は、スクリーンデバイスを用いて出力され得る。
図5は、フローチャートを示す。このフローチャートによれば、参照番号501は、好ましい方法の開始を示す。ミラー検出ルーチンが開始されたかどうかは、ステップ502における処理デバイスによってチェックされる。上記ルーチンが開始される場合、ステップ503においてミラー検出が実行される。検出された像は、映された外観を補正するために処理され、その結果、キャプチャされた視覚情報を表す画像データまたは映像データの各々は反転されることが好ましい。処理によって得られた画像データまたは映像データは、外部カメラでキャプチャされた画像データまたは映像データに対応する。この方法はステップ505で終了する。チェック502または503が否定の場合、この方法は終了する。
したがって、本発明は、人の身体部分を表すデータを提供する方法に関する。本方法は、少なくとも次のステップを含むことが好ましい。ヘッドマウントディスプレイユニットを提供し、人の前の視覚情報をキャプチャするカメラ手段を提供し、ヘッドマウントディスプレイユニットを装着している人を映すミラーを提供し、カメラ手段で映された視覚情報をキャプチャし、処理ユニットを用いて映された視覚情報を処理し、人に処理された視覚情報を出力する方法であって、ヘッドマウントディスプレイユニットは、人の頭に配置され、ヘッドマウントディスプレイユニットは、人の少なくとも片目の前に配置可能な画定されたスクリーンセクションを有し、視覚情報は、人の少なくとも片目に視覚情報を表示するための画定されたスクリーンセクションに出力可能であり、カメラ手段は、ヘッドマウントディスプレイユニットの一部またはそれに付随したものである。
したがって、本発明の特定の使用分野は、背面カメラを有する携帯電話を具備したVRグラスである。しかし、ビルトインスクリーンと、追加の外部カメラもしくは他の構造センサまたはモーションセンサを具備したVRグラスなどの他のデバイスを使用することも可能である。VRグラスは、ARグラス、MRグラス、または同様のグラス、もしくは他のHMD、さらにはHUDである。本発明は、外部ミラーを必要とし、好ましくは任意のタイプのミラーとすることができる。好ましくないが、任意の他の光沢のある反射表面も可能である。携帯電話とは、あらゆる携帯電話、スマートフォン、またはVRグラス内で使用できる機能を備えた電話を意味し、それらのほとんどはフルタッチスクリーンを備える。
特に、本発明は、人101の身体部分を表すデータを提供する方法に関し、本発明に係る方法は、少なくとも次のステップを含むことが好ましい。ヘッドマウントディスプレイユニット102を提供し、人101の前の視覚情報をキャプチャするカメラ手段103を提供し、ヘッドマウントディスプレイユニット102を装着している人101を映すミラー104を提供し、カメラ手段103で映された視覚情報をキャプチャし、処理ユニットを用いて映された視覚情報を処理し、人101に処理された視覚情報を出力する方法であって、ヘッドマウントディスプレイユニット102は、人101の頭に配置され、ヘッドマウントディスプレイユニット102は、人101の少なくとも片目の前に配置可能な画定されたスクリーンセクションを有し、視覚情報は、人101の少なくとも片目に視覚情報を表示するための画定されたスクリーンセクションに出力可能であり、カメラ手段103は、ヘッドマウントディスプレイユニット102の一部またはそれに付随したものである。
101 ユーザー(横側)
102 VRグラス
103 カメラ
104 ミラー(携帯電話/スマートフォン背面カメラ)
101M ミラーから反射されたユーザーの像
102B VRグラスの背面
102M ミラーから反射されたVRグラスの像
103M ミラーから反射されたカメラの像(携帯電話/スマートフォン背面カメラ)
105 ユーザーがスクリーン全体を見ている
106 HMDのフレーム手段
201 横から見たユーザーの通常の外観
202 ミラーから反射された
301 携帯電話またはスマートフォン
103X 電話の背面カメラ
103Y 組み込まれたカメラ
501 開始
502 ミラーシステムは機能しているか?
502N NO
502Y YES
503 カメラ全体でミラーが検出されているか?
503N NO
503Y YES
504 画像または映像を反転し、外部カメラとして使用
505 終了

Claims (15)

  1. 人(101)の身体部分を表すデータを提供する方法であって、前記方法は、少なくとも、
    ヘッドマウントディスプレイユニット(102)を提供し、
    前記人(101)の前の視覚情報をキャプチャするカメラ手段(103)を提供し、
    前記ヘッドマウントディスプレイユニット(102)を装着している前記人(101)を映すミラー(104)を提供し、
    前記カメラ手段(103)で前記映された視覚情報をキャプチャし、
    処理ユニットを用いて前記映された視覚情報を処理し、
    特に、前記人(101)に前記処理された視覚情報を出力することを含み、
    前記ヘッドマウントディスプレイユニット(102)は、前記人(101)の頭に配置され、
    前記ヘッドマウントディスプレイユニット(102)は、前記人(101)の少なくとも片目の前に配置可能な画定されたスクリーンセクションを有し、
    前記視覚情報は、前記人(101)の前記少なくとも片目に前記視覚情報を表示するための前記画定されたスクリーンセクションに出力可能であり、
    前記カメラ手段(103)は、前記ヘッドマウントディスプレイユニット(102)の一部またはそれに付随している方法。
  2. 前記処理ユニットは、出力する前に、前記キャプチャされた視覚情報を非ミラー反転構成に反転することを特徴とする請求項1に記載の方法。
  3. 前記処理ユニットは、前記キャプチャされた視覚情報の中の前記人(101)の少なくとも1つの身体部分、特に手、を判定することを特徴とし、
    前記身体部分の動きまたはジェスチャーは、前記処理ユニットを操作するためのコマンドおよび/または前記視覚情報を修正するためのコマンドにリンクされている請求項2に記載の方法。
  4. 前記処理ユニットは、前記キャプチャされた視覚情報の中の前記人(101)の少なくとも2つの身体部分、特に、2つの手、を判定することを特徴とし、
    前記身体部分の動きまたはジェスチャーは、前記処理ユニットを操作するためのコマンドおよび/または前記視覚情報を修正するためのコマンドにリンクされている請求項2に記載の方法。
  5. 前記処理ユニットは、少なくとも1つの仮想オブジェクトを提供することを特徴とし、
    前記仮想オブジェクトは、前記判定された身体部分の動きに応じて修正される請求項3または請求項4に記載の方法。
  6. 前記処理ユニットは、仮想環境を提供することを特徴とし、
    前記仮想環境は前記人(101)に表示され、
    少なくとも1つの仮想オブジェクトおよび/または前記仮想環境は、前記判定された身体部分の動きに応じて修正される請求項1乃至請求項4に記載の方法。
  7. スマートフォン(301)は、前記人の前記少なくとも片目に前記視覚情報を表示するための前記画定されたセクションに配置されることを特徴とし、
    前記スマートフォン(301)の画面は、前記ユーザー(101)の目に面し、前記スマートフォン(301)の背面カメラ(103X)は、カメラ手段(103)として機能する請求項1乃至請求項6のいずれかに記載の方法。
  8. 映された視覚情報が判定された場合に、前記処理ユニットは、前記キャプチャされた視覚情報を所定の方法で処理し、特に、前記出力された視覚情報を回転させることを特徴とする請求項1乃至請求項7に記載の方法。
  9. 調整スクリーンは、ビデオシースルー機能として可能であることを特徴とし、
    前記ミラー(104)は、前記調整スクリーンに少なくとも部分的に表示される請求項1乃至請求項8のいずれかに記載の方法。
  10. 前記キャプチャされた視覚情報の評価が行われることを特徴とし、
    前記カメラ手段(103)と前記ミラー(104)との前記距離が判定される請求項1乃至請求項9のいずれかに記載の方法。
  11. カメラ手段(103)とミラー(104)との間の前記距離が最少閾値を下回る、または最大閾値を上回る場合に、信号が出力される請求項10に記載の方法。
  12. 請求項1乃至請求項11に記載の方法を実行するコンピュータプログラム製品。
  13. インタラクション、特に、少なくとも2人の間のコミュニケーションを可能にするコミュニケーションシステムであって、前記コミュニケーションシステムは、少なくとも、
    ヘッドマウントディスプレイユニットと、
    前記各人の前の視覚情報をキャプチャするカメラ手段と、
    前記ヘッドマウントディスプレイユニットを装着している前記各人を映す少なくとも1つのミラーと、を含み、
    前記ヘッドマウントディスプレイユニットは、前記人の前記頭に配置され、
    視覚情報は、前記各人の少なくとも片目に前記視覚情報を表示するための前記確定されたスクリーンセクションに出力可能であり、
    各カメラ手段は、前記ヘッドマウントディスプレイの一部またはそれに付随したものであり、
    前記映された視覚情報は、前記各カメラ手段でキャプチャされ、
    前記映された視覚情報は、少なくとも1つの処理ユニットを用いて処理され、
    前記処理された視覚情報は、前記各人および/または前記他の人に出力され、および/またはVRオブジェクト、アバターおよび/または設定を操作するためのコマンドとして使用されるコミュニケーションシステム。
  14. 前記処理ユニットは、前記キャプチャされた視覚情報の中の各人の少なくとも1つの身体部分、特に手、を判定することを特徴とし、
    前記身体部分の動きまたはジェスチャーは、前記処理ユニットを操作するためのコマンドおよび/または前記視覚情報を修正するためのコマンドにリンクされている請求項13に記載のコミュニケーションシステム。
  15. 仮想環境が提供され、各人に表示されることを特徴とし、
    1人によって引き起こされた変更が他の人に表示される請求項14に記載のコミュニケーションシステム。
JP2019553466A 2017-03-29 2017-03-29 Vrインタラクションの改良された方法およびシステム Withdrawn JP2020520487A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/057417 WO2018177521A1 (en) 2017-03-29 2017-03-29 Improved method and system for vr interaction

Publications (1)

Publication Number Publication Date
JP2020520487A true JP2020520487A (ja) 2020-07-09

Family

ID=58547474

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019553466A Withdrawn JP2020520487A (ja) 2017-03-29 2017-03-29 Vrインタラクションの改良された方法およびシステム

Country Status (7)

Country Link
US (1) US11294450B2 (ja)
EP (1) EP3382505B1 (ja)
JP (1) JP2020520487A (ja)
KR (1) KR20190134639A (ja)
CN (1) CN110678826A (ja)
TR (1) TR201706086A2 (ja)
WO (1) WO2018177521A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109597204A (zh) * 2018-12-21 2019-04-09 梁枫 一种基于平面镜反射获取用户光学图像信息的方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
WO2013145147A1 (ja) * 2012-03-28 2013-10-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法
US20140184724A1 (en) * 2012-12-28 2014-07-03 Lg Electronics Inc. Head mounted display and method of video communication using the same
US20150364113A1 (en) * 2014-06-11 2015-12-17 Samsung Electronics Co., Ltd. Method for controlling function and electronic device thereof
JP2017504277A (ja) * 2013-11-04 2017-02-02 エイ・ティ・アンド・ティ インテレクチュアル プロパティ アイ,エル.ピー. ウェアラブルディスプレイ装置を用いてミラービデオチャットを可能にするシステム及び方法
WO2017022769A1 (ja) * 2015-08-04 2017-02-09 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、表示制御方法及びプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9378592B2 (en) * 2012-09-14 2016-06-28 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US20150002475A1 (en) * 2013-06-27 2015-01-01 Industrial Technology Research Institute Mobile device and method for controlling graphical user interface thereof
US10152119B2 (en) * 2014-12-11 2018-12-11 Htc Corporation Head-mounted display apparatus and calibration method thereof
JP2016139168A (ja) * 2015-01-26 2016-08-04 セイコーエプソン株式会社 表示システム、可搬型表示装置、表示制御装置、表示方法
US20160378176A1 (en) * 2015-06-24 2016-12-29 Mediatek Inc. Hand And Body Tracking With Mobile Device-Based Virtual Reality Head-Mounted Display
CN205485923U (zh) * 2016-02-16 2016-08-17 广东小天才科技有限公司 一种虚拟现实设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145147A1 (ja) * 2012-03-28 2013-10-03 パイオニア株式会社 ヘッドマウントディスプレイ及び表示方法
US8482527B1 (en) * 2012-09-14 2013-07-09 Lg Electronics Inc. Apparatus and method of providing user interface on head mounted display and head mounted display thereof
US20140184724A1 (en) * 2012-12-28 2014-07-03 Lg Electronics Inc. Head mounted display and method of video communication using the same
JP2017504277A (ja) * 2013-11-04 2017-02-02 エイ・ティ・アンド・ティ インテレクチュアル プロパティ アイ,エル.ピー. ウェアラブルディスプレイ装置を用いてミラービデオチャットを可能にするシステム及び方法
US20150364113A1 (en) * 2014-06-11 2015-12-17 Samsung Electronics Co., Ltd. Method for controlling function and electronic device thereof
WO2017022769A1 (ja) * 2015-08-04 2017-02-09 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、表示制御方法及びプログラム

Also Published As

Publication number Publication date
TR201706086A2 (tr) 2018-10-22
US11294450B2 (en) 2022-04-05
CN110678826A (zh) 2020-01-10
US20210116989A1 (en) 2021-04-22
KR20190134639A (ko) 2019-12-04
EP3382505B1 (en) 2022-05-25
EP3382505A1 (en) 2018-10-03
WO2018177521A1 (en) 2018-10-04

Similar Documents

Publication Publication Date Title
CN109542213B (zh) 使用注视信息与计算设备交互的系统和方法
US10169917B2 (en) Augmented reality
US9791924B2 (en) Eye tracking with mobile device in a head-mounted display
CN109952759B (zh) 用于具有hmd的视频会议的改进的方法和系统
US20240037880A1 (en) Artificial Reality System with Varifocal Display of Artificial Reality Content
AU2021290132B2 (en) Presenting avatars in three-dimensional environments
JP2016509683A (ja) 外観を撮像及び表示する装置、システム及び方法
US20170053446A1 (en) Communication System
US11270672B1 (en) Display of virtual assistant in augmented reality
US20230334617A1 (en) Camera-based Transparent Display
US11699412B2 (en) Application programming interface for setting the prominence of user interface elements
Nijholt Capturing obstructed nonverbal cues in augmented reality interactions: a short survey
CN112987914A (zh) 用于内容放置的方法和设备
JP2020520487A (ja) Vrインタラクションの改良された方法およびシステム
US20240070931A1 (en) Distributed Content Rendering
KR102650349B1 (ko) Xr 디바이스 및 그 제어 방법
WO2024064015A1 (en) Representations of participants in real-time communication sessions
WO2024064280A1 (en) User interfaces for managing live communication sessions
JP2024044908A (ja) 方法、プログラム、及び端末装置
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments
WO2024054433A2 (en) Devices, methods, and graphical user interfaces for controlling avatars within three-dimensional environments
WO2024059755A1 (en) Methods for depth conflict mitigation in a three-dimensional environment
WO2024083302A1 (en) Virtual portal between physical space and virtual space in extended reality environments
CN117643048A (zh) 基于来自增强现实显示装置的增强现实上下文信息调整来自用户装置的3d视频流中的视频对象的姿态
CN115734087A (zh) 基于环境光来显示图像数据

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200227

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210309

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210804

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211229

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220921

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20220921

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20221004

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20221011

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20221216

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20221220

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20221220

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230126