JP2023515526A - ウェアラブルシステムのための手およびトーテム入力融合 - Google Patents

ウェアラブルシステムのための手およびトーテム入力融合 Download PDF

Info

Publication number
JP2023515526A
JP2023515526A JP2022550932A JP2022550932A JP2023515526A JP 2023515526 A JP2023515526 A JP 2023515526A JP 2022550932 A JP2022550932 A JP 2022550932A JP 2022550932 A JP2022550932 A JP 2022550932A JP 2023515526 A JP2023515526 A JP 2023515526A
Authority
JP
Japan
Prior art keywords
hand
handheld device
pose
pose data
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022550932A
Other languages
English (en)
Other versions
JPWO2021173725A5 (ja
Inventor
ユー-リン ユージン チャン,
リー ジョナサン ナウ,
アミート ジェイン,
ピーター アンドレアス クリンクミューラー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Magic Leap Inc
Original Assignee
Magic Leap Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magic Leap Inc filed Critical Magic Leap Inc
Publication of JP2023515526A publication Critical patent/JP2023515526A/ja
Publication of JPWO2021173725A5 publication Critical patent/JPWO2021173725A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

ユーザの手と関連付けられる、手姿勢データと、ハンドヘルドデバイスと関連付けられる、ハンドヘルドデバイス姿勢データを融合させるための技法。いくつかの実施形態では、ユーザの両手が、本明細書に説明される実施形態では利用される。基準フレーム内の手の位置を含む、手姿勢データは、手姿勢センサを使用して捕捉される。基準フレーム内のハンドヘルドデバイスの位置を含む、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイス姿勢センサを使用して捕捉される。手姿勢データとハンドヘルドデバイス姿勢データとの間の姿勢相違が、決定され、姿勢相違は、少なくとも、手の位置とハンドヘルドデバイスの位置との間の位置相違を含む。融合動作は、姿勢相違に基づいて実施される。

Description

(関連出願の相互参照)
本願は、その全内容が、あらゆる目的のために、参照することによって本明細書に組み込まれる、2020年2月26日に出願され、「HAND AND TOTEM INPUT FUSION FOR WEARABLE SYSTEMS」と題された、米国仮特許出願第62/981,930号の優先権の利益を主張する。
現代のコンピューティングおよびディスプレイ技術は、いわゆる、「仮想現実」または「拡張現実」体験のためのシステムの開発を促進しており、デジタル的に再現された画像またはその一部は、現実であるように見える、またはそのように知覚され得る様式で、ユーザに提示される。仮想現実、すなわち、「VR」シナリオは、典型的には、他の実際の実世界の視覚的入力に対する透過性を伴わずに、デジタルまたは仮想画像情報の提示を伴い、拡張現実、すなわち、「AR」シナリオは、典型的には、ユーザの周囲の実際の世界の可視化に対する拡張としてのデジタルまたは仮想画像情報の提示を伴う。
これらのディスプレイ技術において成された進展にもかかわらず、当技術分野において、拡張現実システム、特に、ディスプレイシステムに関連する、改良された方法、システム、およびデバイスの必要性が、存在する。
本開示は、概して、光学システムの性能およびユーザ体験を改良するための技法に関する。より具体的には、本開示の実施形態は、ハンドヘルドデバイスがウェアラブルシステムの動作を補助するために採用される、拡張現実(AR)、仮想現実(VR)、または複合現実(MR)ウェアラブルシステムを動作させるための方法を提供する。本開示の概要が、実施例の一覧として、下記に提供される。下記に使用されるように、一連の実施例への任意の言及は、それらの実施例のそれぞれへの離接的な言及として理解されるものである(例えば、「実施例1-4」は、「実施例1、2、3、または4」として理解されるものである)。
実施例1は、手姿勢データとハンドヘルドデバイス姿勢データを融合させる方法であって、手姿勢センサを使用して、基準フレーム内の手の位置を含む、手姿勢データを捕捉するステップと、ハンドヘルドデバイス姿勢センサを使用して、基準フレーム内のハンドヘルドデバイスの位置を含む、ハンドヘルドデバイスを捕捉するステップと、手姿勢データとハンドヘルドデバイス姿勢データとの間の姿勢相違を決定するステップであって、姿勢相違は、手の位置とハンドヘルドデバイスの位置との間の位置相違を含む、ステップと、姿勢相違に基づいて、融合動作を実施するステップとを含む、方法である。
実施例2は、位置相違は、手の位置とハンドヘルドデバイスの位置との間の距離である、実施例1に記載の方法である。
実施例3は、距離が距離閾値を上回るかまたは距離閾値未満であるかを決定するステップをさらに含む、実施例2に記載の方法である。
実施例4は、距離が距離閾値を上回ることが決定される場合、融合動作を実施するステップは、ハンドヘルドデバイスが手によって保持されていないことを決定するステップを含む、実施例3に記載の方法である。
実施例5は、距離が距離閾値未満または距離閾値に等しいことが決定される場合、融合動作を実施するステップは、ハンドヘルドデバイスが手によって保持されていることを決定するステップを含む、実施例3に記載の方法である。
実施例6は、距離が距離閾値を上回ることが決定される場合、融合動作を実施するステップは、手姿勢データを抑制するステップ、またはハンドヘルドデバイス姿勢データを抑制するステップを含む、実施例3に記載の方法である。
実施例7は、距離が距離閾値未満または距離閾値に等しいことが決定される場合、融合動作を実施するステップは、手姿勢データを使用して、ハンドヘルドデバイス姿勢データを増大させるステップ、ハンドヘルドデバイス姿勢データを使用して、手姿勢データを増大させるステップ、または手姿勢データおよびハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成するステップを含む、実施例3に記載の方法である。
実施例8は、手姿勢センサを使用して、手姿勢データを捕捉するステップは、手と関連付けられる、複数の特徴点を識別するステップと、複数の特徴点に基づいて、手の位置を決定するステップとを含む、実施例1に記載の方法である。
実施例9は、手姿勢データは、手の位置および手の配向の両方を含む、実施例1に記載の方法である。
実施例10は、手姿勢データは、手の位置を含むが、手の配向を含まない、実施例1に記載の方法である。
実施例11は、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの位置およびハンドヘルドデバイスの配向の両方を含む、実施例1に記載の方法である。
実施例12は、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの位置を含むが、ハンドヘルドデバイスの配向を含まない、実施例1に記載の方法である。
実施例13は、手姿勢データは、手の配向を含み、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの配向を含む、実施例1に記載の方法である。
実施例14は、姿勢相違は、手の配向とハンドヘルドデバイスの配向との間の配向相違を含む、実施例13に記載の方法である。
実施例15は、配向相違は、手の配向とハンドヘルドデバイスの配向との間の角度オフセットである、実施例14に記載の方法である。
実施例16は、角度オフセットが角度閾値を上回るかまたは角度閾値未満であるかを決定するステップをさらに含む、実施例15に記載の方法。
実施例17は、ハンドヘルドデバイスの3次元(3D)モデルおよびハンドヘルドデバイスの配向に基づいて、ハンドヘルドデバイスの位置を修正するステップをさらに含む、実施例13に記載の方法。
実施例18は、手姿勢センサは、ハンドヘルドデバイス姿勢センサと異なる、実施例1に記載の方法である。
実施例19は、手姿勢センサおよびハンドヘルドデバイス姿勢センサは、同一センサである、実施例1に記載の方法である。
実施例20は、手姿勢センサは、画像捕捉デバイスである、実施例1に記載の方法である。
実施例21は、手姿勢センサは、深度センサである、実施例1に記載の方法である。
実施例22は、手姿勢センサは、ヘッドセットに搭載される、実施例1に記載の方法である。
実施例23は、ハンドヘルドデバイス姿勢センサは、電磁(EM)伝送機と、EM受信機とを含む、実施例1に記載の方法である。
実施例24は、EM伝送機は、ハンドヘルドデバイスに搭載され、EM受信機は、ヘッドセットに搭載される、実施例23に記載の方法である。
実施例25は、システムであって、基準フレーム内の手の位置を含む、手姿勢データを捕捉するように構成される、手姿勢センサと、基準フレーム内のハンドヘルドデバイスの位置を含む、ハンドヘルドデバイス姿勢データを捕捉するように構成される、ハンドヘルドデバイス姿勢センサと、手姿勢センサおよびハンドヘルドデバイス姿勢センサと通信する、1つまたはそれを上回るプロセッサであって、手姿勢データとハンドヘルドデバイス姿勢データとの間の姿勢相違を決定するステップであって、姿勢相違は、手の位置とハンドヘルドデバイスの位置との間の位置相違を含む、ステップと、姿勢相違に基づいて、融合動作を実施するステップとを含む、動作を実施するように構成される、1つまたはそれを上回るプロセッサとを備える、システムである。
実施例26は、位置相違は、手の位置とハンドヘルドデバイスの位置との間の距離である、実施例25に記載のシステムである。
実施例27は、距離が、距離閾値を上回るか、または距離閾値未満であるか、または距離閾値に等しいかを決定するステップをさらに含む、実施例26に記載のシステム。
実施例28は、距離が距離閾値を上回ることが決定される場合、融合動作を実施するステップは、ハンドヘルドデバイスが手によって保持されていないことを決定するステップを含む、実施例27に記載のシステムである。
実施例29は、距離が距離閾値未満または距離閾値に等しいことが決定される場合、融合動作を実施するステップは、ハンドヘルドデバイスが手によって保持されていることを決定するステップを含む、実施例27に記載のシステムである。
実施例30は、距離が距離閾値未満であることが決定される場合、融合動作を実施するステップは、手姿勢データを抑制するステップ、またはハンドヘルドデバイス姿勢データを抑制するステップを含む、実施例27に記載のシステムである。
実施例31は、距離が距離閾値を上回ることが決定される場合、融合動作を実施するステップは、手姿勢データを抑制するステップ、またはハンドヘルドデバイス姿勢データを抑制するステップを含む、実施例27に記載のシステムである。
実施例32は、距離が距離閾値未満または距離閾値に等しいことが決定される場合、融合動作を実施するステップは、手姿勢データを使用して、ハンドヘルドデバイス姿勢データを増大させるステップ、ハンドヘルドデバイス姿勢データを使用して、手姿勢データを増大させるステップ、または手姿勢データおよびハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成するステップを含む、実施例27に記載のシステムである。
実施例33は、手姿勢センサを使用して、手姿勢データを捕捉するステップは、手と関連付けられる、複数の特徴点を識別するステップと、複数の特徴点に基づいて、手の位置を決定するステップとを含む、実施例25に記載のシステムである。
実施例34は、手姿勢データは、手の位置および手の配向の両方を含む、実施例25に記載のシステムである。
実施例35は、手姿勢データは、手の位置を含むが、手の配向を含まない、実施例25に記載のシステムである。
実施例36は、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの位置およびハンドヘルドデバイスの配向の両方を含む、実施例25に記載のシステムである。
実施例37は、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの位置を含むが、ハンドヘルドデバイスの配向を含まない、実施例25に記載のシステムである。
実施例38は、手姿勢データは、手の配向を含み、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイスの配向を含む、実施例25に記載のシステムである。
実施例39は、姿勢相違は、手の配向とハンドヘルドデバイスの配向との間の配向相違を含む、実施例38に記載のシステムである。
実施例40は、ハンドヘルドデバイスの3次元(3D)モデルおよびハンドヘルドデバイスの配向に基づいて、ハンドヘルドデバイスの位置を修正するステップをさらに含む、実施例38に記載のシステム。
実施例41は、配向相違は、手の配向とハンドヘルドデバイスの配向との間の角度オフセットである、実施例39に記載のシステムである。
実施例42は、角度オフセットが角度閾値を上回るかまたは角度閾値未満であるかを決定するステップをさらに含む、実施例41に記載のシステム。
実施例43は、ハンドヘルドデバイスの3次元(3D)モデルおよびハンドヘルドデバイスの配向に基づいて、ハンドヘルドデバイスの位置を修正するステップをさらに含む、実施例38に記載のシステム。
実施例44は、手姿勢センサは、ハンドヘルドデバイス姿勢センサと異なる、実施例25に記載のシステムである。
実施例45は、手姿勢センサおよびハンドヘルドデバイス姿勢センサは、同一センサである、実施例25に記載のシステムである。
実施例46は、手姿勢センサは、画像捕捉デバイスである、実施例25に記載のシステムである。
実施例47は、手姿勢センサは、深度センサである、実施例25に記載のシステムである。
実施例48は、手姿勢センサは、ヘッドセットに搭載される、実施例25に記載のシステムである。
実施例49は、ハンドヘルドデバイス姿勢センサは、電磁(EM)伝送機と、EM受信機とを含む、実施例25に記載のシステムである。
実施例50は、EM伝送機は、ハンドヘルドデバイスに搭載され、EM受信機は、ヘッドセットに搭載される、実施例49に記載のシステムである。
実施例51は、システムであって、ユーザによって装着されるように構成される、少なくとも1つのウェアラブルコンポーネントと、その少なくとも一部が、少なくとも1つのウェアラブルコンポーネント内に含有される、またはそれに取り付けられる、複数の電子ハードウェアコンポーネントであって、コンテンツをユーザに提示するように構成される、ディスプレイと、そのうちの少なくとも1つが、画像捕捉デバイスを備える、複数のセンサと、ディスプレイ、複数のセンサ、およびユーザの手の中に保持されるように構成される、ポータブル入力デバイスと通信する、少なくとも1つのプロセッサであって、画像データを画像捕捉デバイスから受信し、データを、画像捕捉デバイスと異なる、複数のセンサのうちの1つまたはそれを上回るものから受信し、少なくとも部分的に、画像捕捉デバイスから受信された画像データと、画像捕捉デバイスと異なる、複数のセンサのうちの1つまたはそれを上回るものから受信されたデータとに基づいて、ポータブル入力デバイスが、ユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられるかどうかを決定し、少なくとも部分的に、ポータブル入力デバイスが、ユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられると決定されるかどうかに基づいて、ディスプレイの動作を制御するように構成される、少なくとも1つのプロセッサとを備える、複数の電子ハードウェアコンポーネントとを備える、システムである。
実施例52は、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられるかどうかを決定し、ディスプレイの動作を制御するために、少なくとも1つのプロセッサは、少なくとも部分的に、画像捕捉デバイスから受信された画像データと、画像捕捉デバイスと異なる、複数のセンサのうちの1つまたはそれを上回るものから受信されたデータとに基づいて、ポータブル入力デバイスがユーザの手に対して画定された体積内に位置付けられるかどうかを決定し、少なくとも部分的に、ポータブル入力デバイスがユーザの手に対して画定された体積内に位置付けられると決定されたかどうかに基づいて、ディスプレイの動作を制御するように構成される、実施例50に記載のシステムである。
実施例53は、ユーザの手に対して画定された体積は、球状または楕円体形状である、実施例51に記載のシステムである。
実施例54は、少なくとも1つのプロセッサはさらに、少なくとも部分的に、画像捕捉デバイスから受信された画像データに基づいて、ユーザの手の位置および配向の一方または両方を決定し、少なくとも部分的に、画像捕捉デバイスと異なる、複数のセンサのうちの1つまたはそれを上回るものから受信されたデータに基づいて、ポータブル入力デバイスの位置および配向の一方または両方を決定するように構成され、少なくとも1つのプロセッサは、少なくとも部分的に、ユーザの手の位置、ユーザの手の配向、ポータブル入力デバイスの位置、ポータブル入力デバイスの配向、またはそれらの組み合わせに基づいて、ユーザの手に対する体積を画定するように構成される、実施例51に記載のシステムである。
実施例55は、少なくとも1つのプロセッサは、少なくとも部分的に、1つまたはそれを上回る要因に基づいて、体積の1つまたはそれを上回るパラメータを調節するように構成され、体積の1つまたはそれを上回るパラメータは、体積の位置、体積の配向、体積のサイズ、体積の形状、またはそれらの組み合わせを備え、1つまたはそれを上回る要因は、少なくとも1つのウェアラブルコンポーネントとポータブル入力デバイスとの間の距離、少なくとも1つのウェアラブルコンポーネントとユーザの手との間の距離、ポータブル入力デバイスまたはユーザの手が、少なくとも1つのウェアラブルコンポーネントのより近くに位置付けられると決定されるかどうか、複数のセンサのいくつかまたは全てから受信されたデータ、またはポータブル入力デバイスから受信されたデータのうちの少なくとも1つを含む、実施例53に記載のシステムである。
実施例56は、ユーザの手に対して画定された体積は、第1の体積を備え、少なくとも1つのプロセッサはさらに、少なくとも部分的に、画像捕捉デバイスから受信された画像データと、画像捕捉デバイスと異なる、複数のセンサのうちの1つまたはそれを上回るものから受信されたデータとに基づいて、ポータブル入力デバイスがユーザまたは少なくとも1つのウェアラブルコンポーネントに対して画定された第2の体積内に位置付けられるかどうかを決定するように構成され、少なくとも部分的に、ポータブル入力デバイスがユーザの手に対して画定された体積内に位置付けられていると決定されるかどうかに基づいて、ディスプレイの動作を制御するために、少なくとも1つのプロセッサは、少なくとも部分的に、(i)ポータブル入力デバイスがユーザの手に対して画定された第1の体積内に位置付けられていると決定されるかどうか、または(ii)ポータブル入力デバイスがユーザまたは少なくとも1つのウェアラブルコンポーネントに対して画定された第2の体積内に位置付けられていると決定されるかどうかに基づいて、ディスプレイの動作を制御するように構成される、実施例51に記載のシステムである。
実施例57は、第2の体積は、ユーザの手と異なる、ユーザの1つまたはそれを上回る部分に対して画定され、ユーザの1つまたはそれを上回る部分は、ユーザの胸部、肩、頭部、腕、眼、またはそれらの組み合わせのうちの1つまたはそれを上回る部分を備える、実施例55に記載のシステムである。
実施例58は、第2の体積は、ユーザの手の届く範囲内に位置付けられる、ユーザに対する3次元空間内の場所の範囲に対応する、実施例56に記載のシステムである。
実施例59は、少なくとも部分的に、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられていると決定されるかどうかに基づいて、ディスプレイの動作を制御するために、少なくとも1つのプロセッサは、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられることの決定に応答して、ポータブル入力デバイスを介したディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用は、有効にされ、ディスプレイによって提示されるコンテンツのうちの少なくともいくつかとの手ベースのユーザ相互作用が、限定または無効にされる、第1の動作モードに従って、ディスプレイの動作を制御し、ポータブル入力デバイスがユーザの手から離れた少なくとも1つの閾値距離未満に位置付けられていないことの決定に応答して、手ベースのディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用が、有効にされ、ポータブル入力デバイスを介したディスプレイによって提示されるコンテンツのうちの少なくともいくつかとのユーザ相互作用が、限定または無効にされる、第2の動作モードに従って、ディスプレイの動作を制御するように構成される、実施例50に記載のシステムである。
本開示のさらなる理解を提供するために含まれる、付随の図面は、本明細書に組み込まれ、その一部を成し、本開示の実施形態を図示し、詳細な説明とともに、本開示の原理を解説する役割を果たす。本開示の基本的な理解およびこれが実践され得る種々の方法に関して必要であり得るよりも詳細に、本開示の構造的詳細を示す試みは、行われない。
図1Aおよび1Bは、ウェアラブルシステムの種々のコンポーネントの姿勢の実施例を図示する。 図1Aおよび1Bは、ウェアラブルシステムの種々のコンポーネントの姿勢の実施例を図示する。
図2Aおよび2Bは、ハンドヘルドデバイスとユーザの手との間の姿勢相違を決定する実施例を図示する。
図3A-3Cは、決定された姿勢相違に基づいて、ハンドヘルドデバイスがユーザの手によって保持されているかどうかを決定する種々の実施例を図示する。
図4A-4Cは、決定された姿勢相違に基づいて、ハンドヘルドデバイスがユーザの手によって保持されているかどうかを決定する種々の実施例を図示する。
図5は、ウェアラブルAR/VR/MRシステムの種々の可能性として考えられるコンポーネントを図示する。
図6は、ウェアラブルAR/VR/MRシステムによって採用され得る、電磁追跡システムの実施例を図示する。
図7は、視覚的追跡システムおよび/または電磁追跡システムがウェアラブルAR/VR/MRシステムの中に組み込まれ得る方法の実施例を図示する。
図8A-8Eは、ウェアラブルデバイス、ハンドヘルドデバイス、および/またはユーザの手の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。 図8A-8Eは、ウェアラブルデバイス、ハンドヘルドデバイス、および/またはユーザの手の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。 図8A-8Eは、ウェアラブルデバイス、ハンドヘルドデバイス、および/またはユーザの手の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。 図8A-8Eは、ウェアラブルデバイス、ハンドヘルドデバイス、および/またはユーザの手の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。 図8A-8Eは、ウェアラブルデバイス、ハンドヘルドデバイス、および/またはユーザの手の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。
図9は、ユーザの手の捕捉された画像またはビデオに基づいて識別され得る、手特徴点のセットの実施例を図示する。
図10は、ハンドヘルドデバイスの決定された姿勢と、ハンドヘルドデバイスの既知の3Dモデルとに基づいて識別され得る、ハンドヘルドデバイス特徴点のセットの実施例を図示する。
図11は、識別され得る、手特徴点のセットおよびハンドヘルドデバイス特徴点のセットの実施例を図示する。
図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。 図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。 図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。 図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。 図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。 図12A-12Fは、ウェアラブルシステムのための手およびトーテム入力融合を実施するための方法を図示する。
図13は、コンピュータシステムを図示する。
具体的実施形態の詳細な説明
ウェアラブルシステムは、種々の入力を通してユーザによって相互作用され得る、データ要素を含み得る、双方向拡張現実(AR)、仮想現実(VR)、および/または複合現実(MR)環境を提示することができる。現代のコンピューティングシステムは、AR/VR/MR環境等のデータが豊富でかつ動的な相互作用環境において、単一直接入力に基づいて、典型的には、所与の出力を生成するように工学設計されるが(例えば、キーボードは、ユーザの指のストロークから受信されるようなテキスト入力を中継し、音声認識アプリケーションは、直接入力としてのユーザの音声に基づいて、実行可能データ文字列を作成することができ、コンピュータマウスは、ユーザの直接操作に応答して、カーソルを誘導することができる等)、高度な特異性が、特定のタスクを遂行するために望ましくあり得る。
そうでなければ、精密な入力の不在下、コンピューティングシステムは、高エラー率に悩まされ得、実施されるべき正しくないコンピュータ動作を生じさせ得る。例えば、ユーザが、タッチパッドを使用して、オブジェクトを3D空間内で移動させることを意図するとき、コンピューティングシステムは、ユーザが、タッチパッドを使用して、目的地を規定していない、またはオブジェクトを規定していない場合、移動コマンドを正しく解釈することが不可能である場合がある。別の実施例として、唯一の入力モードとして、仮想キーボードを使用して、テキストの文字列を入力すること(例えば、ユーザ入力デバイスを用いて、またはジェスチャによって、操作されるように)は、仮想キーボードがレンダリングされた、空中または物理的表面(例えば、机)上に記述されたキーをタイプするために、長期的微細な運動制御を要求するため、低速であって、物理的に疲労をもたらし得る。
多くのインスタンスでは、任意の時点で使用される、特定のセンサ入力は、ユーザが3D環境と相互作用するにつれて、動的に変化し得る。デバイスが、入力モードが、付加的情報を提供し、仮想オブジェクトの標的化を補助することを決定すると、入力モードが、動的に追加(または本明細書にさらに説明されるように、「融合」)され得、入力モードは、その入力モードがもはや関連情報を提供しない場合、動的に除去され得る。例えば、ウェアラブルシステムは、ユーザの頭部姿勢および眼視線が標的オブジェクトに指向されていることを決定し得る。デバイスは、これらの2つの入力モードを使用して、標的オブジェクトの選択を補助することができる。デバイスが、ユーザがまたトーテムを標的オブジェクトに向けていることを決定する場合、デバイスは、トーテム入力を頭部姿勢および眼視線入力に動的に追加することができ、これは、ユーザが標的オブジェクトを選択することを意図していることのさらなる確実性を提供し得る。これは、トーテム入力が、頭部姿勢入力および眼視線入力と「収束」すると言え得る。本実施例を継続すると、ユーザが、ユーザの眼視線がもはや標的オブジェクトに指向されないように、標的オブジェクトから眼を離す場合、デバイスは、眼視線入力の使用を中止する一方、トーテム入力および頭部姿勢入力を使用し続けてもよい。この場合、これは、眼視線入力が、トーテム入力および頭部姿勢入力から「発散」すると言え得る。
多くの技法が、いくつかの入力モード間で生じる収束および発散イベントを決定するために開発されているが、1つの難点は、トーテムが、ユーザの手の近くにあって、必ずしも、ユーザによって保持されていないとき、トーテム入力(例えば、ハンドヘルドデバイスの移動)とジェスチャ入力(例えば、ユーザの手の移動)との間の収束を検出することであり得る。例えば、ユーザは、トーテムをユーザの手の近くの表面上に置く、ユーザのシャツまたはズボン上のポケット内に入れ得る、またはトーテムを一方の手から別の手に持ち替え得る。多くの用途では、トーテムが実際にユーザの手の中にあるかどうかと、トーテムがどちらの手の中にあるか(またはトーテムが両手によって保持されているかどうか)とを把握することは、ユーザが相互作用する、仮想オブジェクトに影響を及ぼし得る。例えば、その中で複数のユーザが仮想ボールおよび仮想バットを用いてプレーしている、ゲームの間、ボールを打っているユーザは、仮想バットを表すトーテムを提供され得る。仮想バットがユーザの仮想手によって保持されているように現れるべきかどうかは、トーテムが実際にユーザの手の中にあるかどうかに依存するであろう。別の実施例として、トーテムがユーザの手の中にあるかどうかの決定は、トーテムおよびユーザの手に関する姿勢データがウェアラブルシステムによって使用される方法に影響を及ぼし得る。例えば、トーテムが、ユーザの手の中にある場合、手に関する姿勢データは、トーテムに関する姿勢データを増大させる(例えば、その正確度を増加させる)ために使用され得、その逆も同様である。
いくつかのインスタンスでは、トーテムがユーザの手の中にあるとき、ユーザの手に関する姿勢データを抑制し、代わりに、トーテムに関する姿勢データに実質的に依拠することが有利であり得る。例えば、トーテムに関する姿勢データを決定するために採用される電磁追跡システムは、ユーザの手に関する姿勢データを決定するために採用される視覚的追跡システムより正確な推定をもたらし得る。したがって、ユーザの手に関する姿勢データを使用して、トーテムに関する姿勢データを組み合わせる、または増大させる、任意の試みは、その正確度を減少させ得る。
正確な姿勢情報は、ウェアラブルシステムによって実施される多くのタスクのために重要である。例えば、頭部姿勢の検出が、仮想オブジェクトがユーザにとって意味を成す様式において実世界内の空間を占有しているように見えるように、ディスプレイシステムがそれらをレンダリングするように促進することができる。加えて、ユーザの頭部またはウェアラブルシステムに関連した、ハンドヘルドデバイス(また、本明細書では、トーテム、ポータブル入力デバイス、またはコントローラとも称され得る)、触覚デバイス、または他の実際の物理的オブジェクト等の実オブジェクトの姿勢の検出もまた、ユーザに表示情報を提示し、ユーザがAR/VR/MRシステムのある側面と効率的に相互作用することを可能にするステップにおいて、ディスプレイシステムを促進してもよい。少なくともAR用途に関して、物理的オブジェクトとの空間関係の中への仮想オブジェクトの設置(例えば、2または3次元において物理的オブジェクトに空間的に近接して出現するように提示される)は、些細ではない問題であり得る。
例えば、頭部の移動が、周囲環境のビューの中への仮想オブジェクトの設置を有意に複雑にし得る。それは、ビューが周囲環境の画像として捕捉され、次いで、エンドユーザに投影または表示されるかどうか、またはエンドユーザが周囲環境のビューを直接知覚するかどうかにかかわらず、当てはまる。例えば、頭部の移動が、エンドユーザの視野を変化させる可能性が高く、これは、種々の仮想オブジェクトがエンドユーザの視野内に表示される場所に対する更新を要求する可能性が高くなるであろう。
加えて、頭部の移動は、多種多様な範囲および速度内で生じ得る。頭部の移動速度は、異なる頭部移動の間でだけではなく、単一の頭部移動の範囲内で、またはそれを横断しても変動し得る。例えば、頭部の移動速度は、最初に始点から(例えば、線形または非線形に)増加し得、終点に到達するにつれて、減少し、頭部移動の始点と終点との間のどこかで最大速度を取得し得る。急速な頭部移動はさらに、エンドユーザに均一に、および/または平滑な運動として見える画像をレンダリングするための特定の表示または投影技術の能力を超過し得る。
正確な姿勢推定の目的のために、トーテムと手のジェスチャ入力を融合するための現在のアプローチは、満足の行く速度または精度規格において実施されていない。したがって、AR/VR/MRデバイスの状況では、より優れたシステム、方法、および他の技法の必要性が、存在する。以下の説明において、種々の実施形態が、説明されるであろう。解説の目的のために、具体的な構成および詳細が、実施形態の徹底的な理解を提供するために記載される。しかしながら、実施形態が、具体的な詳細を伴わずに実践され得ることもまた、当業者に明白になるであろう。さらに、周知の特徴が、説明されている実施形態を不明瞭にしないために省略または簡略化されてもよい。
本明細書で使用されるように、用語「姿勢」は、コンポーネントの位置および/または配向を指し得るが、別様に示されない限り、必ずしも、位置および配向の両方を含意するわけではない。例えば、本明細書で使用されるようなコンポーネントの「姿勢を決定する」とは、概して、コンポーネントの位置を決定すること、および/またはコンポーネントの配向を決定することを指し得る。別の実施例として、コンポーネントの「姿勢を決定する」とは、概して、コンポーネントの位置または配向のうちの少なくとも1つを決定することを指し得る。別の実施例として、コンポーネントの「位置を含む、姿勢を決定する」とは、概して、コンポーネントの位置、随意に、配向を決定することを指し得る。別の実施例として、コンポーネントの「配向を含む、姿勢を決定する」とは、概して、コンポーネントの配向、随意に、位置を決定することを指し得る。
図1Aおよび1Bは、ウェアラブルデバイス102、ハンドヘルドデバイス104、およびユーザの手106を含む、ウェアラブルシステムの種々のコンポーネントの姿勢の実施例を図示する。図1Aを参照すると、ウェアラブルデバイス102は、基準フレームに対して(XWP、YWP、ZWP)として画定される、位置(「ウェアラブル位置」)と、基準フレームに対して(XWO、YWO、ZWO)として画定される、配向(「ウェアラブル配向」)とを有してもよい。ウェアラブルデバイス102の位置は、可能性の中でもとりわけ、X、Y、およびZデカルト値、または経度、緯度、および高度値で表されてもよい。ウェアラブルデバイス102の配向は、可能性の中でもとりわけ、ピッチ角、ヨー角、およびロール角値で表されてもよい。
同様に、ハンドヘルドデバイス104は、基準フレームに対して(XDP、YDP、ZDP)として画定される、位置(「ハンドヘルド位置」)と、基準フレームに対して(XDO、YDO、ZDO)として画定される、配向(「ハンドヘルド配向」)とを有してもよい。ハンドヘルドデバイス104の位置は、可能性の中でもとりわけ、X、Y、およびZデカルト値、または経度、緯度、および高度値で表されてもよい。ハンドヘルドデバイス104の配向は、可能性の中でもとりわけ、ピッチ角、ヨー角、およびロール角度値で表されてもよい。同様に、手106は、基準フレームに対して(XHP、YHP、ZHP)として画定される、位置(「手位置」)と、基準フレームに対して(XHO、YHO、ZHO)として画定される、配向(「手配向」)とを有してもよい。手106の位置は、可能性の中でもとりわけ、X、Y、およびZデカルト値、または経度、緯度、および高度値で表されてもよい。手の配向106は、可能性の中でもとりわけ、ピッチ角、ヨー角、およびロール角値で表されてもよい。
いくつかの実施形態では、位置および配向毎の基準フレームは、世界基準フレームであってもよい。いくつかの実施形態では、ウェアラブルデバイス102の位置および配向は、ウェアラブルデバイス102の位置が、(0、0、0)として設定され得、ウェアラブルデバイス102の配向が、(0°、0°、0°)として設定され得るように、基準フレームとして使用されてもよい。故に、ハンドヘルドデバイス104および手106の位置および配向は、ウェアラブルデバイス102の位置および配向に対して決定されてもよい。
図1Bは、ハンドヘルドデバイス104をその手の中に保持し、ハンドヘルドデバイス104および手106の位置を相互に近付けさせている、ウェアラブルシステムのユーザの実施例を示す。したがって、本開示のいくつかの実施形態では、ハンドヘルドデバイス104および手106の位置間の類似性(例えば、近接度)は、ハンドヘルドデバイス104がユーザの手の中にあることを示し得る。さらに、ユーザの手が、概して、ハンドヘルドデバイス104と係合されると、特定の方向に配向されるため、ハンドヘルドデバイス104および手106の配向間の類似性もまた、ハンドヘルドデバイス104がユーザの手の中にあることを示し得る。
ハンドヘルドデバイス104および手106の位置および配向類似性(または同一論理に従って、位置および配向不同性または相違)およびウェアラブルデバイス102に対するその関係の組み合わせは、ウェアラブルシステムに、ユーザがハンドヘルドデバイス104を保持しているかどうかを知らせることができ、これは、入力モード選択およびハンドリングに関する決定に影響を及ぼし得る。
図2Aおよび2Bは、ハンドヘルドデバイス104と手106との間の姿勢相違を決定する実施例を図示する。姿勢相違は、図2Aを参照して示される、位置相違202と、図2Bを参照して示される、配向相違204の組み合わせとして計算されてもよい。いくつかの実施形態では、位置相違202は、ハンドヘルドデバイス104および手106の位置間の距離として計算され、故に、フィートまたはメートル等の任意の長さの単位で表されてもよい。いくつかの実施形態では、配向相違204は、ハンドヘルドデバイス104および手106の配向間の角度として計算され、故に、ラジアンまたは度等の角度を測定するための任意の単位で表されてもよい。
図3A-3Cは、決定された姿勢相違に基づいて、ハンドヘルドデバイス104が手106によって保持されているかどうかを決定する種々の実施例を図示する。いくつかの実施形態では、距離閾値302は、その中でハンドヘルドデバイス104が手106によって保持されているであろうことが予期される、ハンドヘルドデバイス104および手106の位置間の最大距離として使用されてもよい。距離閾値302は、体積(例えば、球体、楕円体、または同等物)の外面に沿った1つまたはそれを上回る場所と、ハンドヘルドデバイス104の位置または手106の位置と一致し得る、体積内の場所との間の距離に対応し得る。例えば、距離閾値302は、位置のいずれかに中心合わせされ得る、球体に関する半径として使用されてもよい。図3Aを参照すると、距離閾値302に等しい半径を有する、球体が、ハンドヘルドデバイス104の位置に中心合わせされる。手106の位置が、球体の外側にあるため、ハンドヘルドデバイス104が手106によって保持されていないことが決定される。
図3Bを参照すると、距離閾値302に等しい半径を有する、球体が、手106の位置に中心合わせされる。ハンドヘルドデバイス104の位置が、球体の外側にあるため、ハンドヘルドデバイス104が手106によって保持されていないことが決定される。図3Cを参照すると、球体は、ハンドヘルドデバイス104の位置に中心合わせされ、ここでは、手106の位置は、球体の内側にあり、故に、ハンドヘルドデバイス104が手106によって保持されていると決定される。
図4A-4Cは、決定された姿勢相違に基づいて、ハンドヘルドデバイス104が手106によって保持されているかどうかを決定する種々の実施例を図示する。図4Aを参照すると、ウェアラブルデバイス102、ハンドヘルドデバイス104、および手106のそれぞれの姿勢が、決定されてもよく、距離閾値302に等しい半径を有する、球体が、手106の位置に中心合わせされる。ハンドヘルドデバイス104の位置は、図4Aでは、球体内にあるが、球体は、図4Bでは、ウェアラブルデバイス102および手106の位置間の関係に基づいて、楕円体に変形されている。図示される実施例では、楕円体は、ウェアラブルデバイス102の位置から離れるよりも、ウェアラブルデバイス102の位置に向かってさらに延在し、ユーザによって保持されていないとき、ハンドヘルドデバイス104がユーザからより遠くにある(例えば、テーブルまたは机上にある)傾向を考慮する。ハンドヘルドデバイス104の位置が、楕円体と比較されるとき、位置が楕円体の外側にあって、したがって、ハンドヘルドデバイス104が手106によって保持されていないことが決定され得る。
いくつかの実施形態では、第1の体積(例えば、球体、楕円体、または同等物)が、手106に対して画定されてもよく(例えば、手106の位置に位置合わせされ)、第2の体積が、ウェアラブルデバイス102(例えば、ウェアラブルデバイス102の位置に位置合わせされる)またはユーザの手106以外の1つまたはそれを上回る部分(例えば、ユーザの胸部または肩の推定される位置に位置合わせされる)に対して画定されてもよい。これらの実施形態のうちのいくつかでは、ハンドヘルドデバイス104の位置が、第1の体積および第2の体積の両方内にあると決定される(例えば、3次元空間内の第1の体積と第2の体積との間の重複の領域内にあると決定される)と、ハンドヘルドデバイス104が手106によって保持されていることが決定され得る。しかしながら、これらの実施形態のうちの少なくともいくつかでは、ハンドヘルドデバイス104の位置が、第1の体積および第2の体積の一方または両方の外側にあると決定される(例えば、3次元空間内の第1の体積と第2の体積との間の重複の領域の外側にあると決定される)と、ハンドヘルドデバイス104が手106によって保持されていないことが決定され得る。そのような実施形態では、第1の体積と第2の体積との間の重複の立体領域の位置、配向、サイズ、および/または形状は、図4Bを参照して上記に説明される楕円体体積のものに類似するように挙動し得る。
いくつかの実施例では、第2の体積は、ユーザの手が届く範囲内にある、3次元空間内の場所の範囲に対応し得る。すなわち、いくつかの実施例では、第2の体積の1つまたはそれを上回る外面は、少なくとも部分的に、ユーザの腕の一方または両方の推定または仮定される長さ、径間、または最大到達距離に基づいて、画定されてもよい。これらの実施例では、1つまたはそれを上回るそのような推定または仮定されるパラメータは、少なくとも部分的に、ウェアラブルデバイス102の1つまたはそれを上回るセンサ(例えば、1つまたはそれを上回る外向きに向いたカメラ、1つまたはそれを上回る電磁(EM)センサ、1つまたはそれを上回る深度カメラまたはセンサ等)によって入手された画像データ、ハンドヘルドデバイス104を通して、および/またはウェアラブルデバイス102の1つまたはそれを上回るユーザインターフェースコンポーネントを通して提供される、ユーザ入力(例えば、1つまたはそれを上回るパラメータに関する値を規定するユーザ入力)を示す、データ、ハンドヘルドデバイス104の1つまたはそれを上回るセンサ(例えば、1つまたはそれを上回るカメラ、1つまたはそれを上回る慣性測定ユニット(IMU)、または同等物)によって入手または出力される、データ、1つまたはそれを上回る通信ネットワークを経由して受信されたデータ、および同等物に基づいて、決定されてもよい。
いくつかの実装では、第1の体積は、手106に対して画定されなくてもよく、代わりに、ハンドヘルドデバイス104に対して画定される(例えば、ハンドヘルドデバイス104の位置に位置合わせされる)。そのような実装では、ハンドヘルドデバイス104は、手106の位置が、第1の体積および第2の体積の両方内にあると決定される(例えば、3次元空間内の第1の体積と第2の体積との間の重複の領域内にあると決定される)と、手106によって保持されていることが決定され得、手106の位置が、第1の体積および第2の体積の一方または両方の外側にあると決定される(例えば、3次元空間内の第1の体積と第2の体積との間の重複の領域の外側にあると決定される)と、ハンドヘルドデバイス104が手106によって保持されていないことが決定され得る。いくつかの実施形態では、ハンドヘルドデバイス104または手106の位置は、3次元空間内の2つまたはそれを上回る(例えば、3つ、4つ、5つ等)異なる体積間の重複の領域と比較されてもよい。他の構成も、可能性として考えられる。
図4Cを参照すると、いくつかの実施形態では、ウェアラブルデバイス102の位置とハンドヘルドデバイス104および手106の位置との間の距離が、決定され、ハンドヘルドデバイス104が手106によって保持されているかどうかの決定を補助するために使用されてもよい。例えば、いくつかの実施形態では、2つの距離は、相互に比較され、ハンドヘルドデバイス104または手106がウェアラブルデバイス102からより離れているかどうかを決定してもよい。いくつかのインスタンスでは、ハンドヘルドデバイス104がさらに、手106よりウェアラブルデバイス102から離れている(すなわち、ウェアラブルデバイス102および手106の位置間の距離が、ウェアラブルデバイス102およびハンドヘルドデバイス104の位置間の距離未満である)場合のみ、ハンドヘルドデバイス104が手106によって保持されていないことが決定され得る。いくつかの実施形態では、第2の距離閾値が、ハンドヘルドデバイス104がさらに、少なくとも第2の距離閾値、手106よりウェアラブルデバイス102から離れている(すなわち、ウェアラブルデバイス102および手106の位置間の距離が、少なくとも第2の距離閾値、ウェアラブルデバイス102およびハンドヘルドデバイス104の位置間の距離未満である)かどうかを決定するために使用されてもよい。
図5は、ウェアラブルAR/VR/MRシステム500の種々の可能性として考えられるコンポーネントを図示する。図示される実施形態では、ユーザの眼の正面に位置付けられるディスプレイシステム562に結合されるフレーム564構造を特徴とする、頭部搭載型コンポーネント558を装着する、ウェアラブルシステムユーザ560が、描写される。スピーカ566が、描写される構成内のフレーム564に結合され、ユーザの外耳道に隣接して位置付けられる(一実施形態では、示されていない、別のスピーカが、ユーザの他の外耳道に隣接して位置付けられ、ステレオ/調節可能な音制御を提供する)。ディスプレイシステム562は、有線導線または無線コネクティビティ等によって、ローカル処理およびデータモジュール570に(568によって示されるように)動作可能に結合され、これは、フレーム564に固定して取り付けられる、ヘルメットまたは帽子に固定して取り付けられる、ユーザ560の胴体にリュック式構成において除去可能に取り付けられる、またはベルト結合式構成においてユーザ560の腰部に除去可能に取り付けられる等、種々の構成において搭載されてもよい。
ローカル処理およびデータモジュール570は、電力効率の高いプロセッサまたはコントローラ、およびフラッシュメモリ等のデジタルメモリを含んでもよく、その両方とも、(1)(カメラ等)画像捕捉デバイス、マイクロホン、慣性測定ユニット、加速度計、コンパス、GPSユニット、無線デバイス、および/またはジャイロスコープ等、フレーム564に動作可能に結合され得る、センサから捕捉されるデータ、および/または(2)可能性として、遠隔処理モジュール572および/または遠隔データリポジトリ574を使用して、処理または読出の後のディスプレイシステム562への通過のために入手および/または処理される、データの処理、キャッシュ化、および記憶を補助するために利用され得る。
ローカル処理およびデータモジュール570は、これらの遠隔モジュール572、574が、相互に動作可能に結合され、ローカル処理およびデータモジュール570へのリソースとして利用可能であるように、1つまたはそれを上回る有線または無線通信リンク等を介して、(576、578によって示されるように)遠隔処理モジュール572および遠隔データリポジトリ574に動作可能に結合されてもよい。一実施形態では、遠隔処理モジュール572は、データおよび/または画像情報を分析および処理するように構成される、1つまたはそれを上回る比較的に強力なプロセッサまたはコントローラを含んでもよい。一実施形態では、遠隔データリポジトリ574が、比較的に大容量のデジタルデータ記憶設備を含んでもよく、これは、インターネットまたは「クラウド」リソース構成における他のネットワーキング構成を通して利用可能であってもよい。一実施形態では、全てのデータが、ローカル処理およびデータモジュールの中に記憶され、全ての算出が、そこで実施され、任意の遠隔モジュールからの完全に自律的な使用を可能にする。
図6は、ウェアラブルシステム500によって採用され得る、電磁追跡システム600の実施例を図示する。電磁追跡システム600は、Biosense(RTM) division of Johnson & Johnson Corporation, Polhemus(RTM), Inc.(Colchester, Vermont)等の組織によって開発され、Sixense(RTM) Entertainment, Inc.(Los Gatos, California)および他の追随会社等によって製造されたものに類似し得る。1つまたはそれを上回る実施形態では、電磁追跡システム600は、既知の磁場を放出するように構成される、電磁場エミッタ602を含む。図6に示されるように、電磁場エミッタ602は、電力供給源610(例えば、電流、バッテリ等)に結合され、電磁場エミッタ602に電力を提供してもよい。
1つまたはそれを上回る実施形態では、電磁場エミッタ602は、磁場を発生させる、いくつかのコイル(例えば、相互に対して垂直に位置付けられ、X、Y、およびZ方向に場を生産する、少なくとも3つのコイル)を含む。これらの磁場は、本システムが既知の磁場に関連したセンサの位置をマッピングし、センサの位置および/または配向を決定することに役立つことを可能にする、座標空間を確立するために使用される。1つまたはそれを上回る実施形態では、電磁センサ604A、604B等が、1つまたはそれを上回る実オブジェクトに取り付けられてもよい。電磁センサ604は、電流が放出される電磁場を通して誘発され得る、より小さいコイルを含んでもよい。
概して、電磁場センサ604のコンポーネントは、電磁場エミッタ602によって放出される磁場から入射する磁束を捕捉するように位置付けられる/配向される、立方体または他の容器等の小型の構造内にともに結合される、3つの異なるように配向される(すなわち、相互に対して直交して配向される等)コイルのセット等の、小型のコイルまたはループを含んでもよく、これらのコイルを通して誘発される電流を比較し、相互に対するコイルの相対的な位置付けおよび配向を把握することによって、エミッタに対するセンサの相対位置および配向が、計算されてもよい。
図7を参照してさらに説明されるであろうように、IMU等の1つまたはそれを上回る移動センサが、電磁場エミッタ602および電磁場センサ604のそれぞれに動作可能に結合され、相互に対する、および/または座標系に対する各コンポーネントの位置および配向を検出してもよい。1つまたはそれを上回る実施形態では、(可能性として、IMUを含む)複数のセンサが、電磁場エミッタ602および電磁場センサ604に関連して使用され、各コンポーネントの位置および配向を検出してもよい。いくつかのインスタンスでは、電磁追跡システムは、3つの方向(すなわち、X、Y、および、Z方向)における、さらに、2つまたは3つの配向角における位置を提供してもよい。いくつかの実施形態では、IMUの測定値が、コイルの測定値と比較され、センサの位置および配向を決定してもよい。1つまたはそれを上回る実施形態では、カメラ、深度センサ、および他のセンサ等のデータの種々の他の源に加えて、EMデータおよび移動データが両方とも、組み合わせられ、位置および配向を決定してもよい。本情報が、(例えば、無線通信、Bluetooth(登録商標)等を通して)処理ユニット606に伝送されてもよい。いくつかの実施形態では、姿勢が、従来のシステムにおいて、比較的高いリフレッシュレートにおいて報告されてもよい。
従来、電磁エミッタが、テーブル、手術台、壁、または天井等の比較的に安定し、大きいオブジェクトに結合され、1つまたはそれを上回るセンサが、医療用デバイス、ハンドヘルドゲーム用コンポーネント、または同等物等のより小さいオブジェクトに結合される。代替として、電磁追跡システムの種々の特徴が、より安定している大域的座標系に対して空間内で移動する2つのオブジェクトの間の位置および/または配向の変化または差分が、追跡され得る、構成を生産するために採用されてもよい。例えば、電磁追跡システムの変形例が、頭部搭載型コンポーネントとハンドヘルドコンポーネントとの間の位置および配向の差分を追跡するために利用され得る一方、大域的座標系(例えば、ユーザにローカルな部屋環境)に対する頭部姿勢が、本システムの頭部搭載型コンポーネントに結合され得る、外向き捕捉カメラを使用した、同時位置特定およびマッピング(SLAM)技法等によって、別様に決定される、構成が、図7に示される。
処理ユニット606は、電磁場エミッタ602を制御してもよく、また、種々の電磁場センサ604からデータを捕捉してもよい。本システムの種々のコンポーネントが、任意の電気機械または無線手段を通して、相互に結合され得ることを理解されたい。処理ユニット606はまた、既知の磁場、およびその磁場に関連する座標空間に関するデータを含んでもよい。本情報は、次いで、既知の電磁場に対応する座標空間に関連する、センサの位置および配向を検出するために使用される。
電磁追跡システムの1つの利点は、それらが最小限の待ち時間と、高分解能とを伴う、非常に正確な追跡結果を生産することである。加えて、電磁追跡システムは、必ずしも光学追跡器に依拠するわけではなく、ユーザの視線内に存在しないセンサ/オブジェクトが、容易に追跡され得る。電磁場の強度が、コイル伝送機(例えば、電磁場エミッタ602)からの距離の三次関数として降下することを理解されたい。したがって、処理ユニット606が、測定された強度に基づいて距離を予測するアルゴリズム等のある関数を実行し、電磁場エミッタ602から離れた可変距離におけるセンサ/オブジェクトの位置および配向を決定するように構成されてもよい。
電磁エミッタからより遠くに離れるように移動するにつれた電磁場の強度の急速な低下を前提として、正確度、効率、および短い待ち時間の観点からの最良な結果が、より近接した距離において達成され得る。典型的な電磁追跡システムにおいて、電磁場エミッタは、電流(例えば、プラグ差込型の電力供給源)によって給電され、電磁場エミッタから離れた20フィートの半径内に位置する、センサを有する。センサと場エミッタとの間のより短い半径が、AR用途を含む多くの用途においてより望ましくあり得る。
図7は、視覚的追跡システムおよび/または電磁追跡システムが、ウェアラブルデバイス702(例えば、ヘッドセット)と、ハンドヘルドデバイス704(例えば、コントローラ)とを有する、ウェアラブルAR/VR/MRシステムの中に組み込まれて得る方法の実施例を図示する。いくつかの実施形態では、ハンドヘルドデバイス704は、ユーザが入力をウェアラブルシステムに提供することを可能にする、ハンドヘルドコントローラであってもよい。例えば、ハンドヘルドデバイス704は、ゲーム用シナリオ内で使用されるためのトーテムであってもよい。ハンドヘルドデバイス704は、触知デバイスであってもよく、種々のセンサタイプを利用する、1つまたはそれを上回る触知表面を含んでもよい。ウェアラブルシステムの動作の間、ユーザは、ハンドヘルドデバイス704を能動的に把持することによって、および/または取付機構をユーザの手に固着させる(例えば、ストラップをその周囲に巻き付ける)ことによって、ハンドヘルドデバイス704をその左または右手の中に保持してもよい。
ハンドヘルドデバイス704は、基点が、ハンドヘルドデバイス704の外部の結像デバイスの視野内にあり得るように、ハンドヘルドデバイス704の1つまたはそれを上回る外部表面に沿って位置付けられる、1つまたはそれを上回る基点(本明細書では、ハンドヘルド基点722と称される)を含んでもよい。ハンドヘルド基点722は、ハンドヘルド基点722のうちの1つまたはそれを上回るものの画像を捕捉することによって、結像デバイスが、ハンドヘルドデバイス704に対するその位置および/または配向を決定し得るように、相互に対して既知の関係を有してもよい。ハンドヘルド基点722は、動的、静的、電気給電式、非給電式であってもよく、いくつかの実施形態では、相互から区別可能であってもよい。例えば、第1の基点は、第1の波長を有する、発光ダイオード(LED)であってもよく、第2の基点は、第2の波長を有する、LEDであってもよい。代替として、または加えて、異なる基点は、異なる明度を有してもよく、および/または異なる周波数でパルス化してもよい(例えば、第1の基点は、100Hzでパルス化してもよく、第2の基点は、150Hzでパルス化してもよい)。
ハンドヘルドデバイス704は、ハンドヘルドデバイス704がユーザによって保持されているとき、ウェアラブルデバイス702および/またはハンドヘルドデバイス704の周囲におけるいくつかの特徴が、結像デバイスの視野内にあるように位置付けられる、1つまたはそれを上回る結像デバイス(本明細書では、ハンドヘルド結像デバイス726と称される)を含んでもよい。例えば、正面ハンドヘルド結像デバイス726Aは、その視野が、ユーザから離れるように、ハンドヘルドデバイス704の周囲における1つまたはそれを上回る特徴に向かって配向されるように位置付けられてもよく、背面ハンドヘルド結像デバイス726Bは、その視野がウェアラブルデバイス702に向かって配向されるように位置付けられてもよい。ハンドヘルド結像デバイス726は、1つまたはそれを上回る正面に向いた結像デバイスおよび/または1つまたはそれを上回る背面に向いた結像デバイスを含み、所望の累積視野を作成してもよい。いくつかの実施形態では、ハンドヘルド結像デバイス726は、カメラ等の光学デバイスであってもよく、静止または動画を捕捉してもよい。
ハンドヘルドデバイス704は、ハンドヘルドデバイス704の回転および線形移動が同様にハンドヘルドIMU724によって被られるように、ハンドヘルドデバイス704内にしっかりと固着される、IMU(本明細書では、ハンドヘルドIMU724と称される)を含んでもよい。いくつかのインスタンスでは、ハンドヘルドIMU724は、1つまたはそれを上回る加速度計(例えば、3つ)、1つまたはそれを上回るジャイロスコープ(例えば、3つ)、1つまたはそれを上回る磁力計(例えば、3つ)、および/または未加工測定値を処理されたデータに変換するためのデジタル信号処理ハードウェアおよびソフトウェアを含んでもよい。例えば、ハンドヘルドIMU724は、3つの軸毎に、加速度計、ジャイロスコープ、および磁力計を含んでもよい。軸毎に、ハンドヘルドIMU724は、線形位置、線形速度、線形加速、回転位置、回転速度、および/または回転加速のうちの1つまたはそれを上回るものを出力してもよい。代替として、または加えて、ハンドヘルドIMU724は、未加工データを出力してもよく、そこから上記に述べられた形態の処理されたデータのいずれかが、計算されてもよい。
ハンドヘルドデバイス704は、ハンドヘルド基点722、ハンドヘルド結像デバイス726、ハンドヘルドIMU724、電磁場エミッタ732、およびハンドヘルドデバイス704の任意の他のコンポーネントに給電する、再充電可能および/または交換可能バッテリ728または他の電力供給源を備えてもよい。図7に図示されないが、ハンドヘルドデバイス704は、ウェアラブルデバイス702および/またはベルトパック740との無線通信を有効にするための回路網を含んでもよい。例えば、ハンドヘルド結像デバイス726およびハンドヘルドIMU724を使用して、データの検出または捕捉に応じて、ハンドヘルドデバイス704は、未加工または処理されたデータをウェアラブルデバイス702および/またはベルトパック740に伝送してもよい。
ウェアラブルデバイス702は、基点が背面ハンドヘルド結像デバイス726Bの視野内にあり得るように、ウェアラブルデバイス702の1つまたはそれを上回る外部表面に沿って位置付けられる、1つまたはそれを上回る基点(本明細書では、ウェアラブル基点706と称される)を含んでもよい。ウェアラブル基点706は、ウェアラブル基点706のうちの1つまたはそれを上回るものの画像を捕捉することによって、結像デバイスが、ウェアラブルデバイス702に対するその位置および/または配向を決定し得るように、相互に対して既知の関係を有してもよい。ウェアラブル基点706は、動的、静的、電気給電式、非給電式であってもよく、いくつかの実施形態では、相互から区別可能であってもよい。例えば、第1の基点は、第1の波長を有する、LEDであってもよく、第2の基点は、第2の波長を有する、LEDであってもよい。代替として、または加えて、異なる基点は、異なる明度を有してもよく、および/または異なる周波数でパルス化してもよい。
ウェアラブルデバイス702は、ハンドヘルドデバイス704がユーザによって保持されているとき、ハンドヘルドデバイス704(具体的には、ハンドヘルド基点722)が結像デバイスの視野内にあるように位置付けられる、1つまたはそれを上回る結像デバイス(本明細書では、ウェアラブル結像デバイス710と称される)を含んでもよい。例えば、1つまたはそれを上回るウェアラブル結像デバイス710は、ウェアラブルデバイス702の光学シースルーコンポーネントの上方、下方、および/または側方において、ウェアラブルデバイス702上で正面に向いて位置付けられてもよい。一実施形態では、2つのウェアラブル結像デバイス710が、ウェアラブルデバイス702の光学シースルーコンポーネントの対向側上に位置付けられてもよい。いくつかの実施形態では、ウェアラブル結像デバイス710は、カメラ等の光学デバイスであってもよく、静止または動画を捕捉してもよい。
ウェアラブルデバイス702は、ウェアラブルデバイス702の回転および線形移動が同様にウェアラブルIMU708によって被られるように、ウェアラブルデバイス702内にしっかりと固着される、IMU(本明細書では、ウェアラブルIMU708と称される)を含んでもよい。いくつかのインスタンスでは、ウェアラブルIMU708は、1つまたはそれを上回る加速度計(例えば、3つ)、1つまたはそれを上回るジャイロスコープ(例えば、3つ)、1つまたはそれを上回る磁力計(例えば、3つ)、および/または未加工測定値を処理されたデータに変換するためのデジタル信号処理ハードウェアおよびソフトウェアを含んでもよい。例えば、ウェアラブルIMU708は、3つの軸毎に、加速度計、ジャイロスコープ、および磁力計を含んでもよい。軸毎に、ウェアラブルIMU708は、線形位置、線形速度、線形加速、回転位置、回転速度、および/または回転加速のうちの1つまたはそれを上回るものを出力してもよい。代替として、または加えて、ウェアラブルIMU708は、未加工データを出力してもよく、そこから上記に述べられた形態の処理されたデータのいずれかが、計算されてもよい。
いくつかの実施形態では、ウェアラブルシステムは、ベルトパック740を含んでもよく、これは、ウェアラブルデバイス702に対するハンドヘルドデバイス704の位置特定を実施するためのコンピューティング装置(例えば、1つまたはそれを上回るプロセッサおよび関連付けられるメモリ)を含んでもよい。代替として、または加えて、コンピューティング装置は、ウェアラブルデバイス702自体またはさらにハンドヘルドデバイス704内に常駐してもよい。コンピューティング装置は、未加工または処理されたデータをウェアラブルIMU708、ウェアラブル結像デバイス710、ハンドヘルドIMU724、およびハンドヘルド結像デバイス726のそれぞれから受信してもよく(有線および/または無線接続を介して)、ハンドヘルドデバイス704の地理的空間位置(ウェアラブルデバイス702の地理的空間位置に対する)と、ハンドヘルドデバイス704の配向(ウェアラブルデバイス702の配向に対する)とを算出してもよい。コンピューティング装置は、ひいては、マッピングデータベース742(例えば、パス可能世界モデル、座標空間等)を備え、姿勢を検出し、実オブジェクトおよび仮想オブジェクトの座標を決定してもよく、さらに、1つまたはそれを上回る実施形態では、クラウドリソースおよびパス可能世界モデルに接続してもよい。いくつかの実施形態では、ウェアラブル結像デバイス710および/またはハンドヘルド結像デバイス726を使用して捕捉される、画像が、パス可能世界モデルを構築するために使用されてもよい。例えば、特徴が、捕捉された画像内で検出されてもよく、収集されたデータ(例えば、疎点)が、それ以外において、パス可能世界モデルまたは環境マップを構築するために使用されてもよい。
ウェアラブルシステムは、ハンドヘルドデバイス704の一部として組み込まれる、電磁場エミッタ732を含んでもよい。いくつかの実施形態では、電磁場エミッタ732は、ベルトパック470またはウェアラブルデバイス702の一部として組み込まれてもよい。いくつかの実施形態では、IMUまたは他の移動センサからのデータは、電磁場エミッタ732の位置および/または配向を決定することを補助し得る。これは、電磁場エミッタ732および電磁場センサ734の両方がモバイル式である場合、有益であり得る。電磁場エミッタ732を、ベルトパックではなく、ハンドヘルドコントローラ内に設置することは、図7の実施例に示されるように、電磁場エミッタが、ベルトパックにおいて、リソースに関して競合せず、しかし、代わりに、ハンドヘルドデバイス704において、バッテリ728を使用することを確実にすることができる。
いくつかの実施形態では、電磁センサ734は、ウェアラブルデバイス702上の1つまたはそれを上回る場所および/またはベルトパック740上の1つまたはそれを上回る場所に設置される等、ウェアラブルデバイス702に対して位置付けられてもよい。電磁センサ734は、小型であるように工学設計され得るため(故に、ある場合には、あまり敏感ではない場合がある)、複数のセンサを有することは、効率および精度を改良し得る。
多くのインスタンスでは、従来の電磁エミッタは、ウェアラブルデバイスに関して嵩張りすぎ得る。したがって、電磁場エミッタは、従来的なシステムと比較してより小さいコイルを使用して、小型になるように工学設計されてもよい。しかしながら、電磁場の強度が、場エミッタから離れる距離の三次関数として減少することを前提として、電磁場センサ734と電磁場エミッタ732との間のより短い半径(例えば、約3~3.5フィート)が、従来のシステムと比較して電力消費量を低減させ得る。本側面は、ハンドヘルドコントローラ704および電磁場エミッタ732に給電し得る、バッテリ728の寿命を延長させるためにも利用されてもよい。いくつかの実施形態では、本側面は、電磁場エミッタ732において磁場を発生させるコイルのサイズを縮小させるために利用されてもよい。しかしながら、磁場の同一の強度を得るために、電力が、増加される必要があり得る。これは、ハンドヘルドデバイス704においてコンパクトにフィットし得る、小型の電磁場エミッタ732を可能にする。
ARデバイスのために電磁追跡システムを使用するときに、いくつかの他の変更が、行われ得、これは、他の用途より効率的な姿勢報告率から利益を享受し得る。例えば、移動ベースまたはIMUベースの姿勢追跡が、採用されてもよい。多くの場合では、IMUの向上された安定性が、姿勢検出プロセスの効率の向上につながり得る。IMUは、それらが最高50~100ミリ秒安定したままであるように工学設計されてもよい。いくつかの実施形態が、姿勢の更新が10~20Hzのレートにおいて報告されることを可能にし得る、外部姿勢推定器モジュールを利用し得る(例えば、IMUが、経時的にドリフトし得る)ことを理解されたい。合理的なレートにおいてIMUを安定した状態に保つことによって、姿勢更新のレートが、(従来のシステムにおけるより高い周波数と比較して)10~20Hzに減少され得る。
電磁追跡システムが、10%のデューティサイクルにおいて起動され得る(例えば、100ミリ秒毎のグランドトゥルースに関してのみpingする)場合、これは、ウェアラブルシステムにおいて電力を節約するための付加的な方法であろう。これは、電磁追跡システムが、100ミリ秒毎に10ミリ秒毎ウェイクアップし、姿勢推定値を発生させることを意味するであろう。これは、電力の消費節約に直接つながり、これは、ひいては、ウェアラブルシステムのサイズ、バッテリ寿命、およびコストに影響を及ぼし得る。1つまたはそれを上回る実施形態では、デューティサイクルの本低減は、1つのみではなく、2つのハンドヘルドデバイス(図示せず)を提供することによって、方略的に利用され得る。例えば、ユーザは、2つのトーテム等を要求するゲームを行ってもよい。または、マルチユーザゲームでは、2人のユーザが、ゲームを行うための自分自身のトーテム/ハンドヘルドコントローラを有してもよい。1つではなく2つのコントローラ(例えば、手毎に対称的なコントローラ)が、使用されるとき、コントローラは、オフセットデューティサイクルにおいて動作してもよい。同一の概念はまた、例えば、マルチプレーヤゲームを行う2人の異なるユーザによって利用される、コントローラにも適用され得る。
図8A-8Dは、ウェアラブルデバイス802、ハンドヘルドデバイス804、および/または手830の姿勢を追跡するためのウェアラブルAR/VR/MRシステムの種々の例示的構成を図示する。図8Aは、ウェアラブルシステム800Aの例示的構成を図示し、その中では、ウェアラブルデバイス802は、少なくとも部分的に、かつ少なくとも一時的に、ハンドヘルド基点822を含む、視野を有する、1つまたはそれを上回るウェアラブル結像デバイス810を含み、ハンドヘルドデバイス804は、1つまたはそれを上回るハンドヘルド基点822を含む。ウェアラブルシステム800は、ハンドヘルドIMU824等のハンドヘルドデバイス804に搭載される、付加的センサを含んでもよい。そのような構成の1つの利点は、ハンドヘルドデバイス804の単純性および低電力消費であり得る。ウェアラブルシステム800は、ウェアラブルIMU808等のウェアラブルデバイス802に搭載される、付加的センサを含んでもよい。
図8Bは、ウェアラブルシステム800Bの例示的構成を図示し、その中では、ウェアラブルデバイス802は、1つまたはそれを上回るウェアラブル基点806を含み、ハンドヘルドデバイス804は、少なくとも部分的に、かつ少なくとも一時的に、ウェアラブル基点806を含む、視野を有する、1つまたはそれを上回る背面に面したハンドヘルド結像デバイス826を含む。ウェアラブルシステム800Bは、ハンドヘルドIMU824等のハンドヘルドデバイス804に搭載される、付加的センサを含んでもよい。そのような構成の1つの利点は、ハンドヘルドデバイス804が、ウェアラブルデバイス802に対してそれ自体の位置特定を実施するために必要とされる、全てのデータを有し、それによって、ウェアラブルデバイス802上の処理負荷を低減させることであり得る。ウェアラブルシステム800Bは、ウェアラブルIMU808等のウェアラブルデバイス802に搭載される、付加的センサを含んでもよい。
図8Cは、ウェアラブルシステム800Cの例示的構成を図示し、その中でハンドヘルドデバイス826は、ハンドヘルドデバイス804がユーザによって保持されている間、少なくとも部分的に、かつ少なくとも一時的に、1つまたはそれを上回る周囲特徴844を含む、視野を有する、正面ハンドヘルド結像デバイス826Aと少なくとも部分的に、かつ少なくとも一時的に、1つまたはそれを上回るウェアラブル基点806を含む、視野を有する、背面ハンドヘルド結像デバイス826Bとを含む。例示的構成では、複数のウェアラブル基点822が、ウェアラブルデバイス802に添着される。ウェアラブルシステム800Cは、ハンドヘルドIMU824等のハンドヘルドデバイス804に搭載される、付加的センサを含んでもよい。そのような構成の1つの利点は、複数の結像デバイスによって提供される、増加された正確度であり得る。ウェアラブルシステム800Cは、ウェアラブルIMU808等のウェアラブルデバイス802に搭載される、付加的センサを含んでもよい。
図8Dは、ウェアラブルシステム800Dの例示的構成を図示し、その中では、ウェアラブルデバイス802は、電磁センサ834を含み、ハンドヘルドデバイス826は、電磁場エミッタ832を含み、ウェアラブルデバイスおよび/またはハンドヘルドデバイス804の姿勢の決定を可能にする。図8Eは、ウェアラブルシステム800Eの例示的構成を図示し、その中では、ウェアラブルデバイス802は、少なくとも部分的に、かつ少なくとも一時的に、手830を含む、視野を有し、手830の姿勢の決定を可能にする、1つまたはそれを上回るウェアラブル結像デバイス810を含む。
図9は、ユーザの手902の捕捉された画像またはビデオに基づいて識別され得る、手特徴点904のセットの実施例を図示する。手特徴点904は、例えば、標識された画像のセットを使用して、機械学習モデル(例えば、ニューラルネットワーク)を訓練すること等によって、種々の画像分析技法を使用して識別されてもよい。訓練後、機械学習モデルは、画像または画像のストリームを入力として受信し、手特徴点904を生産してもよい。いくつかの実施形態では、手特徴点904は、手902の位置を決定するために使用されてもよい。例えば、手902の位置は、手特徴点904のうちの1つとして設定されてもよい、または手特徴点904は、質量中心等の手に沿った異なる位置を算出するために使用されてもよい。
図10は、ハンドヘルドデバイス1002の決定された姿勢と、ハンドヘルドデバイス1002の既知の3Dモデルとに基づいて識別され得る、ハンドヘルドデバイス特徴点1004のセットの実施例を図示する。例えば、ハンドヘルドデバイス1002の決定された位置は、電磁場エミッタ1008またはエミッタ位置1006の位置であり得、そこからハンドヘルドデバイス特徴点1004が、決定されることができる。いくつかの実施形態では、ハンドヘルドデバイス特徴点1004は、図9に図示される手特徴点904等のその対応する手特徴点に最も近い、ハンドヘルドデバイス1002に沿った場所に対応し得る。
図11は、識別され得る、手特徴点1102のセットおよびハンドヘルドデバイス特徴点1104のセットの実施例を図示する。いくつかの実施形態では、位置相違1106が、それらの間の距離として、2つの対応する特徴点(例えば、手特徴点1102からの1つの特徴点およびハンドヘルドデバイス特徴点1104からの1つの特徴点)間で計算されてもよい。いくつかの実施形態では、複数の位置相違1106は、対応する特徴点間で計算されてもよく、これは、総位置相違に組み合わせられてもよい。いくつかの実施形態では、位置相違1106は、対応する特徴点間の最大、最小、または平均距離として、計算されてもよい。他の可能性も、検討される。
図12A-12Fは、AR/VR/MRシステム等のウェアラブルシステムのための手およびトーテム入力融合を実施するための方法1200を図示する。方法1200の1つまたはそれを上回るステップは、方法1200の実施の間、省略されてもよく、方法1200のステップは、示される順序で実施される必要はない。方法1200の1つまたはそれを上回るステップは、ローカル処理およびデータモジュール570または遠隔処理モジュール572内に含まれるもの等の1つまたはそれを上回るプロセッサによって実施されてもよい。
図12Aを参照すると、方法1200のステップ1202では、手姿勢データが、捕捉される。いくつかの実施形態では、手姿勢データは、基準フレーム内の手の位置を含む。いくつかの実施形態では、手姿勢データは、基準フレーム内の手の配向を含む。いくつかの実施形態では、手姿勢データは、手姿勢センサを使用して捕捉される。いくつかの実施形態では、手姿勢データを捕捉するステップは、手姿勢センサを使用して、センサデータを捕捉するステップと、捕捉されたセンサデータに基づいて、手姿勢データを生成するステップとを含んでもよい。例えば、図12Bを参照すると、サブステップ1202-1では、センサデータは、手姿勢センサを使用して捕捉される。サブステップ1202-2では、手の位置は、例えば、センサデータを処理および分析することによって、センサデータに基づいて決定される。サブステップ1202-3では、手の配向が、センサデータを処理および分析することによって、センサデータに基づいて決定される。
図12Aを参照すると、ステップ1204では、ハンドヘルドデバイス姿勢データが、捕捉される。いくつかの実施形態では、ハンドヘルドデバイス姿勢データは、基準フレーム内のハンドヘルドデバイスの位置を含む。いくつかの実施形態では、ハンドヘルドデバイス姿勢データは、基準フレーム内のハンドヘルドデバイスの配向を含む。いくつかの実施形態では、ハンドヘルドデバイス姿勢データは、ハンドヘルドデバイス姿勢センサを使用して捕捉される。いくつかの実施形態では、ハンドヘルドデバイス姿勢データを捕捉するステップは、ハンドヘルドデバイス姿勢センサを使用して、センサデータを捕捉するステップと、捕捉されたセンサデータに基づいて、ハンドヘルドデバイス姿勢データを生成するステップとを含んでもよい。例えば、図12Cを参照すると、サブステップ1204-1では、センサデータが、ハンドヘルドデバイス姿勢センサを使用して捕捉される。サブステップ1204-2では、ハンドヘルドデバイスの位置が、センサデータを処理および分析することによって、センサデータに基づいて決定される。サブステップ1204-3では、ハンドヘルドデバイスの配向が、センサデータを処理および分析することによって、センサデータに基づいて決定される。
いくつかの実施形態では、手姿勢センサおよびハンドヘルドデバイス姿勢センサは、同一センサである。例えば、ヘッドセットに搭載される、画像捕捉デバイスは、両デバイスの姿勢についての情報を集めてもよく、故に、手姿勢センサおよびハンドヘルドデバイス姿勢センサであってもよい。いくつかの実施形態では、手姿勢センサおよびハンドヘルドデバイス姿勢センサは、相互に異なる。例えば、手姿勢センサは、画像捕捉デバイスであってもよく、ハンドヘルドデバイス姿勢センサは、電磁伝送機および電磁受信機であってもよい。
図12Aを参照すると、ステップ1206では、手姿勢データとハンドヘルドデバイス姿勢データとの間の姿勢相違が、決定される。いくつかの実施形態では、姿勢相違は、手およびハンドヘルドデバイスの位置間の位置相違を含む。例えば、図12Dを参照すると、サブステップ1206-1では、手およびハンドヘルドデバイスの位置間の位置相違が、決定される。位置相違は、2つの位置間の距離または2つの位置に基づくある他の距離メトリックであってもよい。いくつかの実施形態では、姿勢相違は、手およびハンドヘルドデバイスの配向間の配向相違を含む。例えば、図12Dを参照すると、サブステップ1206-2では、手およびハンドヘルドデバイスの配向間の配向相違が、決定される。配向相違は、2つの配向間の角度オフセットまたは、2つの配向に基づく角度オフセットのある他の測定値であってもよい。いくつかの実施形態では、角度オフセットは、単一角度に限定されず、角度オフセットは、1つを上回る角度を含み得る。
図12Aを参照すると、ステップ1208では、融合動作が、姿勢相違に基づいて実施される。いくつかの実施形態では、融合動作は、手およびハンドヘルドデバイスの位置間の距離が、距離閾値を上回るかまたは距離閾値未満であるかに基づいてもよい。例えば、図12Eを参照すると、サブステップ1208-1では、距離が、距離閾値を上回るかまたは距離閾値未満であるかが決定される。距離が距離閾値を上回ることが決定される場合、方法1200は、サブステップ1208-2に進む。距離が距離閾値未満であることが決定される場合、方法1200は、サブステップ1208-4に進む。サブステップ1208-2では、ハンドヘルドデバイスが手によって保持されていないことが決定される。サブステップ1208-3では、手姿勢データは、融合動作を実施するステップが、手姿勢データを抑制するステップを含むように、抑制される。いくつかの実施形態では、手姿勢データを抑制するステップは、処理モジュールへの直接入力として、手姿勢データを使用および/または考慮しないステップを含む。いくつかの実施形態では、手姿勢データを抑制するステップは、ハンドヘルドデバイスの位置および/または配向の任意の決定に関して、手姿勢データを使用および/または考慮しないステップを含む。
サブステップ1208-4では、ハンドヘルドデバイスが手によって保持されていることが決定される。サブステップ1208-5では、手姿勢データが、融合動作を実施するステップが、手姿勢データを使用して、ハンドヘルドデバイス姿勢データを増大させるステップを含むように、ハンドヘルドデバイス姿勢データを増大させるために使用される。いくつかの実施形態では、手姿勢データを使用して、ハンドヘルドデバイス姿勢データを増大させるステップは、ハンドヘルドデバイスの位置および/または配向の任意の決定において、手姿勢データを使用するステップを含む。
別の実施例として、図12Fを参照すると、サブステップ1208-1、1208-2、および1208-4は、図12Eを参照して説明されるものと同様に実施される。サブステップ1208-6では、ハンドヘルドデバイス姿勢データが、融合動作を実施するステップが、ハンドヘルドデバイス姿勢データを抑制するステップを含むように、抑制される。いくつかの実施形態では、ハンドヘルドデバイス姿勢データを抑制するステップは、処理モジュールへの直接入力として、ハンドヘルドデバイス姿勢データを使用および/または考慮しないステップを含む。いくつかの実施形態では、ハンドヘルドデバイス姿勢データを抑制するステップは、手の位置および/または配向の任意の決定に関してハンドヘルドデバイス姿勢データを使用および/または考慮しないステップを含む。
サブステップ1208-7では、ハンドヘルドデバイス姿勢データが、融合動作を実施するステップが、ハンドヘルドデバイス姿勢データを使用して、手姿勢データを増大させるステップを含むように、手姿勢データを増大させるために使用される。いくつかの実施形態では、ハンドヘルドデバイス姿勢データを使用して、手姿勢データを増大させるステップは、手の位置および/または配向の任意の決定において、ハンドヘルドデバイス姿勢データを使用するステップを含む。
図13は、本明細書に説明される実施形態による、簡略化されたコンピュータシステム1300を図示する。図13に図示されるようなコンピュータシステム1300は、本明細書に説明されるデバイスの中に組み込まれてもよい。図13は、種々の実施形態によって提供される方法のステップの一部または全てを実施し得る、コンピュータシステム1300の一実施形態の概略図を提供する。図13が、種々のコンポーネントの一般化された図示を提供することのみを意味し、そのいずれかまたは全てが、適宜、利用され得ることに留意されたい。図13は、したがって、広義には、個々のシステム要素が比較的に分離された様式または比較的により統合された様式において実装され得る方法を図示する。
コンピュータシステム1300は、適宜、バス1305を介して電気的に結合され得る、または別様に通信し得る、ハードウェア要素を含むように示される。ハードウェア要素は、限定ではないが、デジタル信号処理チップ、グラフィック加速プロセッサ、および/または同等物等の、1つまたはそれを上回る汎用目的プロセッサおよび/または1つまたはそれを上回る特殊目的プロセッサを含む、1つまたはそれを上回るプロセッサ1310と、限定ではないが、マウス、キーボード、カメラ、および/または同等物を含み得る、1つまたはそれを上回る入力デバイス1315と、限定ではないが、ディスプレイデバイス、プリンタ、および/または同等物を含み得る、1つまたはそれを上回る出力デバイス1320とを含んでもよい。
コンピュータシステム1300はさらに、限定ではないが、ローカルおよび/またはネットワークアクセス可能記憶装置を含み得る、および/または、限定ではないが、プログラム可能である、フラッシュ更新可能である、および/または同等であり得る、ディスクドライブ、ドライブアレイ、光学記憶デバイス、ランダムアクセスメモリ(「RAM」)等のソリッドステート記憶デバイス、および/または読取専用メモリ(「ROM」)を含み得る、1つまたはそれを上回る非一過性記憶デバイス1325を含む、および/またはそれと通信してもよい。そのような記憶デバイスは、限定ではないが、種々のファイルシステム、データベース構造、および/または同等物を含む、任意の適切なデータストアを実装するように構成されてもよい。
コンピュータシステム1300はまた、限定ではないが、Bluetooth(登録商標)デバイス、802.11デバイス、WiFiデバイス、WiMaxデバイス、セルラー通信設備等、および/または同等物等のモデム、ネットワークカード(無線または有線)、赤外線通信デバイス、無線通信デバイス、および/またはチップセットを含み得る、通信サブシステム1319を含んでもよい。通信サブシステム1319は、1つまたはそれを上回る入力および/または出力通信インターフェースを含み、データが、一実施例として挙げるために下記に説明されるネットワーク、すなわち、他のコンピュータシステム、テレビ、および/または本明細書に説明される任意の他のデバイス等のネットワークと交換されることを可能にしてもよい。所望の機能性および/または他の実装懸念点に応じて、ポータブル電子デバイスまたは類似デバイスが、通信サブシステム1319を介して、画像および/または他の情報を通信してもよい。他の実施形態では、ポータブル電子デバイス、例えば、第1の電子デバイスが、コンピュータシステム1300、例えば、電子デバイスの中に入力デバイス1315として組み込まれてもよい。いくつかの実施形態では、コンピュータシステム1300はさらに、上記に説明されるようなRAMまたはROMデバイスを含み得る、作業メモリ1335を含むであろう。
コンピュータシステム1300はまた、種々の実施形態によって提供されるコンピュータプログラムを含み得る、および/または本明細書に説明されるような他の実施形態によって提供される方法を実装する、および/またはシステムを構成するように設計され得る、オペレーティングシステム1340、デバイスドライバ、実行可能ライブラリ、および/または1つまたはそれを上回るアプリケーションプログラム1345等の他のコードを含む、作業メモリ1335内に現在位置するものとして示される、ソフトウェア要素を含むことができる。単に、実施例として、上記に議論される方法に関して説明される1つまたはそれを上回るプロシージャは、コンピュータおよび/またはコンピュータ内のプロセッサによって実行可能なコードおよび/または命令として実装され得、ある側面では、次いで、そのようなコードおよび/または命令は、説明される方法に従って1つまたはそれを上回る動作を実施するように汎用目的コンピュータまたは他のデバイスを構成および/または適合させるために使用されることができる。
これらの命令および/またはコードのセットは、上記に説明される記憶デバイス1325等の非一過性コンピュータ可読記憶媒体上に記憶されてもよい。ある場合には、記憶媒体は、コンピュータシステム1300等のコンピュータシステム内に組み込まれ得る。他の実施形態では、記憶媒体は、コンピュータシステムと別個である、例えば、コンパクトディスク等のリムーバブル媒体である、および/または記憶媒体が、汎用目的コンピュータをその上に記憶される命令/コードを用いてプログラム、構成、および/または適合させるために使用され得るように、インストールパッケージ内に提供され得る。これらの命令は、コンピュータシステム1300によって実行可能である、実行可能コードの形態をとり得る、および/または、例えば、種々の概して利用可能なコンパイラ、インストールプログラム、圧縮/解凍ユーティリティ等のうちのいずれかを使用したコンピュータシステム1300上へのコンパイルおよび/またはインストールに応じて、次いで、実行可能コードの形態をとる、ソースおよび/またはインストール可能コードの形態をとり得る。
実質的な変形例が、具体的要件に従って作製され得ることが、当業者に明白となるであろう。例えば、カスタマイズされたハードウェアもまた、使用され得る、および/または特定の要素が、ハードウェア、アプレット等のポータブルソフトウェアを含む、ソフトウェア、または両方内に実装され得る。さらに、ネットワーク入力/出力デバイス等の他のコンピューティングデバイスへの接続も、採用されてもよい。
上記に述べられたように、一側面では、いくつかの実施形態は、コンピュータシステム1300等のコンピュータシステムを採用し、本技術の種々の実施形態による方法を実施してもよい。一式の実施形態によると、そのような方法のプロシージャの一部または全ては、プロセッサ1310が、オペレーティングシステム1340の中に組み込まれ得る、1つまたはそれを上回る命令の1つまたはそれを上回るシーケンス、および/または作業メモリ1335内に含有される、アプリケーションプログラム1345等の他のコードを実行することに応答して、コンピュータシステム1300によって実施される。そのような命令は、記憶デバイス1325のうちの1つまたはそれを上回るもの等の別のコンピュータ可読媒体から作業メモリ1335の中に読み取られてもよい。単に、実施例として、作業メモリ1335内に含有される命令のシーケンスの実行は、プロセッサ1310に、本明細書に説明される方法の1つまたはそれを上回るプロシージャを実施させ得る。加えて、または代替として、本明細書に説明される方法の一部は、特殊化ハードウェアを通して実行されてもよい。
本明細書で使用されるような、用語「機械可読媒体」および「コンピュータ可読媒体」は、機械を具体的方式で動作させるデータを提供することに関与する、任意の媒体を指す。コンピュータシステム1300を使用して実装される、ある実施形態では、種々のコンピュータ可読媒体は、実行のために命令/コードをプロセッサ1310に提供することに関わり得る、および/またはそのような命令/コードを記憶および/または搬送するために使用され得る。多くの実装では、コンピュータ可読媒体は、物理的および/または有形記憶媒体である。そのような媒体は、不揮発性媒体または揮発性媒体の形態をとってもよい。不揮発性媒体は、例えば、記憶デバイス1325等の光学および/または磁気ディスクを含む。揮発性媒体は、限定ではないが、作業メモリ1335等の動的メモリを含む。
一般的形態の物理的および/または有形コンピュータ可読媒体は、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、または任意の他の磁気媒体、CD-ROM、任意の他の光学媒体、パンチカード、紙テープ、孔のパターンを伴う任意の他の物理的媒体、RAM、PROM、EPROM、FLASH-EPROM、任意の他のメモリチップまたはカートリッジ、またはコンピュータが命令および/またはコードを読み取り得る、任意の他の媒体を含む。
種々の形態のコンピュータ可読媒体が、実行のための1つまたはそれを上回る命令の1つまたはそれを上回るシーケンスをプロセッサ1310に搬送することに関わってもよい。単に、実施例として、命令は、最初に、遠隔コンピュータの磁気ディスクおよび/または光学ディスク上で搬送されてもよい。遠隔コンピュータは、命令をその動的メモリの中にロードし、コンピュータシステム1300によって受信および/または実行されるべき伝送媒体を経由して、命令を信号として送信し得る。
通信サブシステム1339および/またはそのコンポーネントは、概して、信号を受信し、バス1305が、次いで、信号および/または信号によって搬送されるデータ、命令等を作業メモリ1335に搬送し得、そこから、プロセッサ1310が、命令を読み出し、実行する。作業メモリ1335によって受信された命令は、随意に、プロセッサ1310による実行前または後のいずれかにおいて、非一過性記憶デバイス1325上に記憶されてもよい。
上記に議論される方法、システム、およびデバイスは、実施例である。種々の構成は、適宜、種々のプロシージャまたはコンポーネントを省略、代用、または追加してもよい。例えば、代替構成では、本方法は、説明されるものと異なる順序で実施されてもよい、および/または種々の段階は、追加される、省略される、および/または組み合わせられてもよい。また、ある構成に関して説明される特徴は、種々の他の構成において組み合わせられてもよい。構成の異なる側面および要素は、類似様式で組み合わせられてもよい。また、技術は、進歩するものであって、したがって、要素の多くは、実施例であって、本開示または請求項の範囲を限定するものではない。
具体的詳細が、実装を含む、例示的構成の徹底的な理解を提供するために説明に与えられる。しかしながら、構成は、これらの具体的詳細を伴わずに実践されてもよい。例えば、周知の回路、プロセス、アルゴリズム、構造、および技法は、構成を不明瞭にすることを回避するために、不必要な詳細を伴わずに示されている。本説明は、例示的構成のみを提供し、請求項の範囲、可用性、または構成を限定するものではない。むしろ、構成の前述の説明は、当業者に説明される技法を実装するための有効な説明を提供するであろう。種々の変更が、本開示の精神または範囲から逸脱することなく、要素の機能および配列に行われてもよい。
また、構成は、概略フローチャートまたはブロック図として描写される、プロセスとして説明され得る。それぞれ、順次プロセスとして動作を説明し得るが、動作の多くは、並行して、または同時に実施されることができる。加えて、動作の順序は、再配列されてもよい。プロセスは、図内に含まれない付加的ステップを有してもよい。さらに、本方法の実施例は、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語、または任意のそれらの組み合わせによって実装されてもよい。ソフトウェア、ファームウェア、ミドルウェア、またはマイクロコード内に実装されるとき、必要タスクを実施するためのプログラムコードまたはコードセグメントは、記憶媒体等の非一過性コンピュータ可読媒体内に記憶されてもよい。プロセッサは、説明されるタスクを実施してもよい。
いくつかの例示的構成が説明されたが、種々の修正、代替構築物、および均等物が、本開示の精神から逸脱することなく、使用されてもよい。例えば、上記の要素は、より大きいシステムのコンポーネントであってもよく、他のルールが、本技術の用途に優先する、または別様にそれを修正してもよい。また、いくつかのステップが、上記の要素が検討される前、間、または後に行われてもよい。故に、上記の説明は、請求項の範囲を束縛するものではない。
本明細書および添付の請求項で使用されるように、単数形「a」、「an」、および「the」は、文脈が明確に別様に示さない限り、複数の指示物を含む。したがって、例えば、「ユーザ」の言及は、そのようなユーザのうちの1人またはそれを上回る人を含み、「プロセッサ」の言及は、1つまたはそれを上回るプロセッサおよび当業者に公知のその均等物等の言及を含む。
また、単語「comprise(~を備える)」、「comprising(~を備えている)」、「contains(~を含有する)」、「containing(~を含有している)」、「include(~を含む)」、「including(~を含んでいる)」、および「includes(~を含む)」は、本明細書および以下の請求項で使用されるとき、述べられた特徴、整数、コンポーネント、またはステップの存在を規定することを意図するが、それらは、1つまたはそれを上回る他の特徴、整数、コンポーネント、ステップ、行為、またはグループの存在または追加を除外するものではない。
また、本明細書に説明される実施例および実施形態が、例証目的のみのためのものであって、それに照らして、種々の修正または変更が、当業者に示唆され、本願の精神および権限および添付の請求項の範囲内に含まれるものであることを理解されたい。

Claims (20)

  1. 手姿勢データとハンドヘルドデバイス姿勢データを融合させる方法であって、前記方法は、
    手姿勢センサを使用して、基準フレーム内の手の位置を含む前記手姿勢データを捕捉することと、
    ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置を含む前記ハンドヘルドデバイスを捕捉することと、
    前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
    前記姿勢相違に基づいて、融合動作を実施することと
    を含む、方法。
  2. 前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項1に記載の方法。
  3. 前記距離が距離閾値を上回るかまたは距離閾値未満であるかを決定することをさらに含む、請求項2に記載の方法。
  4. 前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
    前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
    を含む、請求項3に記載の方法。
  5. 前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
    前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
    を含む、請求項3に記載の方法。
  6. 前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
    前記手姿勢データを抑制すること、または
    前記ハンドヘルドデバイス姿勢データを抑制すること
    を含む、請求項3に記載の方法。
  7. 前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
    前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
    前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
    前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
    を含む、請求項3に記載の方法。
  8. 前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
    前記手と関連付けられる複数の特徴点を識別することと、
    前記複数の特徴点に基づいて、前記手の位置を決定することと
    を含む、請求項1に記載の方法。
  9. システムであって、
    基準フレーム内の手の位置を含む手姿勢データを捕捉するように構成される手姿勢センサと、
    前記基準フレーム内のハンドヘルドデバイスの位置を含むハンドヘルドデバイス姿勢データを捕捉するように構成されるハンドヘルドデバイス姿勢センサと、
    前記手姿勢センサおよび前記ハンドヘルドデバイス姿勢センサと通信する1つまたはそれを上回るプロセッサであって、前記1つまたはそれを上回るプロセッサは、
    前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
    前記姿勢相違に基づいて、融合動作を実施することと
    を含む動作を実施するように構成される、1つまたはそれを上回るプロセッサと
    を備える、システム。
  10. 前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項9に記載のシステム。
  11. 前記距離が、距離閾値を上回るか、または距離閾値未満であるか、または距離閾値に等しいかを決定することをさらに含む、請求項10に記載のシステム。
  12. 前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
    前記ハンドヘルドデバイスが前記手によって保持されていないことを決定すること
    を含む、請求項11に記載のシステム。
  13. 前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは
    前記ハンドヘルドデバイスが前記手によって保持されていることを決定すること
    を含む、請求項11に記載のシステム。
  14. 前記距離が前記距離閾値未満であることが決定される場合、前記融合動作を実施することは、
    前記手姿勢データを抑制すること、または
    前記ハンドヘルドデバイス姿勢データを抑制すること
    を含む、請求項11に記載のシステム。
  15. 前記距離が前記距離閾値を上回ることが決定される場合、前記融合動作を実施することは、
    前記手姿勢データを抑制すること、または
    前記ハンドヘルドデバイス姿勢データを抑制すること
    を含む、請求項11に記載のシステム。
  16. 前記距離が前記距離閾値未満または前記距離閾値に等しいことが決定される場合、前記融合動作を実施することは、
    前記手姿勢データを使用して、前記ハンドヘルドデバイス姿勢データを増大させること、
    前記ハンドヘルドデバイス姿勢データを使用して、前記手姿勢データを増大させること、または
    前記手姿勢データおよび前記ハンドヘルドデバイス姿勢データを使用して、組み合わせられた姿勢データを生成すること
    を含む、請求項11に記載のシステム。
  17. 前記手姿勢センサを使用して、前記手姿勢データを捕捉することは、
    前記手と関連付けられる複数の特徴点を識別することと、
    前記複数の特徴点に基づいて、前記手の位置を決定することと
    を含む、請求項9に記載のシステム。
  18. 非一過性コンピュータ可読媒体であって、前記非一過性コンピュータ可読媒体は、命令を備え、前記命令は、1つまたはそれを上回るプロセッサによって実行されると、前記1つまたはそれを上回るプロセッサに、手姿勢データとハンドヘルドデバイス姿勢データを融合させるための動作を実施させ、前記動作は、
    手姿勢センサを使用して、基準フレーム内の手の位置を含む前記手姿勢データを捕捉することと、
    ハンドヘルドデバイス姿勢センサを使用して、前記基準フレーム内のハンドヘルドデバイスの位置を含む前記ハンドヘルドデバイスを捕捉することと、
    前記手姿勢データと前記ハンドヘルドデバイス姿勢データとの間の姿勢相違を決定することであって、前記姿勢相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の位置相違を含む、ことと、
    前記姿勢相違に基づいて、融合動作を実施することと
    を含む、非一過性コンピュータ可読媒体。
  19. 前記位置相違は、前記手の位置と前記ハンドヘルドデバイスの位置との間の距離である、請求項18に記載の非一過性コンピュータ可読媒体。
  20. 前記距離が距離閾値を上回るかまたは距離閾値未満であるかを決定することをさらに含む、請求項19に記載の非一過性コンピュータ可読媒体。
JP2022550932A 2020-02-26 2021-02-24 ウェアラブルシステムのための手およびトーテム入力融合 Pending JP2023515526A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US202062981930P 2020-02-26 2020-02-26
US62/981,930 2020-02-26
PCT/US2021/019483 WO2021173725A1 (en) 2020-02-26 2021-02-24 Hand and totem input fusion for wearable systems

Publications (2)

Publication Number Publication Date
JP2023515526A true JP2023515526A (ja) 2023-04-13
JPWO2021173725A5 JPWO2021173725A5 (ja) 2024-02-16

Family

ID=77366947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022550932A Pending JP2023515526A (ja) 2020-02-26 2021-02-24 ウェアラブルシステムのための手およびトーテム入力融合

Country Status (5)

Country Link
US (1) US20210263592A1 (ja)
EP (1) EP4111442A4 (ja)
JP (1) JP2023515526A (ja)
CN (1) CN115176306A (ja)
WO (1) WO2021173725A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11320896B2 (en) * 2020-08-03 2022-05-03 Facebook Technologies, Llc. Systems and methods for object tracking using fused data
GB2608186A (en) * 2021-06-25 2022-12-28 Thermoteknix Systems Ltd Augmented reality system
US11815687B2 (en) * 2022-03-02 2023-11-14 Google Llc Controlling head-mounted device with gestures into wearable device

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160098095A1 (en) * 2004-01-30 2016-04-07 Electronic Scripting Products, Inc. Deriving Input from Six Degrees of Freedom Interfaces
US9111351B2 (en) * 2011-12-15 2015-08-18 Sony Corporation Minimizing drift using depth camera images
US20150247729A1 (en) * 2012-09-04 2015-09-03 Deborah Meduna System and method for device bearing estimation
WO2016132371A1 (en) * 2015-02-22 2016-08-25 Technion Research & Development Foundation Limited Gesture recognition using multi-sensory data
US10180734B2 (en) * 2015-03-05 2019-01-15 Magic Leap, Inc. Systems and methods for augmented reality
US10261162B2 (en) * 2016-04-26 2019-04-16 Magic Leap, Inc. Electromagnetic tracking with augmented reality systems
WO2017201162A1 (en) * 2016-05-17 2017-11-23 Google Llc Virtual/augmented reality input device
US10146334B2 (en) 2016-06-09 2018-12-04 Microsoft Technology Licensing, Llc Passive optical and inertial tracking in slim form-factor
US10249090B2 (en) * 2016-06-09 2019-04-02 Microsoft Technology Licensing, Llc Robust optical disambiguation and tracking of two or more hand-held controllers with passive optical and inertial tracking
US11302029B2 (en) * 2018-01-19 2022-04-12 Sony Interactive Entertainment Inc. Information processing apparatus, information processing system, information processing method, and program
US11481030B2 (en) * 2019-03-29 2022-10-25 Meta Platforms Technologies, Llc Methods and apparatus for gesture detection and classification
US11107242B2 (en) * 2019-01-11 2021-08-31 Microsoft Technology Licensing, Llc Detecting pose using floating keypoint(s)

Also Published As

Publication number Publication date
CN115176306A (zh) 2022-10-11
WO2021173725A1 (en) 2021-09-02
EP4111442A1 (en) 2023-01-04
US20210263592A1 (en) 2021-08-26
EP4111442A4 (en) 2023-08-16

Similar Documents

Publication Publication Date Title
JP2023515526A (ja) ウェアラブルシステムのための手およびトーテム入力融合
US11016305B2 (en) Sensor fusion for electromagnetic tracking
JP7455121B2 (ja) 電磁追跡のための周囲電磁歪み補正
JP2021101251A (ja) 拡張現実のためのシステムおよび方法
JP6785385B2 (ja) 周辺デバイスの視覚的追跡
US11709544B2 (en) Pose estimation using electromagnetic tracking
US20230021404A1 (en) Method and system for resolving hemisphere ambiguity in six degree of freedom pose measurements

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240207