JP7640672B2 - ポインティングジェスチャ認識を用いるクロスデバイス対話のアクティブ化 - Google Patents

ポインティングジェスチャ認識を用いるクロスデバイス対話のアクティブ化 Download PDF

Info

Publication number
JP7640672B2
JP7640672B2 JP2023508055A JP2023508055A JP7640672B2 JP 7640672 B2 JP7640672 B2 JP 7640672B2 JP 2023508055 A JP2023508055 A JP 2023508055A JP 2023508055 A JP2023508055 A JP 2023508055A JP 7640672 B2 JP7640672 B2 JP 7640672B2
Authority
JP
Japan
Prior art keywords
motion
electronic device
handheld electronic
based gesture
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023508055A
Other languages
English (en)
Other versions
JP2023537028A (ja
Inventor
シュイ,チアン
ロォン,ジィアユィ
リィウ,ジョ
リ,ウエイ
ヤン,トォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Publication of JP2023537028A publication Critical patent/JP2023537028A/ja
Application granted granted Critical
Publication of JP7640672B2 publication Critical patent/JP7640672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a three-dimensional [3D] space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

関連出願の相互参照
本発明について出願された最初の出願である。
発明の分野
本発明は、電子デバイスとリモートに対話することに関し、特に、ユーザのジェスチャを認識し、次いで、これらのジェスチャを電子デバイスとのリモート対話に適用するために使用される方法及び装置に関する。
より多くのスマートデバイスの消費者市場に参入するにつれて、これらのスマートデバイスをリモート制御する能力に対する消費者の需要が高まっている。
ハンドヘルド電子デバイス(携帯電話)がより一般的かつ強力になるにつれて、消費者のハンドヘルド電子デバイスを使用してスマートデバイスをリモート制御する能力に対する需要が高まっている。しかしながら、現在この需要に対処することを目的とした製品は、一般的にユーザが制御したいスマートデバイスを選択しない。その結果、ユーザがリモート制御をしたいスマートデバイスを毎回選択することによって、ユーザの体験を向上させる製品が求められている。
この背景情報は、本出願人が本発明に関連する可能性があると信じている情報を明らかにするために提供される。先の情報のいずれかが本発明に対する先行技術を構成することを必ずしも認める意図はなく、そのように解釈されるべきでもない。
本発明の実施形態は、ポインティングジェスチャ認識システム(PGRS)を実装するためのシステムを提供する。実施形態は、また、ユーザのジェスチャの認識を通して、ユーザが1つ以上の第2デバイスをリモート制御することを可能にするPGRSを提供するアーキテクチャを実装する方法も提供する。
本発明の実施形態によると、ハンドヘルド電子デバイスによって、第2デバイスとリモートに対話する方法が提供される。本方法は、ハンドヘルド電子デバイスの1つ以上の運動センサ(movement sensors)によって生成された信号に基づいて、ハンドヘルド電子デバイスの動き(motion)を感知するステップを含む。この方法はまた、感知された動きが、ハンドヘルド電子デバイスの移動(movement)を含むモーションベースのジェスチャ(motion-based gesture)であることを認識するステップも含む。この方法は、上記信号又は更なる信号の一方又は両方に基づいて、第2デバイスを識別するステップを更に含む。更なる信号は、1つ以上の運動センサ;ハンドヘルド電子デバイスの1つ以上の他の構成要素;又はそれらの組合せ、からのものである。デバイスの向き(運動センサ信号に基づいて決定され得る)及びこれらの更なる信号は、ハンドヘルド電子デバイスがモーションベースのジェスチャの終わり(end)で指している方向を示す。所定の条件が満たされ、かつ第2デバイスが識別された後、本方法は、第2デバイスとリモートに対話するためのユーザ対話を開始することになり、ここで、所定の条件は、認識されたモーションベースのジェスチャが、第2デバイスと対話するための所定のモーションベースのジェスチャであるときに少なくとも部分的に満たされる。
このような実施形態の技術的な利点は、ユーザ対話が、所定のモーションベースのジェスチャが実行された後にのみ開始されることである。これは、ハンドヘルド電子デバイスが、ユーザが第2デバイスと対話することを望んでいると誤って識別することを防ぐが、そのように誤って識別することは、ユーザ体験に悪影響を及ぼし、例えばバッテリ又は処理リソースを不必要に消費する可能性がある。さらに、モーションベースのジェスチャは、第2デバイスがポインティングに基づいて識別されるという点で、第2デバイスの識別に組み込まれるが、そのようなポインティングを、モーションベースのジェスチャと統合することができる。この組合せは、モーションベースのジェスチャの認識と第2デバイスの識別の両方を統合することができる。
いくつかの実施形態において、所定の条件は、ユーザからの確認入力を認識することを更に含む。このような実施形態の技術的な利点は、ユーザ対話が、所定のモーションベースのジェスチャと確認入力が実行された後にのみ開始されることである。これは、ハンドヘルド電子デバイスが、所定のモーションベースのジェスチャに対応する移動の偽認識に基づいて、ユーザが第2デバイスとの対話を望んでいると誤って識別することを更に防ぐ。
更なる実施形態では、確認入力を認識することは、1つ以上の運動センサを使用して、所定のモーションベースのジェスチャに続いて、所定の時間の間、更なる動きなしに、ハンドヘルド電子デバイスが所定の場所(in position)に保持されることを認識することを含む。この実施形態の技術的な利点は、ハンドヘルド電子デバイスとの更なるユーザ対話なしに、デバイスを指し示すことによって確認入力が自動的に実行されることであり、これは、ユーザ体験を向上させる。
いくつかの更なる実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、1つ以上の運動センサによって生成された、上向きの弧を描く動きによる第1位置から第2位置へのハンドヘルド電子デバイスの移動を示す信号を認識することを含む。第1位置は、ユーザの腰に近く、下方を向いているハンドヘルド電子デバイスに対応し、第2位置は、伸ばした腕の端に保持され、第2デバイスの方を向いているハンドヘルド電子デバイスに対応する。
他の更なる実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、1つ以上の運動センサによって生成された、直線的な動きによる第1位置から第2位置へのハンドヘルド電子デバイスの移動を示す信号を認識することを含む。第1位置は、ユーザによって曲げた腕でユーザの身体の前で保持されているハンドヘルド電子デバイスに対応し、第2位置は、伸ばした腕の端で保持され、第2デバイスの方を向いているハンドヘルド電子デバイスに対応する。
いくつかの実施形態では、第2デバイスを識別することは、ハンドヘルド電子デバイスの感知された動きが停止したと判断した後に実行される。この実施形態の技術的な利点は、第2デバイスをより確実に識別することができ、モーションベースのジェスチャの間に意図せずに指された他のデバイスが、第2デバイスとして識別されることを抑制されることである。
いくつかの実施形態では、1つ以上の運動センサは、加速度計、磁力計、近接センサ、ジャイロスコープ、環境光センサ、カメラ、マイク、無線周波数受信機、近接場通信デバイス及び温度センサのうちの1つ以上を含む。このような実施形態の技術的な利点は、動きに直接応答するセンサによって、動き又は位置と間接的に相関するパラメータ(例えば身体近接性、無線周波数、音又は温度)に直接応答するセンサによって又はそれらの組合せによって、モーションベースのジェスチャを認識できることである。これは、モーションベースの又は位置情報を取得するために処理することができる様々な入力を提供する。
いくつかの実施形態では、ハンドヘルド電子デバイスの1つ以上の他の構成要素は、1つ以上の他の電子デバイスの各々によって放出される信号の到着角の測定に少なくとも部分的に基づいて、1つ以上の他の電子デバイスの位置を検出するように構成される。この実施形態の技術的な利点は、無線周波数信号のような信号を使用して第2デバイスを位置特定することができることである。したがって、アンテナアレイシステムを利用して、例えば物理的なポジショニングを行うことができる。
いくつかの実施形態では、所定の条件が満たされ、かつ第2デバイスが識別された後、第2デバイスを示すアイコンが、ハンドヘルド電子デバイスのディスプレイに表示される。ディスプレイ上のアイコンの位置は、ハンドヘルド電子デバイスのポインティング方向とハンドヘルド電子デバイスに対する第2デバイスの方向との間の角度と、ハンドヘルド電子デバイスが第2デバイスに向けられている可能性の測定との一方又は両方に従って変化する。この実施形態の技術的な利点は、これが、ユーザのアクションとデバイスの応答との間の視覚的な相関関係を提供することであり、これは、ユーザが関与するフィードバックループで使用して、第2デバイスの選択プロセスを容易にすることができる。
他の実施形態によると、上述の方法に見合った動作を実行するように構成されるハンドヘルド電子デバイスが提供される。当該デバイスは、ハンドヘルド電子デバイスの動きを示す信号を生成するように構成される1つ以上の運動センサと、そのような動作を実装するように構成される処理エレクトロニクス(processing electronics)とを含み得る。
実施形態は、それらを実装することができる本発明の態様に関連して上述されている。当業者には、実施形態は、それらが説明される態様に関連して実装され得るが、その態様の他の実施形態とともに実装されてもよいことが理解されよう。実施形態が相互に排他的であるか又はそうではなくとも相互に矛盾するとき、当業者には明らかであろう。いくつかの実施形態は、1つの態様に関連して説明されることがあるが、当業者には明らかであるように、他の態様にも適用可能であることがある。
本発明の更なる特徴と利点は、添付図面と組み合わせて以下の詳細な説明から明らかになるであろう。
本開示の一実施形態に従って提供される方法を図示する。
本開示の一実施形態による、いくつかの電子デバイスのうちの1つを選択する様子を図示する。
本開示の一実施形態による、選択可能な第2電子デバイスからの信号の到着角を図示する。
本開示の一実施形態による、ポインティング方向を図示する。
本開示の一実施形態による、例示的な到着角測定動作を図示する。
本開示の一実施形態による、ユーザが電子デバイスとリモートに対話するために使用し得る潜在的なジェスチャを図示する。
本開示の一実施形態による、ルールベースのポインティングジェスチャ認識動作を図示する。
本開示の一実施形態による、学習ベースのポインティングジェスチャ認識動作を図示する。
本開示の一実施形態による、学習ベースの類似性ポインティングジェスチャ認識動作を図示する。
本開示の一実施形態による、ハンドヘルド電子デバイスに含めることができるセンサを図示する。
本開示の一実施形態による、ハンドヘルド電子デバイスを図示する。
添付図面全体を通して、同様の特徴は、同様の参照番号によって識別されることに留意されたい。
本発明の実施形態は、ポインティングジェスチャ認識(PGR)のための方法、ハンドヘルド電子デバイス及びシステムを提供することに関する。ハンドヘルド電子デバイスは、第2電子デバイスとリモートに対話するために使用される。ハンドヘルド電子デバイスの非限定的な例は、スマートフォン、ハンドヘルドリモートコントロール、スマートリング、スマートバンド及びスマートウォッチを含む。第2電子デバイスの非限定的な例は、スマートテレビ、タブレット、スマートグラス、スマートウォッチ、スマートフォン、パーソナルコンピュータ、スマートLED、ロボット掃除機のようなロボット、スピーカ及び他の家電製品を含むことができる。
本発明の実施形態によると、ハンドヘルド電子デバイスを保持している(又は手首又は指にハンドヘルド電子デバイスを装着している)ハンドヘルド電子デバイスのユーザは、1つ以上の所定のモーションベースのジェスチャ(motion-based gesture)でハンドヘルド電子デバイスを動かすことによって、第2電子デバイスとリモートに対話することができる。これらの所定のモーションベースのジェスチャは、ユーザが、ハンドヘルド電子デバイスを保持している手を、胸に近い位置又はウエストより下の位置から、ユーザが制御したい第2電子デバイスの方をハンドヘルド電子デバイスが指している位置まで上げることを含むことができる。ハンドヘルド電子デバイスは、ユーザがハンドヘルド電子デバイスを動かすときに、ハンドヘルド電子デバイスの1つ又は複数の運動センサ(movement sensor)から受信した信号に基づいて、ハンドヘルド電子デバイスの動きを感知することができる。また、ハンドヘルド電子デバイスは、感知された動きに基づいてモーションベースのジェスチャを認識し、認識されたモーションベースのジェスチャが所定のモーションベースのジェスチャに対応するとき、所定の条件を生成することもできる。また、ハンドヘルド電子デバイスは、所定の条件が満たされた後に、ハンドヘルド電子デバイスの無線周波数センサからの信号に基づいて第2電子デバイスを識別することもできる。また、ハンドヘルド電子デバイスは、ユーザがハンドヘルド電子デバイスを使用して第2電子デバイスを制御することができるように、本明細書で説明される方法を使用してこれらの所定の条件を処理するプロセッサを含むこともできる。ハンドヘルド電子デバイスのユーザによる所定のモーションベースのジェスチャの性能の認識は、第2電子デバイスとの対話を開始して、ユーザがハンドヘルド電子デバイスを使用して第2電子デバイスを制御することを可能にするように、ハンドヘルド電子デバイスをトリガする。
対話は、ハンドヘルド電子デバイスと第2デバイスとの間の無線通信を伴う。対話は、ハンドヘルド電子デバイスが、第2デバイスが応答するコマンド又はクエリを含むメッセージを送信することを含むことができる。コマンドは、第2デバイスに、ボリュームレベル又はライトレベルを変更すること、ハードウェア又はソフトウェアアクションを実行すること等のような、第2デバイスに適した動作を実行させることができる。クエリは、第2デバイスに、該第2デバイスによって保持され、クエリで要求された情報を含む応答のような、応答をハンドヘルド電子デバイスに送り返させることができる。対話を、ユーザからの入力の有無にかかわらず実行することができる。
図1は、一実施形態において、第2デバイスとリモートに対話するためにハンドヘルド電子デバイスによって使用される方法100を図示している。方法100は、本明細書に記載される他の方法と同様に、ハンドヘルド電子デバイス210のポインティングジェスチャ認識システム(PGRS)200のルーチン及びサブルーチンによって実行されてよい。PGRS200は、ハンドヘルド電子デバイス210のプロセッサ910(図9を参照されたい)によって実行することができる機械読取可能命令を含むソフトウェア(例えばコンピュータプログラム)を含み得る。PGRSは、追加又は代替的に、いくつかの実施形態ではハードウェア関連のファームウェアを含み得る専用の電子機器を備えてよい。PGRS200のコーディングは、本開示を考慮した当業者の範囲内にある。方法100は、図示され説明されているものよりも追加の又は少ない動作を含んでもよく、動作は異なる順序で実行されてもよい。ハンドヘルド電子デバイス210のプロセッサ910によって実行可能なPGRS200のコンピュータ読取可能命令は、非一時的なコンピュータ読取可能媒体に記憶され得る。
方法100は動作110で開始する。動作110において、方法は、ハンドヘルド電子デバイス210の1つ以上の運動センサによって生成された信号に基づいて、ハンドヘルド電子デバイスの動きを感知することを含む。方法100は、次いで動作120に進む。
動作120において、方法100は、ハンドヘルド電子デバイス210の移動の間に、ハンドヘルド電子デバイス210の1つ以上の運動センサから受信した信号に基づいて、感知された動きがモーションベースのジェスチャであることを認識する。方法100は、次いで動作130に進む。
動作130において、方法100は、1つ以上の運動センサ、ハンドヘルド電子デバイスの1つ以上の他の構成要素又はその組合せからの更なる信号に基づいて、第2デバイスを識別する。そのような更なる信号は、ハンドヘルド電子デバイスがモーションベースのジェスチャの終わりに指している方向を示す。モーションベースのジェスチャは、したがって、第2電子デバイスとの対話を開始するトリガとして機能し、また、第2デバイスを認識することができるようにユーザが第2デバイスの方を指すことができる手段を提供し、第2デバイスと対話するための適切なアプリケーションを起動することができる。動作130は、図4に図示されるように、到着角測定(angle of arrival measurements)を使用して実行されてよい。方法100は、次いで動作140に進む。
動作140において、方法100は、所定の条件が満たされ、かつ第2デバイスが識別された後に、第2デバイスとリモートに対話するためのユーザ対話を開始し、ここで、所定の条件は、認識されたモーションベースのジェスチャが、第2デバイスと対話するための所定のモーションベースのジェスチャであるときに少なくとも部分的に満たされる140。
方法100では、動作110、120、130及び140は順番に実行されるが、第2デバイスを識別する動作は、モーションベースのジェスチャを認識し、所定の条件を満たしていると判断する動作と、部分的又は完全に並行に実行されてもよい。図示された順番で動作を実行することは、特にモーションベースのジェスチャの終わりにデバイスを識別することを可能にし、これは、ユーザが、第2デバイスを識別することと、第2デバイスとの対話が望まれることを示すことの両方に同じジェスチャを使用することを可能にし得る。
図2は、本開示の一実施形態による、ハンドヘルド電子デバイス210及びいくつかの潜在的な第2デバイスとそれらが果たす役割の例を図示している。図2に示されるように、ハンドヘルド電子デバイス210のユーザは、スマートテレビ220、タブレット230、スマートグラス240、スマートウォッチ250及びパーソナルコンピュータ260を含む複数の第2デバイス(例えば選択を介して一度に1つ)を制御することができる。ハンドヘルド電子デバイス210及び第2デバイスは、動作環境205の一部である。図2に図示されるように、ハンドヘルド電子デバイス210のユーザは、ユーザがハンドヘルド電子デバイス210をスマートテレビ220に向けることで終了する、所定のモーションベースのジェスチャを実行することによって、スマートテレビ220を制御することができる。ハンドヘルド電子デバイス210をスマートテレビ220に向けることにより、ハンドヘルド電子デバイス210のPGRS200に(現実、仮想又は概念的)光線270をスマートテレビ220に向けて投影させ、PGRS200がスマートテレビ220を第2デバイスとして識別させることができる。光線270は、ポインティング方向として光線追跡の当業者に公知である。
図3Aは、ハンドヘルド電子デバイス210によって投影された光線270がスマートテレビ220で終了しないときに、ハンドヘルド電子デバイス210がスマートテレビ220を識別する例を図示する。いくつかの実施形態では、ハンドヘルド電子デバイス210のPGRS200は、デバイス間の到着角測定(device-to-device angle of arrival measurements)に基づいてポインティングベースの選択を実行する。ポインティングベースの選択に基づく到着角測定を使用して、ハンドヘルド電子デバイス210のPGRS200は、ハンドヘルド電子デバイス210によって直接指し示されていない第2デバイスを識別することができる。図3Aに図示されるように、ハンドヘルド電子デバイス210のPGRS200は、デバイス間の到着角320を使用して、ポインティングベースの選択に基づいてスマートテレビ220を識別する。到着角320は、光線270と、第2光線、すなわち、光線310との間の角度である。光線270は、ハンドヘルド電子デバイス210の長軸に沿って投影され、ハンドヘルド電子デバイス210の中心から延びる。光線310は、ハンドヘルド電子デバイス210の中心から第2デバイスの中心に投影される。ハンドヘルド電子デバイス210は、RF送信機、RF受信機及び1つ以上のRFアンテナを含む、無線周波数(RF)センサ920(図9を参照されたい)を含む。同様に、第2電子デバイスは、RF送信機、RF受信機及び1つ以上のRFアンテナを含む、RFセンサを含む。RFセンサ920及び第2電子デバイスのRFセンサは、IEEE802.11(当業者にはWiFi(登録商標)として知られている)、Bluetooth(登録商標)低エネルギー(当業者にはBLEとして知られている)、超広帯域(当業者にはUWBとして知られている)を含む、いくつかの既知の技術標準のうちの1つに基づく任意のRFセンサとすることができ、超音波は、必要な到着角の値を指定する。本発明のいくつかの実施形態において、到着角320は、UWB、WiFi(登録商標)、BLE及び超音波の要件に準拠している。
いくつかの方法を使用してデバイス間の到着角320を測定することができる。1つの方法は、RFセンサのアンテナに入射する高周波の伝播方向を測定することを含む。2番目の方法は、RFセンサの複数のアンテナアレイ要素に入射する高周波の位相を測定することである。この2番目の方法では、入射高周波の測定される位相の間の差を計算することによって、到着角を決定することができる。
いくつかの実施形態では、到着角測定を容易にするために、ハンドヘルド電子デバイスは、適切なRF信号を送信するように、第2デバイスに要求を送信し得る。その後、RF信号は、例えばハンドヘルド電子デバイスのアンテナアレイを使用して受信され、到着320を決定するためにハンドヘルド電子デバイスによって処理されることができる。追加又は代替的に、ハンドヘルド電子デバイスは、RF信号並びに第2デバイスの到着角測定の要求を送信してもよい。第2デバイスは、次いで、例えば第2デバイスのアンテナアレイを使用して、ハンドヘルド電子デバイスからRF信号を受信し、RF信号を処理して第2デバイスの視点からハンドヘルド電子デバイスの到着角を決定し得る。結果をハンドヘルド電子デバイスに返送することができ、それによって使用することができる。
いくつかの実施形態では、UWB、WiFi、BLE及び超音波技術標準は、第2光線310が第2デバイスの中心に投影されることを必要とする。しかしながら、第2デバイスが大きい場合、到着角を測定するために使用される第2デバイス330の検出器は、第2デバイスの中心から相当な距離である可能性がある。この相当な距離が結果として生じる可能性があり、実際には、第2光線310を光線340に移動させる。光線340は関連する角度350を有する。角度350は、到着角320にオフセットを追加する。光線340とオフセット角度350の結果は、PGRS200が、第2デバイスの中心に投影されていないポインティング方向を検出することができることである。
図3Bは、本明細書において、それぞれタブレット365、スマートウォッチ375、スマートリング385、ハンドヘルド電子デバイス210及びスマートグラス395のデバイスの向きとも呼ばれるポインティング方向の例を図示している。説明の目的のために、各デバイスの向きは、そのそれぞれのデバイスの長軸に沿って投影された光線360、370、380、387及び390によって定義される。光線は、各々の場合において、デバイスの中心から伸びるか、デバイスの中心を通過する。しかしながら、他の実施形態では、光線は異なるように向けられることがある。本議論の目的のために、ポインティング方向又はデバイスの向きは、光線の方向と同等であってよい。様々な実施形態によると、第2電子デバイスを、ハンドヘルド電子デバイスのデバイスの向き(ポインティング方向)に基づいて選択することができる。この方向を、デバイスの構成要素からの信号に基づいて決定することができる。例えば上述のような到着角測定を使用して、デバイスの向き(ポインティング方向)を決定することができる。いくつかの実施形態では、ジャイロスコープ及び磁力計のような構成要素を使用して、絶対デバイスの向き(ポインティング方向)を決定してよい。また、デッドレコニング(deadreckoning)処理とともに加速度計を使用して、デバイスの向き(ポインティング方向)決定するか又は決定をサポートすることもできる。
図4は、第2電子デバイスを識別するためにハンドヘルド電子デバイスによって実行される動作の例示的なフローチャートを図示している。図4の動作は、ハンドヘルド電子デバイス210によって実行される方法100の動作130のサブ動作とすることができる。方法400は、到着角に基づくポインティングベースの選択を使用して第2デバイスを識別し、ここで、ハンドヘルド電子デバイス210は、到着角測定要求をすべての第2デバイスに送信する410。第2デバイスは、光線270と第2光線310(又はいくつかの実施形態では第2光線340)を使用してそれらの到着角を決定する。ハンドヘルド電子デバイスは、次いで、各到着角応答を第2デバイスのすべてから受信する420。ここ及び他の場所において、処理動作を、クラウドコンピューティングデバイスのような他のデバイスにオフロードすることができ、そのようなクラウドコンピューティングデバイスは、その結果を使用のためにハンドヘルド電子デバイスにタイムリーに返すことができることに留意されたい。ハンドヘルド電子デバイス210が複数の第2デバイスと通信することができる状況では、ハンドヘルド電子デバイスは、すべての第2デバイスから受信した到着角を使用して、どの第2デバイスがハンドヘルド電子デバイス210と通信することができるかを識別する450。この識別450は、2つのアクション、すなわち430と440によって容易にされ得る。第1のアクション430は、各第2デバイスから受信した到着角の比較である。最大到着角は、デバイス依存であり得る所定のパラメータである。到着角はまた、例えばWiFi、BLE、UWB及び超音波規格を含むことができる、サポートされている技術標準によって指定されるように、使用されている無線技術に依存することもある。最大到着角は、ポインティングエラー許容度を表すことがある。第2のアクション440は、どの第2デバイスが最小到着角を有するかの判断である。
いくつかの実施形態では、所定の条件は、ユーザからの確認入力を認識することを更に含む。ユーザが選択しようとしていた第2デバイスをPGRS200が選択するように、PGRS200の性能を向上させるために、PGRS200が第2デバイスを識別すると、ハンドヘルド電子デバイス210は振動してユーザにフィードバックを提供することができる。この振動は、識別された第2デバイスが、ユーザが選択しようとしていた第2デバイスであることを確認するために、ハンドヘルド電子デバイス210のキー又はボタンを押すようにユーザに促すことができる。
いくつかの実施形態では、確認入力を認識することは、ハンドヘルド電子デバイス210を動かす第2の所定のモーションベースのジェスチャを認識することを含む。第2の所定のモーションベースのジェスチャは、所定のモーションベースのジェスチャがハンドヘルド電子デバイス210によって認識された後、ハンドヘルド電子デバイスの感知された動きに基づいて認識される。
いくつかの実施形態では、確認入力を認識することは、1つ以上の運動センサから受信した信号に基づいて、ハンドヘルド電子デバイスが所定の位置(in place)で回転していることを認識することを含む。非限定的な例として、ユーザは、正しい第2デバイスが選択されたことの確認をハンドヘルド電子デバイス210によって促されたときに、ハンドヘルド電子デバイス210を保持している手の手首をひねることができる。
いくつかの実施形態では、確認入力を認識することは、1つ以上の運動センサから受信した信号に基づいて、所定のモーションベースのジェスチャに続いて、所定の時間の間、更なる動きなしに、ハンドヘルド電子デバイスが所定の場所に保持されることを認識することを含む。この確認の非限定的な例は、ハンドヘルド電子デバイス210を、ユーザが制御したい第2デバイスの方に1秒間向けることである。確認としてハンドヘルド電子デバイス210を保持することは、当業者には「ホバリング」として知られていることを認識されたい。
いくつかの実施形態では、確認入力を認識することは、ハンドヘルド電子デバイスの物理ボタン又はハンドヘルド電子デバイスのタッチスクリーンに表示される仮想ボタンの押下を示す信号の存在を検出することを含む。この確認の非限定的な例は、ハンドヘルド電子デバイス210の電源ボタンを押すことである。この確認の別の非限定的な例は、ハンドヘルド電子デバイス210のキーボードのソフトキーを押すことである。
いくつかの実施形態では、方法は、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識した後、第2デバイスが識別された後、確認入力を検出する前に、第2デバイスと対話する意図を確認するために確認入力を提供するようユーザに促すことを更に含む。
いくつかの実施形態では、所定の条件は、ハンドヘルド電子デバイスの物理ボタン又はハンドヘルド電子デバイスのタッチスクリーンに表示される仮想ボタンの押下を示す信号の存在を検出することを更に含む。
いくつかの実施形態では、所定の条件は、モーションベースのジェスチャの開始時に物理ボタン又は仮想ボタンの押下を示す信号の存在を検出することを含む。
いくつかの実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、1つ以上の運動センサによって生成された、上向きの弧を描く動きによる第1位置から第2位置へのハンドヘルド電子デバイス210の移動を示す信号を認識することを含む。第1位置は、ユーザの腰に近く、下方を向いているハンドヘルド電子デバイスに対応し、第2位置は、伸ばした腕の端に保持され、第2デバイスの方を向いているハンドヘルド電子デバイス210に対応する。
いくつかの実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、1つ以上の運動センサによって生成された、直線的な動きによる第1位置から第2位置へのハンドヘルド電子デバイスの移動を示す信号を認識することを含む。第1位置は、ユーザによって、曲げた腕でユーザの身体の前で保持されているハンドヘルド電子デバイスに対応し、第2位置は、伸ばした腕の端で保持され、第2デバイスの方を向いているハンドヘルド電子デバイスに対応する。
図5は、ユーザ510がハンドヘルド電子デバイス210を保持し、第2デバイスとリモートに対話するためにユーザによって使用可能な3つの特定のモーションベースのジェスチャに従って、当該デバイスを動かす様子を図示している。これらの3つのモーションベースのジェスチャは、ハンドヘルド電子デバイス210のPGRS200によって認識することができる所定のモーションベースのジェスチャに含まれる。また、ハンドヘルド電子デバイス210の1つ又は複数の運動センサによって生成された信号を、ハンドヘルド電子デバイス210のPGRS200によって処理することができ、マネキンモデル(mannequin model)及び機械学習モデルを含むことができるモデルを使用して分析することができることも認識されたい。
マネキンモデルを使用した分析は、PGRS200によって以下のように実行され得る。人間の身体が典型的に行うことができる動きのタイプに基づいて運動センサからの信号を分類する動作を使用して、この信号を処理することができる。したがって、1つ以上のセンサからの信号を、人間の身体によって行われる動きにマッピングして、PGRS200によるジェスチャ認識を容易にすることができる。信号は、運動センサからの瞬間的な読み取り値又はある時間間隔で運動センサから取得されるサンプルとすることができる。
機械学習モデルを使用した分析は、PGRS200によって以下のように実行され得る。モーションベースのジェスチャを認識するための機械学習モデルは、所定のモーションベースのジェスチャを実行するようにユーザに指示し、結果として得られる1つ以上の運動センサからの信号を監視することによって、トレーニング段階中に学習することができる。結果として得られる信号を使用して、ラベル付けされたデータセットを生成することができる。トレーニングされたモデルを、次いで、PGRS200において展開して、1つ以上の運動センサから受信した新たな信号に基づいて、モーションベースのジェスチャの更なるインスタンスを認識することができる。更なる信号を、その後、機械学習モデルによって処理して、ジェスチャがいつ実行されるかを決定し、機械学習モデルは同指示を出力することができる。
モーションベースのジェスチャ560は、ユーザ510が、腕520を動かすことによって、手530によって保持されるハンドヘルド電子デバイス210を位置540から位置550に上げるときに、ユーザ510によって実行される。ユーザ510が、モーションベースのジェスチャ560のためにハンドヘルド電子デバイス210を移動させるとき、ハンドヘルド電子デバイス210は、ユーザ510の身体の近くに維持されていることを認識されたい。モーションベースのジェスチャ560は、ユーザがハンドヘルド電子デバイス210の変位、回転及び加速度を感知することを含むモーションベースのジェスチャ560を実行するとき、ハンドヘルド電子デバイス210の動きを感知するハンドヘルド電子デバイス210によって感知されることができる。
モーションベースのジェスチャ580は、ユーザ510が、腕520を使用してハンドヘルド電子デバイス210を位置550から位置570に拡張するときに起こる。ハンドヘルド電子デバイス210は、位置550にあるときにユーザ510の身体に近く、ユーザ510の身体に対するこの近接性は、ハンドヘルド電子デバイス210がジェスチャ580のために位置570に拡張されるにつれて減少することを認識されたい。モーションベースのジェスチャ580は、ハンドヘルド電子デバイスが第2デバイスに向けられているときに、ハンドヘルド電子デバイス210の変位、回転及び加速度を感知することを含む動きを感知することによって、感知されることもできる。
モーションベースのジェスチャ590は、ユーザ510が腕520を回転させて、ハンドヘルド電子デバイス210を位置540から位置570に直接動かすときに起こる。ハンドヘルド電子デバイス210は、位置540にあるときに、ユーザ510の身体に近く、ユーザ510の身体へのこの近接性は、ハンドヘルド電子デバイス210がジェスチャ590のために位置570まで拡張されるにつれて減少することを認識されたい。
いくつかの実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、1つ以上の運動センサによって生成される信号に対してパターン認識を実行することを含む。
PGRS200の実施形態は、ルールベースの動作及び学習ベースの動作又はそれらの組合せを使用して、モーションベースのジェスチャを認識することができる。これらの動作は、ハンドヘルド電子デバイス210の1つ以上の運動センサによって生成された信号を分析することができる。PGRS200は、加速度パターン、回転パターン又は磁場の大きさパターンを使用して、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することができる。PGRS200は、様々な計算方法のうちの1つ以上を使用して、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することができる。計算方法は、ユークリッド距離、余弦距離を含むことができる類似性測定(similarity measurement)を実行することと、サポートベクトルマシン(SVM)、動的時間ワープ(DTW)、自動エンコーダや長短期記憶(LSTM)及び畳み込みニューラルネットワーク(CNN)を含むことができる深層学習を含むことができる動的プログラミング技術を使用することとを含むことができる。
いくつかの実施形態では、ハンドヘルド電子デバイス210は、該ハンドヘルド電子デバイス210の運動センサから受信した信号に基づいて、ハンドヘルド電子デバイス210を保持している(又はハンドヘルド電子デバイス210を装着している)ユーザによって実行されるモーションベースのジェスチャを認識するように構成される、ジェスチャ認識装置を含む。ジェスチャ認識構成要素は、メモリに記憶された命令を実行するプロセッサによって実装され得る。非限定的な実施形態では、ジェスチャ認識構成要素は、運動センサからの信号に基づいてモーションベースのジェスチャを認識するためのルールを実装する。非限定的な実施形態では、ジェスチャ認識構成要素は、運動センサからの信号を受信し、運動センサからの信号に基づいて予測されたモーションベースのジェスチャを出力する、機械学習モデルを実装する。非限定的な実施形態では、ジェスチャ認識構成要素は、以下で更に詳細に説明されるように、運動センサからの信号に基づいて、モーションベースのジェスチャを認識するために使用されるテンプレートを実装する。機械学習モデルは、教師あり学習アルゴリズム(深層ニューラルネットワーク、サポートベクトルマシン(SVM)、類似性学習等を使用して学習することができる。
非限定的な例として、ユーザがハンドヘルド電子デバイス210を前方に動かし、モーションベースのジェスチャ560及び580又は590を実行すると、ルールベースの動作は、ユーザの測定された電磁場を処理し、ユーザがハンドヘルド電子デバイス210を前方に向けて、ユーザの電磁場の強さにおける測定された変化に基づいて、モーションベースのジェスチャ560及び580又は590を実行したと判断することができる。ルールベース処理の別の非限定的な例は、ハンドヘルド電子デバイス210の処理加速及び/又は回転に基づいて、モーションベースのジェスチャ580を実行するときに、ユーザが第2デバイスに向かって腕を伸ばしたことを判断することである。モーションベースのジェスチャ580は、ハンドヘルド電子デバイス210の直線運動、ハンドヘルド電子デバイス210の加速及びユーザの腕の回転不足を測定することを伴うことができる。モーションベースのジェスチャ580は、代替又は追加的に、ユーザの肩の回転のみを含むことができる。
ハンドヘルド電子デバイス210のPGRS200によって実行されるジェスチャ認識方法600の非限定的な例示の実施形態が、図6に図示されている。ジェスチャ認識方法600は動作610において開始する。ハンドヘルド電子デバイス210の移動中、ハンドヘルド電子デバイス210の1つ以上の運動センサは、ハンドヘルド電子デバイス210の動きに基づいて信号を生成する。1つ以上の運動センサは、加速度計、ジャイロスコープ、磁力計、気圧計を含むことができる。動作610において、センサ測定値は、ハンドヘルド電子デバイス210の1つ以上の運動センサから受信した信号に基づいて決定される。センサ測定値を決定することは、信号を受信すること、数値としての初期解釈(initial interpretation)、初期フィルタリング(initial filtering)等又はそれらの組合せを含むことができる。方法600は、次いで動作620に進む。
動作620において、磁気、動き及び加速ルールチェック動作のようなルールチェックが実行される。磁気ルールチェック動作は、磁力計によって生成された信号を処理することができる。動きルールチェック動作は、加速度計又は動きを示す他のセンサによって生成された信号を処理することができる。加速ルールチェック動作は、加速度計によって生成された信号を処理することもできる。ルールのチェックは、センサ測定値を処理して、それらが所定のモーションベースのジェスチャを示すかどうかを判断することを含む。これは、ルールが満たされているかどうかをチェックすることを含むことができ、ここで、ルールは、センサ測定値が、所定のモーションベースのジェスチャが認識されたことを示す所定の特性を示すかどうかをチェック(テスト)する。すべてのルールに従う(満たされる)場合630、PGRS200は、ハンドヘルド電子デバイス201を保持している(又はハンドヘルド電子デバイス210を装着している)ユーザによって実行されるモーションベースのジェスチャが、所定のモーションベースのジェスチャであることを認識する。言い換えると、PGRS200は、ハンドヘルド電子デバイス210がポインティング動作で使用されている640と判断する。あるいは、少なくとも1つのルールに違反している場合650、PGRS200は、所定のモーションベースのジェスチャが認識されておらず、ハンドヘルド電子デバイス210がポインティング動作で使用されていない660と判断する。
ハンドヘルド電子デバイス210のPGRS200によって実行されるジェスチャ認識方法700の別の非限定的な例示の実施形態が、図7に図示されている。この例示の実施形態では、図5に示されるように、ハンドヘルド電子デバイス210の1つ以上の運動センサは、ユーザが、保持しているハンドヘルド電子デバイス210を動かすことによってモーションベースのジェスチャを行うときに、信号を生成する。次いで、これらの運動センサによって生成された信号は、720において、受信した信号に基づいて、事前トレーニングされたモデルによって認識されたモーションベースのジェスチャのセット内の各タイプのモーションベースのジェスチャの確率を推測するように構成される、事前トレーニングされたモデルによって受信される。1つ以上の運動センサは、加速度計、ジャイロスコープ、磁力計及び気圧計を含むことができる。事前トレーニングされたモデルを、SVM、CNN及びLSTMによって実装することができる。事前トレーニングされたモデル720は、モーションベースのジェスチャのセットで最も高い確率を有するモーションベースのジェスチャのタイプの識別子(すなわち、ラベル)を、認識されたモーションベースのジェスチャとして出力する。次いで、PGRS200は、認識されたモーションベースのジェスチャのラベルが、所定のモーションベースのジェスチャに対応しているかどうかを判断する。
学習ベースの処理を使用して、モーションベースのジェスチャ中にハンドヘルド電子デバイス210を前方に向けているユーザを分析することができる。このような学習ベースの処理は、分類ベースの処理方法及び類似性ベースの処理方法を含むことができる。分類ベースの処理方法は、モーションベースのジェスチャを実行するときに、ユーザがハンドヘルド電子デバイス210を前方に向けていることを示すバイナリラベルを生成することを含むことができる。分類ベースの処理方法は、SVM、CNN又はLSTMを使用して実行することができる。類似性ベースの処理方法は、事前に構築されたポインティングジェスチャセンサ測定テンプレートの使用を含むことができる。
ハンドヘルド電子デバイス210のPGRS200によって実行されるジェスチャ認識方法800の別の非限定的な例示の実施形態が、図8に図示されている。ジェスチャ認識方法は、動作810で開始され、ここで、所定のモーションベースのジェスチャに対応するセンサ測定値のテンプレートが受信される810。
いくつかの実施形態では、モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識することは、マネキンモデルを使用して、1つ以上の運動センサによって生成された信号を処理することを含む。ハンドヘルド電子デバイス210の1つ以上の運動センサは、ハンドヘルド電子デバイス210を保持しているユーザによってポインティングジェスチャが実行されたときに、ハンドヘルド電子デバイス210の動きに基づいて信号を生成する。動作820において、1つ以上の運動センサから受信した信号を処理して、1つ以上の運動センサのセンサ測定値820を生成する。動作830において、動作810で受信したテンプレートを使用し、かつ820で生成されたセンサ測定値を使用して、信号類似性処理830が実行される。動作840において、PGRS200は、類似性がしきい値シータより大きいことを判断する。動作850において、PGRS200は、センサ測定値が所定のモーションベースのジェスチャに対応していないと判断する。動作860において、PGRS200は、類似性がしきい値シータ以下である860と判断し、PGRS200が、センサ測定値が所定のモーションベースのジェスチャに対応していると判断する動作870に進む。
いくつかの実施形態では、第2デバイスを識別することは、ハンドヘルド電子デバイス210の感知された動きが停止したと判断した後に実行される。
いくつかの実施形態では、ユーザ対話を開始することは、第2デバイスと対話するためにハンドヘルド電子デバイス210上でアプリケーションを起動することを含む。
いくつかの実施形態では、本方法は、アプリケーションを起動した後、1つ以上の運動センサによって生成された更なる信号に基づいて、ハンドヘルド電子デバイス210の更なる動きを感知することも含む。
いくつかの実施形態では、本方法は、感知された更なる動きが、電子デバイス210の移動を含み、かつ第2デバイスとの対話を停止するための、所定の選択解除モーションベースのジェスチャ(de-selection motion-based gesture)であることを認識することも含む。
いくつかの実施形態では、本方法は、感知された更なる動きが、所定の選択解除モーションベースのジェスチャであることを認識した後、アプリケーションを閉じることも含む。選択解除モーションベースのジェスチャの非限定的な例は、図5から、前述のジェスチャ590の逆の動きである。選択解除モーションベースのジェスチャであり得るジェスチャ590の逆の動きは、位置570から位置540へのハンドヘルド電子デバイス210の移動とすることができる。非限定的な例として、逆のジェスチャ590の選択解除モーションベースのジェスチャを感知することは、ハンドヘルド電子デバイス210の近接性が増加するにつれて、ユーザの電磁場の強さの増加を検出する無線周波数運動センサによって認識されることができる。
いくつかの実施形態では、1つ以上の運動センサは、加速度計、磁力計、近接センサ、ジャイロスコープ、環境光センサ、カメラ、マイク、無線周波数受信機、近接場通信デバイス及び温度センサのうちの1つ以上を含む。
図9は、ユーザがハンドヘルド電子デバイス210を動かすときにユーザのモーションベースのジェスチャに対応する信号を生成するために、ハンドヘルド電子デバイス210に含めることができるいくつかのモーションセンサを図示している。ハンドヘルド電子デバイス210のプロセッサ910は、無線周波数(RF)センサ920、カメラ930、マイク940、温度センサ950、近接場センサ960、光センサ970、加速度計980及びジャイロスコープ990によって生成される所定の条件を処理する。プロセッサ910は、所定のジェスチャを決定するために、複数のこれらの構成要素によって生成される処理信号を必要とすることがある。あるいは、プロセッサ910は、モーションベースのジェスチャを決定するために、単一の運動センサによって生成された処理信号を必要とすることがある。様々なセンサを使用することができ、この場合、そのようなセンサは、動きに直接応答するか又は動きと相関する信号を出力する。加速度計は、モーションベースの加速度に応答する。ジャイロスコープと磁力計は、それらが向きの変化に応答するので、動きに応答する。磁力計はまた、人間の身体磁場のような磁場に近づけたり遠ざけたりする動きにも応答する。他のセンサは、動きの結果であり得る条件の変化に応答する。潜在的には、複数のセンサからの信号は、これらの信号を処理して、典型的に実行されている所定のモーションベースのジェスチャに起因する特定の値の範囲、シグネチャ(signature)、波形、波形の組合せ等を識別することによって、所定のモーションベースのジェスチャを検出するために使用されることができる。
いくつかの実施形態では、1つ以上の運動センサは、変位運動(displacement motion)、回転運動(rotational motion)及びユーザへの近接性(proximity)のうちの1つ以上を検出するように構成される。
変位運動を決定する非限定的な例は、ハンドヘルド電子デバイス210の加速度計980によって生成される所定の条件に基づいて変位を決定することである。加速度計980によって生成される信号は、ユーザがモーションベースのジェスチャに従ってそれを動かすときのハンドヘルド電子デバイス210の加速及び/又は減速に対応することができる。変位運動は、加速度計980によって、ユーザの身体に対するハンドヘルド電子デバイス210の近接を感知することを含むことができることを認識されたい。
ハンドヘルド電子デバイス210の回転運動の非限定的な例を、ハンドヘルド電子デバイス210のジャイロスコープ990を使用して決定することができる。ユーザがモーションベースのジェスチャに従ってハンドヘルド電子デバイス210を動かすと、ジャイロスコープ990は、ハンドヘルド電子デバイス210の回転に対応する信号を生成することができる。
ユーザの身体に対するハンドヘルド電子デバイス210の近接を判断する非限定的な例は、RF検出器920を使用してユーザの身体によって生成された電磁場の強さを検出することである。電磁場の強さは、ユーザの身体又はRF波源に対するハンドヘルド電子デバイス210の近接を示すことができる。例えばハンドヘルド電子デバイス210がユーザの身体の方に動かされるにつれて、RF検出器920は、次第に強くなるユーザの電磁場を検出することができる。更なる例として、ハンドヘルド電子デバイス210がユーザの身体から遠くへ動かされるにつれて、RF検出器920は、徐々に弱くなるユーザの電磁場を検出することができる。
いくつかの実施形態によると、ハンドヘルド電子デバイス210は、人工知能(AI)プロセッサ915(例えば図9のプロセッサ910に加えて)を含むことができる。AIプロセッサは、グラフィックス処理ユニット(GPU)、テンソル処理ユニット(TPU)、フィールドプログラマブルゲートアレイ(FPGA)及び特定用途向け集積回路(ASIC)のうちの1つ以上を備えてよい。AIプロセッサは、機械学習モデル(すなわち、機械学習動作)の計算を実行するように構成され得る。モデル自体を、ハンドヘルド電子デバイスのメモリに展開して記憶してよい。
いくつかの実施形態では、ハンドヘルド電子デバイスの1つ以上の他の構成要素は、磁力計、近接センサ、カメラ、マイク、高周波受信機及び近接場通信デバイスのうちの1つ以上を備える。
いくつかの実施形態では、ハンドヘルド電子デバイスの1つ以上の他の構成要素は、第2デバイスを含む1つ以上の他の電子デバイスの位置を検出するように構成される。
いくつかの実施形態では、ハンドヘルド電子デバイスの1つ以上の他の構成要素は、1つ以上の他の電子デバイスの各々によって放出される信号の到着角測定に少なくとも部分的に基づいて、1つ以上の他の電子デバイスの位置を検出するように構成される。
いくつかの実施形態では、方法は更に、所定の条件が満たされ、かつ第2デバイスが識別された後に、第2デバイスを示すアイコンをハンドヘルド電子デバイスのディスプレイに表示することと、ハンドヘルド電子デバイスのポインティング方向とハンドヘルド電子デバイスに対する第2デバイスの方向との間の角度と、ハンドヘルド電子デバイスが第2デバイスに向けられている可能性(likelihood)の測定とのうちの一方又は両方に従って、ディスプレイ上のアイコンの位置を変化させることとを含む。
いくつかの実施形態では、ハンドヘルド電子デバイスは、ハンドヘルド電子デバイスの動きを示す信号を生成するように構成される1つ以上の運動センサを備える。
いくつかの実施形態では、ハンドヘルド電子デバイスは、1つ以上の運動センサによって生成された信号に基づいて、ハンドヘルド電子デバイスの動きを感知するように構成される処理エレクトロニクスを更に含む。デバイスは、感知された動きが、ハンドヘルド電子デバイスの移動を含むモーションベースのジェスチャであることを認識するように更に構成される。デバイスは、1つ以上の運動センサ、ハンドヘルド電子デバイスの1つ以上の他の構成要素又はそれらの組合せからの更なる信号に基づいて、第2デバイスを識別するように更に構成される。更なる信号は、ハンドヘルド電子デバイスがモーションベースのジェスチャの終わりを指している方向を示す。デバイスは、所定の条件が満たされ、かつ第2デバイスが識別された後、第2デバイスとリモートに対話するためにユーザ対話を開始するように更に構成される。所定の条件は、認識されたモーションベースのジェスチャが、第2デバイスと対話するための所定のモーションベースのジェスチャであるときに少なくとも部分的に満たされる。
ハンドヘルド電子デバイスの実施形態は、本明細書で説明される方法を実行するように構成されることができることを認識されたい。
図10は、処理エレクトロニクス1015のような構成要素を使用して提供することができる、機能モジュールを有するハンドヘルド電子デバイス210の非限定的な例を図示している。処理エレクトロニクスは、メモリ1030に記憶されたプログラム命令を実行するコンピュータプロセッサを含むことができる。前述のように、デバイス210は、運動センサ1020と、追加構成要素1035と、ユーザインタフェース1025と、送信機及び受信機1040を含むことができる。ユーザインタフェース1025を使用して、ユーザによる第2デバイスとの対話を指示することができる。送信機及び受信機1040を使用して、第2デバイスと通信し、また、いくつかの実施形態では、例えば到着角の測定と処理を使用して第2デバイスを見つけることもできる。
図10に図示されるデバイス210は、ポインティングジェスチャ認識モジュール1045を含む。ポインティングジェスチャ認識モジュールは、本明細書の他の場所で説明されているように、PGRSの様々な動作を実行することができる。デバイス210は、第2デバイス識別モジュール1055を含んでよく、第2デバイス識別モジュール1055は、例えば所定のジェスチャの終了時に、デバイス210が指し示している第2デバイスを識別するように構成される。デバイス210は、ユーザ対話モジュール1050を含んでよく、ユーザ対話モジュール1050は、第2デバイスとのユーザ指向の対話のための適切なアプリケーションを起動して実行し得る。デバイス210は、確認モジュール1060を含んでよく、確認モジュール1060は、本明細書の他の場所で説明されているように、確認入力を監視し、また、例えばデバイス210を振動させ、音を発生させ又はデバイス210のディスプレイ上にプロンプトを生成することによって、ユーザに確認入力を促すこともできる。
本発明を、特定の特徴及びその実施形態を参照して説明してきたが、本発明から逸脱することなく、それに対して様々な修正及び組合せを行うことができることは明らかである。したがって、本明細書及び図面は、添付の特許請求の範囲によって定義されているように、単に本発明の例示とみなされるべきものであり、本発明の範囲内にある任意の及びすべての修正、変形、組合せ又は均等物を網羅することが意図される。

Claims (10)

  1. ハンドヘルド電子デバイスによる、第2デバイスとリモートに対話するための方法であって、当該方法は、
    前記ハンドヘルド電子デバイスの1つ以上の運動センサによって生成された信号に基づいて、前記ハンドヘルド電子デバイスの動きを感知するステップと、
    前記感知された動きが、前記ハンドヘルド電子デバイスの移動を含むモーションベースのジェスチャであることを認識するステップと、
    前記1つ以上の運動センサ、前記ハンドヘルド電子デバイスの1つ以上の他の構成要素又はそれらの組合せからの更なる信号に基づいて、前記第2デバイスを識別するステップであって、前記更なる信号は、前記ハンドヘルド電子デバイスが前記モーションベースのジェスチャの終わりに指している方向を示す、ステップと、
    所定の条件が満たされ、かつ前記第2デバイスが識別された後に、前記第2デバイスとリモートに対話するためのユーザ対話を開始するステップであって、前記所定の条件は、前記認識されたモーションベースのジェスチャが、前記第2デバイスと対話するための所定のモーションベースのジェスチャであるときに少なくとも部分的に満たされる、ステップと、
    を含み、前記第2デバイスを識別するステップは、前記第2デバイスが識別されたことを示すフィードバックを提供することを含み、前記所定の条件は、前記フィードバックに応答するユーザからの確認入力を認識することを更に含み、前記確認入力を認識することは、
    (i)前記感知された動きが、前記所定のモーションベースのジェスチャに続いて、前記ハンドヘルド電子デバイスを動かす第2の所定のモーションベースのジェスチャを更に含むことを認識することと、
    (ii)前記1つ以上の運動センサを使用して、前記ハンドヘルド電子デバイスが所定の位置で回転されることを認識することと、
    (iii)前記1つ以上の運動センサを使用して、前記所定のモーションベースのジェスチャに続いて、所定の時間の間、更なる動きなしに、前記ハンドヘルド電子デバイスが所定の場所に保持されることを認識することと、
    のうちの少なくとも1つを含む、方法。
  2. 前記モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識した後、前記第2デバイスが識別された後、前記確認入力を検出する前に、前記第2デバイスと対話する意図を確認するために前記確認入力を提供するように前記ユーザに促すことを更に含む、
    請求項1に記載の方法。
  3. 前記所定の条件は、前記ハンドヘルド電子デバイスの物理ボタン又は前記ハンドヘルド電子デバイスのタッチスクリーンに表示される仮想ボタンの押下を示す信号の存在を検出することを更に含む、
    請求項1に記載の方法。
  4. 前記所定の条件は、前記モーションベースのジェスチャの開始時に、前記物理ボタン又は前記仮想ボタンの押下を示す前記信号の存在を検出することを含む、
    請求項に記載の方法。
  5. 前記モーションベースのジェスチャが前記所定のモーションベースのジェスチャであることを認識することは、前記1つ以上の運動センサによって生成された、上向きの弧を描く動きによる第1位置から第2位置への前記ハンドヘルド電子デバイスの移動を示す信号を認識することを含み、前記第1位置は、ユーザの腰に近く、下方を向いている前記ハンドヘルド電子デバイスに対応し、前記第2位置は、伸ばした腕の端に保持され、前記第2デバイスの方を向いている前記ハンドヘルド電子デバイスに対応する、
    請求項1に記載の方法。
  6. ハンドヘルド電子デバイスであって、
    当該ハンドヘルド電子デバイスの動きを示す信号を生成するように構成される1つ以上の運動センサと、
    処理エレクトロニクスであって、
    前記1つ以上の運動センサによって生成された前記信号に基づいて、当該ハンドヘルド電子デバイスの動きを感知し、
    前記感知された動きが、当該ハンドヘルド電子デバイスの移動を含むモーションベースのジェスチャであることを認識し、
    前記1つ以上の運動センサ、当該ハンドヘルド電子デバイスの1つ以上の他の構成要素又はそれらの組合せからの更なる信号に基づいて、第2デバイスを識別し、ここで、前記更なる信号は、当該ハンドヘルド電子デバイスが前記モーションベースのジェスチャの終わりに指している方向を示し、
    所定の条件が満たされ、かつ前記第2デバイスが識別された後に、前記第2デバイスとリモートに対話するためのユーザ対話を開始し、ここで、前記所定の条件は、前記認識されたモーションベースのジェスチャが、前記第2デバイスと対話するための所定のモーションベースのジェスチャであるときに少なくとも部分的に満たされる、
    ように構成される処理エレクトロニクスと、
    を備え、前記第2デバイスを識別することは、前記第2デバイスが識別されたことを示すフィードバックを提供することを含み、前記所定の条件は、前記フィードバックに応答するユーザからの確認入力を認識することを更に含み、前記確認入力を認識することは、
    (i)前記感知された動きが、前記所定のモーションベースのジェスチャに続く、当該ハンドヘルド電子デバイスの移動を含む第2の所定のモーションベースのジェスチャを更に含むことを認識することと、
    (ii)前記1つ以上の運動センサ及び前記処理エレクトロニクスを使用して、当該ハンドヘルド電子デバイスが所定の位置で回転されることを認識することと、
    (iii)前記1つ以上の運動センサ及び前記処理エレクトロニクスを使用して、前記所定のモーションベースのジェスチャに続いて、所定の時間の間、更なる動きなしに、当該ハンドヘルド電子デバイスが所定の場所に保持されることを認識することと、
    のうちの少なくとも1つを含む、ハンドヘルド処理デバイス。
  7. 前記モーションベースのジェスチャが所定のモーションベースのジェスチャであることを認識した後、前記第2デバイスが識別された後、前記確認入力を検出する前に、前記第2デバイスと対話する意図を確認するために前記確認入力を提供するように前記ユーザに促すように更に構成される、
    請求項に記載のハンドヘルド処理デバイス。
  8. 前記所定の条件は、当該ハンドヘルド電子デバイスの物理ボタン又は当該ハンドヘルド電子デバイスのタッチスクリーンに表示される仮想ボタンの押下を示す信号の存在を検出することを更に含む、
    請求項に記載のハンドヘルド処理デバイス。
  9. 前記所定の条件は、前記モーションベースのジェスチャの開始時に、前記物理ボタン又は前記仮想ボタンの押下を示す前記信号の存在を検出することを含む、
    請求項に記載のハンドヘルド処理デバイス。
  10. ハンドヘルド電子デバイスのプロセッサによって実行されると、前記ハンドヘルド電子デバイスに請求項1に記載の方法を実行させる命令を含む、コンピュータ読取可能媒体。
JP2023508055A 2020-08-06 2020-08-06 ポインティングジェスチャ認識を用いるクロスデバイス対話のアクティブ化 Active JP7640672B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2020/107405 WO2022027435A1 (en) 2020-08-06 2020-08-06 Activating cross-device interaction with pointing gesture recognition

Publications (2)

Publication Number Publication Date
JP2023537028A JP2023537028A (ja) 2023-08-30
JP7640672B2 true JP7640672B2 (ja) 2025-03-05

Family

ID=80118801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023508055A Active JP7640672B2 (ja) 2020-08-06 2020-08-06 ポインティングジェスチャ認識を用いるクロスデバイス対話のアクティブ化

Country Status (5)

Country Link
US (1) US20230038499A1 (ja)
EP (1) EP4185939A4 (ja)
JP (1) JP7640672B2 (ja)
CN (1) CN115812188B (ja)
WO (1) WO2022027435A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023106640A1 (ko) 2021-12-10 2023-06-15 삼성전자주식회사 전자 장치 및 상기 전자 장치에서 제스처의 오인식을 방지하는 방법
WO2025203058A1 (en) * 2024-03-28 2025-10-02 Ultrahuman Healthcare Pvt Ltd Wearable device for 3d positional tracking and gesture recognition

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110312311A1 (en) 2010-06-16 2011-12-22 Qualcomm Incorporated Methods and apparatuses for gesture based remote control
JP2013506385A (ja) 2009-10-02 2013-02-21 クアルコム,インコーポレイテッド ファイル共有機能のための、デバイス移動ユーザインターフェイスジェスチャ
US20150346834A1 (en) 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
JP2016504652A (ja) 2012-11-12 2016-02-12 オブロング・インダストリーズ・インコーポレーテッド ジェスチャ制御と、複数クライアント装置、ディスプレイ、及び、ユーザを有する動作環境
JP2017516242A (ja) 2015-02-26 2017-06-15 シャオミ・インコーポレイテッド スマート機器の操作制御方法、装置、プログラム及び記憶媒体
JP2018045313A (ja) 2016-09-12 2018-03-22 マクセルホールディングス株式会社 テレビ受像器の操作システム、操作装置、および、テレビ受像器
JP2019510296A (ja) 2016-02-04 2019-04-11 アップル インコーポレイテッドApple Inc. 無線測距に基づいた電子デバイスの制御及び情報の表示
US20200104038A1 (en) 2018-09-28 2020-04-02 Apple Inc. System and method of controlling devices using motion gestures

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8031172B2 (en) * 2007-10-12 2011-10-04 Immersion Corporation Method and apparatus for wearable remote interface device
CN101344816B (zh) * 2008-08-15 2010-08-11 华南理工大学 基于视线跟踪和手势识别的人机交互方法及装置
RU2455676C2 (ru) * 2011-07-04 2012-07-10 Общество с ограниченной ответственностью "ТРИДИВИ" Способ управления устройством с помощью жестов и 3d-сенсор для его осуществления
US9164579B2 (en) * 2011-11-15 2015-10-20 Lg Electronics Inc. Electronic device for granting authority based on context awareness information
US9746926B2 (en) * 2012-12-26 2017-08-29 Intel Corporation Techniques for gesture-based initiation of inter-device wireless connections
KR102124178B1 (ko) * 2013-06-17 2020-06-17 삼성전자주식회사 웨어러블 기기 및 웨어러블 기기를 이용한 통신 방법
CN103581174B (zh) * 2013-10-15 2014-11-12 国家电网公司 一种手持机与服务器信息交互装置
CN105528057B (zh) * 2014-09-28 2019-01-15 联想(北京)有限公司 控制响应方法和电子设备
CN105807903A (zh) * 2014-12-30 2016-07-27 Tcl集团股份有限公司 一种智能设备的控制方法及装置
US20170083101A1 (en) 2015-09-17 2017-03-23 International Business Machines Corporation Gesture recognition data transfer
US10295972B2 (en) * 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises
WO2017218363A1 (en) 2016-06-17 2017-12-21 Pcms Holdings, Inc. Method and system for selecting iot devices using sequential point and nudge gestures
WO2018023042A1 (en) 2016-07-29 2018-02-01 Pcms Holdings, Inc. Method and system for creating invisible real-world links to computer-aided tasks with camera
EP3538975B1 (en) * 2017-02-17 2023-01-04 Samsung Electronics Co., Ltd. Electronic device and methods for determining orientation of the device
US10453451B2 (en) * 2017-07-05 2019-10-22 Comcast Cable Communications, Llc Methods and systems for using voice to control multiple devices
US10586434B1 (en) 2017-10-25 2020-03-10 Amazon Technologies, Inc. Preventing unauthorized access to audio/video recording and communication devices
WO2020086692A1 (en) * 2018-10-23 2020-04-30 Exciting Technology LLC System, method and apparatus for non-mechanical optical and photonic beam steering
WO2020139413A1 (en) * 2018-12-27 2020-07-02 Google Llc Expanding physical motion gesture lexicon for an automated assistant
US10852915B1 (en) * 2019-05-06 2020-12-01 Apple Inc. User interfaces for sharing content with other electronic devices
US11410541B1 (en) * 2020-06-22 2022-08-09 Amazon Technologies, Inc. Gesture-based selection of devices

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013506385A (ja) 2009-10-02 2013-02-21 クアルコム,インコーポレイテッド ファイル共有機能のための、デバイス移動ユーザインターフェイスジェスチャ
US20110312311A1 (en) 2010-06-16 2011-12-22 Qualcomm Incorporated Methods and apparatuses for gesture based remote control
JP2013532338A (ja) 2010-06-16 2013-08-15 クアルコム,インコーポレイテッド ジェスチャーベースの遠隔制御のための方法および装置
JP2016504652A (ja) 2012-11-12 2016-02-12 オブロング・インダストリーズ・インコーポレーテッド ジェスチャ制御と、複数クライアント装置、ディスプレイ、及び、ユーザを有する動作環境
US20150346834A1 (en) 2014-06-02 2015-12-03 Samsung Electronics Co., Ltd. Wearable device and control method using gestures
JP2017516242A (ja) 2015-02-26 2017-06-15 シャオミ・インコーポレイテッド スマート機器の操作制御方法、装置、プログラム及び記憶媒体
JP2019510296A (ja) 2016-02-04 2019-04-11 アップル インコーポレイテッドApple Inc. 無線測距に基づいた電子デバイスの制御及び情報の表示
JP2018045313A (ja) 2016-09-12 2018-03-22 マクセルホールディングス株式会社 テレビ受像器の操作システム、操作装置、および、テレビ受像器
US20200104038A1 (en) 2018-09-28 2020-04-02 Apple Inc. System and method of controlling devices using motion gestures

Also Published As

Publication number Publication date
CN115812188B (zh) 2026-04-21
EP4185939A4 (en) 2023-08-30
CN115812188A (zh) 2023-03-17
JP2023537028A (ja) 2023-08-30
EP4185939A1 (en) 2023-05-31
US20230038499A1 (en) 2023-02-09
WO2022027435A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
US10222868B2 (en) Wearable device and control method using gestures
KR102181588B1 (ko) 동작-음성의 다중 모드 명령에 기반한 최적 제어 방법 및 이를 적용한 전자 장치
US10983603B2 (en) Devices and methods for generating input
CN106104424B (zh) 可训练的基于传感器的姿势识别
EP3007030B1 (en) Portable device and control method via gestures
US10599823B2 (en) Systems and methods for coordinating applications with a user interface
US20070139370A1 (en) Motion recognition system and method for controlling electronic devices
CN109828672B (zh) 一种用于确定智能设备的人机交互信息的方法与设备
EP2815292A1 (en) Engagement-dependent gesture recognition
KR100916836B1 (ko) 지시형 제스처를 인식하는 방법 및 장치
CN113569635B (zh) 一种手势识别方法及系统
US20230038499A1 (en) Activating cross-device interaction with pointing gesture recognition
CN105930072A (zh) 电子设备和电子设备的控制方法
CN111670004B (zh) 用于测量心率的电子装置和方法
KR20230012368A (ko) 청소 로봇을 제어하는 전자 장치 및 그 동작 방법
EP4505277A1 (en) Gesture-based application invocation
WO2024220086A1 (en) Smart home platform integrating gestural control with context determination
US20150077322A1 (en) Translation and scale invariant features for gesture recognition
KR102794335B1 (ko) 전자 장치 및 이의 제어 방법
US20250172999A1 (en) Pinch state detection system and methods
US20260072586A1 (en) Viewfinder in head-wearable device display
US20260064188A1 (en) System status user interface for extended reality
US11295172B1 (en) Object detection in non-perspective images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230327

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20241216

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20241224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250220

R150 Certificate of patent or registration of utility model

Ref document number: 7640672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150