JP2021507326A - レーダーベースのアプリケーションのためのレーダー画像シェイパー - Google Patents

レーダーベースのアプリケーションのためのレーダー画像シェイパー Download PDF

Info

Publication number
JP2021507326A
JP2021507326A JP2020520030A JP2020520030A JP2021507326A JP 2021507326 A JP2021507326 A JP 2021507326A JP 2020520030 A JP2020520030 A JP 2020520030A JP 2020520030 A JP2020520030 A JP 2020520030A JP 2021507326 A JP2021507326 A JP 2021507326A
Authority
JP
Japan
Prior art keywords
radar
signature
electronic device
image shaper
benchmark
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020520030A
Other languages
English (en)
Other versions
JP6877642B2 (ja
Inventor
ジュスティ,レオナルド
プピレフ,アイバン
鋭志 林
鋭志 林
アミフッド,パトリック・エム
アレン,ブライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of JP2021507326A publication Critical patent/JP2021507326A/ja
Application granted granted Critical
Publication of JP6877642B2 publication Critical patent/JP6877642B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

本明細書は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術およびシステムについて説明する。レーダーフィールド(110)によって、電子デバイス(102)は、レーダーフィールドにあるオブジェクト(112)の特徴的な配置(たとえば、位置、向き、速度、または方向)を精度よく判断することができるようになる。特徴的な配置は、オブジェクトのレーダー画像シェイパー(114、802、804、1204、1206)のレーダーシグネチャ(または、反射断面積)を検出することによって判断される。レーダー画像シェイパーの形状は、レーダーフィールドによって照射されると、既知のシグネチャを生成する。これらの技術を利用してオブジェクトの特徴的な配置を判断することによって、ジェスチャおよびその他の位置ベース技術を用いて電子デバイスとやり取りするためにオブジェクトを利用できるようになる。レーダー画像シェイパーによって、パッシブオブジェクトが電子デバイス上でアプリケーションを制御することが可能になるので、ユーザは、豊富なジェスチャライブラリと、追加部品またはバッテリを必要としない制御部とを用いたやり取りする方法を持てるようになる。

Description

背景
多くのアプリケーションは、追跡可能コントローラの利用と連動させることができ、アプリケーションはコントローラの位置および動きを検知できるようになる。ゲームコントローラ、テレビおよびその他のメディアデバイス用のリモコン、スタイラス、およびその他のコントローラによって、ユーザは、ゲームをしたり、プログラムを選択して変更したり、コンテンツを操作および作成したり、コントローラを利用して行われたジェスチャを使って数え切れないその他の機能を実行することができる。このように制御され得るアプリケーションの数および種類が増えると、コントローラを利用して行われる動きの数も増え、動きも複雑になり、ユーザから不満が出る可能性がある。従来のコントローラは、制御されているデバイスに備えられたカメラで追跡可能な目標、または、制御されているデバイスに位置情報を提供できる慣性計測装置(IMU:Inertial Measurement Unit)を利用する。これらのコントローラは、多くの場合、プロセッサおよび選択可能な制御部など、独自の電子機器を含んでおり、この追加機能の一部を提供するのに役立ち得るが、独自の電源も必要になる。たとえば、ゲームコントローラのモードを操舵機構からウェポンに変更して再び操舵機構に戻す、またはスタイラスをコンテンツ作成モード(たとえば、線を描く、または線の色を変更する)から(たとえば、線またはオブジェクトを移動させることによってコンテンツを操作するための)編集モードに変更するためには、コントローラまたは別のデバイス上でコマンドを入力するという面倒なプロセスを必要とし得る。その結果、追跡可能コントローラによって提供される柔軟性および臨場感を活用することが面倒で不満を募らせるものになり得、電子デバイスおよびアプリケーションの可能性を最大限に実現できない可能性がある。
概要
本明細書は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術およびシステムについて説明する。当該技術およびシステムは、レーダーフィールドを利用して、レーダーフィールドにあるオブジェクトの特徴的な配置(特定の時間のオブジェクトの位置、向き、速度、または方向)を電子デバイスが精度よく判断することを可能にする。オブジェクトの特徴的な配置は、オブジェクトに含まれるレーダー画像シェイパーのレーダーシグネチャ(または、レーダー反射断面積)を検出することによって判断される。レーダー画像シェイパーは、特定の材料から構成され、レーダーフィールドによって照射されると既知のシグネチャを生成する特定の形状を有する部品である。これらの技術を利用して、電子デバイスは、オブジェクトの特徴的な配置を判断でき、これによって、ジェスチャおよびその他の位置ベース技術を用いて電子デバイスとやり取りためにオブジェクトを利用できるようになる。レーダー画像シェイパーによって、本来は受け身である(パッシブ)オブジェクトが電子デバイス上でアプリケーションを制御することが可能になるので、ユーザは、豊富なジェスチャライブラリと、追加部品またはバッテリを必要としない制御部とを用いたやり取りする方法を持てるようになる。
以下に説明する態様は、レーダーシステムと、1つ以上のコンピュータプロセッサと、1つ以上のコンピュータ読み取り可能な媒体とを備える電子デバイスを含む。レーダーシステムは、少なくとも部分的にハードウェアで実現され、レーダーフィールドを提供する。また、レーダーシステムは、レーダーフィールドにあるオブジェクトからの反射を検知し、レーダーフィールドにあるオブジェクトの反射を分析する。レーダーシステムは、反射の分析に基づいて、レーダーデータをさらに提供する。1つ以上のコンピュータ読み取り可能な媒体は、命令を含み、当該命令は、1つ以上のコンピュータプロセッサによって実行され、レーダーシグネチャマネージャを実行し得る。レーダーシグネチャマネージャは、レーダーデータの第1サブセットに基づいて、レーダーフィールドにあるオブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出する。また、レーダーシグネチャマネージャは、検出されたレーダーシグネチャをレーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断する。検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、レーダーシグネチャマネージャは、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいてレーダーフィールドにあるオブジェクトの特徴的な配置を判断する。
また、以下に説明する態様は、レーダーシステムを備える電子デバイスによって実行される方法を含む。この方法は、レーダーシステムがレーダーフィールドを提供するステップと、レーダーシステムがレーダーフィールドにあるオブジェクトからの反射を検知するステップとを含む。また、方法は、レーダーフィールドにあるオブジェクトからの反射を分析するステップと、反射の分析に基づいて、レーダーデータを提供するステップとを含む。これに加えて、方法は、レーダーデータの第1サブセットに基づいて、オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するステップと、検出されたレーダーシグネチャを、レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較するステップとを含む。また、方法は、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断するステップを含む。これに加えて、方法は、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置を判断するステップを含む。
以下に説明する態様は、筐体と、筐体と一体化されたレーダー画像シェイパーとを備えるコントローラを含む。レーダー画像シェイパーは、レーダーシステムによって検出可能なレーダーシグネチャを提供するように構成され、レーダーシグネチャは、レーダーシステムがコントローラ筐体の特徴的な配置を判断することを可能にするのに有効である。
また、以下に説明する態様は、第1手段を含むまたは当該第1手段に関連付けられた電子デバイスを備えるシステムを含む。第1手段は、レーダーフィールドを提供し、レーダーフィールドにあるオブジェクトからの反射を検知し、レーダーフィールドにあるオブジェクトの反射を分析し、反射の分析に基づいて、レーダーデータを提供するための手段である。また、システムは、第2手段を含む。第2手段は、レーダーデータの第1サブセットに基づいて、レーダーフィールドにあるオブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するための手段である。また、第2手段は、検出されたレーダーシグネチャをレーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断する。検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、第2手段は、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいてレーダーフィールドにあるオブジェクトの特徴的な配置を判断する。
また、以下に説明する態様は、電子デバイスと、コントローラ、たとえば、スタイラスとを備えるシステムを含み、電子デバイスは、レーダーシグネチャマネージャを実行する。レーダーシグネチャマネージャは、特に、レーダー画像シェイパーの特徴的な配置に基づいて、レーダーフィールドにあるコントローラの特徴的な配置を判断し、コントローラは、レーダー画像シェイパーを内蔵した筐体を含む。
一般に、提案する電子デバイスの態様は、提案する方法、提案するコントローラ、および提案するシステムの実施形態と組み合わせることができる。
この概要は、レーダーベースのアプリケーションのためのレーダー画像シェイパーについての簡単な概念を紹介するために設けられた。レーダー画像シェイパーについては、詳細な説明および図面においてさらに説明する。この概要は、クレームされる主題の本質的な特徴を断定することを意図せず、クレームされる主題の範囲を決定するために使用されることも意図しない。
本明細書では、レーダーベースのアプリケーションのためのレーダー画像シェイパーの1つ以上の態様の詳細について、以下の図面を参照して説明する。図面の全体にわたって、同様の機能および構成要素に同一の番号を付す。
レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術が実装され得る環境例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを実施し得る図1の電子デバイスの実装例を示す図である。 図2のレーダーシステムの実装例を示す図である。 図3のレーダーシステムの受信アンテナ要素の配置例を示す図である。 図2のレーダーシステムの実装例のさらなる詳細を示す図である。 図2のレーダーシステムによって実施され得るスキーム例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にするために利用され得るレーダー画像シェイパーの実装例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にするために利用され得るレーダー画像シェイパーの実装例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする方法例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする方法例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーのさらなる詳細を実装できるオブジェクトおよびデバイスの実装例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーのさらなる詳細を実装できるオブジェクトおよびデバイスの実装例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーのさらなる詳細を実装できるオブジェクトおよびデバイスの実装例を示す図である。 レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術を実装するために、または当該技術が実装され得る、図1〜図13で説明する任意の種類のクライアント、サーバ、および/または電子デバイスとして実装できるコンピューティングシステムの例の様々な構成要素を示す図である。
詳細な説明
概要
本明細書は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術およびシステムについて説明する。上述したように、追跡可能コントローラを利用することは便利であり得るが、複数のジェスチャを必要とするまたは複数のモードを有する複雑なタスクについては不満を募らせるものであり得る。さらに、モーションベースコントローラがそれ自体の構成要素と電力を有するアクティブデバイスである場合であっても、モードややり取りする方法を変更することは面倒であり得、特に、コンテンツ作成やゲーム中など、クリエイティブまたは競争の激しい環境で作業しているときは、ユーザから不満が出るだろう。よって、入力装置の制限のせいで、ユーザは、アプリケーションが有する最大限の可能性に気づいていないかもしれない。記載の技術およびシステムは、コントローラなど、レーダーシステムが検出できる固有のレーダー反射を提供するオブジェクトにレーダー画像シェイパーを含めて、オブジェクトの特徴的な配置を精度よく判断する。この場合、精度は、高度に洗練され、正確性が高い、または、高度に洗練されており、かつ正確性が高い。これらの技術によって、コントローラを用いて生成されるジェスチャおよびジェスチャの組合せの量を増やすことが可能になる。これに加えて、記載の技術は、コントローラに電子部品または電源を追加しなくても効果的である。レーダーシステムが、部品点数および消費電力を低減しつつ、ジェスチャを精度よく判断してシステムのパフォーマンスを改善できるので、連動がさらに便利になり、不満をあまり募らせることがない。さらに、レーダーシステムは、特に、少なくとも2つのレーダー画像シェイパーがオブジェクトに備えられている場合、その他のレーダーデータ(たとえば、方位データおよび距離データ)を用いてレーダー画像シェイパーの3次元(3D)位置ならびに移動および加速度を判断することができる。
ゲームコントローラなど、1つ以上のレーダー画像シェイパーを備えるコントローラを考える。コントローラは、ゲーミングコンソール、またはレーダーシグネチャマネージャと電子デバイス近くのレーダーフィールドを提供するために使用され得るレーダーシステムとを備えるその他の電子デバイスとともに使用できる。レーダーフィールドは、レーダー画像シェイパーのレーダーシグネチャを検出し、レーダーシグネチャに基づいて、コントローラの特徴的な配置を判断できる。たとえば、飛行機を飛ばすゲームまたはシミュレータをプレイするためのゲームコントローラは、コントローラの各端部にレーダー画像シェイパーを含んでもよい。ゲーミングコンソールにおけるレーダーシステムは、レーダー画像シェイパーからのレーダー反射(たとえば、レーダー画像シェイパーのレーダー「シグネチャ」)を検出して、検出されたシグネチャを様々なレーダー画像シェイパーの既知の基準シグネチャと比較することができる。この比較によって、レーダーシステムは、レーダー画像シェイパーの特徴的な配置、したがって、コントローラの特徴的な配置を判断できるようになる。さらに、レーダーシステムは、その他のレーダーデータ(たとえば、方位データおよび距離データ)を用いてレーダー画像シェイパーの3次元(3D)位置ならびに移動および加速度を判断することができる。このように、電子部品を有さず、かつ、専用の電源を必要としないコントローラを用いて、ゲームまたはその他のアプリケーションを制御できる複雑なジェスチャを作ることができる。
カメラ、加速度計、または慣性センサを用いてコントローラの特徴的な配置を判断する従来のコントローラもある。たとえば、このコントローラは、動力を備えたセンサと、コントローラの移動を追跡してその情報をゲーミングコンソールに送ることができる通信インターフェースとを備えてもよい。その他の場合、この従来のコントローラは、ゲーミングコンソールに接続されたカメラによって追跡できる球形またはその他のオブジェクトを含んでもよい。しかしながら、これらの従来技術は、多くの場合、位置、特に3D位置をあまり正確に判断せず、通常、追加部品および電源の両方を必要とする。これにより、さらに費用および面倒(たとえば、バッテリーの交換)が増えて、信頼性の問題につながり得る(たとえば、部品の破壊、破損、または摩耗)。さらに、この例では、従来のゲーミングコンソール自体が、同様の課題を生じさせる可能性がある追加コンポーネント(たとえば、カメラおよび通信インターフェース)を必要とする。よって、従来技術は、より多くの電力を使い、場合によっては、ユーザエクスペリエンスの質が低いだろう。
一方、記載のシステムおよび技術は、消費電力およびメンテナンス費用を抑えつつ、いくつかの分野においてユーザエクスペリエンスおよび使い勝手を向上させることができる。たとえば、上記の例では、コントローラは、使用電力がカメラよりも大幅に少ないレーダーシステムを有するゲーミングコンソールによって精度よく検出できる「パッシブ」コントローラ(内部の電子機器または動力を備えた部品を有さない)であってもよい。レーダーシステムは、コントローラに含まれるレーダー画像シェイパーのレーダーシグネチャを用いてコントローラの特徴的な配置または移動を精度よく判断することができる。本明細書では、オブジェクトを例にした「特徴的な配置」という用語は、特定の時間のオブジェクトの位置、向き、速度、または方向のうちのいずれかまたはそれらの組合せを指す。たとえば、オブジェクトの場所は、レーダーシステムからの距離および3D空間における位置(たとえば、直線距離、方位、および高度)など、レーダーシステムを基準としたオブジェクトの絶対位置であってもよい。これに加えて、向きは、レーダーシステムを基準とし、かつ、オブジェクトの1つ以上の特徴に対するオブジェクトの位置であってもよい(たとえば、オブジェクトの特定の特徴または面がレーダーシステムに向いているなど、オブジェクトがどのようにレーダーシステムに「向けられているか」)。速度は、オブジェクトの絶対速度またはレーダーシステムに対する速度を含んでもよい。方向は、レーダーシステムに近づいたり離れたりするオブジェクトの移動を指してもよい。
また、特徴的な配置は、これらの値のうちの一部またはすべての一定期間中の変化を含んでもよい。たとえば、オブジェクトの特徴的な配置の変化は、全体速度または相対速度の変化、オブジェクトとレーダーシステムとの距離の変化(たとえば、オブジェクトがレーダーシステムに近くなったか、離れたか)、オブジェクトがレーダーシステムに近づくように向きを変えられたり、離れるように向きを変えられたり、軸を中心に回転させられたなどの向きの変化、または、方向の変化を含んでもよい。
このように、記載の技術およびシステムは、コントローラおよびゲームシステムのユーザエクスペリエンスの質を高める。コントローラが提供する利点および利便性をユーザが楽しむことができる一方、レーダーシグネチャマネージャおよびレーダーシステムがさらなる柔軟性および機能の向上を、電力を過剰に消費することなく提供する。これに加えて、オブジェクトの特徴的な配置を検出するためにレーダーシステムを利用することによって、ユーザの映像が必要ないため、プライバシーおよびセキュリティを向上させることができる。さらに、コントローラの位置および動きを制御または検出するために常時オンカメラ(もしくは、その他のセンサまたはセンサの組合せ)を利用し得るいくつかの従来技術よりも、コントローラおよびゲーミングコンソール自体の消費電力を実質的に少なくすることができる。
これらは、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にするために記載の技術およびデバイスがどのように利用され得るかについての少ない例である。その他の例および実装形態を、本明細書全体を通して説明する。ここで、本明細書は、環境例を説明し、その後、システム、装置、方法、および構成要素の例を説明する。
動作環境
図1は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術が実装され得る環境例100を示す図である。環境例100は、電子デバイス102を備える。電子デバイス102は、レーダーシステム104と、レーダーシグネチャマネージャ106(シグネチャマネージャ106)と、シグネチャライブラリ108とを含むまたはそれらに関連付けられる。
環境例100では、レーダーシステム104は、図3〜図6で後述する1つ以上のレーダー信号または波形を送信することによってレーダーフィールド110を提供する。レーダーフィールド110は、レーダーシステム104がレーダー信号および波形の反射(たとえば、空間容積に存在するオブジェクトから反射したレーダー信号および波形)を検出できる空間容積である。また、レーダーシステム104によって、電子デバイス102または別の電子デバイスがレーダーフィールド110に存在するオブジェクト112からの反射を検知して分析することが可能になる。低パワーが必要である、処理効率が必要である、アンテナ要素空間およびレイアウトが制限されているなどの課題およびその他の課題の収束がある、電子デバイス102などのスマートフォンの状況においてレーダーシステム104のいくつかの実装形態を適用すると特に有利である。細かい手のジェスチャのレーダー検出が望まれるスマートフォンの特定の状況においては、さらに有利である。実施形態は、レーダー検出される手の細かいジェスチャを必要とする記載のスマートフォンの状況において特に有利であるが、当然のことながら、本発明の特徴および利点の利用可能性をそれらに限定する必要はなく、その他の種類の電子デバイスを含むその他の実施形態も本教示の範囲に含まれる。
オブジェクト112は、様々なオブジェクトのうちのいずれであってもよい。場合によっては、オブジェクト112は、木、プラスチック、金属、布地、人体、または体の一部(たとえば、電子デバイス102のユーザの足、手、または指)など、レーダーシステム104がレーダー反射を検知して分析できるオブジェクトであり得る。図1に示すように、オブジェクト112は、スタイラスである。オブジェクト112は、オブジェクト112に取り付けられるレーダー画像シェイパー114を含む。レーダー画像シェイパーは、図1に示すように、オブジェクト112と一体化されていてもよく、取り外し可能にオブジェクト112に取り付けられていてもよい。反射の分析に基づいて、レーダーシステム104は、図3〜図6で説明するように、レーダーフィールド110に関連する様々な種類の情報、およびオブジェクト112およびレーダー画像シェイパー114からの反射を含むレーダーデータを提供することができる(たとえば、レーダーシステム104がシグネチャマネージャ106など、その他のエンティティにレーダーデータを渡すことができる)。
なお、レーダーデータは、検知され分析されたレーダーフィールド110に存在するオブジェクト112からの反射に基づいて、ある期間にわたって常時または定期的に提供されてもよい。オブジェクトの位置112は、時間とともに変化し得る(たとえば、オブジェクト112は、レーダーフィールド110内で移動する場合がある)ため、変化した位置、反射、および分析に対応してレーダーデータが時間とともに変動し得る。レーダーデータが時間とともに変動し得るので、レーダーシステム104は、それぞれ異なる期間に対応するレーダーデータの1つ以上のサブセットを含むレーダーデータを提供してもよい。たとえば、レーダーシステム104は、第1期間に対応するレーダーデータの第1サブセット、第2期間に対応するレーダーデータの第2サブセットなどを提供してもよい。
レーダー画像シェイパー114は、認識可能なレーダーシグネチャ(たとえば、大きなレーダー反射断面積)を有する構成要素である。たとえば、レーダー画像シェイパー114は、1つ以上のコーナーリフレクタを含んでもよい(たとえば、レーダー信号を反射する2つまたは3つの垂直に交差する平らな面から作られる形状)。レーダー画像シェイパー114のレーダーシグネチャは、レーダーシステム104に対するその特徴的な配置に応じて変動してもよく、これより、レーダーシステム104がオブジェクト112の特徴的な配置を判断できる。レーダー画像シェイパー114のさらなる詳細は、図7および図8で説明する。
シグネチャマネージャ106によって、ユーザが電子デバイス102の様々な機能とやり取りするまたはそれらを制御することが可能になる(たとえば、ゲームをする、アプリケーションまたはその他のプログラムを操作する、電子デバイス102の機能を制御する)。たとえば、シグネチャマネージャ106は、レーダーデータの1つ以上のサブセットを利用してレーダー画像シェイパー114のレーダーシグネチャを検出することができる。上述したように、レーダー画像シェイパー114は、レーダーフィールドにあるオブジェクトと一体化されていてもよく、取り外し可能に当該オブジェクトに取り付けられてもよい。シグネチャマネージャ106は、検出されたレーダーシグネチャを、レーダー画像シェイパーの特徴的な配置と対応するベンチマークレーダーシグネチャと比較することができる。
たとえば、シグネチャマネージャ106は、レーダーデータの1つ以上のサブセットを利用することによって、検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較し、レーダー画像シェイパー114の様々な特徴(たとえば、特定の材料、形状、コーナー、エッジ、面、またはそれらの組合せに関連するレーダーデータの特徴)を判断してもよい。検出された特徴を分析して、対応するベンチマークレーダーシグネチャの既知の特徴との一致を判断する。いくつかの実装形態では、レーダーシグネチャマネージャは、検出されたレーダーシグネチャを、レーダー画像シェイパー114の異なる特徴的な配置に対応する複数のベンチマークレーダーシグネチャと比較してもよい。たとえば、シグネチャマネージャ106は、検出されたレーダーシグネチャを、シグネチャライブラリ108に格納される複数のベンチマークレーダーシグネチャと比較してもよい。
シグネチャライブラリ108は、ベンチマークレーダーシグネチャ、および、レーダー画像シェイパー114の特徴的な配置に対応するオブジェクト112の特徴的な配置などのその他のデータを格納し得る記憶装置である。シグネチャライブラリ108は、シグネチャマネージャ106など、電子デバイス102のその他の構成要素がアクセスして利用できる任意の適した種類のメモリであってもよい。シグネチャライブラリ108は、図1に示すように、シグネチャマネージャ106の一部であってもよい。その他の実装形態では、シグネチャライブラリ108は、電子デバイス102の一部であってもよいが、シグネチャマネージャ106とは別個であってもよく、電子デバイス102から離れていてもよい。
検出されたレーダーシグネチャとベンチマークレーダーシグネチャとの比較に基づいて、シグネチャマネージャ106は、検出されたレーダーシグネチャがベンチマークレーダーシグネチャと一致すると判断し得る。レーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、シグネチャマネージャ106は、一致したベンチマークレーダーシグネチャに対応するレーダー画像シェイパー114の特徴的な配置に基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置を判断することができる。電子デバイス102を基準にしてレーダー画像シェイパー114の特定の特徴的な配置をシグネチャマネージャ106が判断する例を考える。また、この例では、シグネチャマネージャ106は、レーダー画像シェイパー114の特徴的な配置に対応するオブジェクト112の特徴的な配置を含むデータを格納するシグネチャライブラリ108(または、別のソース)にアクセスすることによってもオブジェクト112の特徴的な配置を判断することができる。
このように、シグネチャマネージャ106は、オブジェクト112の特徴的な配置を判断でき、これによって、ユーザが電子デバイス102とやり取りするまたは電子デバイス102を制御することが可能になる。たとえば、以上のように、シグネチャマネージャ106は、オブジェクト112の特徴的な配置を判断できる。上述したように、オブジェクト112の特徴的な配置を判断することは、オブジェクト112の特徴的な配置の様々な異なる態様のうちの1つ以上(これらの態様のうちのいずれかの態様の組合せを含む)を判断することを含んでもよい。これらの態様は、たとえば、電子デバイス102を基準にしたオブジェクト112の絶対位置、電子デバイス102からのオブジェクト112の距離、オブジェクト112の速度、電子デバイス102を基準にしたオブジェクト112の位置または距離の変化(たとえば、オブジェクト112が電子デバイス102に近づくように移動しているか離れるように移動しているか、電子デバイス102に近づくように向きを変えられたか離れるように向きを変えられたか、軸を中心に回転させられたかどうかなど)、または、オブジェクト112の速度の変化を含んでもよい。
また、シグネチャマネージャ106は、レーダーデータの1つ以上のサブセットを利用して、オブジェクト112の特徴的な配置の変化を判断することができる(たとえば、オブジェクト112の特徴的な配置をある期間にわたって判断するためにレーダーデータを利用することによって)。オブジェクト112の特徴的な配置の変化に基づいて、シグネチャマネージャ106は、オブジェクト112によるジェスチャを判断することができる。次に、シグネチャマネージャ106は、(たとえば、後述する3次元(3D)ジェスチャモジュール116など、3Dジェスチャライブラリを利用して)当該ジェスチャに対応する電子デバイスの機能を判断して、当該ジェスチャに対応する機能を電子デバイス102に提供させることができる。
オブジェクト112が1つ以上のレーダー画像シェイパー114を備えるフライトシミュレータゲームのコントローラである例を考える。コントローラを握っているユーザがシミュレータを上に向けてから左に向けるジェスチャを行う(たとえば、コントローラをユーザ側に移動させてから反時計回りに回転させるジェスチャ)。シグネチャマネージャ106は、以上のように、レーダー画像シェイパー114の特徴的な配置を判断することによって、ジェスチャの始めにゲームコントローラの特徴的な配置を判断し、ジェスチャが続いている間を通して継続してコントローラの特徴的な配置を判断することができる。これにより、シグネチャマネージャ106は、ジェスチャ(または、複数のジェスチャ)の判断結果を利用して、電子デバイス102とともにコントローラを使ってユーザがフライトシミュレータを操作することを可能できる。
また、いくつかの実装形態では、電子デバイス102は、1つ以上のその他のモジュール、インターフェース、またはシステムを含んでもよく、またはそれらに関連付けられてもよい。図1に示すように、電子デバイス102は、3Dジェスチャモジュール116を含み、3Dジェスチャモジュール116は、レーダーデータに基づいて3Dジェスチャを判断することに関する情報と、3Dジェスチャに対応する動作に関する情報とを格納することができる。図1に示すように、3Dジェスチャモジュール116は、シグネチャマネージャ106の一部として描かれている。しかしながら、その他の実装形態では、3Dジェスチャモジュール116は、電子デバイス102の一部であり得る別のエンティティ、または電子デバイス102とは別個であってもよい。
3Dジェスチャは、電子デバイス102に近づいたり離れたりする移動、横方向の移動、軸を中心としたオブジェクト112の回転などを含む、オブジェクト112を用いて行われる様々なジェスチャのうちのいずれかであり得る。場合によっては、オブジェクト112は、ユーザの体(たとえば、指または手首)に装着されるオブジェクトであってもよく、水平方向(たとえば、電子デバイス102の左側から右側に)に沿って手を電子デバイス102上で動かすことによって行われるスクロールするジェスチャ、肘を中心にユーザの腕を回転することによって行われる振るジェスチャ、垂直方法(たとえば、電子デバイス102の下側から上側に)に沿って電子デバイス102上でユーザの手を動かすことによって行われる押すジェスチャなど、ユーザによって行われる3Dジェスチャを、レーダーシグネチャマネージャを利用して検出することができる。また、ユーザの手を電子デバイス102に向けて動かすことによって行われる掴むジェスチャ、ユーザの手の指をひねって仮想のドアノブを掴み、時計回りまたは反時計回りに回転させて仮想のドアノブを回す動作を真似ることによって行われるノブを回すジェスチャ、および親指と少なくとも1つの他の指とを合わせてこすることによって行われるスピンドルを回すジェスチャなど、その他の種類の3Dジェスチャまたは動きを行ってもよい。これらの例示的なジェスチャの種類の各々は、レーダーシステム104によって検出されてもよい。
レーダーデータまたはレーダーデータの1つ以上のサブセットに基づいて、シグネチャマネージャ106は、オブジェクト112による3Dジェスチャを検出し、(たとえば、3Dジェスチャモジュール116を利用して)当該ジェスチャが電子デバイス102の特定の機能または動作に対応することを判断できる。この特定の機能または動作は、アプリケーションとやり取りする(たとえば、アプリケーションを求めてブラウジングする、アプリケーションを選択する、または開く)、ゲーム、メディアプレーヤ、または別のアプリケーションのユーザインタフェースを操作するなど様々な機能または動作のうちのいずれかであってもよい。このように、レーダーシステム104によって、電子デバイス102をタッチフリー形式で制御できるようになる。例示的な3Dジェスチャおよび対応する動作については、以下にさらに説明する。
図3〜図6で説明したように、レーダーシステム104は、レーダーフィールド110を利用して、レーダーフィールド110に存在するオブジェクトからの反射を、ジェスチャを高い分解能と精度で認識できる方法で検知および分析することができる。さらに、3Dジェスチャは、あらかじめ定義されてもよく、一覧から選択されてもよく、カスタマイズされでもよい(たとえば、ユーザは、シグネチャマネージャ106およびレーダーシステム104とやり取りし、固有のジェスチャまたはジェスチャの組合せを、特定の動作に対応するジェスチャとして定義してもよい)。
より詳細には、図2を考える。図2は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実現し得る電子デバイス102の実装例200を示す図である(レーダーシステム104、シグネチャマネージャ106、シグネチャライブラリ108、および、任意で、3Dジェスチャモジュール116を含む)。図2の電子デバイス102は、スマートフォン102−1、スタイラス102−2、ラップトップ102−3、デスクトップコンピュータ102−4、コンピュータウォッチ102−5、タブレット端末102−6、ゲームシステム102−7、ホームオートメーション/制御システム102−8、およびリモコン102−9を含む様々なデバイス例とともに示されている。また、電子デバイス102は、テレビ、エンターテインメントシステム、オーディオシステム、自動車、ドローン、トラックパッド、ドローイングパッド、ネットブック、電子ブック、ホームセキュリティシステム、およびその他の家庭用電気機器など、その他のデバイスを含み得る。なお、電子デバイス102はウェアラブル、非ウェアラブルであり得るがモバイルではない、またはどちらかというと固定型(たとえば、デスクトップおよび電気器具)であり得る。
なお、電子デバイス102の全体の側面の寸法例は、たとえば、約8センチメートル×約15センチメートルであり得る。レーダーシステム104の占有面積例は、アンテナを含んで約4ミリメートル×6ミリメートルなど、さらに限定され得る。電力限界および処理限界とあわせてこのように空間が限定されたパッケージ(たとえば、指紋センサ、その他の非レーダーセンサなど)の中に電子デバイス102の多くの好ましい機能を収容するために必要なレーダーシステム104のこのように限定された占有面積の要件によって、レーダージェスチャ検出の精度および有効性において妥協しなければならなくなる可能性があるが、少なくともいくつかは本明細書の教示に照らして克服することができる。
また、電子デバイス102は、1つ以上のコンピュータプロセッサ202と、メモリ媒体および記憶媒体を含む1つ以上のコンピュータ読み取り可能な媒体204とを備える。コンピュータ読み取り可能な媒体204上のコンピュータ読み取り可能な命令として実装されるアプリケーションおよび/またはオペレーティングシステム(図示せず)をコンピュータプロセッサ202によって実行して本明細書に記載の機能の一部またはすべてを提供することができる。また、電子デバイス102は、ネットワークインターフェース206を備えてもよい。電子デバイス102は有線、無線、または光ネットワークを介してデータを通信するためのネットワークインターフェース206を利用することができる。一例として、ネットワークインターフェース206は、ローカルエリアネットワーク(LAN)、ワイヤレスローカルエリアネットワーク(WLAN)、パーソナルエリアネットワーク(PAN)、ワイドエリアネットワーク(WAN)、イントラネット、インターネット、ピアツーピアネットワーク、ポイントツーポイントネットワーク、またはメッシュネットワークを介してデータを通信してもよいが、これに限定されない。
レーダーシステム104の様々な実装形態は、SoC(System−on−Chip)、1つ以上の集積回路(IC:Integrated Circuit)、プロセッサ命令が組み込まれたプロセッサまたはメモリに格納されたプロセッサ命令にアクセスするように構成されたプロセッサ、ファームウェアが組み込まれたハードウェア、様々なハードウェアコンポーネントを有するプリント回路基板、もしくは任意のそれらの組合せを備え得る。レーダーシステム104は、自身のレーダー信号を送受信することにより、モノスタティックレーダーとして動作する。また、いくつかの実装形態では、レーダーシステム104は、外部環境内のその他のレーダーシステム104と協働してバイスタティックレーダー、マルチスタティックレーダー、またはネットワークレーダーを実現してもよい。しかしながら、電子デバイス102の制約または限定は、レーダーシステム104の設計に影響を与え得る。電子デバイス102は、たとえば、レーダーを操作するために利用可能な電力が限られている、計算能力が限られている、サイズに制約がある、レイアウト制限がある、レーダー信号を減衰または歪ませる外部筐体を有しているなどの可能性がある。レーダーシステム104は、これらの制約が存在するなかで、図3でさらに説明するが、高度なレーダー機能および高パフォーマンスを実現することを可能にするいくつかの特徴を含む。なお、図2において、レーダーシステム104およびシグネチャマネージャ106は、電子デバイス102の一部として示されている。その他の実装形態では、レーダーシステム104およびシグネチャマネージャ106のいずれかまたは両方は、電子デバイス102とは別個であってもよく、電子デバイス102から離れていてもよい。
これらのおよびその他の能力および構成、ならびに図1のエンティティが動作および相互に作用する方法について、以下にさらに詳細に説明する。これらのエンティティをさらに分割したり、組み合わせたりしてもよい。図1の環境100および図2〜図14の詳細な例示は、記載の技術を使用可能な多くの想定される環境およびデバイスのうちの一部を示す。図3〜図6は、レーダーシステム104のさらなる詳細および特徴を説明する。図3〜図6では、レーダーシステム104は、電子デバイス102を背景に説明されているが、上述したように、記載のシステムおよび技術の特徴および利点の利用可能性をそれらに限定する必要はなく、その他の種類の電子デバイスを含むその他の実施形態も本教示の範囲に含まれる。
図3は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にするために使用され得るレーダーシステム104の実装例300を示す図である。例300では、レーダーシステム104は、次の構成の各々のうちの少なくとも1つを備える。通信インターフェース302、アンテナアレイ304、送受信機306、プロセッサ308、およびシステム媒体310(たとえば、1つ以上のコンピュータ読み取り可能な記憶媒体)。プロセッサ308は、デジタル信号プロセッサ、コントローラ、アプリケーションプロセッサ、別のプロセッサ(たとえば、電子デバイス102のコンピュータプロセッサ202)またはそれらの何らかの組合せとして実装され得る。
システム媒体310は、電子デバイス102のコンピュータ読み取り可能な媒体204内に含まれてもよく、コンピュータ読み取り可能な媒体204とは別であってもよい。システム媒体310は、次のモジュールのうちの1つ以上を含む。減衰軽減器314、デジタルビームフォーマ316、角度推定器318、または電力管理部320。これらのモジュールは、電子デバイス102内にレーダーシステム104を内蔵することを補償する、または内蔵することの影響を抑えることができ、レーダーシステム104が特定のレーダーシグネチャ(たとえば、特定のレーダー反射断面積または周波数特性)を認識する、小さいまたは複雑なジェスチャを認識する、電子デバイス102のそれぞれ異なる特徴的な配置、別のオブジェクト(たとえば、オブジェクト112)、またはユーザを区別する、外部環境を常時監視する、または目標誤警報率を実現することが可能になる。これらの特徴によって、レーダーシステム104を図2に例示するデバイスなど、様々な異なるデバイス内に実装することができる。
通信インターフェース302を利用して、レーダーシステム104は、シグネチャマネージャ106にレーダーデータを提供することができる。通信インターフェース302は、レーダーシステム104が電子デバイス102とは別に実装されているまたは電子デバイス102に内蔵されていることに基づいた無線インターフェースであってもよく、有線インターフェースであってもよい。アプリケーションによっては、レーダーデータは、RAWデータまたは最低限の加工が施されたデータ、I/Q(同相および直角位相)データ、レンジドップラーデータ、目標位置情報(たとえば、距離、方位、高度)を含む加工データ、クラッタマップデータなどを含んでもよい。一般に、レーダーデータは、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実現するまたは可能にするためにシグネチャマネージャ106が使用可能な情報を含んでいる。
アンテナアレイ304は、少なくとも1つの送信アンテナ要素(図示せず)と少なくとも2つの受信アンテナ要素とを含む(図4に示す)。場合によっては、アンテナアレイ304は、複数の送信アンテナ要素を含み、一度に複数の別個の波形(たとえば、送信アンテナ要素ごとに異なる波形)を送信可能なMIMO(Multiple−Input Multiple−Output)レーダーを実装してもよい。複数の波形を利用することによってレーダーシステム104の測定精度を上げることができる。受信アンテナ要素は、1次元形状(たとえば、線)または3つ以上の受信アンテナ要素を含んだ実装形態用に2次元形状で配置され得る。1次元形状では、レーダーシステム104は1つの角度次元(たとえば、方位または高度)を測定でき、2次元形状では、2つの角度次元(たとえば、方位および高度)を測定できる。受信アンテナ要素の2次元配置例については、図4でさらに説明する。
図4は、受信アンテナ要素402の配置例400を示す図である。アンテナアレイ304が少なくとも4つの受信アンテナ要素402を含む場合、たとえば、図4の中央に示すように、受信アンテナ要素402を矩形配置404−1に配置することができる。或いは、アンテナアレイ304が少なくとも3つの受信アンテナ要素402を含む場合、三角形配置404−2またはL字配置404−3を用いてもよい。
電子デバイス102のサイズまたはレイアウトの制約によって、受信アンテナ要素402間の要素間隔または受信アンテナ要素402の量が、レーダーシステム104が監視する角度にとって理想的でない場合がある。特に、要素間隔によって、角度が曖昧になってしまい、従来のレーダーでは目標の角度位置を推定することが困難になる。そのため、従来のレーダーでは、視野(例えば、監視する角度)を限定して角度が曖昧な曖昧ゾーンを回避することによって、誤検出を減らす場合がある。たとえば、従来のレーダーは、視野を約−45度〜45度の角度に限定して5ミリメートル(mm)の波長および3.5mmの要素間隔(たとえば、波長の70%の要素間隔)を用いた場合に生じる、角度が曖昧になることを回避する。その結果、従来のレーダーでは、45度という視野の限界を超えた目標を検出できない可能性がある。一方、レーダーシステム104は、デジタルビームフォーマ316および角度推定器318を備える。デジタルビームフォーマ316および角度推定器318は、角度が曖昧になることを解消し、約−90度〜90度の間の角度など、45度という限界を超えた角度から、最大で約−180度〜180度の間の角度までレーダーシステム104が監視することを可能にする。これらの角度範囲は、1つ以上の方向(たとえば、方位および/または高度)にわたって適用され得る。したがって、レーダーシステム104は、レーダー信号の中心波長よりも狭い、広い、またはその半分に等しい要素間隔を含む様々な異なるアンテナアレイ設計に対して低い誤警報率を実現できる。
アンテナアレイ304を利用して、レーダーシステム104は、向きを操作されたまたは操作されていないビーム、ワイドビームまたはナロービーム、あるいは成形された(たとえば、半円形、立方形、扇形、円錐形、または円柱形)ビームを形成することができる。一例として、1つ以上の送信アンテナ要素(図示せず)は、向きを操作されていない全方位照射パターンを有してもよく、ワイド送信ビーム406など、ワイドビームを生成できてもよい。これらの技術のいずれも、レーダーシステム104が大きな空間容積を照射することを可能にする。しかしながら、目標角精度および角度分解能を実現するために、受信アンテナ要素402およびデジタルビームフォーマ316を用いて、ナロー受信ビーム408など、向きを操作された何千ものナロービーム(たとえば、2000ビーム、4000ビーム、または6000ビーム)を生成することができる。このように、レーダーシステム104は、外部環境を効率的に監視して外部環境内の反射の到来角を精度よく判断することができる。
図3に戻ると、送受信機306は、アンテナアレイ304を介してレーダー信号を送受信するための回路およびロジックを含む。送受信機306の構成要素は、レーダー信号を調整するための増幅器、混合器、スイッチ、AD変換器、フィルタなどを含み得る。また、送受信機306は、変調および復調などI/Q(In−phase/Quadrature)動作を実行するためのロジックも含み得る。送受信機306は、連続波レーダーオペレーションまたはパルスレーダーオペレーションのために構成され得る。線形周波数変調、三角周波数変調、ステップ周波数変調、または位相変調を含む、様々な変調を利用してレーダー信号を生成することができる。
送受信機306は、1ギガヘルツ(GHz)〜400GHzの間、4GHz〜100GHzの間、または57GHz〜63GHzの間など、周波数範囲(たとえば、周波数スペクトル)内のレーダー信号を生成し得る。周波数スペクトルは、同様の帯域幅または異なる帯域幅を有する複数のサブスペクトルに分割され得る。帯域幅は、500メガヘルツ(MHz)、1GHz、2GHz程度などであり得る。一例として、それぞれ異なる周波数サブスペクトルが約57GHz〜59GHzの間、59GHz〜61GHzの間、または61GHz〜63GHzの間の周波数を含んでもよい。また、同じ帯域幅を有し、かつ、隣接するまたは隣接しない複数の周波数サブスペクトルをコヒーレンスに選んでもよい。複数の周波数サブスペクトルは、1つのレーダー信号または複数のレーダー信号を用いて同時にまたは別々のタイミングで送信され得る。隣接した周波数サブスペクトルによってレーダー信号がより広い帯域幅を有することが可能になり、隣接しない周波数サブスペクトルによって、角度が曖昧になることを角度推定器318が解決できるようにする振幅差および位相差をさらに強調することができる。減衰軽減器314または角度推定器318は、送受信機306に、図5および図6で説明するように、1つ以上の周波数サブスペクトルを利用してレーダーシステム104のパフォーマンスを向上させてもよい。
電力管理部320は、レーダーシステム104が電子デバイス102の内部または外部の電力を節約することを可能にする。いくつかの実装形態では、電力管理部320は、シグネチャマネージャ106またはスマートフォン電力管理インターフェース118と通信を行い、レーダーシステム104内または電子デバイス102内のいずれかもしくは両方の電力を節約する。内部的には、たとえば、電力管理部320は、レーダーシステム104に、定義済みの電力モードまたは特定のデューティサイクルを利用してデータを収集させ得る。この場合、電力管理部320は、環境内のアクティビティに基づいて応答遅延と消費電力とをあわせて管理できるよう、異なる電力モードを動的に切り替える。一般に、電力管理部320は、いつ、どのように電力が節約され得るかを判断し、漸進的に消費電力を調整してレーダーシステム104が電子デバイス102の電力制限内で動作できるようにする。場合によっては、電力管理部320は、利用可能な電力残量を監視し、それに従ってレーダーシステム104の動作を調整してもよい。たとえば、電力残量が低い場合、電力管理部320は、高パワーモードに切り替える代わりに、低パワーモードで動作を継続してもよい。
低パワーモードは、たとえば、数ヘルツ(たとえば、約1Hzまたは5Hz未満)程度の低いデューティサイクルを利用してもよく、これによって消費電力が数ミリワット(mW)(たとえば、約2mW〜8mWの間)に抑えられる。一方、高パワーモードは、数十ヘルツ(Hz)程度(たとえば、約20Hzまたは10Hzよりも上)の高いデューティサイクルを利用してもよく、これによってレーダーシステム104に数ミリワット程度(たとえば、約6mW〜20mWの間)の電力を消費させる。低パワーモードは外部環境の監視または近づいてきているユーザを検出するために利用され得るが、ユーザがジェスチャをし始めているとレーダーシステム104が判断した場合、電力管理部320は、高パワーモードに切り替えてもよい。それぞれ異なるトリガによって、電力管理部320に異なる電力モードの切り替えを行わせてもよい。トリガの例として、動きがあるまたは動きがなくなること、ユーザが見えることまたは見えなくなること、ユーザが指定領域(たとえば、距離、方位、または高度によって規定される領域)に移動するまたは当該指定領域から出てくること、ユーザに関連する動きの速度に変化が生じること、または(たとえば、レーダー反射断面積の変化によって)反射信号の強度に変化が生じることなどがある。一般に、ユーザが電子デバイス102とやり取りしている可能性が低いことを示すトリガ、または、より長い応答遅延を用いたデータ収集を優先することを示すトリガによって、低パワーモードが起動して電力を節約してもよい。
また、電力管理部320は、停止期間中に、送受信機306内の1つ以上の構成要素(たとえば、電圧制御発振器、分波器、A/D変換器、位相ロックループ、または水晶発振器)をオフにすることによって電力を節約することができる。これらの停止期間は、レーダーシステム104が積極的にレーダー信号を送信または受信していない場合に発生する。停止期間は、数マイクロ秒(μs)、数ミリ秒(ms)、数秒(s)程度であり得る。さらに、電力管理部320は、信号増幅器が提供する増幅量を調整することによってレーダー信号の送信電力を変更することができる。これに加えて、電力管理部320は、レーダーシステム104内の異なるハードウェアコンポーネントの使用を制御して電力を節約することができる。プロセッサ308がローパワープロセッサおよびハイパワープロセッサ(たとえば、異なるメモリ量および計算能力を有するプロセッサ)を備える場合、たとえば、電力管理部320は、下位分析(たとえば、アイドルモードの実施、動きの検出、ユーザの場所の特定、または環境の監視)のためのローパワープロセッサの利用と、(たとえば、注意モードまたは連動モード、ジェスチャ認識、もしくは利用者指向を実現するために)忠実度または精度が高いレーダーデータがシグネチャマネージャ106によって要求される状況のためのハイパワープロセッサの利用とを切り替えることができる。
また、上述した内部電力節約技術に加えて、電力管理部320は、その他の外部コンポーネントまたは電子デバイス102内のセンサを起動または停止することによって電子デバイス102内の電力を節約することができる。これらの外部コンポーネントは、スピーカ、カメラセンサ、GPS(Global Positioning System)、ワイヤレス通信送受信機、ディスプレイ、ジャイロスコープ、または加速度計を含んでもよい。レーダーシステム104が少量の電力を用いて環境を監視することができるので、電力管理部320は、ユーザがどこにいるのかまたはユーザが何をしているのかに基づいてこれらの外部コンポーネントを適切にオンオフできる。このように、電子デバイス102は、自動シャットオフタイマーを使うことなく、またはユーザが物理的に電子デバイス102に触れるまたは電子デバイス102を音声制御することなく、シームレスにユーザに応答して、電力を節約することができる。よって、記載の電源管理技術を利用して、本明細書に記載したように、アイドルモード、注意モード、および連動モードの様々な実装を提供することができる。
図5は、電子デバイス102内のレーダーシステム104の実装例500のさらなる詳細を示す図である。例500では、アンテナアレイ304は、ガラスカバーまたは外装ケースなど、電子デバイス102の外部筐体の下方に位置している。その材質によっては、外部筐体は、レーダーシステム104によって送受信されるレーダー信号を減衰または歪ませる減衰器502として動作し得る。減衰器502は、異なる種類のガラスまたはプラスチックを含んでもよく、そのうちのいくつかは、ディスプレイ画面、外部筐体、または電子デバイス102のその他の構成要素内にあってもよく、約4〜10の間の誘電率(たとえば、比誘電率)を有してもよい。したがって、減衰器502は、レーダー信号506を通さないまたは部分的に通すものであり、(反射部分504によって示すように)送信または受信レーダー信号506の一部を反射させる場合がある。従来のレーダーでは、減衰器502は、監視できる有効距離を狭めてしまい、小さい目標が検出されず、全体的な精度を下げてしまう可能性がある。
レーダーシステム104の送信電力が限定されており、外部筐体を再設計することが望ましくないと想定すると、レーダー信号506の1つ以上の減衰依存性質(たとえば、周波数サブスペクトル508または舵角510)もしくは減衰器502の減衰依存特性(たとえば、減衰器502とレーダーシステム104との距離512または減衰器502の厚さ514)を調整して減衰器502の影響を抑える。これらの特性のうちのいくつかは、製造時に設定またはレーダーシステム104の動作中に減衰軽減器314によって調整できる。減衰軽減器314、たとえば、選択された周波数サブスペクトル508または舵角510を用いて送受信機306にレーダー信号506を送信させることができ、プラットフォームにレーダーシステム104を減衰器502に近づけたり遠ざけたりして距離512を変更することができ、または、別の減衰器を適用するようユーザを促して減衰器502の厚さ514を増やすことができる。
適切な調整は、減衰軽減器314によって、予め決められた減衰器502の特性(たとえば、電子デバイス102のコンピュータ読み取り可能な媒体204またはシステム媒体310内に格納された特性)に基づいて、または、レーダー信号506の反射を処理して減衰器502の1つ以上の特性を測定することによって行うことができる。減衰依存特性のうちのいくつかが固定または制約される場合であっても、減衰軽減器314は、これらの限定を考慮して各パラメータの釣り合いをとり、目標のレーダーパフォーマンスを実現することができる。その結果、減衰軽減器314によって、レーダーシステム104が精度の向上および減衰器502の反対側に位置するユーザを検出して追跡するための有効距離の拡大を実現することが可能になる。これらの技術は、送信電力を増加すること(レーダーシステム104の消費電力を増加させてしまう)、または、減衰器502の材料を変更すること(いったんデバイスが生産されてしまうと行うことが難しくかつ費用がかかってしまう)に代わるものである。
図6は、レーダーシステム104によって実施されるスキーム例600を示す図である。スキーム600の一部は、プロセッサ308、コンピュータプロセッサ202、またはその他のハードウェア回路によって実行されてもよい。スキーム600は、異なる種類の電子デバイスおよびレーダーベースのアプリケーション(たとえば、シグネチャマネージャ106)をサポートするようにカスタマイズでき、また、レーダーシステム104が設計上の制約にもかかわらず目標角精度を実現することを可能にする。
送受信機306は、受信レーダー信号に対する受信アンテナ要素402の個々の反応に基づいてRAWデータ602を生成する。角度推定器318によって選択された1つ以上の周波数サブスペクトル604と受信レーダー信号を関連付けて、角度曖昧さを容易に解消してもよい。周波数サブスペクトル604は、たとえば、サイドローブの量を減らすまたはサイドローブの振幅を下げるために選択されてもよい(たとえば、振幅を0.5dB、1dB、またはそれ以上小さくする)。周波数サブスペクトル量は、レーダーシステム104の目標角精度または計算限界に基づいて決定さすることができる。
RAWデータ602は、一定期間分のデジタル情報(たとえば、同相および直角位相データ)と、異なる波数と、受信アンテナ要素402にそれぞれ関連付けられた複数のチャンネルとを含んでいる。RAWデータ602に対して高速フーリエ変換(FFT)606を実行して処理前データ608を生成する。処理前データ608は、異なるレンジ(たとえば、レンジビン)について、および複数のチャンネルについての一定期間にわたるデジタル情報を含む。処理前データ608に対してドップラーフィルタ処理610を実行してレンジドップラーデータ612を生成する。ドップラーフィルタ処理610は、複数のレンジビン、複数のドップラー周波数について、および複数のチャンネルについての振幅/位相情報を生成する別のFFTを含んでもよい。デジタルビームフォーマ316は、レンジドップラーデータ612に基づいてビームフォーミングデータ614を生成する。ビームフォーミングデータ614は、方位および/または高度のセットについてのデジタル情報を含んでおり、当該デジタル情報は、デジタルビームフォーマ316によって形成されるそれぞれ異なる舵角またはビームの視野を表す。図示していないが、デジタルビームフォーマ316は、これに代えて、処理前データ608に基づいてビームフォーミングデータ614を生成してもよく、ドップラーフィルタ処理610は、ビームフォーミングデータ614に基づいてレンジドップラーデータ612を生成してもよい。計算量を減らすために、デジタルビームフォーマ316は、目的とする距離、時間、またはドップラー周波数間隔に基づいてレンジドップラーデータ612または処理前データ608の一部を処理してもよい。
デジタルビームフォーマ316は、シングルルックビームフォーマ616、マルチルック干渉計618、またはマルチルックビームフォーマ620を用いて実装され得る。一般に、シングルルックビームフォーマ616は、決定論的オブジェクト(たとえば、1つの位相中心を有する点光源目標)に対して用いることができる。非決定論的目標(たとえば、複数の位相中心を有する目標)については、マルチルック干渉計618またはマルチルックビームフォーマ620を用いて、シングルルックビームフォーマ616よりも精度を上げる。人間は、非決定論的目標の一例であり、624−1および624−2において示すように、それぞれ異なるアスペクト角に基づいて変化し得る複数の位相中心622を有する。複数の位相中心622によって生じる建設的または相殺的干渉の変動によって、従来のレーダーが角度位置を精度よく判断することが困難になり得る。しかしながら、マルチルック干渉計618またはマルチルックビームフォーマ620は、コヒーレント平均化を行ってビームフォーミングデータ614の精度を上げる。マルチルック干渉計618は、2つのチャンネルをコヒーレントに平均化して位相情報を生成する。位相情報は、角度情報を精度よく判断するために利用され得る。一方で、マルチルックビームフォーマ620は、Fourier、Capon、多重信号分類(MUSIC:Multiple Signal Classification)、またはMVDR(Minimum Variance Distortionless Response)など、線形または非線形ビームフォーマを用いて2つ以上のチャンネルをコヒーレントに平均化することができる。マルチルックビームフォーマ620またはマルチルック干渉計618を介してもたらされる精度の向上によって、レーダーシステム104が小さいジェスチャを認識することや、ユーザの複数の部分を区別することが可能になる。
角度推定器318は、ビームフォーミングデータ614を分析して1つ以上の角度位置を推定する。角度推定器318は、信号処理技術、パターンマッチング技術、または機械学習を利用してもよい。また、角度推定器318は、レーダーシステム104の設計またはレーダーシステム104が監視する視野によって生じ得る角度曖昧性を解決する。角度曖昧性の例を振幅グラフ626内に示す(たとえば、振幅応答)。
振幅グラフ626は、目標のそれぞれ異なる角度位置について、およびそれぞれ異なる舵角510について生じ得る振幅差を示す。第1の角度位置630−1に位置する目標の第1の振幅応答628−1(実線で図示)を示す。同様に、第2の角度位置630−2に位置する目標の第2の振幅応答628−2(点線で図示)を示す。この例では、−180度〜180度の間の角度にわたる差を考える。
振幅グラフ626に示すように、2つの角度位置630−1および630−2について曖昧なゾーンが存在する。第1の振幅応答628−1は、第1の角度位置630−1の山が最も高く、第2の角度位置630−2の位置の山がそれよりも低い。最も高い山が目標の実際の位置に対応するが、当該低い山によって、第1の角度位置630−1が曖昧になってしまっている。なぜならば、目標が第1の角度位置630−1の存在するのか第2の角度位置630−2に存在するのかを従来のレーダーでは確信をもって判断できないであろう閾値内に第1の角度位置630−1が存在するためである。一方、第2の振幅応答628−2は、第2の角度位置630−2の山が低く、第1の角度位置630−1の山がそれよりも高い。この場合、当該低い山が目標の場所に対応する。
従来のレーダーは、最高ピーク振幅を用いて角度位置を判断することに限定され得るが、角度推定器318は、その代わりに、振幅応答628−1および628−2の形状のわずかな違いを分析する。これらの形状の特徴は、たとえば、ロールオフ、ピークもしくはヌル幅、ピークもしくはヌルの角位置、ピークおよびヌルの高さもしくは深さ、サイドローブの形状、振幅応答628−1もしくは628−2内の対称性、または振幅応答628−1もしくは628−2内の対称性の欠如を含み得る。同様の形状特性は、位相応答において分析され得る。位相応答は、角度曖昧性を解決するための追加情報を提供し得る。そのため、角度推定器318は、固有の角度シグネチャまたはパターンを角度位置にマッピングする。
角度推定器318は、電子デバイス102の種類(たとえば、計算能力もしくは電力の制約)またはシグネチャマネージャ106の目標角度分解能に応じて選択され得るアルゴリズムまたはツールの一式を含み得る。いくつかの実装形態では、角度推定器318は、ニューラルネットワーク632、CNN(Convolutional Neural Network)634、またはLSTM(Long Short−Term Memory)ネットワーク636を含み得る。ニューラルネットワーク632は、様々な深さまたは量の隠れ層(たとえば、3つの隠れ層、5つの隠れ層、または10個の隠れ層)を有し得、それぞれ異なる量の結合も含み得る(たとえば、ニューラルネットワーク632は、全結合ニューラルネットワークまたは部分結合ニューラルネットワークを含み得る)。場合によっては、CNN634を利用して角度推定器318の演算速度を上げることができる。LSTMネットワーク636を利用して角度推定器318が目標を追跡可能にすることができる。機械学習技術を利用して、角度推定器318は、非線形関数を採用して振幅応答628−1または628−2の形状を分析し、角度確率データ638を生成する。角度確率データ638は、ユーザまたはユーザの一部分がアングルビン内にある見込みを示す。角度推定器318は、目標が電子デバイス102の左または右に存在する確率を提供するための2つのアングルビンなど、いくつかのアングルビンについて、または、(たとえば、連続角度測定についての角度確率データ638を提供するための)何千ものアングルビンについて角度確率データ638を提供してもよい。
角度確率データ638に基づいて、トラッカーモジュール640は、角度位置データ642を生成する。角度位置データ642は、目標の角位置を識別する。トラッカーモジュール640は、角度確率データ638のなかで最も確率が高いアングルビンに基づいて、または、予測情報(たとえば、予め測定された角度位置の情報)に基づいて目標の角位置を判断してもよい。また、トラッカーモジュール640は、1つ以上の移動する目標を追跡して、レーダーシステム104が確信をもって目標を区別または特定することを可能にしてもよい。また、その他のデータを用いて、距離、ドップラー、速度、または加速度を含む角度位置を判断することもできる。場合によっては、トラッカーモジュール640は、α−βトラッカー、カルマンフィルタ、MHT(Multiple Hypothesis Tracker)などを備え得る。
量子化器モジュール644は、角度位置データ642を取得し、当該データを量子化し、量子化した角度位置データ646を生成する。この量子化は、シグネチャマネージャ106の目標角度分解能に基づいて行うことができる。状況によっては、目標が電子デバイス102の右にあるのか左にあるのかを量子化した角度位置データ646が示すまたは目標が位置する90度の象限を量子化した角度位置データ646が識別するよう、より少ない量子化レベルを用いることができる。ユーザの近接検出など、いくつかのレーダーベースのアプリケーションについてはこれで十分であろう。その他の常用では、量子化した角度位置データ646が数分の1度、1度、5度などの精度内で目標の角度位置を示すよう、より大きな量子化レベルを用いることができる。この分解能は、ジェスチャ認識など、より高い分解能レーダーベースのアプリケーション用に利用したり、本明細書において説明する注意モードまたは連動モードの実施において利用したりすることができる。いくつかの実装形態では、デジタルビームフォーマ316、角度推定器318、トラッカーモジュール640、および量子化器モジュール644をまとめて1つの機械学習モジュールで実現する。
これらのおよびその他の能力および構成、および図1〜図6のエンティティが動作および連動する方法について、以下に説明する。記載のエンティティを分割したり、組み合わせたり、その他のセンサまたは構成要素とともに使用したりするなどしてもよい。このように、レーダーシステム104および非レーダーセンサの異なる構成とともに電子デバイス102の異なる実装形態を用いて、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実装することができる。図1の動作環境例100および図2〜図6の詳細な例示は、想定される多くのうちのいくつかであるが、記載の技術を利用可能な環境およびデバイスを示している。
レーダー画像シェイパーの例
図7および図8は、レーダー画像シェイパー114の実装例を示す図である。レーダー画像シェイパー114を利用して、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にできる。図7は、8つの三面コーナーリフレクタ702を備える八面体であるレーダー画像シェイパーの実装例700を示す図である。一般に、三面コーナーリフレクタは、3つの垂直に交差する平らな面から作られる形状である。この形状は、レーダー信号を反射する材料から作られた場合、信号を反射してソースに向けて戻す。実装例700では、個々の三面コーナーリフレクタ702−1〜702−8は、三角形の面から構成されているが、図8で説明するように、その他の形状が用いられてもよい。
図8は、800において、レーダー画像シェイパーの実装例802および804を概して示す図である。レーダー画像シェイパーの例802では、個々の三面コーナーリフレクタ806は、四角形の面から構成される。レーダー画像シェイパーの例804では、個々の三面コーナーリフレクタ808は、四分円形状の面から構成される。図7および図8に示すレーダー画像シェイパー114、700、802、および804は、1つ以上の軸(たとえば、レーダー画像シェイパーの中心を原点とするxyz座標系の軸)に対して対称であるが、記載の形状の非対称な実装が用いられてもよい。非対称な形状を用いてオブジェクトの特徴的な配置(たとえば、オブジェクト112)を判断してもよい。たとえば、非対称レーダー画像シェイパー114は、1つのレーダー画像シェイパー114のみがオブジェクト112とともに用いられる場合にレーダーシステム104がオブジェクトの向き(または、特徴的な配置の別の態様)を判断できるようにするレーダーシグネチャを有してもよい。その他の対称または非対称な形状(図7または図8では図示せず)をレーダー画像シェイパーに用いてもよい。たとえば、球体または楕円体の固体、もしくは三面体または球形のくぼみ(ディンプル)を有する球体または楕円体の固体。
図1、図7、または図8のうちのいずれかまたはすべてで説明したレーダー画像シェイパーの例は、アルミニウムまたはアルミニウム合金など、レーダー信号を反射する任意の適した材料から作られてもよい。一般に、レーダー画像シェイパー114のエッジ長は、レーダー信号の波長の倍数である。よって、1ミリメートル(mm)以下の波長を有するレーダー信号、レーダー画像シェイパーを構成するコーナーリフレクタのエッジ長(たとえば、最長エッジ長)は、波長の倍数であってもよい(たとえば、3.5mmまたは5mmなど、1mm〜10mmの間)。その他の場合、レーダー信号の波長が異なる場合、レーダー画像シェイパーのエッジ長は異なる長さであってもよい。
これに加えて、異なる材料がレーダー信号の異なる周波数を吸収して反射し、シグネチャマネージャ106は、特定の周波数範囲において反射されるレーダー信号の割合に基づいてレーダー画像シェイパー114のレーダーシグネチャを判断してもよい。たとえば、シグネチャライブラリ108は、異なる形状のレーダー画像シェイパーごとにベンチマークレーダーシグネチャと含み、一部またはすべて形状ごとに異なる材料とを含んでもよい。いくつかの実装形態では、レーダー画像シェイパーは、2つ以上の材料から作られてもよく、これによって、同じ形状の複数のレーダー画像シェイパー114をシグネチャマネージャ106が区別できるようになる。
レーダー画像シェイパーが第1材料(たとえば、アルミニウム合金)から作られた第1部分と第2材料(たとえば、別の種類のアルミニウム合金)から作られた第2部分とを有する例を考える。第1材料は、特定の周波数範囲内のレーダー信号を吸収してもよく、第2材料は、第2周波数範囲内のレーダー信号を吸収してもよい。この例では、第2周波数範囲の少なくとも一部が第1周波数範囲に含まれないと想定する。このように、シグネチャマネージャ106は、レーダー画像シェイパー114の2つの部分を区別し得、これによってシグネチャマネージャ106がレーダー画像シェイパー114の特徴的な配置および対応するオブジェクト112の特徴的な配置をより精度よく判断できるようにしてもよい。
さらに、上述したように、レーダー画像シェイパー114をオブジェクト(たとえば、オブジェクト112)に取り付けるまたは一体化して、レーダー画像シェイパー114の特徴的な配置およびオブジェクトの対応する特徴的な配置を判断することによって電子デバイス102などのシステムまたはデバイスを制御するために利用してもよい。オブジェクトは、レーダーフィールド110などのレーダー信号を少なくとも部分的に通す材料から作られ得るので、レーダー画像シェイパー114は、しっかりした(かつ不透明な)材料に入れられていてもよく、これによって、レーダー画像シェイパー114を損傷から守り、ユーザがレーダー画像シェイパー114上の鋭いエッジや角によって怪我をするのを防ぐ。一方、リモートオブジェクトを用いてシステムを制御するための従来の方法は、多くの場合、カメラや赤外線信号を使用しており、容器に入れることができなかった。よって、レーダーベースのアプリケーションのためのレーダー画像シェイパーは、今まで通り低い消費電力で正確に測定できつつ、デザイン(形状、材料、色など)の幅を広げることができ、ユーザエクスペリエンスの質の向上につなげることができる。
方法例
図9および図10は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする方法例900を示す図である。方法900は、レーダーフィールドを提供するためにレーダーシステムを利用する電子デバイスを用いて実行できる。レーダーフィールドを用いてレーダーフィールドにあるオブジェクトの存在を判断する。また、レーダーフィールドは、オブジェクトの意思レベルを判断するのに使用することもでき、当該意思レベルは、オブジェクトが電子デバイスとやり取りする意思があるのかどうかを判断するために利用することができる。オブジェクトの意思の判断結果に基づいて、電子デバイスは、異なる機能および電力使用モードに入るまたは出ることができる。
方法900は、実行される動作を詳細に記したブロックのセットとして示されているが、それぞれのブロックによって動作を実行するための図示した組合せの順に必ずしも限定されない。さらに、動作のうちの1つ以上のいずれかを繰り返したり、組み合わせたり、再編成したり、または関連付けたりして、様々な追加の方法および/または別の方法を提供してもよい。以下の説明部分において、図1の動作環境例100、もしくは図2〜図6で詳細を説明したエンティティまたは処理を参照してもよいが、この参照は例示に過ぎない。技術は、1つのデバイス上で動作する1つのエンティティまたは複数のエンティティによる動作に限定されない。
902において、レーダーフィールドを提供する。このレーダーフィールドは、レーダーシステム(たとえば、レーダーシステム104)およびレーダーシグネチャマネージャ(たとえば、シグネチャマネージャ106。これもシグネチャライブラリ108および3Dジェスチャモジュール116のいずれかまたは両方を含んでもよい)を含むまたはそれらに関連付けられた様々な電子デバイス(たとえば、上述した電子デバイス102)のうちのいずれによっても提供することができる。さらに、レーダーフィールドは、上述したレーダーフィールド110など、様々なレーダーフィールドのうちのいずれであってもよい。
904において、レーダーフィールドにあるオブジェクトからの反射をレーダーシステムによって検知する。このオブジェクトは、木、プラスチック、金属、布地、または有機材料(たとえば、上述したオブジェクト112などゲームコントローラまたはスタイラス、もしくは人の体の一部)など、様々なオブジェクトのうちのいずれであってもよい。レーダーフィールドにあるオブジェクトは、上述および図7および図8で説明したレーダー画像シェイパー114など、少なくとも1つのレーダー画像シェイパーを含むまたはそれに取り付けられる。
906において、レーダーフィールドにあるオブジェクトからの反射を分析する。この分析は、様々なエンティティ(たとえば、レーダーシステム104、シグネチャマネージャ106、または別のエンティティ)のうちのいずれによって実行されてもよく、図3〜図6で説明したような様々な動作または判断を含んでもよい。
908において、反射の分析に基づいて、レーダーデータを提供する(たとえば、図1〜図6で説明したレーダーデータ)。レーダーデータは、レーダーシステム104、シグネチャマネージャ106、または別のエンティティなど、様々なエンティティのうちのいずれによって提供されてもよい。いくつかの実装形態では、レーダーシステムは、レーダーデータを提供し、当該レーダーデータをその他のエンティティ(たとえば、記載のレーダーベースのアプリケーション、ライブラリ、またはモジュールのうちのいずれか)に渡してもよい。方法900の説明は、図9のブロック908の後の文字「A」で示されるように、図10に続く。当該文字「A」は、図10のブロック910の前の文字「A」に対応する。
910において、レーダーシステムは、レーダーデータの1つ以上のサブセットを利用してレーダー画像シェイパーのレーダーシグネチャを検出する。たとえば、レーダーシステム104は、シグネチャマネージャ106がレーダー画像シェイパー114のレーダーシグネチャを検出するために用いるレーダーデータを生成し得る。
912において、検出されたレーダーシグネチャを、レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較する。たとえば、シグネチャマネージャ106は、レーダーデータの1つ以上のサブセットを利用することによって、検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較して、レーダー画像シェイパー114の様々な特徴(たとえば、特定の材料、形状、コーナー、エッジ、面、またはそれらの組合せに関連するレーダーデータの特徴)を判断してもよく、検出された特徴を分析して、対応するベンチマークレーダーシグネチャの既知の特徴との一致を判断することができる。図1で述べたように、いくつかの実装形態では、レーダーシグネチャマネージャは、検出されたレーダーシグネチャを、レーダー画像シェイパーのそれぞれ異なる特徴的な配置に対応する複数のベンチマークレーダーシグネチャと比較してもよい。たとえば、シグネチャマネージャ106は、検出されたレーダーシグネチャを複数のベンチマークレーダーシグネチャ(たとえば、シグネチャライブラリ108などの記憶場所に格納されたベンチマークレーダーシグネチャ)と比較してもよい。
914において、検出されたレーダーシグネチャのベンチマークレーダーシグネチャとの比較に基づいて、レーダーシグネチャがベンチマークレーダーシグネチャと一致する(または、一致しない)と判断する。たとえば、シグネチャマネージャ106は、検出されたレーダーシグネチャがベンチマークレーダーシグネチャと一致すると判断し得る。
916において、レーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、一致したベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置を判断する。たとえば、一致したベンチマークレーダーシグネチャに対応するレーダー画像シェイパー114の特徴的な配置に基づいて、シグネチャマネージャ106は、レーダーフィールドにあるオブジェクトの特徴的な配置を判断し得る。上述したように、シグネチャマネージャ106は、電子デバイス102を基準にしたレーダー画像シェイパー114の特定の特徴的な配置を判断してもよい。たとえば、レーダー画像シェイパー114の特徴的な配置に対応するオブジェクト112の特徴的な配置を含むデータを格納し得るシグネチャライブラリ108などのシグネチャライブラリを利用して、シグネチャマネージャ106は、オブジェクト112の特徴的な配置を判断することもできる。
また、いくつかの実装形態では、レーダーシグネチャマネージャは、レーダーデータの1つ以上のサブセットを利用して、レーダーフィールドにあるオブジェクトの特徴的な配置を判断することができる(たとえば、レーダーデータを利用してオブジェクトの特徴的な配置をある期間にわたって判断することによって)。また、レーダーシグネチャマネージャは、オブジェクトの特徴的な配置の1つ以上の変化に基づいてオブジェクトによるジェスチャを判断することができる。次に、レーダーシグネチャマネージャは、(たとえば、後述する3Dジェスチャモジュール116など、3次元(3D)ジェスチャライブラリを利用して)当該ジェスチャに対応する電子デバイスの機能を判断して、当該ジェスチャに対応する機能を電子デバイスに提供させることができる。
たとえば、図11〜図13を考える。図11〜図13は、レーダーベースのアプリケーションのためのレーダー画像シェイパーのさらなる詳細を実装することができるオブジェクトおよびデバイスの実装例を示す。図11は、オブジェクト112の実装例1100(この場合、スタイラス1102)を示す図である。スタイラス1102は、電子デバイス102などの電子デバイスとやり取りするために使用され得る。図11に示すように、スタイラス1102は、筐体を有し、スタイラスに内蔵されたレーダー画像シェイパー(たとえば、レーダー画像シェイパー114)を含む。レーダー画像シェイパー114は、レーダーシグネチャ(たとえば、レーダーフィールド110または別のソースからのレーダー信号の反射)を有する。レーダーシグネチャは、レーダーシステム104がレーダー画像シェイパー114の特徴的な配置を判断してそれによってスタイラス1102の特徴的な配置を判断するために使用し得る。上述したように、いくつかの実装形態では、別の数のレーダー画像シェイパー114(たとえば、2つまたは3つ)がオブジェクト112に取り付けられてもよく、レーダー画像シェイパー114は、スタイラス1102上またはスタイラス1102内のその他の場所に存在してもよい。
たとえば、図12は、オブジェクト112の別の実装例1200(この場合、別のスタイラス1202)を示す図である。スタイラス1202は、筐体を含み、スタイラス1202の筐体に内蔵された2つのレーダー画像シェイパー(たとえば、2つのレーダー画像シェイパー114)を有する。図に示すように、スタイラス1202は、スタイラス筐体の一端近くに内蔵されたレーダー画像シェイパー1204と、スタイラス筐体の他端近くに内蔵された別のレーダー画像シェイパー1206とを含む。いくつかの実装形態では、レーダー画像シェイパーは、それぞれ異なる形状であってもよく、異なる材料から作られてもよく、またはその両方であってもよい。図12に示すように、レーダー画像シェイパー1204は、ディンプルを有する球形であり、他方のレーダー画像シェイパー1206は、図7で説明したレーダー画像シェイパー114と同様に、八面体として配置されたコーナーリフレクタから作られる(たとえば、8つの三面コーナーリフレクタから構成される八面体)。スタイラス1102および1202は略円柱形として図示されているが、その他の形状および断面が用いられてもよい(たとえば、長円形)。
複数のレーダー画像シェイパーを用いたいくつかの実装形態では、レーダー画像シェイパーは、レーダー信号の波長(たとえば、レーダーフィールド110)に基づいて間隔を開けて配置される。たとえば、複数のレーダー画像シェイパー同士の距離は、波長の倍数(たとえば、波長の2倍、4倍、または6倍)に基づいてもよい。その他の場合、複数のレーダー画像シェイパー同士の距離は、3センチメートル(cm)、5cm、7cm、または10cmなど、固定されてもよい。さらに、レーダー画像シェイパーの数は、レーダーシステムによって特徴的な配置のどのような態様が検出され得るのか、特徴的な配置に関してどれくらいの詳細が検出され得るのかに影響を与え得る。よって、1つのレーダー画像シェイパーによって、レーダーシステムは、点を検出してその特徴的な配置を判断することができるようになり、2つのレーダー画像シェイパーによって、レーダーシステムは、セグメントを検出してその特徴的な配置を判断できるようになる、といった具合である。
図13は、電子デバイス102などの電子デバイスとやり取りするために利用できるオブジェクト112の別の実装例1300(この場合、ゲームコントローラ1302)を示す図である。図13に示すように、ゲームコントローラ1302は、筐体を有し、筐体に内蔵された2つのレーダー画像シェイパー1304および1306(たとえば、レーダー画像シェイパー114のうちの2つ)を備える。レーダー画像シェイパー1304は、8つの三面コーナーリフレクタから構成される八面体であり、レーダー画像シェイパー1306は、ディンプルを有する球体である。これらは異なる形状であるので、レーダー画像シェイパー1304とレーダー画像シェイパー1306とは、それぞれ異なるレーダーシグネチャ(たとえば、レーダーフィールド110または別のソースからのレーダー信号の反射)を有する。異なるレーダーシグネチャを有することによって、レーダーシステム104は、レーダー画像シェイパー1304とレーダー画像シェイパー1306とを区別できるようになり、レーダーシステム104は、異なるレーダーシグネチャを利用してレーダー画像シェイパー1304および1306の特徴的な配置を判断できるようになり、それによってゲームコントローラ1302の特徴的な配置を判断できるようになる。オブジェクト112のその他の実装例(図示せず)として、(たとえば、1つ以上の場所にレーダー画像シェイパー114を有する)スマートフォンケース、デバイスまたは家電のリモコンなどがある。
これに加えて、レーダーシステム104(およびシグネチャマネージャ106)がオブジェクト112(たとえば、スタイラス1102、スタイラス1202、およびゲームコントローラ1302)の特徴的な配置を判断できるので、図1で説明したように、3Dジェスチャを行うためにオブジェクト112を利用できる。たとえば、スタイラス1102または1202のいずれかのようなスタイラスと、電子デバイス102を制御するまたは追加機能を提供するために用いられ得る3Dジェスチャを検出するためにレーダー信号(たとえば、レーダーフィールド110)を利用する電子デバイス(たとえば、電子デバイス102)とを考える。この例では、ユーザは、追加機能を提供するまたは既存の機能をより簡単に、そしてより直感的なものにする様々なジェスチャを行ってもよい。たとえば、レーダーベースの描画アプリケーションでは、ユーザは、親指と指との間または2本の指の間でスタイラスを回転させて線の太さまたはブラシサイズを拡大したり縮小したりしてもよい。ユーザは、「振る(shaking)」ジェスチャを使って、別のブラシを選ぶまたはブラシまたはペンから消しゴムに変えてもよい。同様に、レーダーベースの描画アプリケーションでは、ユーザは、2.5Dまたはフル3Dで描いたりスケッチしたりしてもよい。さらに、編集機能を有するレーダーベースのアプリケーションでは、ユーザは、画面またはその他の面上で描き、スタイラスを用いた3Dジェスチャを利用して2Dの描画から3Dボリュームを作ってもよい(たとえば、2Dの四角または円上の隅またはその他の外周点を選択し、スタイラスを画面から持ち上げて立方形または球体を作成する)。3Dオブジェクト現れたら、3Dジェスチャを使ってこの3Dオブジェクトを回転させたり、切り取ったり、操作したりしてもよい。
なお、レーダーベースのアプリケーションのためのレーダー画像シェイパー向けの記載の技術および装置のその他の使い道もある。たとえば、ユーザは、3Dプリンタや別のデバイスを利用して、特定の定義済みのレーダーシグネチャを有するカスタマイズされた制御部を作ることができる。レーダーベースのホームオートメーションシステム、映像/オーディオ機器など用のアナログ制御部として、(たとえば、あまり力がなかったり手先があまり器用でなかったりするユーザによって)利用され得るカスタマイズされたノブまたはダイヤル式制御部を考える。このように、ユーザは、追加の電子機器を必要としないで、異なるハードウェア、ソフトウェア、およびアプリケーションを制御できるカスタムリモコンを持つことができる。
さらに、カスタマイズされたスタイラスまたはその他の制御部を、認証目的で用いてもよい。たとえば、ユーザは、カスタムキーフォブまたはユーザを認証する3Dジェスチャを行うのに利用できるその他のデバイスを有してもよい。なお、レーダーベースのアプリケーションのためのレーダー画像シェイパー向けのこれらの技術は、ほかの技術よりも個人的かつセキュアであってもよい。3Dジェスチャは、部外者によって一般に取得可能なものではないだけでなく(たとえば、パスワードとは異なり)、ユーザのレーダー画像であるので、たとえそれがユーザの体または顔を含んでいた場合であっても、(たとえば、カメラを利用してコントローラまたはジェスチャを追跡して検出する場合)写真または映像のようにユーザを視覚的に特定しない。
たとえそうであったとしても、上記の説明以上に、ユーザ情報(たとえば、ユーザのソーシャルネットワーク、社会的行為または活動、職業、ユーザの好み、またはユーザの現在位置についての情報)の収集を本明細書に記載のシステム、プログラム、モジュール、または特徴のいずれかが行うことが可能にされてもよいかどうかの選択、および行ってもよい時の選択、ならびにコンテンツまたは通知がサーバからユーザに送られてきてもよいかどうかの選択を行うことをユーザができるようにする制御部を、ユーザに提供してもよい。これに加えて、個人を識別可能な情報が取り除かれるように、格納または使用される前に特定のデータを1つ以上の方法で処理してもよい。たとえば、ユーザについての個人を識別可能な情報が特定できないようにユーザの識別情報を処理したり、ユーザの特定の位置が特定できないように位置情報(たとえば、市、郵便番号、または州レベルなど)が取得されるユーザの地理的位置が一般化されたりしてもよい。よって、ユーザは、自身についてのどのような情報が収集されるのか、その情報がどのように利用されるのか、どのような情報がユーザに提供されるのかまたはユーザについてどのような情報が提供されるのかについて、自分の好きなようにすることができる。
コンピューティングシステムの例
図14は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実装するために任意の種類のクライアント、サーバ、および/または前述の図1〜図13で説明した電子デバイスとして実装され得るコンピューティングシステムの例1400の様々な構成要素を示す図である。
コンピューティングシステム1400は、デバイスデータ1404の(たとえば、レーダーデータ、3Dジェスチャデータ、認証データ、参照データ、受信したデータ、受信中のデータ、同報送信されることになっているデータ、および当該データのデータパケット)の有線および/または無線通信を可能にする通信装置1402を備える。デバイスデータ1404またはその他のデバイスコンテンツは、デバイスの設定、デバイスに格納されたメディアコンテンツ、および/もしくはオブジェクトまたはデバイスのユーザに関する情報(たとえば、レーダーフィールド内の人の識別情報、カスタマイズされたジェスチャデータ、またはレーダー画像シェイパーのレーダーシグネチャ)を含めることができる。コンピューティングシステム1400上に格納されるメディアコンテンツは、任意の種類のレーダーデータ、生体データ、音声データ、映像データ、および/または画像データを含み得る。コンピューティングシステム1400は、人間の発話、レーダーフィールドを用いたやり取り、タッチ入力、ユーザ選択可能な(明示的または暗示的な)入力、メッセージ、音楽、テレビジョンメディアコンテンツ、記録映像コンテンツ、ならびに任意のコンテンツおよび/またはデータソースから受信したその他の種類の音声、映像、および/または画像データなど、任意の種類のデータ、メディアコンテンツ、および/または入力が受信可能な1つ以上のデータ入力部1406を備える。データ入力部1406は、たとえば、シグネチャマネージャ106、シグネチャライブラリ108、または3Dジェスチャモジュール116を備えてもよい。
また、コンピューティングシステム1400は、シリアルインターフェースおよび/またはパラレルインターフェース、無線インターフェース、任意の種類のネットワークインターフェース、モデム、およびその他の種類の通信インターフェースのうちの1つ以上として実装できる複数の通信インターフェース1408を備える。通信インターフェース1408は、その他の電子装置、コンピュータデバイス、および通信デバイスがコンピュータシステム1400とデータを通信する通信ネットワークとコンピュータシステム1400との間の接続および/または通信リンクを提供する。
コンピューティングシステム1400は、コンピューティングシステム1400の動作を制御するための様々なコンピュータ−実行可能な命令およびそのための技術を可能にするコンピュータ−実行可能な命令を処理するまたはレーダーベースのアプリケーションのためのレーダー画像シェイパーが実装され得る1つ以上のプロセッサ1410(たとえば、マイクロプロセッサ、コントローラ、またはその他のコントローラのうちのいずれか)を備える。これに代えて、または、これに加えて、コンピューティングシステム140は、ハードウェア、ファームウェア、または参照符号1412によって全体として識別される処理回路および制御回路と接続されて実装される固定論理回路のうちのいずれか1つまたはこれらの組み合わせを使って実装できる。図示しないが、コンピューティングシステム1400は、デバイス内のさまざまな構成要素を接続するシステムバスまたはデータ転送システムを備えることができる。システムバスは、メモリバスまたはメモリコントローラ、周辺バス、ユニバーサルシリアルバス、および/またはさまざまなバスアーキテクチャのうちのいずれかを利用したプロセッサもしくはローカルバスなど、異なるバス構造のうちのいずれか1つまたはこれらの組み合わせを含むことができる。
また、コンピューティングシステム1400は、永続的および/または非一時的なデータ記憶(つまり、単なる信号の送信とは異なる)を可能にする1つ以上のメモリデバイスなどの、コンピュータ読み取り可能な媒体1414も備えることができ、たとえば、ランダムアクセスメモリ(RAM)、不揮発性メモリ(たとえば、読取り専用メモリ(ROM)、フラッシュメモリ、EPROM、EEPROMなどのうちのいずれか1つ以上)、およびディスク記憶装置などが挙げられる。ディスク記憶装置は、ハードディスクドライブ、書き込み可能および/または書き換え可能なコンパクトディスク(CD)、任意の種類のデジタル多用途ディスク(DVD)など、任意の種類の磁気または光記憶装置として実装されてもよいまた、コンピューティングシステム1400は、大容量記憶媒体デバイス(記憶媒体)1416を含み得る。
コンピュータ読み取り可能な媒体1414は、デバイスデータ1404、ならびに様々なデバイスアプリケーション1418およびコンピューティングシステム1400の動作態様に関するその他の種類の情報および/またはデータを格納するためのデータ記憶機構を提供する。たとえば、オペレーティングシステム1420は、コンピュータ読み取り可能な媒体1414とあわせて、コンピュータアプリケーションとして保持され、プロセッサ1410上で実行することができる。デバイスアプリケーション1418は、任意の形態の制御アプリケーション、ソフトウェアアプリケーション、信号処理/制御モジュール、特定デバイス用のプログラム、アブストラクションモジュール、ジェスチャ認識モジュール、およびその他のモジュールなど、デバイスマネージャを備えてもよい。また、デバイスアプリケーション1418は、レーダーシステム104、シグネチャマネージャ106、シグネチャライブラリ108、または3Dジェスチャモジュール116など、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実装するためのシステムコンポーネント、エンジン、またはマネージャを含んでもよい。また、コンピューティングシステム1400は、1つ以上の機械学習システムを含むまたは1つ以上の機械学習システムにアクセスしてもよい。
下記段落において、いくつかの例を説明する。
例1:電子デバイスであって、少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、レーダーシステムは、レーダーフィールドを提供し、レーダーフィールドにあるオブジェクトからの反射を検知し、レーダーフィールドにあるオブジェクトの反射を分析し、反射の分析に基づいて、レーダーデータを提供するように構成され、電子デバイスは、さらに、1つ以上のコンピュータプロセッサと、命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、命令は、1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、レーダーシグネチャマネージャは、レーダーデータの第1サブセットに基づいて、レーダーフィールドにあるオブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、検出されたレーダーシグネチャをレーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断し、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいてレーダーフィールドにあるオブジェクトの特徴的な配置を判断するように構成される、電子デバイス。
例2:レーダーシグネチャマネージャは、レーダーデータの第2サブセットに基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置の変化を判断し、レーダーフィールドにあるオブジェクトの特徴的な配置の変化に基づいて、レーダーフィールドにあるオブジェクトによるジェスチャを判断し、ジェスチャに対応する電子デバイスの機能を判断し、電子デバイスに機能を提供させるようにさらに構成される、例1に記載の電子デバイス。
例3:レーダーシグネチャマネージャは、検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するようにさらに構成され、比較は、レーダーデータの第1サブセットに基づいてレーダー画像シェイパーの特徴を判断することと、判断された特徴を分析してベンチマークレーダーシグネチャの既知の特徴との一致を判断することとを含む、例1または2に記載の電子デバイス。
例4:レーダーシグネチャマネージャは、検出されたレーダーシグネチャの複数のベンチマークレーダーシグネチャとの比較によって検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するようにさらに構成され、複数のレーダーシグネチャの各ベンチマークレーダーシグネチャは、レーダー画像シェイパーの異なる特徴的な配置に対応する、例1〜3のいずれか1つに記載の電子デバイス。
例5:レーダー画像シェイパーは、コーナーリフレクタである、先行する例のいずれか1つに記載の電子デバイス。
例6:コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、例5に記載の電子デバイス。
例7:レーダー画像シェイパーは、非対称である、先行する例のいずれか1つに記載の電子デバイス。
例8:レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、第1材料は、第1周波数範囲内のレーダー信号を吸収し、第2材料は、第2周波数範囲内のレーダー信号を吸収し、第2周波数範囲の少なくとも一部は、第1周波数範囲に含まれていない、先行する例のいずれか1つに記載の電子デバイス。
例9:レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、先行する例のいずれか1つに記載の電子デバイス。
例10:レーダーシステムは、さらに、デジタルビームフォーマと角度推定器とを含み、レーダーシステムは、約−90度〜約90度の間の視野における角度を監視するように構成される、先行する例のいずれか1つに記載の電子デバイス。
例11:レーダーシステムを含む電子デバイスによって実行される方法であって、レーダーシステムがレーダーフィールドを提供するステップと、レーダーシステムがレーダーフィールドにあるオブジェクトからの反射を検知するステップと、レーダーフィールドにあるオブジェクトからの反射を分析するステップと、反射の分析に基づいて、レーダーデータを提供するステップと、レーダーデータの第1サブセットに基づいて、オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するステップと、検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップとを含み、ベンチマークレーダーシグネチャは、レーダー画像シェイパーの特徴的な配置に対応し、方法は、さらに、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断するステップと、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置を判断するステップとを含む、方法。
例12:レーダーデータの第2サブセットに基づいて、レーダーフィールドにあるオブジェクトの特徴的な配置の変化を判断するステップと、レーダーフィールドにあるオブジェクトの特徴的な配置の変化に基づいて、レーダーフィールドにあるオブジェクトによるジェスチャを判断するステップと、ジェスチャに対応する電子デバイスの機能を判断するステップと、電子デバイスに機能を提供させるステップとをさらに含む、例11に記載の方法。
例13:検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップは、さらに、レーダーデータの第1サブセットに基づいて、レーダー画像シェイパーの特徴を判断するステップと、判断された特徴を分析してベンチマークレーダーシグネチャの既知の特徴との一致を判断するステップとを含む、例11または12に記載の方法。
例14:検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップは、検出されたレーダーシグネチャを複数のベンチマークレーダーシグネチャと比較するステップをさらに含み、複数のレーダーシグネチャの各ベンチマークレーダーシグネチャは、レーダー画像シェイパーの異なる特徴的な配置に対応する、例11〜13のいずれか1つに記載の方法。
例15:コントローラ筐体と、コントローラ筐体と一体化されたレーダー画像シェイパーとを備え、レーダー画像シェイパーは、レーダーシステムによって検出可能なレーダーシグネチャを提供するように構成され、レーダーシグネチャは、レーダーシステムがコントローラ筐体の特徴的な配置を判断することを可能にするのに有効である、コントローラ。
例16:レーダー画像シェイパーは、コーナーリフレクタである、例15に記載のコントローラ。
例17:コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、例16に記載のコントローラ。
例18:レーダー画像シェイパーは、非対称である、例15〜17のいずれか1つに記載のコントローラ。
例19:レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、第1材料は、第1周波数範囲内のレーダー信号を吸収し、第2材料は、第2周波数範囲内のレーダー信号を吸収し、第2周波数範囲の少なくとも一部は、第1周波数範囲に含まれていない、例15〜18のいずれか1つに記載のコントローラ。
例20:レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、例15〜19のいずれか1つに記載のコントローラ。
例21:別のレーダー画像シェイパーをさらに備え、レーダー画像シェイパーは、筐体の第1端近くに内蔵され、別のレーダー画像シェイパーは、筐体の第2端近くに内蔵される、例15〜20のいずれか1つに記載のコントローラ。
例22:レーダー画像シェイパーおよび別のレーダー画像シェイパーは、それぞれ異なる材料から構成される、例21に記載のコントローラ。
例23:レーダー画像シェイパーおよび別のレーダー画像シェイパーの形状は、それぞれ異なる、例21または22に記載のコントローラ。
例24:筐体の断面は、円柱形または長円形である、例15〜23のいずれか1つに記載のコントローラ。
例25:レーダー画像シェイパーは、固有のレーダー反射を提供する、例15〜24のいずれか1つに記載のコントローラ。
例26:コントローラは、スタイラスであり、スタイラスは、スタイラス筐体と、スタイラス筐体と一体化されたレーダー画像シェイパーとを含む、例15〜25のいずれか1つに記載のコントローラ。
例27:例1〜10のいずれか1つに記載の電子デバイスを少なくとも1つと、例15〜26のいずれか1つに記載のコントローラを少なくとも1つとを備える、システム。
まとめ
レーダーベースのアプリケーションのためのレーダー画像シェイパー向けの技術の実装および当該レーダー画像シェイパーを可能にする装置について、特徴および/または方法に特有の言葉で説明したが、当然ながら、請求の範囲の主題は、上述の具体的な特徴または方法によって必ずしも限定されるわけではない。むしろ、具体的な特徴および方法は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする実装例として開示されている。

Claims (27)

  1. 電子デバイスであって、
    少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、前記レーダーシステムは、
    レーダーフィールドを提供し、
    前記レーダーフィールドにあるオブジェクトからの反射を検知し、
    前記レーダーフィールドにある前記オブジェクトの反射を分析し、
    前記反射の分析に基づいて、レーダーデータを提供するように構成され、前記電子デバイスは、さらに、
    1つ以上のコンピュータプロセッサと、
    命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、前記命令は、前記1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、前記レーダーシグネチャマネージャは、
    前記レーダーデータの第1サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、
    前記検出されたレーダーシグネチャを前記レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、
    前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断し、
    前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するように構成される、電子デバイス。
  2. 前記レーダーシグネチャマネージャは、
    前記レーダーデータの第2サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化を判断し、
    前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化に基づいて、前記レーダーフィールドにある前記オブジェクトによるジェスチャを判断し、
    前記ジェスチャに対応する前記電子デバイスの機能を判断し、
    前記電子デバイスに前記機能を提供させるようにさらに構成される、請求項1に記載の電子デバイス。
  3. 前記レーダーシグネチャマネージャは、前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するようにさらに構成され、前記比較は、
    前記レーダーデータの第1サブセットに基づいて前記レーダー画像シェイパーの特徴を判断することと、
    前記判断された特徴を分析して前記ベンチマークレーダーシグネチャの既知の特徴との一致を判断することとを含む、請求項1または2に記載の電子デバイス。
  4. 前記レーダーシグネチャマネージャは、前記検出されたレーダーシグネチャの複数のベンチマークレーダーシグネチャとの比較によって前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するようにさらに構成され、前記複数のレーダーシグネチャの各ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの異なる特徴的な配置に対応する、請求項1〜3のいずれか1項に記載の電子デバイス。
  5. 前記レーダー画像シェイパーは、コーナーリフレクタである、先行する請求項のいずれか1項に記載の電子デバイス。
  6. 前記コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、請求項5に記載の電子デバイス。
  7. 前記レーダー画像シェイパーは、非対称である、先行する請求項のいずれか1項に記載の電子デバイス。
  8. 前記レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、
    前記第1材料は、第1周波数範囲内のレーダー信号を吸収し、
    前記第2材料は、第2周波数範囲内のレーダー信号を吸収し、前記第2周波数範囲の少なくとも一部は、前記第1周波数範囲に含まれていない、先行する請求項のいずれか1項に記載の電子デバイス。
  9. 前記レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、先行する請求項のいずれか1項に記載の電子デバイス。
  10. 前記レーダーシステムは、さらに、デジタルビームフォーマと角度推定器とを含み、前記レーダーシステムは、約−90度〜約90度の間の視野における角度を監視するように構成される、先行する請求項のいずれか1項に記載の電子デバイス。
  11. レーダーシステムを含む電子デバイスによって実行される方法であって、
    前記レーダーシステムがレーダーフィールドを提供するステップと、
    前記レーダーシステムが前記レーダーフィールドにあるオブジェクトからの反射を検知するステップと、
    前記レーダーフィールドにある前記オブジェクトからの反射を分析するステップと、
    前記反射の分析に基づいて、レーダーデータを提供するステップと、
    前記レーダーデータの第1サブセットに基づいて、前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するステップと、
    前記検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップとを含み、前記ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの特徴的な配置に対応し、前記方法は、さらに、
    前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断するステップと、
    前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するステップとを含む、方法。
  12. 前記レーダーデータの第2サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化を判断するステップと、
    前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化に基づいて、前記レーダーフィールドにある前記オブジェクトによるジェスチャを判断するステップと、
    前記ジェスチャに対応する前記電子デバイスの機能を判断するステップと、
    前記電子デバイスに前記機能を提供させるステップとをさらに含む、請求項11に記載の方法。
  13. 前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するステップは、さらに、
    前記レーダーデータの第1サブセットに基づいて、前記レーダー画像シェイパーの特徴を判断するステップと、
    前記判断された特徴を分析して前記ベンチマークレーダーシグネチャの既知の特徴との一致を判断するステップとを含む、請求項11または12に記載の方法。
  14. 前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するステップは、前記検出されたレーダーシグネチャを複数のベンチマークレーダーシグネチャと比較するステップをさらに含み、前記複数のレーダーシグネチャの各ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの異なる特徴的な配置に対応する、請求項11〜13のいずれか1項に記載の方法。
  15. コントローラ筐体と、
    前記コントローラ筐体と一体化されたレーダー画像シェイパーとを備え、前記レーダー画像シェイパーは、レーダーシステムによって検出可能なレーダーシグネチャを提供するように構成され、前記レーダーシグネチャは、前記レーダーシステムが前記コントローラ筐体の特徴的な配置を判断することを可能にするのに有効である、コントローラ。
  16. 前記レーダー画像シェイパーは、コーナーリフレクタである、請求項15に記載のコントローラ。
  17. 前記コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、請求項16に記載のコントローラ。
  18. 前記レーダー画像シェイパーは、非対称である、請求項15〜17のいずれか1項に記載のコントローラ。
  19. 前記レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、
    前記第1材料は、第1周波数範囲内のレーダー信号を吸収し、
    前記第2材料は、第2周波数範囲内のレーダー信号を吸収し、前記第2周波数範囲の少なくとも一部は、前記第1周波数範囲に含まれていない、請求項15〜18のいずれか1項に記載のコントローラ。
  20. 前記レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、請求項15〜19のいずれか1項に記載のコントローラ。
  21. 別のレーダー画像シェイパーをさらに備え、
    前記レーダー画像シェイパーは、前記筐体の第1端近くに内蔵され、
    前記別のレーダー画像シェイパーは、前記筐体の第2端近くに内蔵される、請求項15〜20のいずれか1項に記載のコントローラ。
  22. 前記レーダー画像シェイパーおよび前記別のレーダー画像シェイパーは、それぞれ異なる材料から構成される、請求項21に記載のコントローラ。
  23. 前記レーダー画像シェイパーおよび前記別のレーダー画像シェイパーの形状は、それぞれ異なる、請求項21または22に記載のコントローラ。
  24. 前記筐体の断面は、円柱形または長円形である、請求項15〜23のいずれか1項に記載のコントローラ。
  25. 前記レーダー画像シェイパーは、固有のレーダー反射を提供する、請求項15〜24のいずれか1項に記載のコントローラ。
  26. 前記コントローラは、スタイラスであり、前記スタイラスは、スタイラス筐体と、前記スタイラス筐体と一体化された前記レーダー画像シェイパーとを含む、請求項15〜25のいずれか1項に記載のコントローラ。
  27. 請求項1〜10のいずれか1項に記載の電子デバイスを少なくとも1つと、請求項15〜26のいずれか1項に記載のコントローラを少なくとも1つとを備える、システム。
JP2020520030A 2018-11-13 2019-09-27 レーダーベースのアプリケーションのためのレーダー画像シェイパー Active JP6877642B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/189,346 2018-11-13
US16/189,346 US10761611B2 (en) 2018-11-13 2018-11-13 Radar-image shaper for radar-based applications
PCT/US2019/053568 WO2020101810A1 (en) 2018-11-13 2019-09-27 Radar-image shaper for radar-based applications

Publications (2)

Publication Number Publication Date
JP2021507326A true JP2021507326A (ja) 2021-02-22
JP6877642B2 JP6877642B2 (ja) 2021-05-26

Family

ID=68290349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520030A Active JP6877642B2 (ja) 2018-11-13 2019-09-27 レーダーベースのアプリケーションのためのレーダー画像シェイパー

Country Status (7)

Country Link
US (1) US10761611B2 (ja)
EP (1) EP3688554A1 (ja)
JP (1) JP6877642B2 (ja)
KR (1) KR102457186B1 (ja)
CN (1) CN111512276B (ja)
BR (1) BR112020025242B1 (ja)
WO (1) WO2020101810A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8952776B2 (en) 2002-12-13 2015-02-10 Volterra Semiconductor Corporation Powder core material coupled inductors and associated methods
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode
US11126885B2 (en) 2019-03-21 2021-09-21 Infineon Technologies Ag Character recognition in air-writing based on network of radars
US11733861B2 (en) * 2020-11-20 2023-08-22 Trimble Inc. Interpreting inputs for three-dimensional virtual spaces from touchscreen interface gestures to improve user interface functionality
KR20220073943A (ko) * 2020-11-27 2022-06-03 삼성전자주식회사 스타일러스를 이용한 전자 장치의 제어 방법 및 그 방법을 이용하여 스타일러스로부터 입력을 받는 전자 장치
CN113705415B (zh) * 2021-08-23 2023-10-27 中国电子科技集团公司第十五研究所 基于雷达情报的空情目标特征提取方法及装置
US20230359280A1 (en) * 2022-05-09 2023-11-09 KaiKuTek Inc. Method of customizing hand gesture

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001033550A (ja) * 1999-07-21 2001-02-09 Toyota Motor Corp 物体検出装置及びシステム
JP2006013819A (ja) * 2004-06-24 2006-01-12 Fujitsu Ltd レーダ用レフレクタ
JP2010038607A (ja) * 2008-08-01 2010-02-18 Hitachi Ltd 検出装置および鉄道車両
US20160026327A1 (en) * 2014-07-24 2016-01-28 Samsung Electronics Co., Ltd. Electronic device and method for controlling output thereof
JP2016205907A (ja) * 2015-04-20 2016-12-08 株式会社Ihiエアロスペース コーナーリフレクタ、及び該コーナーリフレクタを備えたデコイシステム。
JP2018116653A (ja) * 2017-01-20 2018-07-26 株式会社デンソーテン 識別装置、識別システム、および識別方法
JP2018527558A (ja) * 2015-10-06 2018-09-20 グーグル エルエルシー レーダ対応センサフュージョン

Family Cites Families (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1323087C (en) * 1988-01-19 1993-10-12 Helmut Hans Lanziner Marine navigation and positioning system
US8228305B2 (en) * 1995-06-29 2012-07-24 Apple Inc. Method for providing human input to a computer
US7511630B2 (en) 1999-05-04 2009-03-31 Intellimat, Inc. Dynamic electronic display system with brightness control
US7085253B2 (en) 2001-11-02 2006-08-01 Samsung Electronics Co., Ltd. System and method for notifying a user of the status of other mobile terminals
US20070015559A1 (en) * 2002-07-27 2007-01-18 Sony Computer Entertainment America Inc. Method and apparatus for use in determining lack of user activity in relation to a system
US8062126B2 (en) * 2004-01-16 2011-11-22 Sony Computer Entertainment Inc. System and method for interfacing with a computer program
US7199749B2 (en) 2003-12-12 2007-04-03 Georgia Tech Research Corporation Radar detection device employing a scanning antenna system
US7301494B2 (en) 2004-05-03 2007-11-27 Jeffrey Waters Combination cellular telephone and radar detector
TW200731743A (en) 2006-02-15 2007-08-16 Asustek Comp Inc Mobile device capable of adjusting volume dynamically and related method
US20080029316A1 (en) * 2006-08-07 2008-02-07 Denny Jaeger Method for detecting position of input devices on a screen using infrared light emission
US9772689B2 (en) 2008-03-04 2017-09-26 Qualcomm Incorporated Enhanced gesture-based image manipulation
US20090322690A1 (en) 2008-06-30 2009-12-31 Nokia Corporation Screen display
TWI384850B (zh) 2008-12-25 2013-02-01 Inventec Appliances Corp 手機及自動切換手機來電提示之方法
WO2010096546A1 (en) 2009-02-18 2010-08-26 MBTE Holdings Sweden AB Telephone call scheduling and initiation system
US7924212B2 (en) 2009-08-10 2011-04-12 Robert Bosch Gmbh Method for human only activity detection based on radar signals
US20110181510A1 (en) 2010-01-26 2011-07-28 Nokia Corporation Gesture Control
KR20110101585A (ko) 2010-03-09 2011-09-16 삼성전자주식회사 휴대용 단말기의 화면 전환 장치 및 방법
US20110237274A1 (en) 2010-03-25 2011-09-29 Palm, Inc. Mobile computing device having relative positioning circuit
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US9569003B2 (en) 2010-09-30 2017-02-14 Broadcom Corporation Portable computing device including a three-dimensional touch screen
US8723986B1 (en) 2010-11-04 2014-05-13 MCube Inc. Methods and apparatus for initiating image capture on a hand-held device
US20120280900A1 (en) 2011-05-06 2012-11-08 Nokia Corporation Gesture recognition using plural sensors
US8803697B2 (en) 2011-05-13 2014-08-12 Nokia Corporation Detecting movement for determining characteristics of user notification
KR101853277B1 (ko) 2011-07-18 2018-04-30 삼성전자 주식회사 통화 중 응용 프로그램 실행 방법 및 이를 지원하는 모바일 단말기
US20130053007A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Gesture-based input mode selection for mobile devices
US20130057571A1 (en) 2011-09-02 2013-03-07 Nokia Siemens Networks Oy Display Orientation Control
US20180032997A1 (en) 2012-10-09 2018-02-01 George A. Gordon System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device
US20130120458A1 (en) 2011-11-16 2013-05-16 Microsoft Corporation Detecting screen orientation by using one or more proximity sensors
KR101371547B1 (ko) 2012-03-08 2014-03-07 삼성전자주식회사 얼굴의 기울기를 측정하여 화면을 회전시키는 전자 장치 및 방법
US9494973B2 (en) 2012-05-09 2016-11-15 Blackberry Limited Display system with image sensor based display orientation
US9632584B2 (en) 2013-01-08 2017-04-25 2236008 Ontario Inc. On-demand user control
US20140267130A1 (en) 2013-03-13 2014-09-18 Microsoft Corporation Hover gestures for touch-enabled devices
JP5790692B2 (ja) 2013-03-29 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法および記録媒体
US20140315531A1 (en) 2013-04-17 2014-10-23 Donald Joong System & method for enabling or restricting features based on an attention challenge
US9075435B1 (en) 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US9733677B2 (en) 2013-05-08 2017-08-15 Ran Geva Motion-based message display
KR102160767B1 (ko) 2013-06-20 2020-09-29 삼성전자주식회사 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법
US9589565B2 (en) 2013-06-21 2017-03-07 Microsoft Technology Licensing, Llc Environmentally aware dialog policies and response generation
US20140380249A1 (en) 2013-06-25 2014-12-25 Apple Inc. Visual recognition of gestures
US20150036999A1 (en) 2013-07-30 2015-02-05 Texas Instruments Incorporated Viewer Attention Controlled Video Playback
EP2887092A1 (en) 2013-12-18 2015-06-24 BAE SYSTEMS plc Computing radar cross section
JP2017504796A (ja) * 2013-12-18 2017-02-09 ビーエーエスエフ ソシエタス・ヨーロピアBasf Se 対象物の光学的検出に使用するターゲットデバイス
US20150187137A1 (en) 2013-12-31 2015-07-02 Daqri, Llc Physical object discovery
US20160118036A1 (en) 2014-10-23 2016-04-28 Elwha Llc Systems and methods for positioning a user of a hands-free intercommunication system
US10338800B2 (en) 2014-02-21 2019-07-02 FLIR Belgium BVBA Enhanced pilot display systems and methods
US9921657B2 (en) * 2014-03-28 2018-03-20 Intel Corporation Radar-based gesture recognition
US9575560B2 (en) 2014-06-03 2017-02-21 Google Inc. Radar-based gesture-recognition through a wearable device
US10367950B2 (en) 2014-06-11 2019-07-30 Lenovo (Singapore) Pte. Ltd. Device notification adjustment dependent on user proximity
CN112651288B (zh) * 2014-06-14 2022-09-20 奇跃公司 用于产生虚拟和增强现实的方法和系统
US9600177B2 (en) 2014-07-17 2017-03-21 Google Technology Holdings LLC Electronic device with gesture display control and corresponding methods
US9921660B2 (en) 2014-08-07 2018-03-20 Google Llc Radar-based gesture recognition
US9811164B2 (en) 2014-08-07 2017-11-07 Google Inc. Radar-based gesture sensing and data transmission
US9778749B2 (en) 2014-08-22 2017-10-03 Google Inc. Occluded gesture recognition
DE202015005999U1 (de) 2014-08-26 2015-11-26 Apple Inc. Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen
US9600080B2 (en) 2014-10-02 2017-03-21 Google Inc. Non-line-of-sight radar-based gesture recognition
US9911235B2 (en) 2014-11-14 2018-03-06 Qualcomm Incorporated Spatial interaction in augmented reality
KR102256676B1 (ko) 2015-02-06 2021-05-26 삼성전자주식회사 전파 기반 센서 모듈을 이용하는 센싱 장치 및 이동 단말을 포함하는 다목적 디바이스
US9817109B2 (en) 2015-02-27 2017-11-14 Texas Instruments Incorporated Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution
US10168785B2 (en) 2015-03-03 2019-01-01 Nvidia Corporation Multi-sensor based user interface
US10134368B2 (en) 2015-06-04 2018-11-20 Paypal, Inc. Movement based graphical user interface
US20170289766A1 (en) 2016-03-29 2017-10-05 Microsoft Technology Licensing, Llc Digital Assistant Experience based on Presence Detection
US11558848B2 (en) 2016-03-30 2023-01-17 Lenovo (Singapore) Pte. Ltd. Intelligent notification delivery
US10687184B2 (en) * 2016-05-13 2020-06-16 Google Llc Systems, methods, and devices for utilizing radar-based touch interfaces
US10613213B2 (en) * 2016-05-13 2020-04-07 Google Llc Systems, methods, and devices for utilizing radar with smart devices
WO2017200571A1 (en) 2016-05-16 2017-11-23 Google Llc Gesture-based control of a user interface
US20170349184A1 (en) 2016-06-06 2017-12-07 GM Global Technology Operations LLC Speech-based group interactions in autonomous vehicles
WO2018013564A1 (en) 2016-07-12 2018-01-18 Bose Corporation Combining gesture and voice user interfaces
US10299290B2 (en) 2016-09-30 2019-05-21 Intel IP Corporation Apparatus, system and method of radar detection
US10726835B2 (en) 2016-12-23 2020-07-28 Amazon Technologies, Inc. Voice activated modular controller
US11243293B2 (en) 2017-02-07 2022-02-08 Samsung Electronics Company, Ltd. Radar-based system for sensing touch and in-the-air interactions
US10845477B2 (en) 2017-05-10 2020-11-24 Google Llc Power management using a low-power radar
US10719870B2 (en) 2017-06-27 2020-07-21 Microsoft Technology Licensing, Llc Mixed reality world integration of holographic buttons in a mixed reality device
US10217488B1 (en) 2017-12-15 2019-02-26 Snap Inc. Spherical video editing
US10579154B1 (en) 2018-08-20 2020-03-03 Google Llc Smartphone-based radar system detecting user gestures using coherent multi-look radar processing
US10794997B2 (en) 2018-08-21 2020-10-06 Google Llc Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures
US10770035B2 (en) 2018-08-22 2020-09-08 Google Llc Smartphone-based radar system for facilitating awareness of user presence and orientation
US10890653B2 (en) 2018-08-22 2021-01-12 Google Llc Radar-based gesture enhancement for voice interfaces
US10698603B2 (en) 2018-08-24 2020-06-30 Google Llc Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface
US10788880B2 (en) 2018-10-22 2020-09-29 Google Llc Smartphone-based radar system for determining user intention in a lower-power mode

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001033550A (ja) * 1999-07-21 2001-02-09 Toyota Motor Corp 物体検出装置及びシステム
JP2006013819A (ja) * 2004-06-24 2006-01-12 Fujitsu Ltd レーダ用レフレクタ
JP2010038607A (ja) * 2008-08-01 2010-02-18 Hitachi Ltd 検出装置および鉄道車両
US20160026327A1 (en) * 2014-07-24 2016-01-28 Samsung Electronics Co., Ltd. Electronic device and method for controlling output thereof
JP2016205907A (ja) * 2015-04-20 2016-12-08 株式会社Ihiエアロスペース コーナーリフレクタ、及び該コーナーリフレクタを備えたデコイシステム。
JP2018527558A (ja) * 2015-10-06 2018-09-20 グーグル エルエルシー レーダ対応センサフュージョン
JP2018116653A (ja) * 2017-01-20 2018-07-26 株式会社デンソーテン 識別装置、識別システム、および識別方法

Also Published As

Publication number Publication date
KR102457186B1 (ko) 2022-10-20
CN111512276B (zh) 2024-04-09
US20200150771A1 (en) 2020-05-14
KR20200062275A (ko) 2020-06-03
CN111512276A (zh) 2020-08-07
JP6877642B2 (ja) 2021-05-26
WO2020101810A1 (en) 2020-05-22
US10761611B2 (en) 2020-09-01
BR112020025242B1 (pt) 2021-10-26
BR112020025242A2 (pt) 2021-05-25
EP3688554A1 (en) 2020-08-05

Similar Documents

Publication Publication Date Title
JP6877642B2 (ja) レーダーベースのアプリケーションのためのレーダー画像シェイパー
US11204694B2 (en) Radar system facilitating ease and accuracy of user interactions with a user interface
US11435468B2 (en) Radar-based gesture enhancement for voice interfaces
EP3750034B1 (en) Smartphone-based radar system for determining user intention in a lower-power mode
US11841933B2 (en) Radar-based authentication status feedback
CN113874812A (zh) 用于多输入模式的输入模式通知
CN112753005A (zh) 移动设备的输入方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200619

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200619

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210112

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210427

R150 Certificate of patent or registration of utility model

Ref document number: 6877642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE

Ref document number: 6877642

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250