JP6877642B2 - レーダーベースのアプリケーションのためのレーダー画像シェイパー - Google Patents
レーダーベースのアプリケーションのためのレーダー画像シェイパー Download PDFInfo
- Publication number
- JP6877642B2 JP6877642B2 JP2020520030A JP2020520030A JP6877642B2 JP 6877642 B2 JP6877642 B2 JP 6877642B2 JP 2020520030 A JP2020520030 A JP 2020520030A JP 2020520030 A JP2020520030 A JP 2020520030A JP 6877642 B2 JP6877642 B2 JP 6877642B2
- Authority
- JP
- Japan
- Prior art keywords
- radar
- signature
- benchmark
- electronic device
- image shaper
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 57
- 239000000463 material Substances 0.000 claims description 36
- 230000004044 response Effects 0.000 claims description 28
- 241001422033 Thestylus Species 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 16
- 238000007726 management method Methods 0.000 description 18
- 230000033001 locomotion Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 210000003811 finger Anatomy 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000006399 behavior Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 229910000838 Al alloy Inorganic materials 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000003638 chemical reducing agent Substances 0.000 description 3
- 238000013016 damping Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 239000004033 plastic Substances 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 239000004744 fabric Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 239000002023 wood Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000004883 computer application Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 239000011368 organic material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/06—Systems determining position data of a target
- G01S13/42—Simultaneous measurement of distance and other co-ordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/483—Details of pulse systems
- G01S7/486—Receivers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
多くのアプリケーションは、追跡可能コントローラの利用と連動させることができ、アプリケーションはコントローラの位置および動きを検知できるようになる。ゲームコントローラ、テレビおよびその他のメディアデバイス用のリモコン、スタイラス、およびその他のコントローラによって、ユーザは、ゲームをしたり、プログラムを選択して変更したり、コンテンツを操作および作成したり、コントローラを利用して行われたジェスチャを使って数え切れないその他の機能を実行することができる。このように制御され得るアプリケーションの数および種類が増えると、コントローラを利用して行われる動きの数も増え、動きも複雑になり、ユーザから不満が出る可能性がある。従来のコントローラは、制御されているデバイスに備えられたカメラで追跡可能な目標、または、制御されているデバイスに位置情報を提供できる慣性計測装置(IMU:Inertial Measurement Unit)を利用する。これらのコントローラは、多くの場合、プロセッサおよび選択可能な制御部など、独自の電子機器を含んでおり、この追加機能の一部を提供するのに役立ち得るが、独自の電源も必要になる。たとえば、ゲームコントローラのモードを操舵機構からウェポンに変更して再び操舵機構に戻す、またはスタイラスをコンテンツ作成モード(たとえば、線を描く、または線の色を変更する)から(たとえば、線またはオブジェクトを移動させることによってコンテンツを操作するための)編集モードに変更するためには、コントローラまたは別のデバイス上でコマンドを入力するという面倒なプロセスを必要とし得る。その結果、追跡可能コントローラによって提供される柔軟性および臨場感を活用することが面倒で不満を募らせるものになり得、電子デバイスおよびアプリケーションの可能性を最大限に実現できない可能性がある。
本明細書は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術およびシステムについて説明する。当該技術およびシステムは、レーダーフィールドを利用して、レーダーフィールドにあるオブジェクトの特徴的な配置(特定の時間のオブジェクトの位置、向き、速度、または方向)を電子デバイスが精度よく判断することを可能にする。オブジェクトの特徴的な配置は、オブジェクトに含まれるレーダー画像シェイパーのレーダーシグネチャ(または、レーダー反射断面積)を検出することによって判断される。レーダー画像シェイパーは、特定の材料から構成され、レーダーフィールドによって照射されると既知のシグネチャを生成する特定の形状を有する部品である。これらの技術を利用して、電子デバイスは、オブジェクトの特徴的な配置を判断でき、これによって、ジェスチャおよびその他の位置ベース技術を用いて電子デバイスとやり取りためにオブジェクトを利用できるようになる。レーダー画像シェイパーによって、本来は受け身である(パッシブ)オブジェクトが電子デバイス上でアプリケーションを制御することが可能になるので、ユーザは、豊富なジェスチャライブラリと、追加部品またはバッテリを必要としない制御部とを用いたやり取りする方法を持てるようになる。
概要
本明細書は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術およびシステムについて説明する。上述したように、追跡可能コントローラを利用することは便利であり得るが、複数のジェスチャを必要とするまたは複数のモードを有する複雑なタスクについては不満を募らせるものであり得る。さらに、モーションベースコントローラがそれ自体の構成要素と電力を有するアクティブデバイスである場合であっても、モードややり取りする方法を変更することは面倒であり得、特に、コンテンツ作成やゲーム中など、クリエイティブまたは競争の激しい環境で作業しているときは、ユーザから不満が出るだろう。よって、入力装置の制限のせいで、ユーザは、アプリケーションが有する最大限の可能性に気づいていないかもしれない。記載の技術およびシステムは、コントローラなど、レーダーシステムが検出できる固有のレーダー反射を提供するオブジェクトにレーダー画像シェイパーを含めて、オブジェクトの特徴的な配置を精度よく判断する。この場合、精度は、高度に洗練され、正確性が高い、または、高度に洗練されており、かつ正確性が高い。これらの技術によって、コントローラを用いて生成されるジェスチャおよびジェスチャの組合せの量を増やすことが可能になる。これに加えて、記載の技術は、コントローラに電子部品または電源を追加しなくても効果的である。レーダーシステムが、部品点数および消費電力を低減しつつ、ジェスチャを精度よく判断してシステムのパフォーマンスを改善できるので、連動がさらに便利になり、不満をあまり募らせることがない。さらに、レーダーシステムは、特に、少なくとも2つのレーダー画像シェイパーがオブジェクトに備えられている場合、その他のレーダーデータ(たとえば、方位データおよび距離データ)を用いてレーダー画像シェイパーの3次元(3D)位置ならびに移動および加速度を判断することができる。
図1は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする技術が実装され得る環境例100を示す図である。環境例100は、電子デバイス102を備える。電子デバイス102は、レーダーシステム104と、レーダーシグネチャマネージャ106(シグネチャマネージャ106)と、シグネチャライブラリ108とを含むまたはそれらに関連付けられる。
図7および図8は、レーダー画像シェイパー114の実装例を示す図である。レーダー画像シェイパー114を利用して、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にできる。図7は、8つの三面コーナーリフレクタ702を備える八面体であるレーダー画像シェイパーの実装例700を示す図である。一般に、三面コーナーリフレクタは、3つの垂直に交差する平らな面から作られる形状である。この形状は、レーダー信号を反射する材料から作られた場合、信号を反射してソースに向けて戻す。実装例700では、個々の三面コーナーリフレクタ702−1〜702−8は、三角形の面から構成されているが、図8で説明するように、その他の形状が用いられてもよい。
図9および図10は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする方法例900を示す図である。方法900は、レーダーフィールドを提供するためにレーダーシステムを利用する電子デバイスを用いて実行できる。レーダーフィールドを用いてレーダーフィールドにあるオブジェクトの存在を判断する。また、レーダーフィールドは、オブジェクトの意思レベルを判断するのに使用することもでき、当該意思レベルは、オブジェクトが電子デバイスとやり取りする意思があるのかどうかを判断するために利用することができる。オブジェクトの意思の判断結果に基づいて、電子デバイスは、異なる機能および電力使用モードに入るまたは出ることができる。
図14は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを実装するために任意の種類のクライアント、サーバ、および/または前述の図1〜図13で説明した電子デバイスとして実装され得るコンピューティングシステムの例1400の様々な構成要素を示す図である。
例1:電子デバイスであって、少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、レーダーシステムは、レーダーフィールドを提供し、レーダーフィールドにあるオブジェクトからの反射を検知し、レーダーフィールドにあるオブジェクトの反射を分析し、反射の分析に基づいて、レーダーデータを提供するように構成され、電子デバイスは、さらに、1つ以上のコンピュータプロセッサと、命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、命令は、1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、レーダーシグネチャマネージャは、レーダーデータの第1サブセットに基づいて、レーダーフィールドにあるオブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、検出されたレーダーシグネチャをレーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、比較に基づいて、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断し、検出されたレーダーシグネチャがベンチマークレーダーシグネチャに一致すると判断することに応答して、一致するベンチマークレーダーシグネチャに対応するレーダー画像シェイパーの特徴的な配置に基づいてレーダーフィールドにあるオブジェクトの特徴的な配置を判断するように構成される、電子デバイス。
レーダーベースのアプリケーションのためのレーダー画像シェイパー向けの技術の実装および当該レーダー画像シェイパーを可能にする装置について、特徴および/または方法に特有の言葉で説明したが、当然ながら、請求の範囲の主題は、上述の具体的な特徴または方法によって必ずしも限定されるわけではない。むしろ、具体的な特徴および方法は、レーダーベースのアプリケーションのためのレーダー画像シェイパーを可能にする実装例として開示されている。
Claims (30)
- 電子デバイスであって、
少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、前記レーダーシステムは、
レーダーフィールドを提供し、
前記レーダーフィールドにあるオブジェクトからの反射を検知し、
前記レーダーフィールドにある前記オブジェクトの反射を分析し、
前記反射の分析に基づいて、レーダーデータを提供するように構成され、前記電子デバイスは、さらに、
1つ以上のコンピュータプロセッサと、
命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、前記命令は、前記1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、前記レーダーシグネチャマネージャは、
前記レーダーデータの第1サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを前記レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断し、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するように構成され、前記特徴的な配置は、向き、速度、および、方向のうち少なくとも1つを含む、電子デバイス。 - 電子デバイスであって、
少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、前記レーダーシステムは、
レーダーフィールドを提供し、
前記レーダーフィールドにあるオブジェクトからの反射を検知し、
前記レーダーフィールドにある前記オブジェクトの反射を分析し、
前記反射の分析に基づいて、レーダーデータを提供するように構成され、前記電子デバイスは、さらに、
1つ以上のコンピュータプロセッサと、
命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、前記命令は、前記1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、前記レーダーシグネチャマネージャは、
前記レーダーデータの第1サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを前記レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断し、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するように構成され、
前記レーダーシグネチャマネージャは、
前記レーダーデータの第2サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化を判断し、
前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化に基づいて、前記レーダーフィールドにある前記オブジェクトによるジェスチャを判断し、
前記ジェスチャに対応する前記電子デバイスの機能を判断し、
前記電子デバイスに前記機能を提供させるようにさらに構成される、電子デバイス。 - 電子デバイスであって、
少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、前記レーダーシステムは、
レーダーフィールドを提供し、
前記レーダーフィールドにあるオブジェクトからの反射を検知し、
前記レーダーフィールドにある前記オブジェクトの反射を分析し、
前記反射の分析に基づいて、レーダーデータを提供するように構成され、前記電子デバイスは、さらに、
1つ以上のコンピュータプロセッサと、
命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、前記命令は、前記1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、前記レーダーシグネチャマネージャは、
前記レーダーデータの第1サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを前記レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断し、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するように構成され、
前記レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、
前記第1材料は、第1周波数範囲内のレーダー信号を吸収し、
前記第2材料は、第2周波数範囲内のレーダー信号を吸収し、前記第2周波数範囲の少なくとも一部は、前記第1周波数範囲に含まれていない、電子デバイス。 - 電子デバイスであって、
少なくとも部分的にハードウェアで実現されるレーダーシステムを備え、前記レーダーシステムは、
レーダーフィールドを提供し、
前記レーダーフィールドにあるオブジェクトからの反射を検知し、
前記レーダーフィールドにある前記オブジェクトの反射を分析し、
前記反射の分析に基づいて、レーダーデータを提供するように構成され、前記電子デバイスは、さらに、
1つ以上のコンピュータプロセッサと、
命令を格納した1つ以上のコンピュータ読み取り可能な媒体とを備え、前記命令は、前記1つ以上のコンピュータプロセッサによって実行されると、レーダーシグネチャマネージャを実行し、前記レーダーシグネチャマネージャは、
前記レーダーデータの第1サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを前記レーダー画像シェイパーの特徴的な配置に対応するベンチマークレーダーシグネチャと比較し、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断し、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するように構成され、
前記レーダーシステムは、さらに、デジタルビームフォーマと角度推定器とを含み、前記レーダーシステムは、約−90度〜約90度の間の視野における角度を監視するように構成される、電子デバイス。 - 前記レーダーシグネチャマネージャは、前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するようにさらに構成され、前記比較は、
前記レーダーデータの第1サブセットに基づいて前記レーダー画像シェイパーの特徴を判断することと、
前記判断された特徴を分析して前記ベンチマークレーダーシグネチャの既知の特徴との一致を判断することとを含む、請求項1〜4のいずれか1項に記載の電子デバイス。 - 前記レーダーシグネチャマネージャは、前記検出されたレーダーシグネチャの複数のベンチマークレーダーシグネチャとの比較によって前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するようにさらに構成され、前記複数のベンチマークレーダーシグネチャの各ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの異なる特徴的な配置に対応する、請求項1〜5のいずれか1項に記載の電子デバイス。
- 前記レーダー画像シェイパーは、コーナーリフレクタである、請求項1〜6のいずれか1項に記載の電子デバイス。
- 前記コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、請求項7に記載の電子デバイス。
- 前記レーダー画像シェイパーは、非対称である、請求項1〜8のいずれか1項に記載の電子デバイス。
- 前記レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、請求項1〜9のいずれか1項に記載の電子デバイス。
- レーダーシステムを含む電子デバイスによって実行される方法であって、
前記レーダーシステムがレーダーフィールドを提供するステップと、
前記レーダーシステムが前記レーダーフィールドにあるオブジェクトからの反射を検知するステップと、
前記レーダーフィールドにある前記オブジェクトからの反射を分析するステップと、
前記反射の分析に基づいて、レーダーデータを提供するステップと、
前記レーダーデータの第1サブセットに基づいて、前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するステップと、
前記検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップとを含み、前記ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの特徴的な配置に対応し、前記方法は、さらに、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断するステップと、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するステップとを含み、前記特徴的な配置は、向き、速度、および、方向のうち少なくとも1つを含む、方法。 - レーダーシステムを含む電子デバイスによって実行される方法であって、
前記レーダーシステムがレーダーフィールドを提供するステップと、
前記レーダーシステムが前記レーダーフィールドにあるオブジェクトからの反射を検知するステップと、
前記レーダーフィールドにある前記オブジェクトからの反射を分析するステップと、
前記反射の分析に基づいて、レーダーデータを提供するステップと、
前記レーダーデータの第1サブセットに基づいて、前記オブジェクトのレーダー画像シェイパーのレーダーシグネチャを検出するステップと、
前記検出されたレーダーシグネチャをベンチマークレーダーシグネチャと比較するステップとを含み、前記ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの特徴的な配置に対応し、前記方法は、さらに、
前記比較に基づいて、前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断するステップと、
前記検出されたレーダーシグネチャが前記ベンチマークレーダーシグネチャに一致すると判断することに応答して、前記一致するベンチマークレーダーシグネチャに対応する前記レーダー画像シェイパーの特徴的な配置に基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置を判断するステップと、
前記レーダーデータの第2サブセットに基づいて、前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化を判断するステップと、
前記レーダーフィールドにある前記オブジェクトの特徴的な配置の変化に基づいて、前記レーダーフィールドにある前記オブジェクトによるジェスチャを判断するステップと、
前記ジェスチャに対応する前記電子デバイスの機能を判断するステップと、
前記電子デバイスに前記機能を提供させるステップとを含む、方法。 - 前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するステップは、さらに、
前記レーダーデータの第1サブセットに基づいて、前記レーダー画像シェイパーの特徴を判断するステップと、
前記判断された特徴を分析して前記ベンチマークレーダーシグネチャの既知の特徴との一致を判断するステップとを含む、請求項11または12に記載の方法。 - 前記検出されたレーダーシグネチャを前記ベンチマークレーダーシグネチャと比較するステップは、前記検出されたレーダーシグネチャを複数のベンチマークレーダーシグネチャと比較するステップをさらに含み、前記複数のベンチマークレーダーシグネチャの各ベンチマークレーダーシグネチャは、前記レーダー画像シェイパーの異なる特徴的な配置に対応する、請求項11〜13のいずれか1項に記載の方法。
- コントローラ筐体と、
前記コントローラ筐体と一体化されたレーダー画像シェイパーとを備え、前記レーダー画像シェイパーは、レーダーシステムによって検出可能なレーダーシグネチャを提供するように構成され、前記レーダーシグネチャは、前記レーダーシステムが前記コントローラ筐体の特徴的な配置を判断することを可能にするのに有効である、コントローラ。 - 前記レーダー画像シェイパーは、コーナーリフレクタである、請求項15に記載のコントローラ。
- 前記コーナーリフレクタは、8つの三面コーナーリフレクタを備える八面体である、請求項16に記載のコントローラ。
- 前記レーダー画像シェイパーは、非対称である、請求項15〜17のいずれか1項に記載のコントローラ。
- 前記レーダー画像シェイパーは、第1材料から作られた第1部分と、第2材料から作られた第2部分とを含み、
前記第1材料は、第1周波数範囲内のレーダー信号を吸収し、
前記第2材料は、第2周波数範囲内のレーダー信号を吸収し、前記第2周波数範囲の少なくとも一部は、前記第1周波数範囲に含まれていない、請求項15〜18のいずれか1項に記載のコントローラ。 - 前記レーダー画像シェイパーの最長エッジの長さは、1ミリメートル〜10ミリメートルの間である、請求項15〜19のいずれか1項に記載のコントローラ。
- 別のレーダー画像シェイパーをさらに備え、
前記レーダー画像シェイパーは、前記コントローラ筐体の第1端近くに内蔵され、
前記別のレーダー画像シェイパーは、前記コントローラ筐体の第2端近くに内蔵される、請求項15〜20のいずれか1項に記載のコントローラ。 - 前記レーダー画像シェイパーおよび前記別のレーダー画像シェイパーは、それぞれ異なる材料から構成される、請求項21に記載のコントローラ。
- 前記レーダー画像シェイパーおよび前記別のレーダー画像シェイパーの形状は、それぞれ異なる、請求項21または22に記載のコントローラ。
- 前記コントローラ筐体の断面は、円柱形または長円形である、請求項15〜23のいずれか1項に記載のコントローラ。
- 前記レーダー画像シェイパーは、固有のレーダー反射を提供する、請求項15〜24のいずれか1項に記載のコントローラ。
- 前記コントローラは、スタイラスであり、前記スタイラスは、スタイラス筐体と、前記スタイラス筐体と一体化された前記レーダー画像シェイパーとを含む、請求項15〜25のいずれか1項に記載のコントローラ。
- 請求項1〜10のいずれか1項に記載の電子デバイスを少なくとも1つと、請求項15〜26のいずれか1項に記載のコントローラを少なくとも1つとを備える、システム。
- 前記レーダーシグネチャマネージャは、
前記オブジェクトの複数のレーダー画像シェイパーからのレーダー反射の形状でレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを、前記複数のレーダー画像シェイパーのベンチマークシグネチャと比較し、
前記比較に基づいて、前記複数のレーダー画像シェイパーの特徴的な配置を判断し、
前記複数のレーダー画像シェイパーの前記特徴的な配置に基づいて、前記レーダーフィールドにある前記オブジェクトの前記特徴的な配置を判断するように構成されている、請求項1〜10のいずれか1項に記載の電子デバイス。 - 前記レーダーシグネチャマネージャは、
前記オブジェクトの複数のレーダー画像シェイパーからのレーダー反射の形状でレーダーシグネチャを検出し、
前記検出されたレーダーシグネチャを、前記複数のレーダー画像シェイパーのベンチマークシグネチャと比較し、
前記比較に基づいて、前記複数のレーダー画像シェイパーの特徴的な配置を判断し、
前記複数のレーダー画像シェイパーの前記特徴的な配置に基づいて、前記レーダーフィールドにある前記オブジェクトの前記特徴的な配置を判断するように構成されている、請求項27に記載のシステム。 - コンピュータによって実行されるプログラムであって、前記プログラムは、前記コンピュータに、請求項11〜14のいずれか1項に記載の方法を実行させる、プログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/189,346 | 2018-11-13 | ||
US16/189,346 US10761611B2 (en) | 2018-11-13 | 2018-11-13 | Radar-image shaper for radar-based applications |
PCT/US2019/053568 WO2020101810A1 (en) | 2018-11-13 | 2019-09-27 | Radar-image shaper for radar-based applications |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021507326A JP2021507326A (ja) | 2021-02-22 |
JP6877642B2 true JP6877642B2 (ja) | 2021-05-26 |
Family
ID=68290349
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020520030A Active JP6877642B2 (ja) | 2018-11-13 | 2019-09-27 | レーダーベースのアプリケーションのためのレーダー画像シェイパー |
Country Status (7)
Country | Link |
---|---|
US (1) | US10761611B2 (ja) |
EP (1) | EP3688554A1 (ja) |
JP (1) | JP6877642B2 (ja) |
KR (1) | KR102457186B1 (ja) |
CN (1) | CN111512276B (ja) |
BR (1) | BR112020025242B1 (ja) |
WO (1) | WO2020101810A1 (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8952776B2 (en) | 2002-12-13 | 2015-02-10 | Volterra Semiconductor Corporation | Powder core material coupled inductors and associated methods |
US10890653B2 (en) | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10770035B2 (en) | 2018-08-22 | 2020-09-08 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US10698603B2 (en) | 2018-08-24 | 2020-06-30 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
US10788880B2 (en) | 2018-10-22 | 2020-09-29 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
US11126885B2 (en) * | 2019-03-21 | 2021-09-21 | Infineon Technologies Ag | Character recognition in air-writing based on network of radars |
US11733861B2 (en) * | 2020-11-20 | 2023-08-22 | Trimble Inc. | Interpreting inputs for three-dimensional virtual spaces from touchscreen interface gestures to improve user interface functionality |
KR20220073943A (ko) * | 2020-11-27 | 2022-06-03 | 삼성전자주식회사 | 스타일러스를 이용한 전자 장치의 제어 방법 및 그 방법을 이용하여 스타일러스로부터 입력을 받는 전자 장치 |
EP4040271A1 (en) * | 2021-02-08 | 2022-08-10 | Infineon Technologies AG | A pointing device for detecting motion relative to a surface and a method for detecting motion of a pointing device relative to a surface |
CN113705415B (zh) * | 2021-08-23 | 2023-10-27 | 中国电子科技集团公司第十五研究所 | 基于雷达情报的空情目标特征提取方法及装置 |
US20230359280A1 (en) * | 2022-05-09 | 2023-11-09 | KaiKuTek Inc. | Method of customizing hand gesture |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1323087C (en) * | 1988-01-19 | 1993-10-12 | Helmut Hans Lanziner | Marine navigation and positioning system |
US8228305B2 (en) * | 1995-06-29 | 2012-07-24 | Apple Inc. | Method for providing human input to a computer |
US7511630B2 (en) | 1999-05-04 | 2009-03-31 | Intellimat, Inc. | Dynamic electronic display system with brightness control |
JP3518431B2 (ja) * | 1999-07-21 | 2004-04-12 | トヨタ自動車株式会社 | 物体検出装置及びシステム |
US7085253B2 (en) | 2001-11-02 | 2006-08-01 | Samsung Electronics Co., Ltd. | System and method for notifying a user of the status of other mobile terminals |
US20070015559A1 (en) * | 2002-07-27 | 2007-01-18 | Sony Computer Entertainment America Inc. | Method and apparatus for use in determining lack of user activity in relation to a system |
US8062126B2 (en) * | 2004-01-16 | 2011-11-22 | Sony Computer Entertainment Inc. | System and method for interfacing with a computer program |
US7199749B2 (en) | 2003-12-12 | 2007-04-03 | Georgia Tech Research Corporation | Radar detection device employing a scanning antenna system |
US7301494B2 (en) | 2004-05-03 | 2007-11-27 | Jeffrey Waters | Combination cellular telephone and radar detector |
JP2006013819A (ja) * | 2004-06-24 | 2006-01-12 | Fujitsu Ltd | レーダ用レフレクタ |
TW200731743A (en) | 2006-02-15 | 2007-08-16 | Asustek Comp Inc | Mobile device capable of adjusting volume dynamically and related method |
US20080029316A1 (en) * | 2006-08-07 | 2008-02-07 | Denny Jaeger | Method for detecting position of input devices on a screen using infrared light emission |
US9772689B2 (en) | 2008-03-04 | 2017-09-26 | Qualcomm Incorporated | Enhanced gesture-based image manipulation |
US20090322690A1 (en) | 2008-06-30 | 2009-12-31 | Nokia Corporation | Screen display |
JP2010038607A (ja) * | 2008-08-01 | 2010-02-18 | Hitachi Ltd | 検出装置および鉄道車両 |
TWI384850B (zh) | 2008-12-25 | 2013-02-01 | Inventec Appliances Corp | 手機及自動切換手機來電提示之方法 |
US8588214B2 (en) | 2009-02-18 | 2013-11-19 | MBTE Holdings Sweden AB | Enhanced calling features |
US7924212B2 (en) | 2009-08-10 | 2011-04-12 | Robert Bosch Gmbh | Method for human only activity detection based on radar signals |
US20110181510A1 (en) | 2010-01-26 | 2011-07-28 | Nokia Corporation | Gesture Control |
KR20110101585A (ko) | 2010-03-09 | 2011-09-16 | 삼성전자주식회사 | 휴대용 단말기의 화면 전환 장치 및 방법 |
US20110237274A1 (en) | 2010-03-25 | 2011-09-29 | Palm, Inc. | Mobile computing device having relative positioning circuit |
US8296151B2 (en) | 2010-06-18 | 2012-10-23 | Microsoft Corporation | Compound gesture-speech commands |
US9569003B2 (en) | 2010-09-30 | 2017-02-14 | Broadcom Corporation | Portable computing device including a three-dimensional touch screen |
US8723986B1 (en) | 2010-11-04 | 2014-05-13 | MCube Inc. | Methods and apparatus for initiating image capture on a hand-held device |
US20120280900A1 (en) | 2011-05-06 | 2012-11-08 | Nokia Corporation | Gesture recognition using plural sensors |
US8803697B2 (en) | 2011-05-13 | 2014-08-12 | Nokia Corporation | Detecting movement for determining characteristics of user notification |
KR101853277B1 (ko) | 2011-07-18 | 2018-04-30 | 삼성전자 주식회사 | 통화 중 응용 프로그램 실행 방법 및 이를 지원하는 모바일 단말기 |
US20130053007A1 (en) | 2011-08-24 | 2013-02-28 | Microsoft Corporation | Gesture-based input mode selection for mobile devices |
US20130057571A1 (en) | 2011-09-02 | 2013-03-07 | Nokia Siemens Networks Oy | Display Orientation Control |
US20180032997A1 (en) | 2012-10-09 | 2018-02-01 | George A. Gordon | System, method, and computer program product for determining whether to prompt an action by a platform in connection with a mobile device |
US20130120458A1 (en) | 2011-11-16 | 2013-05-16 | Microsoft Corporation | Detecting screen orientation by using one or more proximity sensors |
KR101371547B1 (ko) | 2012-03-08 | 2014-03-07 | 삼성전자주식회사 | 얼굴의 기울기를 측정하여 화면을 회전시키는 전자 장치 및 방법 |
US9494973B2 (en) | 2012-05-09 | 2016-11-15 | Blackberry Limited | Display system with image sensor based display orientation |
US9632584B2 (en) | 2013-01-08 | 2017-04-25 | 2236008 Ontario Inc. | On-demand user control |
US20140267130A1 (en) | 2013-03-13 | 2014-09-18 | Microsoft Corporation | Hover gestures for touch-enabled devices |
JP5790692B2 (ja) | 2013-03-29 | 2015-10-07 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
US20140315531A1 (en) | 2013-04-17 | 2014-10-23 | Donald Joong | System & method for enabling or restricting features based on an attention challenge |
US9075435B1 (en) | 2013-04-22 | 2015-07-07 | Amazon Technologies, Inc. | Context-aware notifications |
WO2014181326A1 (en) | 2013-05-08 | 2014-11-13 | Geva Ran | Motion-based message display |
KR102160767B1 (ko) | 2013-06-20 | 2020-09-29 | 삼성전자주식회사 | 제스처를 감지하여 기능을 제어하는 휴대 단말 및 방법 |
US9589565B2 (en) | 2013-06-21 | 2017-03-07 | Microsoft Technology Licensing, Llc | Environmentally aware dialog policies and response generation |
US20140380249A1 (en) | 2013-06-25 | 2014-12-25 | Apple Inc. | Visual recognition of gestures |
US20150036999A1 (en) | 2013-07-30 | 2015-02-05 | Texas Instruments Incorporated | Viewer Attention Controlled Video Playback |
EP2887092A1 (en) | 2013-12-18 | 2015-06-24 | BAE SYSTEMS plc | Computing radar cross section |
EP3084353A1 (en) * | 2013-12-18 | 2016-10-26 | Basf Se | Target device for use in optical detection of an object |
US20150187137A1 (en) | 2013-12-31 | 2015-07-02 | Daqri, Llc | Physical object discovery |
US20160118036A1 (en) | 2014-10-23 | 2016-04-28 | Elwha Llc | Systems and methods for positioning a user of a hands-free intercommunication system |
US10338800B2 (en) | 2014-02-21 | 2019-07-02 | FLIR Belgium BVBA | Enhanced pilot display systems and methods |
US9921657B2 (en) * | 2014-03-28 | 2018-03-20 | Intel Corporation | Radar-based gesture recognition |
US9575560B2 (en) | 2014-06-03 | 2017-02-21 | Google Inc. | Radar-based gesture-recognition through a wearable device |
US10367950B2 (en) | 2014-06-11 | 2019-07-30 | Lenovo (Singapore) Pte. Ltd. | Device notification adjustment dependent on user proximity |
EP3699736B1 (en) * | 2014-06-14 | 2023-03-29 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
US9600177B2 (en) | 2014-07-17 | 2017-03-21 | Google Technology Holdings LLC | Electronic device with gesture display control and corresponding methods |
KR20160012410A (ko) | 2014-07-24 | 2016-02-03 | 삼성전자주식회사 | 전자 장치 및 이의 출력 제어 방법 |
US9921660B2 (en) | 2014-08-07 | 2018-03-20 | Google Llc | Radar-based gesture recognition |
US9811164B2 (en) | 2014-08-07 | 2017-11-07 | Google Inc. | Radar-based gesture sensing and data transmission |
US9778749B2 (en) | 2014-08-22 | 2017-10-03 | Google Inc. | Occluded gesture recognition |
DE202015005999U1 (de) | 2014-08-26 | 2015-11-26 | Apple Inc. | Benutzerschnittstelle zum Einschränken von Meldungen und Alarmen |
US9600080B2 (en) | 2014-10-02 | 2017-03-21 | Google Inc. | Non-line-of-sight radar-based gesture recognition |
US9911235B2 (en) | 2014-11-14 | 2018-03-06 | Qualcomm Incorporated | Spatial interaction in augmented reality |
KR102256676B1 (ko) | 2015-02-06 | 2021-05-26 | 삼성전자주식회사 | 전파 기반 센서 모듈을 이용하는 센싱 장치 및 이동 단말을 포함하는 다목적 디바이스 |
US9817109B2 (en) | 2015-02-27 | 2017-11-14 | Texas Instruments Incorporated | Gesture recognition using frequency modulated continuous wave (FMCW) radar with low angle resolution |
US10168785B2 (en) | 2015-03-03 | 2019-01-01 | Nvidia Corporation | Multi-sensor based user interface |
JP2016205907A (ja) * | 2015-04-20 | 2016-12-08 | 株式会社Ihiエアロスペース | コーナーリフレクタ、及び該コーナーリフレクタを備えたデコイシステム。 |
US10134368B2 (en) | 2015-06-04 | 2018-11-20 | Paypal, Inc. | Movement based graphical user interface |
US10817065B1 (en) * | 2015-10-06 | 2020-10-27 | Google Llc | Gesture recognition using multiple antenna |
US20170289766A1 (en) | 2016-03-29 | 2017-10-05 | Microsoft Technology Licensing, Llc | Digital Assistant Experience based on Presence Detection |
US11558848B2 (en) | 2016-03-30 | 2023-01-17 | Lenovo (Singapore) Pte. Ltd. | Intelligent notification delivery |
US10687184B2 (en) * | 2016-05-13 | 2020-06-16 | Google Llc | Systems, methods, and devices for utilizing radar-based touch interfaces |
US10613213B2 (en) * | 2016-05-13 | 2020-04-07 | Google Llc | Systems, methods, and devices for utilizing radar with smart devices |
WO2017200571A1 (en) | 2016-05-16 | 2017-11-23 | Google Llc | Gesture-based control of a user interface |
US20170349184A1 (en) | 2016-06-06 | 2017-12-07 | GM Global Technology Operations LLC | Speech-based group interactions in autonomous vehicles |
WO2018013564A1 (en) | 2016-07-12 | 2018-01-18 | Bose Corporation | Combining gesture and voice user interfaces |
US10299290B2 (en) | 2016-09-30 | 2019-05-21 | Intel IP Corporation | Apparatus, system and method of radar detection |
US10726835B2 (en) | 2016-12-23 | 2020-07-28 | Amazon Technologies, Inc. | Voice activated modular controller |
JP2018116653A (ja) * | 2017-01-20 | 2018-07-26 | 株式会社デンソーテン | 識別装置、識別システム、および識別方法 |
US11243293B2 (en) | 2017-02-07 | 2022-02-08 | Samsung Electronics Company, Ltd. | Radar-based system for sensing touch and in-the-air interactions |
US10845477B2 (en) | 2017-05-10 | 2020-11-24 | Google Llc | Power management using a low-power radar |
US10719870B2 (en) | 2017-06-27 | 2020-07-21 | Microsoft Technology Licensing, Llc | Mixed reality world integration of holographic buttons in a mixed reality device |
US10217488B1 (en) | 2017-12-15 | 2019-02-26 | Snap Inc. | Spherical video editing |
US10579154B1 (en) | 2018-08-20 | 2020-03-03 | Google Llc | Smartphone-based radar system detecting user gestures using coherent multi-look radar processing |
US10794997B2 (en) | 2018-08-21 | 2020-10-06 | Google Llc | Smartphone-based power-efficient radar processing and memory provisioning for detecting gestures |
US10770035B2 (en) | 2018-08-22 | 2020-09-08 | Google Llc | Smartphone-based radar system for facilitating awareness of user presence and orientation |
US10890653B2 (en) | 2018-08-22 | 2021-01-12 | Google Llc | Radar-based gesture enhancement for voice interfaces |
US10698603B2 (en) | 2018-08-24 | 2020-06-30 | Google Llc | Smartphone-based radar system facilitating ease and accuracy of user interactions with displayed objects in an augmented-reality interface |
US10788880B2 (en) | 2018-10-22 | 2020-09-29 | Google Llc | Smartphone-based radar system for determining user intention in a lower-power mode |
-
2018
- 2018-11-13 US US16/189,346 patent/US10761611B2/en active Active
-
2019
- 2019-09-27 EP EP19790359.4A patent/EP3688554A1/en active Pending
- 2019-09-27 JP JP2020520030A patent/JP6877642B2/ja active Active
- 2019-09-27 CN CN201980004932.4A patent/CN111512276B/zh active Active
- 2019-09-27 WO PCT/US2019/053568 patent/WO2020101810A1/en unknown
- 2019-09-27 KR KR1020207012253A patent/KR102457186B1/ko active IP Right Grant
- 2019-09-27 BR BR112020025242-5A patent/BR112020025242B1/pt active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
US10761611B2 (en) | 2020-09-01 |
CN111512276B (zh) | 2024-04-09 |
WO2020101810A1 (en) | 2020-05-22 |
CN111512276A (zh) | 2020-08-07 |
EP3688554A1 (en) | 2020-08-05 |
JP2021507326A (ja) | 2021-02-22 |
KR20200062275A (ko) | 2020-06-03 |
US20200150771A1 (en) | 2020-05-14 |
BR112020025242A2 (pt) | 2021-05-25 |
KR102457186B1 (ko) | 2022-10-20 |
BR112020025242B1 (pt) | 2021-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6877642B2 (ja) | レーダーベースのアプリケーションのためのレーダー画像シェイパー | |
JP6861311B2 (ja) | レーダーシステムを備えるスマートフォン、システムおよび方法 | |
US11435468B2 (en) | Radar-based gesture enhancement for voice interfaces | |
EP3750034B1 (en) | Smartphone-based radar system for determining user intention in a lower-power mode | |
CN112753005A (zh) | 移动设备的输入方法 | |
CN113874812A (zh) | 用于多输入模式的输入模式通知 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200619 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200619 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200619 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20201225 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210112 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210309 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210406 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210427 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6877642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE Ref document number: 6877642 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |