JP2017525074A - 所望のターゲットを判定するための装置及び方法 - Google Patents
所望のターゲットを判定するための装置及び方法 Download PDFInfo
- Publication number
- JP2017525074A JP2017525074A JP2017520007A JP2017520007A JP2017525074A JP 2017525074 A JP2017525074 A JP 2017525074A JP 2017520007 A JP2017520007 A JP 2017520007A JP 2017520007 A JP2017520007 A JP 2017520007A JP 2017525074 A JP2017525074 A JP 2017525074A
- Authority
- JP
- Japan
- Prior art keywords
- model
- determining
- desired target
- items
- metric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 127
- 230000008569 process Effects 0.000 claims abstract description 31
- 230000003993 interaction Effects 0.000 claims abstract description 5
- 230000033001 locomotion Effects 0.000 claims description 52
- 238000012545 processing Methods 0.000 claims description 28
- 238000001914 filtration Methods 0.000 claims description 20
- 230000001133 acceleration Effects 0.000 claims description 13
- 230000007613 environmental effect Effects 0.000 claims description 10
- 239000007787 solid Substances 0.000 claims description 10
- 230000005855 radiation Effects 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 7
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000009792 diffusion process Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 3
- 230000001788 irregular Effects 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 239000002245 particle Substances 0.000 claims description 2
- 238000009826 distribution Methods 0.000 description 37
- 238000013459 approach Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 12
- 238000005259 measurement Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 238000012937 correction Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 230000007423 decrease Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000005653 Brownian motion process Effects 0.000 description 3
- 238000000342 Monte Carlo simulation Methods 0.000 description 3
- 238000013476 bayesian approach Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 238000012886 linear function Methods 0.000 description 3
- 230000007704 transition Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 238000009794 Ornstein-Uhlenbeck process Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000005537 brownian motion Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C5/00—Registering or indicating the working of vehicles
- G07C5/08—Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
- G07C5/0808—Diagnosing performance data
Abstract
Description
Claims (57)
- オブジェクトの所望のターゲットをユーザインターフェースと関連して判定するヒューマン−マシンインタラクションの方法であって、
複数の時刻での前記オブジェクトの三次元位置を判定することと、
前記ユーザインターフェースの複数の項目の各々と関連付けられるメトリックを判定することとを備え、前記メトリックは前記オブジェクトの前記所望のターゲットである前記各々の項目を示し、前記メトリックはモデル、及び前記複数の時刻での三次元の前記オブジェクトの位置に基づいて判定され、
前記方法は、
ベイズ推論過程を使用して、前記所望のターゲットを前記ユーザインターフェースの前記複数の項目から、前記複数の項目の各々と関連付けられる前記メトリックに基づいて判定することを備える、ヒューマン−マシンインタラクションの方法。 - 前記オブジェクトの軌跡を判定することを備える、請求項1に記載の方法。
- 前記オブジェクトの前記軌跡は、複数の時刻での前記オブジェクトの前記三次元位置を示すデータを備える、請求項2に記載の方法。
- 前記オブジェクトの前記軌跡をフィルタリングすることを備える、請求項2又は請求項3に記載の方法。
- 前記フィルタリングは、前記オブジェクトの前記軌跡を平滑化すること、前記オブジェクトの所望されない動作を削減することと、雑音を前記軌跡から除去することのうちの1つ以上を行うよう構成される、請求項4に記載の方法。
- 前記モデルはベイズ意図予測モデルである、請求項1〜5のいずれか一項に記載の方法。
- 前記モデルは線形モデルである、請求項1〜6のいずれか一項に記載の方法。
- 前記線形モデルは1つ以上のフィルタに基づき、随意により、前記1つ以上のフィルタはカルマンフィルタである、請求項7に記載の方法。
- 前記モデルは非線形モデルである、請求項1から請求項6のうちのいずれか一項に記載の方法。
- 前記非線形モデルは前記オブジェクトの不規則な動作を含む、請求項9に記載の方法。
- 前記非線形モデルは1つ以上の粒子フィルタに基づく、請求項9又は請求項10に記載の方法。
- 前記モデルは最近傍(NN)モデル及び方位角(BA)モデルのうちの1つである、請求項1〜11のいずれか一項に記載の方法。
- 前記モデルはヘディング立体角(HSA)モデルである、請求項1から請求項11のうちのいずれか一項に記載の方法。
- 前記メトリックは前記オブジェクトと前記ターゲットの各々との間の立体角を示す、請求項13に記載の方法。
- 前記モデルは線形先回帰(LDR)又は非線形先回帰(NLDR)モデルである、請求項1から請求項11のうちのいずれか一項に記載の方法。
- 前記ターゲットの各々に対するモデルを判定することを備える、請求項15に記載の方法。
- 請求項2に従属する場合、又は、請求項2に従属する任意の請求項に従属する場合、メトリックは前記オブジェクトの軌跡と最も合致する前記モデルを示す、請求項16に記載の方法。
- 請求項2に従属する場合、又は、請求項2に従属する任意の請求項に従属する場合、NLDRモデルは軌跡の非線形摂動を備える、請求項15に記載の方法。
- 前記モデルは平均回帰拡散(MRD)モデルである、請求項1から請求項11のうちのいずれか一項に記載の方法。
- 前記MRDは前記オブジェクトの位置を前記所望のターゲットへ戻る過程としてモデル化する、請求項19に記載の方法。
- 前記モデルは均衡回帰速度(ERV)モデルである、請求項1〜請求項20のいずれか一項に記載の方法。
- 前記メトリックは前記ターゲットへの前記オブジェクトの移動の速度に基づく、請求項21に記載の方法。
- 前記オブジェクトの状態を判定することを備える、請求項15から請求項22のうちのいずれか一項に記載の方法。
- 前記モデルはブリッジングモデルであり、随意により、前記ブリッジングモデルはマルコフブリッジである、請求項1から請求項11又は請求項16から請求項22のうちのいずれか一項に記載の方法。
- 各ブリッジングモデルが各々のターゲットと関連付けられる、複数のブリッジングモデルを判定することを備える、請求項24に記載の方法。
- 前記ブリッジングモデルは前記複数の時刻の持続時間に基づく、請求項24又は請求項25に記載の方法。
- 前記ブリッジングモデルは前記複数のターゲットの各々の空間エリアに基づく、請求項24から請求項26のうちのいずれか一項に記載の方法。
- 環境情報の1つ以上の項目を受信することを備える、請求項1〜請求項27のいずれか一項に記載の方法。
- 前記環境情報は、加速度を示す情報、車両の状態を示す情報、及び、車両の周囲を示す画像データのうちの1つ以上を備える、請求項28に記載の方法。
- 前記メトリックの判定は、少なくとも部分的に、前記環境情報の1つ以上の項目に基づく、請求項28又は請求項29に記載の方法。
- 前記モデルは、少なくとも部分的に、前記環境情報の1つ以上の項目に基づいて選択される、請求項28、請求項29、又は、請求項30に記載の方法。
- 前記所望のターゲットを判定することはコスト関数に基づく、請求項1〜請求項31のいずれか一項に記載の方法。
- 前記コスト関数は、前記所望のターゲットを不正確に判定することに対するコストを課す、請求項32に記載の方法。
- 前記所望のターゲットは前記コスト関数を削減するよう判定される、請求項32又は請求項33に記載の方法。
- 前記所望のターゲットを判定することは事前情報の1つ以上の項目に基づき、随意により、前記事前情報は前記ターゲットの少なくとも一部と関連付けられる、請求項1〜請求項34のいずれか一項に記載の方法。
- 複数の最も近い時間間隔を選択することを備え、前記複数のターゲットの各々と関連付けられる前記メトリックを判定することは、前記複数の最も近い時間間隔での前記オブジェクトの位置に基づく、請求項1〜請求項35のいずれか一項に記載の方法。
- 前記オブジェクトはポインティングオブジェクトである、請求項1〜請求項36のいずれか一項に記載の方法。
- 前記オブジェクトの位置を判定することは、放射物を前記オブジェクトから受信することを備える、請求項1〜請求項37のいずれか一項に記載の方法。
- 前記所望のターゲットの兆候を出力すること、及び、前記所望のターゲットの前記兆候及び1つ以上の潜在的なターゲットを出力すること、のうちの一方又は両方を備える、請求項1〜請求項38のいずれか一項に記載の方法。
- 前記所望のターゲットの前記兆候は前記所望のターゲットを特定することを備え、随意により、前記所望のターゲットは視覚的に特定される、請求項39に記載の方法。
- 前記所望のターゲットをアクティブにすることを備える、請求項1〜請求項40のいずれか一項に記載の方法。
- 前記複数のターゲットは1つ以上のグラフィカルに表示された項目又は物理的な制御キーを備える、請求項1〜請求項41のいずれか一項に記載の方法。
- 前記ユーザインターフェースは車両のユーザインターフェースである、請求項1〜請求項42のいずれか一項に記載の方法。
- オブジェクトの所望のターゲットをユーザインターフェースと関連して判定するヒューマン−マシンインターフェース(HMI)システムであって、
前記オブジェクトの三次元位置を判定する位置判定手段と、
前記オブジェクトの位置を三次元で複数の時刻で示すデータを保存する記憶手段と、
前記オブジェクトの前記所望のターゲットである前記各々の項目であるユーザインターフェースの複数の項目の各々と関連付けられるメトリックを判定する処理手段とを備え、前記メトリックはモデル、及び前記複数の時間間隔での前記オブジェクトの位置に基づいて判定され、
前記処理手段は、ベイズ推論過程を使用して、前記所望のターゲットを前記ユーザインターフェースの前記複数の項目から、前記複数の項目の各々と関連付けられる前記メトリックに基づいて判定することを行うよう構成される、ヒューマン−マシンインターフェースシステム。 - 前記処理手段は、請求項2から請求項43のうちのいずれか一項に記載の方法を行うよう構成される、請求項44に記載のシステム。
- 前記位置判定手段は、放射物を前記オブジェクトから受信する手段を備える、請求項44又は請求項45に記載のシステム。
- 前記位置判定手段は1つ以上の撮像デバイスを備える、請求項44、請求項45、又は、請求項46に記載のシステム。
- 各時刻での前記オブジェクトの位置を示す位置データは、前記記憶手段に保存される、請求項44から請求項47のうちのいずれか一項に記載のシステム。
- 加速度データを出力する1つ以上の加速度計を備える、請求項44から請求項48のうちのいずれか一項に記載のシステム。
- グラフィカルユーザインターフェース(GUI)を表示する表示手段を備え、前記複数のターゲットはGUI項目である、請求項44から請求項49のうちのいずれか一項に記載のシステム。
- 前記モデルはブリッジングモデルである、請求項44から請求項50のうちのいずれか一項に記載のシステム。
- 前記ブリッジングモデルはマルコフブリッジである、請求項51に記載のシステム。
- 各ブリッジングモデルが各々のターゲットと関連付けられる、複数のブリッジングモデルを備える、請求項51又は請求項52に記載のシステム。
- 前記ブリッジングモデルは前記複数の時間間隔の持続時間に基づく、請求項51、請求項52、又は、請求項53に記載のシステム。
- 前記ブリッジングモデルは前記複数のターゲットの各々の空間エリアに基づく、請求項51から請求項54のうちのいずれか一項に記載のシステム。
- 前記処理手段は、環境データを1つ以上の検知手段から受信するよう構成され、随意により、前記検知手段は、車両の状態を判定する手段及び/又は撮像デバイスを備える、請求項44から請求項55のうちのいずれか一項に記載のシステム。
- 使用中に、請求項1から請求項43のうちのいずれか一項に記載の方法を行うよう構成される処理デバイスを備え、又は、請求項44から請求項56のうちのいずれかの一項記載のシステムを備える、車両。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1411997.8 | 2014-07-04 | ||
GB1411997.8A GB2528245A (en) | 2014-07-04 | 2014-07-04 | Apparatus and method for determining an intended target |
GB1506485.0 | 2015-04-16 | ||
GB1506485.0A GB2527891A (en) | 2014-07-04 | 2015-04-16 | Apparatus and method for determining an intended target |
PCT/EP2015/065347 WO2016001446A1 (en) | 2014-07-04 | 2015-07-06 | Apparatus and method for determining an intended target |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017525074A true JP2017525074A (ja) | 2017-08-31 |
JP6438579B2 JP6438579B2 (ja) | 2018-12-12 |
Family
ID=51410682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017520007A Active JP6438579B2 (ja) | 2014-07-04 | 2015-07-06 | 所望のターゲットを判定するための装置及び方法 |
Country Status (7)
Country | Link |
---|---|
US (1) | US10719133B2 (ja) |
EP (1) | EP3164786B1 (ja) |
JP (1) | JP6438579B2 (ja) |
KR (1) | KR20170015454A (ja) |
CN (1) | CN106471443A (ja) |
GB (3) | GB2528245A (ja) |
WO (1) | WO2016001446A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170139556A1 (en) * | 2014-10-01 | 2017-05-18 | Quantum Interface, Llc | Apparatuses, systems, and methods for vehicle interfaces |
GB2551520B (en) * | 2016-06-20 | 2018-11-21 | Ge Aviat Systems Ltd | Correction of vibration-induced error for touch screen display in an aircraft |
GB2565798B (en) * | 2017-08-23 | 2020-08-26 | Jaguar Land Rover Ltd | Apparatus and method for determining object intent |
CN109917657B (zh) * | 2019-04-15 | 2021-12-31 | 鲁东大学 | 动力定位船舶的抗干扰控制方法、装置与电子设备 |
CN110287764B (zh) | 2019-05-06 | 2022-01-11 | 深圳大学 | 姿势预测方法、装置、计算机设备和存储介质 |
CN110267206B (zh) * | 2019-05-21 | 2020-11-17 | 中国联合网络通信集团有限公司 | 用户位置预测方法及装置 |
CN111552429B (zh) * | 2020-04-29 | 2021-07-23 | 杭州海康威视数字技术股份有限公司 | 一种图形选中方法、装置及电子设备 |
CN112417712A (zh) * | 2021-01-21 | 2021-02-26 | 深圳市友杰智新科技有限公司 | 目标设备的确定方法、装置、计算机设备和存储介质 |
GB202101728D0 (en) | 2021-02-08 | 2021-03-24 | Floratek Pharma Ag | Compounds and their use treating cancer |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006143159A (ja) * | 2004-11-25 | 2006-06-08 | Alpine Electronics Inc | 車両用動き認識装置 |
JP2009217477A (ja) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | 入力装置 |
JP2012203439A (ja) * | 2011-03-23 | 2012-10-22 | Sony Corp | 情報処理装置および情報処理方法、記録媒体、並びにプログラム |
US20130194193A1 (en) * | 2012-01-26 | 2013-08-01 | Honeywell International Inc. | Adaptive gesture recognition system and method for unstable work environments |
WO2013145223A1 (ja) * | 2012-03-29 | 2013-10-03 | パイオニア株式会社 | 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体 |
US8649999B1 (en) * | 2009-12-28 | 2014-02-11 | Hillcrest Laboratories, Inc. | Methods, devices and systems for determining the zero rate output of a sensor |
JP2014071461A (ja) * | 2012-09-27 | 2014-04-21 | Ntt Docomo Inc | ユーザインタフェース装置、ユーザインタフェース方法及びプログラム |
US20140125590A1 (en) * | 2012-11-08 | 2014-05-08 | PlayVision Labs, Inc. | Systems and methods for alternative control of touch-based devices |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2337016B1 (en) * | 2004-04-30 | 2018-01-10 | IDHL Holdings, Inc. | Free space pointing devices with tilt compensation and improved usability |
FR2933212B1 (fr) * | 2008-06-27 | 2013-07-05 | Movea Sa | Pointeur a capture de mouvement resolue par fusion de donnees |
US8261211B2 (en) * | 2009-10-01 | 2012-09-04 | Microsoft Corporation | Monitoring pointer trajectory and modifying display interface |
US8914305B2 (en) * | 2010-06-30 | 2014-12-16 | Trading Technologies International, Inc. | Method and apparatus for motion based target prediction and interaction |
CN102915130B (zh) * | 2011-08-04 | 2016-03-23 | 王振兴 | 移动轨迹校正方法及移动轨迹产生方法 |
JP2014059803A (ja) * | 2012-09-19 | 2014-04-03 | Alps Electric Co Ltd | 入力装置 |
US9210404B2 (en) * | 2012-12-14 | 2015-12-08 | Microsoft Technology Licensing, Llc | Calibration and registration of camera arrays using a single circular grid optical target |
-
2014
- 2014-07-04 GB GB1411997.8A patent/GB2528245A/en not_active Withdrawn
-
2015
- 2015-04-16 GB GB1506485.0A patent/GB2527891A/en not_active Withdrawn
- 2015-07-06 GB GB1511789.8A patent/GB2530847A/en not_active Withdrawn
- 2015-07-06 JP JP2017520007A patent/JP6438579B2/ja active Active
- 2015-07-06 KR KR1020177000031A patent/KR20170015454A/ko active IP Right Grant
- 2015-07-06 CN CN201580035973.1A patent/CN106471443A/zh active Pending
- 2015-07-06 US US15/320,062 patent/US10719133B2/en active Active
- 2015-07-06 WO PCT/EP2015/065347 patent/WO2016001446A1/en active Application Filing
- 2015-07-06 EP EP15733773.4A patent/EP3164786B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006143159A (ja) * | 2004-11-25 | 2006-06-08 | Alpine Electronics Inc | 車両用動き認識装置 |
JP2009217477A (ja) * | 2008-03-10 | 2009-09-24 | Mitsubishi Electric Corp | 入力装置 |
US8649999B1 (en) * | 2009-12-28 | 2014-02-11 | Hillcrest Laboratories, Inc. | Methods, devices and systems for determining the zero rate output of a sensor |
JP2012203439A (ja) * | 2011-03-23 | 2012-10-22 | Sony Corp | 情報処理装置および情報処理方法、記録媒体、並びにプログラム |
US20130194193A1 (en) * | 2012-01-26 | 2013-08-01 | Honeywell International Inc. | Adaptive gesture recognition system and method for unstable work environments |
WO2013145223A1 (ja) * | 2012-03-29 | 2013-10-03 | パイオニア株式会社 | 画像認識装置、画像認識方法、画像認識プログラム、及び記録媒体 |
JP2014071461A (ja) * | 2012-09-27 | 2014-04-21 | Ntt Docomo Inc | ユーザインタフェース装置、ユーザインタフェース方法及びプログラム |
US20140125590A1 (en) * | 2012-11-08 | 2014-05-08 | PlayVision Labs, Inc. | Systems and methods for alternative control of touch-based devices |
Also Published As
Publication number | Publication date |
---|---|
KR20170015454A (ko) | 2017-02-08 |
GB201411997D0 (en) | 2014-08-20 |
US10719133B2 (en) | 2020-07-21 |
GB2528245A (en) | 2016-01-20 |
CN106471443A (zh) | 2017-03-01 |
GB201506485D0 (en) | 2015-06-03 |
GB201511789D0 (en) | 2015-08-19 |
GB2530847A (en) | 2016-04-06 |
GB2527891A (en) | 2016-01-06 |
EP3164786A1 (en) | 2017-05-10 |
JP6438579B2 (ja) | 2018-12-12 |
US20180173314A1 (en) | 2018-06-21 |
EP3164786B1 (en) | 2020-06-17 |
WO2016001446A1 (en) | 2016-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6438579B2 (ja) | 所望のターゲットを判定するための装置及び方法 | |
CN109716361B (zh) | 执行触摸运动预测的深度机器学习 | |
Ahmad et al. | Intent inference for hand pointing gesture-based interactions in vehicles | |
US9235278B1 (en) | Machine-learning based tap detection | |
RU2704871C2 (ru) | Классификация сенсорного ввода как непреднамеренного или намеренного | |
CN111091591A (zh) | 一种碰撞检测方法、装置、电子设备及存储介质 | |
KR101913214B1 (ko) | 가림환경에서의 표적 형상정보를 활용한 표적 추적 방법 | |
TWI543069B (zh) | 電子裝置及其繪圖方法及電腦程式產品 | |
EP3625644B1 (en) | Sensor based component activation | |
US8614663B2 (en) | Selective motor control classification | |
CN109087335A (zh) | 一种人脸跟踪方法、装置和存储介质 | |
JP4769943B2 (ja) | 物体追跡装置、異常状態検知装置及び物体追跡方法 | |
JPWO2014050432A1 (ja) | 情報処理システム、情報処理方法及びプログラム | |
US20150309583A1 (en) | Motion recognizing method through motion prediction | |
US20160320850A1 (en) | User interface control using impact gestures | |
US20140232642A1 (en) | Method of Temporal Segmentation of an Instrumented Gesture, Associated Device and Terminal | |
KR102018416B1 (ko) | 사용자의 자세나 자세의 변화에 기초하여 배뇨 또는 사정을 모니터링하기 위한 장치 내지 시스템, 배뇨 또는 사정을 모니터링하는 방법, 그리고 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체 | |
Ahmad et al. | Filtering perturbed in-vehicle pointing gesture trajectories: Improving the reliability of intent inference | |
JP2012203439A (ja) | 情報処理装置および情報処理方法、記録媒体、並びにプログラム | |
US20210137438A1 (en) | Control system for mobile robots | |
KR101165335B1 (ko) | 지수함수 기반의 입자 리샘플링 방법 및 그 방법을 이용한 영상객체 추적방법 | |
KR102319530B1 (ko) | 사용자 입력 처리 방법 및 장치 | |
Ahmad et al. | Bayesian target prediction from partial finger tracks: Aiding interactive displays in vehicles | |
CN106062697A (zh) | 增强的用户与装置的交互 | |
JP2020063934A (ja) | 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180206 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180626 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181018 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20181025 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181113 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6438579 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |