JP6933584B2 - 移動モデルを用いた物体への位置測定のマッピング - Google Patents
移動モデルを用いた物体への位置測定のマッピング Download PDFInfo
- Publication number
- JP6933584B2 JP6933584B2 JP2017568198A JP2017568198A JP6933584B2 JP 6933584 B2 JP6933584 B2 JP 6933584B2 JP 2017568198 A JP2017568198 A JP 2017568198A JP 2017568198 A JP2017568198 A JP 2017568198A JP 6933584 B2 JP6933584 B2 JP 6933584B2
- Authority
- JP
- Japan
- Prior art keywords
- movement
- model
- objects
- movement model
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/0418—Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04108—Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Mathematical Analysis (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computational Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Algebra (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Traffic Control Systems (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Length Measuring Devices With Unspecified Measuring Means (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
本願は、2015年9月29日に出願された共有に係る米国仮特許出願第62/234,321号に対する優先権を主張するものであり、該米国仮特許出願は、あらゆる目的のために参照により本明細書中に援用される。
本発明は、例えば、以下を提供する。
(項目1)
位置追跡システムであって、
少なくとも1つのプロセッサと、
前記プロセッサに通信可能に結合される、少なくとも1つのコンピュータ可読媒体であって、前記媒体は、前記プロセッサによってロードおよび実行されると、前記プロセッサに、
複数の測定をセンサから受信することと、
移動モデルを使用して、物体の場所を測定にマップすることであって、前記マッピングは、前記移動モデル、測定データ、および前記場所から算出されるコストに基づく、ことと
を行わせるための命令を含む、媒体と、
を備える、位置追跡システム。
(項目2)
前記測定は、位置データを含む、項目1に記載の位置追跡システム。
(項目3)
前記移動モデルは、確率論的モデルを含む、項目1または2に記載の位置追跡システム。
(項目4)
前記移動モデルは、前記物体の過去の軌道に基づく、前記項目のいずれか一項に記載の位置追跡システム。
(項目5)
前記移動モデルは、前記物体の移動方向と前記物体の移動に直交する方向との間で異なる、確率分散を含む、前記項目のいずれか一項に記載の位置追跡システム。
(項目6)
前記移動モデルは、前記物体の移動に直交する方向より前記物体の移動方向に関して大きい確率を含む、前記項目のいずれか一項に記載の位置追跡システム。
(項目7)
前記物体の移動方向および前記物体の移動に直交する方向に関する確率を判定するための前記移動モデルの分散は、カルマンフィルタから得られる、前記項目のいずれか一項に記載の位置追跡システム。
(項目8)
命令を備える、少なくとも1つの非一過性コンピュータ可読媒体であって、前記命令は、プロセッサによってロードおよび実行されると、前記プロセッサに、
複数の測定をセンサから受信することと、
移動モデルを使用して、物体の場所を測定にマップすることであって、前記マッピングは、前記移動モデル、前記測定、および前記場所から算出されるコストに基づく、ことと
を行わせる、媒体。
(項目9)
測定データは、位置データを含む、項目8に記載の媒体。
(項目10)
前記移動モデルは、確率論的モデルを含む、項目8または9に記載の媒体。
(項目11)
前記移動モデルは、前記物体の過去の軌道に基づく、項目8〜10のいずれか一項に記載の媒体。
(項目12)
前記移動モデルは、前記物体の移動方向と前記物体の移動に直交する方向との間で異なる、確率分散を含む、項目8〜11のいずれか一項に記載の媒体。
(項目13)
前記移動モデルは、前記物体の移動に直交する方向より前記物体の移動方向に関して大きい確率を含む、項目8〜12のいずれか一項に記載の媒体。
(項目14)
前記物体の移動方向および前記物体の移動に直交する方向に関する確率を判定するための前記移動モデルの分散は、カルマンフィルタから得られる、項目8〜13のいずれか一項に記載の媒体。
(項目15)
方法であって、
複数の測定をセンサから受信するステップと、
移動モデルを使用して、物体の場所を測定にマップするステップであって、前記マッピングは、移動モデル、前記測定、および前記場所から算出されるコストに基づく、ステップと、
を含む、方法。
(項目16)
前記測定は、位置データを含む、項目15に記載の方法。
(項目17)
前記移動モデルは、確率論的モデルを含む、項目15または16に記載の方法。
(項目18)
前記移動モデルは、前記物体の過去の軌道に基づく、項目15〜17のいずれか一項に記載の方法。
(項目19)
前記移動モデルは、前記物体の移動方向と前記物体の移動に直交する方向との間で異なる、確率分散を含む、項目15〜18のいずれか一項に記載の方法。
(項目20)
前記移動モデルは、前記物体の移動に直交する方向より前記物体の移動方向に関して大きい確率を含む、項目15〜19のいずれか一項に記載の方法。
Claims (14)
- n個までの物体を追跡するための位置追跡システムであって、nは、1より大きい整数であり、前記位置追跡システムは、
n個までの物体の場所を検出するように構成される少なくとも1つの2Dおよび/または3D位置追跡センサと、
前記位置追跡センサと結合される少なくとも1つのプロセッサと、
前記プロセッサに通信可能に結合される少なくとも1つのコンピュータ可読媒体であって、前記媒体は、前記プロセッサによってロードおよび実行されると、前記プロセッサに、
前記n個の物体の各々の移動モデルを、それぞれの物体の複数のパラメータに基づいて初期化することであって、各移動モデルは、2Dまたは3D空間上の連続確率分布または同等の測度の観点からそれぞれの物体についての可能性のある将来的な場所を判定し、前記物体の移動方向および前記物体の移動に直交する方向に関する確率を判定するための前記移動モデルの分散は、カルマンフィルタから得られる、ことと、
n個の物体をn個の開始場所に割り当てることと、
続いて、
n個の測定のセットを前記センサから受信することと、
前記n個の物体の各々の確率測度によって、それぞれの移動モデルを使用して、可能性のある将来的な場所を計算することであって、前記計算は、それぞれの物体に関連付けられた以前の場所に少なくとも基づく、ことと、
前記確率測度を考慮して前記測定の全ての最良適合を判定することによって、前記n個の物体の各々に独占的に前記測定のうちの1つを関連付けることと、
随意に、測定を受信するステップと計算するステップと関連付けるステップとを繰り返すことと
を行うことによって、前記物体の後に測定される場所をそれぞれの物体モデルにマップさせるための命令を含む、媒体と
を備える、位置追跡システム。 - あり得る将来的な場所の計算は、速度、加速度、躍度、以前の位置からの移動の方向のうちの1つ以上を考慮する、請求項1に記載の位置追跡システム。
- 前記移動モデルは、確率論的モデルを含む、請求項1に記載の位置追跡システム。
- 前記移動モデルは、前記物体の過去の軌道に基づく、請求項1〜3のいずれか一項に記載の位置追跡システム。
- 前記移動モデルは、前記物体の前記移動方向と前記物体の移動に直交する前記方向との間で異なる確率分散を含む、請求項1〜3のいずれか一項に記載の位置追跡システム。
- 前記移動モデルは、可能性のある場所を表す等値線を計算し、各等値線は、関連付けられた確率を有する、請求項1〜3のいずれか一項に記載の位置追跡システム。
- 前記移動モデルは、前記物体の移動に直交する前記方向より前記物体の前記移動方向に関して大きい確率を含む、請求項1〜3のいずれか一項に記載の位置追跡システム。
- n個までの物体の場所を検出および追跡するように構成される2Dおよび/または3Dセンサを使用する方法であって、nは、1より大きい整数であり、前記方法は、
a)前記n個の物体の各々のn個の移動モデルを、それぞれの物体の複数のパラメータに基づいて初期化することであって、各移動モデルは、2Dまたは3D空間上の連続確率分布または同等の測度の観点からそれぞれの物体についての可能性のある将来的な場所を判定し、前記物体の移動方向および前記物体の移動に直交する方向に関する確率を判定するための前記移動モデルの分散は、カルマンフィルタから得られる、ことと、
b)n個の物体をn個の開始場所に割り当てることと、
続いて、
c)m個の測定のセットを前記センサから受信することと、
d)前記n個の物体の各々の確率測度によって、それぞれの移動モデルを使用して、可能性のある将来的な場所を計算することであって、前記計算は、それぞれの物体に関連付けられた以前の場所に少なくとも基づく、ことと、
e)前記確率測度を考慮して前記測定(b1,b2)の全ての最良適合を判定することによって、前記n個の物体の各々に独占的に前記測定(b1,b2)のうちの1つを関連付けることと、
随意に、ステップc)とステップd)とステップe)とを繰り返すことと
を含む、方法。 - あり得る将来的な場所を計算するステップは、速度、加速度、躍度、以前の位置からの移動の方向のうちの1つ以上を考慮する、請求項8に記載の方法。
- 前記移動モデルは、確率論的モデルを含む、請求項8に記載の方法。
- 前記移動モデルは、前記物体の過去の軌道に基づく、請求項8〜10のいずれか一項に記載の方法。
- 前記移動モデルは、前記物体の前記移動方向と前記物体の移動に直交する前記方向との間で異なる確率分散を含む、請求項8〜10のいずれか一項に記載の方法。
- 前記移動モデルは、可能性のある場所を表す等値線を計算し、各等値線は、関連付けられた確率を有する、請求項8〜10のいずれか一項に記載の方法。
- 前記移動モデルは、前記物体の移動に直交する前記方向より前記物体の前記移動方向に関して大きい確率を含む、請求項8〜10のいずれか一項に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562234321P | 2015-09-29 | 2015-09-29 | |
US62/234,321 | 2015-09-29 | ||
US15/278,534 US10234990B2 (en) | 2015-09-29 | 2016-09-28 | Mapping of position measurements to objects using a movement model |
US15/278,534 | 2016-09-28 | ||
PCT/EP2016/073371 WO2017055517A1 (en) | 2015-09-29 | 2016-09-29 | Mapping of position measurements to objects using a movement model |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018535460A JP2018535460A (ja) | 2018-11-29 |
JP2018535460A5 JP2018535460A5 (ja) | 2019-10-24 |
JP6933584B2 true JP6933584B2 (ja) | 2021-09-08 |
Family
ID=57121219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017568198A Active JP6933584B2 (ja) | 2015-09-29 | 2016-09-29 | 移動モデルを用いた物体への位置測定のマッピング |
Country Status (7)
Country | Link |
---|---|
US (1) | US10234990B2 (ja) |
EP (1) | EP3356924A1 (ja) |
JP (1) | JP6933584B2 (ja) |
KR (1) | KR102501658B1 (ja) |
CN (1) | CN107850977B (ja) |
TW (1) | TWI731879B (ja) |
WO (1) | WO2017055517A1 (ja) |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101248409B (zh) * | 2005-08-22 | 2012-08-22 | 三星电子株式会社 | 具有集成图像传感器的便携式自主设备的位移与倾斜检测方法及其设备 |
JP2007128497A (ja) * | 2005-10-05 | 2007-05-24 | Sony Corp | 表示装置および表示方法 |
US20100073318A1 (en) * | 2008-09-24 | 2010-03-25 | Matsushita Electric Industrial Co., Ltd. | Multi-touch surface providing detection and tracking of multiple touch points |
TW200925966A (en) * | 2007-12-11 | 2009-06-16 | J Touch Corp | Method of controlling multi-point controlled controller |
US20110193777A1 (en) * | 2008-06-05 | 2011-08-11 | Smart Technologies Ulc | Multiple pointer ambiguity and occlusion resolution |
JP5554517B2 (ja) | 2009-04-22 | 2014-07-23 | 富士通コンポーネント株式会社 | タッチパネルの位置検出方法及びタッチパネル装置 |
TWI401591B (zh) * | 2010-02-11 | 2013-07-11 | Asustek Comp Inc | 可攜式電子裝置 |
CN201698387U (zh) * | 2010-06-08 | 2011-01-05 | 北京汇冠新技术股份有限公司 | 用于带摄像头触摸屏的光源、触摸屏、触摸系统和显示器 |
US8760424B2 (en) | 2011-03-17 | 2014-06-24 | Intellitact Llc | Touch enhanced interface |
GB201110156D0 (en) * | 2011-06-16 | 2011-07-27 | Light Blue Optics Ltd | Touch-sensitive display devices |
JP6155448B2 (ja) * | 2012-11-01 | 2017-07-05 | アイカム エルエルシー | 3d撮像し、マッピングし、ネットワーク化しおよびインタフェースするための無線手首コンピューティングおよびコントロールするデバイスおよび方法 |
DE102013215742A1 (de) * | 2013-08-09 | 2015-02-12 | Ford Global Technologies, Llc | Verfahren sowie Bedienvorrichtung zum Bedienen eines elektronischen Gerätes über einen Touchscreen |
EP2911089B1 (en) * | 2014-02-25 | 2018-04-04 | Karlsruher Institut für Technologie | Method and system for handwriting and gesture recognition |
CN104777984A (zh) * | 2015-04-30 | 2015-07-15 | 青岛海信电器股份有限公司 | 一种触摸轨迹跟踪的方法、装置及触屏设备 |
-
2016
- 2016-09-28 US US15/278,534 patent/US10234990B2/en active Active
- 2016-09-29 WO PCT/EP2016/073371 patent/WO2017055517A1/en active Application Filing
- 2016-09-29 CN CN201680043710.XA patent/CN107850977B/zh active Active
- 2016-09-29 EP EP16778734.0A patent/EP3356924A1/en not_active Ceased
- 2016-09-29 TW TW105131403A patent/TWI731879B/zh active
- 2016-09-29 KR KR1020177037508A patent/KR102501658B1/ko active IP Right Grant
- 2016-09-29 JP JP2017568198A patent/JP6933584B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
TWI731879B (zh) | 2021-07-01 |
JP2018535460A (ja) | 2018-11-29 |
WO2017055517A1 (en) | 2017-04-06 |
CN107850977A (zh) | 2018-03-27 |
KR20180059395A (ko) | 2018-06-04 |
US10234990B2 (en) | 2019-03-19 |
US20170300173A1 (en) | 2017-10-19 |
EP3356924A1 (en) | 2018-08-08 |
TW201721400A (zh) | 2017-06-16 |
KR102501658B1 (ko) | 2023-02-20 |
CN107850977B (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9483146B2 (en) | Input classification for multi-touch systems | |
KR101956073B1 (ko) | 시각적 인디케이터를 이용하여 사용자 인터페이스를 제공하는 3차원 입체 영상 표시 장치 및 그 장치를 이용한 방법 | |
KR20170030613A (ko) | 터치 분류 | |
KR102347248B1 (ko) | 터치 제스쳐 인식 방법 및 장치 | |
US20130120282A1 (en) | System and Method for Evaluating Gesture Usability | |
US20140104194A1 (en) | Input Classification for Multi-Touch Systems | |
MX2015004634A (es) | Entrada sin contacto para una interfase de usuario. | |
WO2014062973A1 (en) | Input classification for multi-touch systems | |
US9047001B2 (en) | Information processing apparatus, information processing method, and program | |
US9779292B2 (en) | System and method for interactive sketch recognition based on geometric contraints | |
US20120249487A1 (en) | Method of identifying a multi-touch shifting gesture and device using the same | |
US10503256B2 (en) | Force feedback | |
CN103677240A (zh) | 虚拟触摸交互方法和虚拟触摸交互设备 | |
US10788917B2 (en) | Input device, input method and program | |
KR101548872B1 (ko) | 영상처리를 이용한 손가락 인식 방법 및 시스템 | |
US9471983B2 (en) | Information processing device, system, and information processing method | |
CN105474164A (zh) | 间接输入的歧义消除 | |
JP6933584B2 (ja) | 移動モデルを用いた物体への位置測定のマッピング | |
WO2018098771A1 (zh) | 确定方位角或姿态的方法、触控输入装置、触控屏及系统 | |
US9927917B2 (en) | Model-based touch event location adjustment | |
CN105260044B (zh) | 电子设备及触控操作识别方法 | |
EP2715492A2 (en) | Identifying contacts and contact attributes in touch sensor data using spatial and temporal features | |
KR101633507B1 (ko) | 엔드 포인트를 보정하는 시스템 및 방법 | |
EP3059664A1 (en) | A method for controlling a device by gestures and a system for controlling a device by gestures | |
CN108572778B (zh) | 输入方法及使用该输入方法的触控装置和手势侦测装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190909 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201021 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210730 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210819 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6933584 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |