RU2010149173A - Разрешение неоднозначности и окклюзии множества указателей - Google Patents

Разрешение неоднозначности и окклюзии множества указателей Download PDF

Info

Publication number
RU2010149173A
RU2010149173A RU2010149173/08A RU2010149173A RU2010149173A RU 2010149173 A RU2010149173 A RU 2010149173A RU 2010149173/08 A RU2010149173/08 A RU 2010149173/08A RU 2010149173 A RU2010149173 A RU 2010149173A RU 2010149173 A RU2010149173 A RU 2010149173A
Authority
RU
Russia
Prior art keywords
target
pointer
pointers
imaginary
tracking
Prior art date
Application number
RU2010149173/08A
Other languages
English (en)
Inventor
Йе ЧЖОУ (CA)
Йе ЧЖОУ
Дэниел П. МАКРЕЙНОЛЬДС (CA)
Дэниел П. МАКРЕЙНОЛЬДС
Брайан Л.У. ХОУСИ (CA)
Брайан Л.У. ХОУСИ
Бринда ПРАСАД (CA)
Бринда ПРАСАД
Грант Х. МАКГИБНИ (CA)
Грант Х. МАКГИБНИ
Original Assignee
СМАРТ Текнолоджиз ЮЭлСи (CA)
СМАРТ Текнолоджиз ЮЭлСи
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by СМАРТ Текнолоджиз ЮЭлСи (CA), СМАРТ Текнолоджиз ЮЭлСи filed Critical СМАРТ Текнолоджиз ЮЭлСи (CA)
Publication of RU2010149173A publication Critical patent/RU2010149173A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0421Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

1. Способ разрешения неоднозначности по меньшей мере двух указателей в интерактивной системе ввода, включающий: ! захват изображений заданной области; ! обработку данных изображения для определения множества потенциальных целей для упомянутых по меньшей мере двух указателей в заданной области и текущего положения для каждой потенциальной цели, при этом упомянутое множество потенциальных целей включает действительные и мнимые цели; ! отслеживание каждой потенциальной цели в упомянутой заданной области и вычисление прогнозируемого положения для каждой потенциальной цели; и ! определение траектории указателя, связанной по меньшей мере с каждой действительной целью. !2. Способ по п.1, в котором упомянутое отслеживание выполняют, используя прогнозирующий фильтр. ! 3. Способ по п.2, в котором прогнозирующий фильтр используют для определения и коррекции траектории каждого указателя. ! 4. Способ разрешения неоднозначности указателей в интерактивной системе ввода, когда по меньшей мере один указатель помещают в заданную область, в которой уже имеется по меньшей мере один указатель, включающий: ! определение действительных и мнимых целей, связанных с каждым указателем; ! установку функции ошибки для действительной цели, связанной с упомянутыми действительными целями; ! установку функции ошибки для мнимой цели, связанной с упомянутыми мнимыми целями, при этом функцию ошибки для мнимой цели устанавливают в значение, отличное от значения функции ошибки для действительной цели, и ! отслеживание и разрешение каждого указателя на основе связанных с ними функций ошибки. ! 5. Способ по п.4, включающий сравнение упомянуто�

Claims (12)

1. Способ разрешения неоднозначности по меньшей мере двух указателей в интерактивной системе ввода, включающий:
захват изображений заданной области;
обработку данных изображения для определения множества потенциальных целей для упомянутых по меньшей мере двух указателей в заданной области и текущего положения для каждой потенциальной цели, при этом упомянутое множество потенциальных целей включает действительные и мнимые цели;
отслеживание каждой потенциальной цели в упомянутой заданной области и вычисление прогнозируемого положения для каждой потенциальной цели; и
определение траектории указателя, связанной по меньшей мере с каждой действительной целью.
2. Способ по п.1, в котором упомянутое отслеживание выполняют, используя прогнозирующий фильтр.
3. Способ по п.2, в котором прогнозирующий фильтр используют для определения и коррекции траектории каждого указателя.
4. Способ разрешения неоднозначности указателей в интерактивной системе ввода, когда по меньшей мере один указатель помещают в заданную область, в которой уже имеется по меньшей мере один указатель, включающий:
определение действительных и мнимых целей, связанных с каждым указателем;
установку функции ошибки для действительной цели, связанной с упомянутыми действительными целями;
установку функции ошибки для мнимой цели, связанной с упомянутыми мнимыми целями, при этом функцию ошибки для мнимой цели устанавливают в значение, отличное от значения функции ошибки для действительной цели, и
отслеживание и разрешение каждого указателя на основе связанных с ними функций ошибки.
5. Способ по п.4, включающий сравнение упомянутой функции ошибки для действительной цели с упомянутой функцией ошибки для мнимой цели для определения траектории указателя для каждой цели.
6. Способ по п.5, в котором, если значение функции ошибки для действительной цели превышает значение функции ошибки для мнимой цели, то траекторию указателя корректируют так, чтобы она соответствовала траектории указателя, связанной с мнимой целью.
7. Способ разрешения неоднозначности указателей в интерактивной системе ввода, когда по меньшей мере два указателя одновременно помещают в заданную область, включающий:
определение действительных и мнимых целей, связанных с каждым указателем;
установку функций ошибки, связанных с каждой целью, и
отслеживание и разрешение каждого указателя с помощью связанных с ними функций ошибки.
8. Интерактивная система ввода, содержащая:
по меньшей мере два устройства формирования изображений, имеющие по меньшей мере частично перекрывающиеся поля обзора, которые охватывают заданную область; и
обрабатывающую структуру, которая обрабатывает данные изображения, полученные устройствами формирования изображений, для отслеживания положения по меньшей мере двух указателей в упомянутой заданной области и разрешения неоднозначности этих указателей.
9. Интерактивная система ввода по п.8, в которой упомянутая обрабатывающая структура включает модуль порождения целей для определения целей для упомянутых по меньшей мере двух указателей.
10. Интерактивная система ввода по п.9, в которой упомянутая обрабатывающая структура включает модуль отслеживания целей для отслеживания упомянутых целей в упомянутой заданной области.
11. Интерактивная система ввода по п.10, в которой упомянутая обрабатывающая структура включает модуль оценки состояния для определения положений упомянутых по меньшей мере двух указателей на основе информации из упомянутого модуля порождения целей, упомянутого модуля отслеживания целей и данных изображения из упомянутых по меньшей мере двух устройств формирования изображений.
12. Интерактивная система ввода по п.11, в которой упомянутая обрабатывающая структура включает модуль слепого отслеживания для того, чтобы в случае, когда один из упомянутых по меньшей мере двух указателей оказывается заслонен в течение длительного временного периода, определять положение упомянутого заслоненного указателя.
RU2010149173/08A 2008-06-05 2009-06-05 Разрешение неоднозначности и окклюзии множества указателей RU2010149173A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US5918308P 2008-06-05 2008-06-05
US61/059,183 2008-06-05

Publications (1)

Publication Number Publication Date
RU2010149173A true RU2010149173A (ru) 2012-07-20

Family

ID=41397675

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2010149173/08A RU2010149173A (ru) 2008-06-05 2009-06-05 Разрешение неоднозначности и окклюзии множества указателей

Country Status (10)

Country Link
US (1) US20110193777A1 (ru)
EP (1) EP2286322A4 (ru)
JP (1) JP2011522332A (ru)
KR (1) KR20110015461A (ru)
CN (1) CN102057348A (ru)
AU (1) AU2009253801A1 (ru)
BR (1) BRPI0913372A2 (ru)
CA (1) CA2726877A1 (ru)
RU (1) RU2010149173A (ru)
WO (1) WO2009146544A1 (ru)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6803906B1 (en) 2000-07-05 2004-10-12 Smart Technologies, Inc. Passive touch system and method of detecting user input
US6954197B2 (en) 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US8508508B2 (en) 2003-02-14 2013-08-13 Next Holdings Limited Touch screen signal processing with single-point calibration
US7629967B2 (en) 2003-02-14 2009-12-08 Next Holdings Limited Touch screen signal processing
US8456447B2 (en) 2003-02-14 2013-06-04 Next Holdings Limited Touch screen signal processing
US7532206B2 (en) 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7411575B2 (en) 2003-09-16 2008-08-12 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US7274356B2 (en) 2003-10-09 2007-09-25 Smart Technologies Inc. Apparatus for determining the location of a pointer within a region of interest
US7355593B2 (en) 2004-01-02 2008-04-08 Smart Technologies, Inc. Pointer tracking across multiple overlapping coordinate input sub-regions defining a generally contiguous input region
US7460110B2 (en) 2004-04-29 2008-12-02 Smart Technologies Ulc Dual mode touch system
US7538759B2 (en) 2004-05-07 2009-05-26 Next Holdings Limited Touch panel display system with illumination and detection provided from a single edge
US8120596B2 (en) 2004-05-21 2012-02-21 Smart Technologies Ulc Tiled touch system
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
WO2008128096A2 (en) 2007-04-11 2008-10-23 Next Holdings, Inc. Touch screen system with hover and click input methods
US8094137B2 (en) 2007-07-23 2012-01-10 Smart Technologies Ulc System and method of detecting contact on a display
CN101802760B (zh) 2007-08-30 2013-03-20 奈克斯特控股有限公司 具有改进照明的光学触摸屏
CA2697856A1 (en) 2007-08-30 2009-03-05 Next Holdings, Inc. Low profile touch panel systems
US8405636B2 (en) 2008-01-07 2013-03-26 Next Holdings Limited Optical position sensing system and optical position sensor assembly
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
US8810522B2 (en) 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
US8339378B2 (en) 2008-11-05 2012-12-25 Smart Technologies Ulc Interactive input system with multi-angle reflector
WO2011003171A1 (en) 2009-07-08 2011-01-13 Smart Technologies Ulc Three-dimensional widget manipulation on a multi-touch panel
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
EP2473904A1 (en) 2009-09-01 2012-07-11 SMART Technologies ULC Interactive input system with improved signal-to-noise ratio (snr) and image capture method
US8502789B2 (en) 2010-01-11 2013-08-06 Smart Technologies Ulc Method for handling user input in an interactive input system, and interactive input system executing the method
US20110241988A1 (en) * 2010-04-01 2011-10-06 Smart Technologies Ulc Interactive input system and information input method therefor
US9557837B2 (en) 2010-06-15 2017-01-31 Pixart Imaging Inc. Touch input apparatus and operation method thereof
US20130271429A1 (en) * 2010-10-06 2013-10-17 Pixart Imaging Inc. Touch-control system
US9019239B2 (en) 2010-11-29 2015-04-28 Northrop Grumman Systems Corporation Creative design systems and methods
CN102890576B (zh) * 2011-07-22 2016-03-02 宸鸿科技(厦门)有限公司 触控屏触摸轨迹检测方法及检测装置
US8510427B1 (en) * 2011-09-09 2013-08-13 Adobe Systems Incorporated Method and apparatus for identifying referenced content within an online presentation environment
CN102662532B (zh) * 2012-03-29 2016-03-30 广东威创视讯科技股份有限公司 多点触摸坐标定位方法及其装置
TWI470510B (zh) * 2012-04-19 2015-01-21 Wistron Corp 光學觸控裝置及觸控感測方法
JP2013250637A (ja) * 2012-05-30 2013-12-12 Toshiba Corp 認識装置
JP2015079485A (ja) 2013-09-11 2015-04-23 株式会社リコー 座標入力システム、座標入力装置、座標入力方法及びプログラム
JP2016110492A (ja) 2014-12-09 2016-06-20 株式会社リコー 光学式位置情報検出装置、プログラム、対象の紐付け方法
JP6417939B2 (ja) * 2014-12-26 2018-11-07 株式会社リコー 手書きシステム及びプログラム
JP2017010317A (ja) 2015-06-23 2017-01-12 株式会社リコー 画像形成装置、画像形成装置の制御プログラム及び画像形成システム
US10234990B2 (en) * 2015-09-29 2019-03-19 Microchip Technology Incorporated Mapping of position measurements to objects using a movement model
WO2018020497A1 (en) * 2016-07-25 2018-02-01 Muv Interactive Ltd. Hybrid tracking system for hand-mobilized device
WO2020069982A1 (de) 2018-10-02 2020-04-09 Covestro Deutschland Ag Infusionsvorrichtung und verfahren zur herstellung von faserverstärkten verbundbauteilen

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5712658A (en) * 1993-12-28 1998-01-27 Hitachi, Ltd. Information presentation apparatus and information display apparatus
EP1739529B1 (en) * 2000-07-05 2010-12-01 Smart Technologies ULC Camera-based touch system and method
JP4768143B2 (ja) * 2001-03-26 2011-09-07 株式会社リコー 情報入出力装置、情報入出力制御方法およびプログラム
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
US7532206B2 (en) * 2003-03-11 2009-05-12 Smart Technologies Ulc System and method for differentiating between pointers used to contact touch surface
US7583842B2 (en) * 2004-01-06 2009-09-01 Microsoft Corporation Enhanced approach of m-array decoding and error correction
US7492357B2 (en) * 2004-05-05 2009-02-17 Smart Technologies Ulc Apparatus and method for detecting a pointer relative to a touch surface
US8209620B2 (en) * 2006-01-31 2012-06-26 Accenture Global Services Limited System for storage and navigation of application states and interactions

Also Published As

Publication number Publication date
EP2286322A4 (en) 2012-09-05
EP2286322A1 (en) 2011-02-23
US20110193777A1 (en) 2011-08-11
CN102057348A (zh) 2011-05-11
BRPI0913372A2 (pt) 2015-11-24
AU2009253801A1 (en) 2009-12-10
WO2009146544A1 (en) 2009-12-10
JP2011522332A (ja) 2011-07-28
CA2726877A1 (en) 2009-12-10
KR20110015461A (ko) 2011-02-15

Similar Documents

Publication Publication Date Title
RU2010149173A (ru) Разрешение неоднозначности и окклюзии множества указателей
US10782399B2 (en) Object detecting method and apparatus using light detection and ranging (LIDAR) sensor and radar sensor
JP2019114280A (ja) 物体追跡装置、物体追跡システム、物体追跡方法、表示制御装置、物体検出装置、プログラムおよび記録媒体
KR101222447B1 (ko) 시뮬레이팅된 트레이닝 시스템들에서의 조준점의 강화
US9605960B2 (en) System and method for photographing moving subject by means of camera, and acquiring actual movement trajectory of subject based on photographed image
US8224619B2 (en) Gesture recognition apparatus, gesture recognition method and program
US10504244B2 (en) Systems and methods to improve camera intrinsic parameter calibration
CN106488127B (zh) 基于足球检测跟踪的摄像机切换控制方法及装置
GB2527697A (en) People counting device, and people counting method
CN105989603A (zh) 机器视觉图像传感器校准
RU2012110212A (ru) Способ и система измерения скорости транспортного средства
US7477400B2 (en) Range and speed finder
JP6474088B2 (ja) 標的撮像装置の校正方法
WO2014050432A1 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017010527A (ja) 対象を追跡するための方法および装置
GB2603715A (en) Depth estimation using a neural network
CN104376323A (zh) 一种确定目标距离的方法及装置
CN104471436B (zh) 用于计算对象的成像比例的变化的方法和设备
CN107592464B (zh) 一种变倍过程中变倍跟随曲线的切换方法及装置
KR102298652B1 (ko) 시차 결정 방법 및 장치
US20140375562A1 (en) System and Process for Human-Computer Interaction Using a Ballistic Projectile as an Input Indicator
JP6655114B2 (ja) 映像解析装置、映像解析方法、及びコンピュータプログラム
JP2008005355A5 (ru)
KR101921709B1 (ko) 멀티 카메라 유닛을 이용한 객체 인식 시스템
US20130223692A1 (en) Method for logo detection in memc