RU2011106653A - Устройство и способ обработки информации - Google Patents

Устройство и способ обработки информации Download PDF

Info

Publication number
RU2011106653A
RU2011106653A RU2011106653/08A RU2011106653A RU2011106653A RU 2011106653 A RU2011106653 A RU 2011106653A RU 2011106653/08 A RU2011106653/08 A RU 2011106653/08A RU 2011106653 A RU2011106653 A RU 2011106653A RU 2011106653 A RU2011106653 A RU 2011106653A
Authority
RU
Russia
Prior art keywords
finger
touch
type
touch position
sensitive portion
Prior art date
Application number
RU2011106653/08A
Other languages
English (en)
Inventor
Коуити МАЦУДА (JP)
Коуити МАЦУДА
Original Assignee
Сони Корпорейшн (JP)
Сони Корпорейшн
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сони Корпорейшн (JP), Сони Корпорейшн filed Critical Сони Корпорейшн (JP)
Publication of RU2011106653A publication Critical patent/RU2011106653A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A50/00TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE in human health protection, e.g. against extreme weather
    • Y02A50/30Against vector-borne diseases, e.g. mosquito-borne, fly-borne, tick-borne or waterborne diseases whose impact is exacerbated by climate change

Abstract

1. Устройство обработки информации, содержащее: ! обнаруживающий блок для обнаружения позиции объекта, касающегося чувствительной к касанию части в качестве позиции касания; ! распознающий блок для распознавания типа пальца, касающегося чувствительной к касанию части на основе позиции касания и изображения чувствительной к касанию части; ! поисковый блок для поиска по таблице функций, определяющей соответствия между позицией касания по меньшей мере одного пальца и его типом с одной стороны и функцией, назначенной комбинации позиции касания и типа пальца с другой стороны, причем поисковый блок просматривает таблицу функций для функции, соответствующей позиции касания, обнаруженной обнаруживающим блоком, и типом пальца, обнаруженным распознающим блоком; и ! исполняющий блок, выполненный с возможностью исполнять функцию, обнаруженную посредством просмотра поисковым блоком. ! 2. Устройство обработки информации по п.1, в котором упомянутый обнаруживающий блок воспринимает упомянутый объект, касающийся упомянутой чувствительной к касанию части, для обнаружения позиции прикосновения в качестве упомянутой позиции касания. ! 3. Устройство обработки информации по п.1, в котором упомянутый обнаруживающий блок обнаруживает упомянутую позицию касания на основе упомянутого изображения упомянутой чувствительной к касанию части. ! 4. Устройство обработки информации по п.1, содержащее далее блок управления дисплеем для отображения упомянутого изображения упомянутой чувствительной к касанию части; причем ! упомянутая таблица функций определяет соответствие между позицией касания и типом пальца для по меньшей мер�

Claims (8)

1. Устройство обработки информации, содержащее:
обнаруживающий блок для обнаружения позиции объекта, касающегося чувствительной к касанию части в качестве позиции касания;
распознающий блок для распознавания типа пальца, касающегося чувствительной к касанию части на основе позиции касания и изображения чувствительной к касанию части;
поисковый блок для поиска по таблице функций, определяющей соответствия между позицией касания по меньшей мере одного пальца и его типом с одной стороны и функцией, назначенной комбинации позиции касания и типа пальца с другой стороны, причем поисковый блок просматривает таблицу функций для функции, соответствующей позиции касания, обнаруженной обнаруживающим блоком, и типом пальца, обнаруженным распознающим блоком; и
исполняющий блок, выполненный с возможностью исполнять функцию, обнаруженную посредством просмотра поисковым блоком.
2. Устройство обработки информации по п.1, в котором упомянутый обнаруживающий блок воспринимает упомянутый объект, касающийся упомянутой чувствительной к касанию части, для обнаружения позиции прикосновения в качестве упомянутой позиции касания.
3. Устройство обработки информации по п.1, в котором упомянутый обнаруживающий блок обнаруживает упомянутую позицию касания на основе упомянутого изображения упомянутой чувствительной к касанию части.
4. Устройство обработки информации по п.1, содержащее далее блок управления дисплеем для отображения упомянутого изображения упомянутой чувствительной к касанию части; причем
упомянутая таблица функций определяет соответствие между позицией касания и типом пальца для по меньшей мере одного пальца, функцию, назначенную этой комбинации позиции касания и типа пальца, и функциональной информацией, представляющей назначенную функцию;
упомянутый распознающий блок распознает тип и позицию пальца, расположенного на упомянутой чувствительной к касанию части на основе упомянутого изображения упомянутой чувствительной к касанию части; и
упомянутый блок управления дисплеем осуществляет в упомянутой таблице функций поиск функциональной информации, соответствующей окрестности позиции пальца и упомянутому типу пальца, распознанным упомянутым распознающим блоком, и упомянутый блок управления дисплеем далее накладывает изображение упомянутой функциональной информации на упомянутую позицию пальца в упомянутом изображении упомянутой чувствительной к касанию части.
5. Устройство обработки информации по п.4, в котором, если множество пальцев расположены совместно на упомянутой чувствительной к касанию части, упомянутый блок управления дисплеем осуществляет в упомянутой таблице функций поиск функциональной информации, соответствующей окрестности позиций упомянутого множества пальцев и их типам, и упомянутый блок управления дисплеем далее накладывает изображение упомянутой функциональной информации на одну позицию упомянутого множества пальцев в упомянутом изображении упомянутой чувствительной к касанию части.
6. Способ обработки информации для использования с устройством обработки информации, имеющим чувствительную к касанию часть, содержащий этапы, на которых:
обнаруживают позицию объекта, касающегося упомянутой чувствительной к касанию части, в качестве позиции касания;
распознают тип пальца, касающегося упомянутой чувствительной к касанию части, на основе упомянутой позиции касания и изображения упомянутой чувствительной к касанию части;
осуществляют поиск в таблице функций, определяющей соответствия между позицией касания по меньшей мере одного пальца и его типа с одной стороны и функцией, назначенной комбинации позиции касания и типа пальца с другой стороны, причем в упомянутой таблице функций осуществляют поиск функции, соответствующей упомянутой позиции касания, обнаруженной на упомянутом этапе обнаружения, и типу пальца, обнаруженному на упомянутом этапе распознавания; и
исполняют упомянутую функцию, обнаруженную в поиске на упомянутом этапе поиска.
7. Программа, заставляющая компьютер исполнять процедуру, содержащую этапы, на которых:
обнаруживают позицию объекта, касающегося упомянутой чувствительной к касанию части, в качестве позиции касания;
распознают тип пальца, касающегося упомянутой чувствительной к касанию части, на основе упомянутой позиции касания и изображения упомянутой чувствительной к касанию части;
осуществляют поиск в таблице функций, определяющей соответствия между позицией касания по меньшей мере одного пальца и его типа с одной стороны и функцией, назначенной комбинации позиции касания и типа пальца с другой стороны, причем в упомянутой таблице функций осуществляют поиск функции, соответствующей упомянутой позиции касания, обнаруженной на упомянутом этапе обнаружения, и типу пальца, обнаруженному на упомянутом этапе распознавания; и
исполняют упомянутую функцию, обнаруженную в поиске на упомянутом этапе поиска.
8. Устройство обработки информации, содержащее:
обнаруживающую секцию, выполненную с возможностью обнаруживать позицию объекта, касающегося чувствительной к касанию части, в качестве позиции касания;
распознающую секцию, выполненную с возможностью распознавать тип пальца, касающегося упомянутой чувствительной к касанию части, на основе упомянутой позиции касания и на основе изображения упомянутой чувствительной к касанию части;
поисковую секцию, выполненную с возможностью осуществлять поиск в таблице функций, определяющей соответствия между позицией касания по меньшей мере одного пальца и его типа с одной стороны и функцией, назначенной комбинации позиции касания и типа пальца с другой стороны, причем упомянутая поисковая секция осуществляет в упомянутой таблице функций поиск функции, соответствующей упомянутой позиции касания, обнаруженной на упомянутом этапе обнаружения, и типу пальца, обнаруженному на упомянутом этапе распознавания; и
исполнительную секцию, выполненную с возможностью исполнять упомянутую функцию, обнаруженную в поиске упомянутой поисковой секцией.
RU2011106653/08A 2010-03-01 2011-02-22 Устройство и способ обработки информации RU2011106653A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-044611 2010-03-01
JP2010044611A JP2011180843A (ja) 2010-03-01 2010-03-01 情報処理装置、情報処理方法、およびプログラム

Publications (1)

Publication Number Publication Date
RU2011106653A true RU2011106653A (ru) 2012-08-27

Family

ID=44117221

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2011106653/08A RU2011106653A (ru) 2010-03-01 2011-02-22 Устройство и способ обработки информации

Country Status (7)

Country Link
US (1) US9218124B2 (ru)
EP (1) EP2363793A2 (ru)
JP (1) JP2011180843A (ru)
KR (1) KR20110099166A (ru)
CN (1) CN102193728A (ru)
BR (1) BRPI1100155A2 (ru)
RU (1) RU2011106653A (ru)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009042392A2 (en) 2007-09-24 2009-04-02 Apple Inc. Embedded authentication systems in an electronic device
JP5978592B2 (ja) * 2011-10-26 2016-08-24 ソニー株式会社 ヘッド・マウント・ディスプレイ及び表示制御方法
JP2013125247A (ja) * 2011-12-16 2013-06-24 Sony Corp ヘッドマウントディスプレイ及び情報表示装置
EP2802975B1 (en) * 2012-01-09 2018-05-16 Google LLC Intelligent touchscreen keyboard with finger differentiation
CN103207746B (zh) * 2012-01-16 2016-12-28 联想(北京)有限公司 一种功能调用方法及装置
JP2013175018A (ja) * 2012-02-24 2013-09-05 Kddi Corp 表示装置、表示方法およびプログラム
CN104272225B (zh) * 2012-05-09 2017-11-03 索尼公司 信息处理装置、信息处理方法
CN111178332A (zh) * 2012-05-18 2020-05-19 苹果公司 用于操纵用户界面的设备、方法和图形用户界面
US9298295B2 (en) * 2012-07-25 2016-03-29 Facebook, Inc. Gestures for auto-correct
WO2014051092A1 (ja) * 2012-09-28 2014-04-03 京セラ株式会社 表示装置、制御方法および制御プログラム
JP5931680B2 (ja) * 2012-09-28 2016-06-08 京セラ株式会社 表示装置、制御方法および制御プログラム
JP5931681B2 (ja) * 2012-09-28 2016-06-08 京セラ株式会社 表示装置、制御方法および制御プログラム
US9841815B2 (en) * 2013-09-09 2017-12-12 Samsung Electronics Co., Ltd. Method for differentiation of touch input and visualization of pending touch input
JP6206099B2 (ja) * 2013-11-05 2017-10-04 セイコーエプソン株式会社 画像表示システム、画像表示システムを制御する方法、および、頭部装着型表示装置
US9965030B2 (en) 2014-07-31 2018-05-08 Samsung Electronics Co., Ltd. Wearable glasses and method of displaying image via the wearable glasses
KR20160114413A (ko) * 2015-03-24 2016-10-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9671828B2 (en) 2014-09-19 2017-06-06 Lg Electronics Inc. Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same
KR20160063812A (ko) * 2014-11-27 2016-06-07 삼성전자주식회사 화면 구성 방법, 전자 장치 및 저장 매체
TWI598785B (zh) * 2015-01-29 2017-09-11 政美應用股份有限公司 觸控面板之檢測方法及裝置
WO2017104272A1 (ja) * 2015-12-18 2017-06-22 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
KR101643968B1 (ko) * 2015-12-21 2016-08-01 (주)라온스퀘어 사물카드가 삽입되는 슬롯을 구비한 슬롯장치를 이용한 사물정보 제공 방법 및 시스템
CN107203320A (zh) * 2016-03-18 2017-09-26 大陆汽车投资(上海)有限公司 基于多点触摸的用户界面控制方法
JP6125075B2 (ja) * 2016-04-26 2017-05-10 京セラ株式会社 表示装置、制御方法および制御プログラム
JP6125076B2 (ja) * 2016-04-26 2017-05-10 京セラ株式会社 表示装置、制御方法および制御プログラム
GB201908996D0 (en) * 2018-06-29 2019-08-07 Canon Kk Electronic device, control method for electronic device, program, and computer readable medium
US11796660B2 (en) * 2020-07-24 2023-10-24 Fujifilm Sonosite, Inc. Systems and methods for customized user interface
US11409410B2 (en) 2020-09-14 2022-08-09 Apple Inc. User input interfaces
WO2023140340A1 (ja) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド 指識別に基づくユーザー・インターフェースを実現するためのシステム、方法及びそのためのプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001134382A (ja) 1999-11-04 2001-05-18 Sony Corp 図形処理装置
US6603462B2 (en) * 2001-03-21 2003-08-05 Multidigit, Inc. System and method for selecting functions based on a finger feature such as a fingerprint
KR100682885B1 (ko) * 2003-04-23 2007-02-15 삼성전자주식회사 공간형 정보 입력 장치 및 방법, 이를 위한 소프트 키매핑 방법 및 그에 따른 가상 키보드
JP2006155244A (ja) * 2004-11-29 2006-06-15 Olympus Corp 情報表示装置
WO2006091753A2 (en) * 2005-02-23 2006-08-31 Zienon, L.L.C. Method and apparatus for data entry input
WO2006104132A1 (ja) * 2005-03-28 2006-10-05 Matsushita Electric Industrial Co., Ltd. ユーザインタフェイスシステム
JP2007072578A (ja) * 2005-09-05 2007-03-22 Denso Corp 入力装置
JP2007219966A (ja) * 2006-02-20 2007-08-30 Sharp Corp 投影入力装置、投影入力装置を備えた情報端末及び充電器
JP2009063803A (ja) 2007-09-06 2009-03-26 Sony Corp 表示装置
JP2009140390A (ja) * 2007-12-10 2009-06-25 Mega Chips Corp 指示デバイスおよび指紋認証半導体回路
JP2009184551A (ja) * 2008-02-07 2009-08-20 Panasonic Corp 車載機器入力装置
JP5212630B2 (ja) 2008-08-13 2013-06-19 花王株式会社 複合型撹拌槽における流体の流動状態の解析方法

Also Published As

Publication number Publication date
EP2363793A2 (en) 2011-09-07
JP2011180843A (ja) 2011-09-15
KR20110099166A (ko) 2011-09-07
BRPI1100155A2 (pt) 2012-07-31
US20110210928A1 (en) 2011-09-01
US9218124B2 (en) 2015-12-22
CN102193728A (zh) 2011-09-21

Similar Documents

Publication Publication Date Title
RU2011106653A (ru) Устройство и способ обработки информации
JP6261875B2 (ja) エッジ・スワイプ・アクションからおよびその他類似するが非エッジ・スワイプ・アクションからタッチ・センサに進入するエッジ・スワイプ・ジェスチャ間を区別する方法
JP2011180843A5 (ru)
CN106227520B (zh) 一种应用界面切换方法及装置
JP5684136B2 (ja) 多重接触エリア回転ジェスチャ認識方法
US9916046B2 (en) Controlling movement of displayed objects based on user operation
WO2016110052A1 (zh) 电子设备的控制方法及电子设备
US9417733B2 (en) Touch method and touch system
JP2013161221A5 (ru)
JP2013514590A5 (ru)
RU2010137792A (ru) Интерпретация неоднозначных вводов на сенсорном экране
CN104216642A (zh) 一种终端控制方法
JP2013228948A5 (ja) 入力受付方法、入力受付プログラム、及び入力装置
RU2011153164A (ru) Устройство обработки информации, способ обработки информации и компьютерная программа
RU2010132212A (ru) Портативное устройство и способ работы с сенсорным интерфейсом пользователя с одним указателем
JP2015114976A (ja) 電子機器及び方法
JP2013235586A5 (ru)
CN102768595B (zh) 一种识别触摸屏上触控操作指令的方法及装置
US20150363037A1 (en) Control method of touch panel
CN104216516A (zh) 一种终端
CN107861684A (zh) 书写识别方法、装置、存储介质及计算机设备
CN103460225A (zh) 手写字符输入装置
RU2014151736A (ru) Способ улучшения распознавания касаний и электронное устройство для его осуществления
CN104407793A (zh) 触摸信号处理方法及设备
US20150029139A1 (en) Touch pad

Legal Events

Date Code Title Description
FA94 Acknowledgement of application withdrawn (non-payment of fees)

Effective date: 20151005