RU2016107433A - Способ и устройство для отображения целевого объекта - Google Patents

Способ и устройство для отображения целевого объекта

Info

Publication number
RU2016107433A
RU2016107433A RU2016107433A RU2016107433A RU2016107433A RU 2016107433 A RU2016107433 A RU 2016107433A RU 2016107433 A RU2016107433 A RU 2016107433A RU 2016107433 A RU2016107433 A RU 2016107433A RU 2016107433 A RU2016107433 A RU 2016107433A
Authority
RU
Russia
Prior art keywords
target
event
touch event
display mode
switching
Prior art date
Application number
RU2016107433A
Other languages
English (en)
Other versions
RU2635904C2 (ru
Inventor
ЦУЙ Цзяньвэй
СЕ Лян
ЦЯНЬ Кай
ЧЭНЬ Дихао
Original Assignee
Сяоми Инк.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Сяоми Инк. filed Critical Сяоми Инк.
Publication of RU2016107433A publication Critical patent/RU2016107433A/ru
Application granted granted Critical
Publication of RU2635904C2 publication Critical patent/RU2635904C2/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/36User authentication by graphic or iconic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/629Protecting access to data via a platform, e.g. using keys or access control rules to features or functions of an application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/66Substation equipment, e.g. for use by subscribers with means for preventing unauthorised or fraudulent calling
    • H04M1/667Preventing unauthorised calls from a telephone set
    • H04M1/67Preventing unauthorised calls from a telephone set by electronic means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Telephone Function (AREA)

Claims (40)

1. Способ отображения целевого объекта, включающий
обнаружение события многоточечного прикосновения к целевому объекту;
определение того, является ли обнаруженное событие многоточечного прикосновения заранее заданным первым событием многоточечного прикосновения, причем первое событие многоточечного прикосновения используют для запуска переключения целевого объекта в режим безопасного отображения;
переключение целевого объекта в режим безопасного отображения, в котором отображается только целевой объект, если обнаруженное событие многоточечного прикосновения является первым событием многоточечного прикосновения.
2. Способ по п.1, отличающийся тем, что дополнительно включает следующие шаги, производимые после переключения целевого объекта в режим безопасного отображения:
обнаружение события многоточечного прикосновения к целевому объекту;
определение того, является ли обнаруженное событие многоточечного прикосновения заранее заданным вторым событием многоточечного прикосновения, причем второе событие многоточечного прикосновения используют для запуска возврата целевого объекта из режима безопасного отображения в режим отображения по умолчанию;
переключение целевого объекта из режима безопасного отображения в режим отображения по умолчанию, если обнаруженное событие многоточечного прикосновения является вторым событием многоточечного прикосновения.
3. Способ по п.2, отличающийся тем, что обработка переключения целевого объекта в режим безопасного отображения включает перемещение целевого объекта в заранее заданный интерфейс безопасного отображения для отображения;
а обработка переключения целевого объекта из режима безопасного отображения в режим отображения по умолчанию включает перемещение целевого объекта из заранее заданного интерфейса безопасного отображения и закрытие заранее заданного интерфейса безопасного отображения.
4. Способ по п.2, отличающийся тем, что обработка переключения целевого объекта в режим безопасного просмотра включает отображение целевого объекта в полноэкранном режиме и поддержание состояния блокировки экрана;
а обработка переключения целевого объекта из режима безопасного отображения в режим отображения по умолчанию включает разрешение выхода целевого объекта из режима полноэкранного отображения и деактивацию состояния блокировки экрана.
5. Способ по п.2, отличающийся тем, что первое событие многоточечного прикосновения включает первое событие выбора и событие жестового увеличения масштаба целевого объекта, причем временной промежуток, в течение которого происходит первое событие выбора, содержит временной промежуток, в течение которого происходит событие жестового увеличения масштаба;
а второе событие многоточечного прикосновения включает второе событие выбора и событие жестового уменьшения масштаба целевого объекта, причем временной промежуток, в течение которого происходит второе событие выбора, содержит временной промежуток, в течение которого происходит событие жестового уменьшения масштаба.
6. Способ по п.5, отличающийся тем, что как первое событие выбора, так и второе событие выбора включают событие продолжительного нажатия; событие жестового увеличения масштаба включает событие разведения двух пальцев в стороны в любом месте экрана; а событие жестового уменьшения масштаба включает событие сведения двух пальцев вместе в любом месте экрана.
7. Способ по п.1, отличающийся тем, что целевой объект содержит графический объект или текстовый объект.
8. Устройство для отображения целевого объекта, содержащее
первый модуль обнаружения, выполненный с возможностью обнаружения события многоточечного прикосновения к целевому объекту;
первый модуль определения, выполненный с возможностью определения того, является ли обнаруженное первым модулем обнаружения событие многоточечного прикосновения заранее заданным первым событием многоточечного прикосновения, причем первое событие многоточечного прикосновения используют для запуска переключения целевого объекта в режим безопасного отображения;
первый модуль переключения, выполненный с возможностью переключения целевого объекта в режим безопасного отображения, в котором отображается только целевой объект, если первый модуль определения определяет, что обнаруженное событие многоточечного прикосновения является первым событием многоточечного прикосновения.
9. Устройство по п.8, отличающееся тем, что дополнительно содержит
второй модуль обнаружения, выполненный с возможностью обнаружения события многоточечного прикосновения к целевому объекту после переключения целевого объекта в режим безопасного отображения первым модулем переключения;
второй модуль определения, выполненный с возможностью определения того, является ли событие многоточечного прикосновения, обнаруженное вторым модулем обнаружения, заранее заданным вторым событием многоточечного прикосновения, причем второе событие многоточечного прикосновения используют для запуска возврата целевого объекта из режима безопасного отображения в режим отображения по умолчанию;
второй модуль переключения, выполненный с возможностью переключения целевого объекта из режима безопасного отображения в режим отображения по умолчанию, если второй модуль определения определяет, что обнаруженное событие многоточечного прикосновения является вторым событием многоточечного прикосновения.
10. Устройство по п.9, отличающееся тем, что первый модуль переключения содержит первый подмодуль отображения, выполненный с возможностью перемещения целевого объекта в заранее заданный интерфейс безопасного отображения для отображения;
а второй модуль переключения содержит подмодуль закрытия, выполненный с возможностью перемещения целевого объекта из заранее заданного интерфейса безопасного отображения и закрытия заранее заданного интерфейса безопасного отображения.
11. Устройство по п.9, отличающееся тем, что первый модуль переключения содержит второй подмодуль отображения, выполненный с возможностью отображения целевого объекта в полноэкранном режиме и поддержания состояния блокировки экрана;
а второй модуль переключения содержит подмодуль выхода, выполненный с возможностью разрешения выхода целевого объекта из режима полноэкранного отображения и деактивации состояния блокировки экрана.
12. Устройство по п.9, отличающееся тем, что
первое событие многоточечного прикосновения, обнаруженное первым модулем обнаружения, включает первое событие выбора и событие жестового увеличения масштаба целевого объекта, причем временной промежуток, в течение которого происходит первое событие выбора, содержит временной промежуток, в течение которого происходит событие жестового увеличения масштаба;
а второе событие многоточечного прикосновения, обнаруженное вторым модулем обнаружения, включает второе событие выбора и событие жестового уменьшения масштаба целевого объекта, причем временной промежуток, в течение которого происходит второе событие выбора, содержит временной промежуток, в течение которого происходит событие жестового уменьшения масштаба.
13. Устройство по п.12, отличающееся тем, что как первое событие выбора, обнаруженное первым модулем обнаружения, так и второе событие выбора, обнаруженное вторым модулем обнаружения, включают событие продолжительного нажатия; событие жестового увеличения масштаба, обнаруженное первым модулем обнаружения, включает событие разведения двух пальцев в стороны в любом месте экрана; а событие жестового уменьшения масштаба, обнаруженное вторым модулем обнаружения, включает событие сведения двух пальцев вместе в любом месте экрана.
14. Устройство по п.9, отличающееся тем, что целевой объект, обнаруженный первым модулем обнаружения и вторым модулем обнаружения, содержит графический объект или текстовый объект.
15. Устройство для отображения целевого объекта, содержащее
процессор;
память для сохранения инструкций, исполняемых процессором;
причем процессор выполнен с возможностью:
обнаружения события многоточечного прикосновения к целевому объекту;
определения того, является ли обнаруженное событие многоточечного прикосновения заранее заданным первым событием многоточечного прикосновения, причем первое событие многоточечного прикосновения используют для запуска переключения целевого объекта в режим безопасного отображения;
переключения целевого объекта в режим безопасного отображения, в котором отображается только целевой объект, если обнаруженное событие многоточечного прикосновения является первым событием многоточечного прикосновения.
RU2016107433A 2015-08-19 2015-12-29 Способ и устройство для отображения целевого объекта RU2635904C2 (ru)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201510512105.XA CN105117100A (zh) 2015-08-19 2015-08-19 目标对象的显示方法和装置
CN201510512105.X 2015-08-19
PCT/CN2015/099296 WO2017028454A1 (zh) 2015-08-19 2015-12-29 目标对象的显示方法和装置

Publications (2)

Publication Number Publication Date
RU2016107433A true RU2016107433A (ru) 2017-09-27
RU2635904C2 RU2635904C2 (ru) 2017-11-16

Family

ID=54665107

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2016107433A RU2635904C2 (ru) 2015-08-19 2015-12-29 Способ и устройство для отображения целевого объекта

Country Status (8)

Country Link
US (1) US20170052693A1 (ru)
EP (1) EP3133482A1 (ru)
JP (1) JP6300389B2 (ru)
KR (1) KR101821721B1 (ru)
CN (1) CN105117100A (ru)
MX (1) MX361927B (ru)
RU (1) RU2635904C2 (ru)
WO (1) WO2017028454A1 (ru)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105117100A (zh) * 2015-08-19 2015-12-02 小米科技有限责任公司 目标对象的显示方法和装置
CN106250043B (zh) * 2016-07-29 2019-08-16 努比亚技术有限公司 移动终端、移动终端显示控制系统及方法
CN107741815B (zh) * 2017-10-26 2021-05-28 上海哔哩哔哩科技有限公司 用于播放器的手势操作方法及设备
CN107704306A (zh) * 2017-10-31 2018-02-16 北京小米移动软件有限公司 注释显示方法及装置
CN109814794A (zh) * 2018-12-13 2019-05-28 维沃移动通信有限公司 一种界面显示方法及终端设备
CN110851889A (zh) * 2019-10-25 2020-02-28 成都欧珀移动通信有限公司 电子设备及其防盗方法、装置、系统、存储介质
CN114691000B (zh) * 2022-05-31 2022-08-26 上海豪承信息技术有限公司 多屏联动方法、装置、设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
CN101957717A (zh) * 2010-06-09 2011-01-26 宇龙计算机通信科技(深圳)有限公司 一种显示模式的切换方法、系统及移动终端
DE102012108826A1 (de) * 2011-09-20 2013-03-21 Beijing Lenovo Software Ltd. Elektronische vorrichtung und verfahren zum anpassen ihres berührungssteuerungsbereichs
CN102520860B (zh) * 2011-12-09 2018-01-19 中兴通讯股份有限公司 一种进行桌面显示控制的方法及移动终端
CN102830920A (zh) * 2012-08-03 2012-12-19 广东欧珀移动通信有限公司 一种手持设备隐私保护方法
US9229632B2 (en) * 2012-10-29 2016-01-05 Facebook, Inc. Animation sequence associated with image
EP2778908B1 (en) * 2013-03-13 2019-08-14 BlackBerry Limited Method of locking an application on a computing device
KR20140136356A (ko) * 2013-05-20 2014-11-28 삼성전자주식회사 사용자 단말 장치 및 그 인터렉션 방법
CN104346093A (zh) * 2013-08-02 2015-02-11 腾讯科技(深圳)有限公司 触屏界面手势识别方法和装置及移动终端
KR20150032963A (ko) * 2013-09-23 2015-04-01 주식회사 팬택 단말기의 사생활 보호 장치 및 방법
JP2015070303A (ja) * 2013-09-26 2015-04-13 京セラ株式会社 表示装置
US9111076B2 (en) * 2013-11-20 2015-08-18 Lg Electronics Inc. Mobile terminal and control method thereof
JP2015102941A (ja) * 2013-11-22 2015-06-04 シャープ株式会社 携帯端末装置
US9395910B2 (en) * 2013-11-25 2016-07-19 Globalfoundries Inc. Invoking zoom on touch-screen devices
CN103973891B (zh) * 2014-05-09 2016-06-01 平安付智能技术有限公司 用于软件界面的数据安全处理方法
CN105117100A (zh) * 2015-08-19 2015-12-02 小米科技有限责任公司 目标对象的显示方法和装置

Also Published As

Publication number Publication date
US20170052693A1 (en) 2017-02-23
JP6300389B2 (ja) 2018-03-28
KR101821721B1 (ko) 2018-01-24
EP3133482A1 (en) 2017-02-22
MX361927B (es) 2018-12-19
CN105117100A (zh) 2015-12-02
KR20170032882A (ko) 2017-03-23
MX2016002682A (es) 2017-04-27
JP2017532705A (ja) 2017-11-02
WO2017028454A1 (zh) 2017-02-23
RU2635904C2 (ru) 2017-11-16

Similar Documents

Publication Publication Date Title
RU2016107433A (ru) Способ и устройство для отображения целевого объекта
JP2015001977A5 (ru)
RU2014149214A (ru) Устройство обработки изображения, способ обработки изображения и программа
US10055118B2 (en) Information processing method and electronic device
RU2016103402A (ru) Электронное устройство и способ управления таким устройством
RU2016116990A (ru) Устройство обработки информации, способ обработки информации и программа
RU2014108853A (ru) Жесты семантического масштабирования
RU2015140361A (ru) Способ управления системной панелью устройства пользователя и устройство пользователя
EP2752759A3 (en) Method and apparatus for providing mouse function using touch device
JP2014522054A5 (ru)
JP2014534533A5 (ru)
RU2017109691A (ru) Сегментированное представление приложений на устройствах
JP5977808B2 (ja) 動作に関するバイオメトリックデータを使用して直近の既知のブラウジング位置の手がかりを提供すること
JP2015018340A5 (ru)
JP2016040709A5 (ru)
US9529521B2 (en) Gesture detecting apparatus and method for determining gesture according to variation of velocity
US20150248206A1 (en) Word processing method and device for smart device with touch screen
JP2017195552A5 (ru)
JP2015108962A5 (ru)
US20140085223A1 (en) Apparatus and method capable of switching displayed pictures
JP2015057689A5 (ru)
JP2013016018A5 (ru)
JP2016091192A5 (ru)
RU2635241C2 (ru) Способ и устройство для отображения документа на дисплее с сенсорным экраном
JP2015139020A5 (ja) 画像処理装置