RU2006138226A - Способ и устройство для управления содержимым контроля - Google Patents

Способ и устройство для управления содержимым контроля Download PDF

Info

Publication number
RU2006138226A
RU2006138226A RU2006138226/09A RU2006138226A RU2006138226A RU 2006138226 A RU2006138226 A RU 2006138226A RU 2006138226/09 A RU2006138226/09 A RU 2006138226/09A RU 2006138226 A RU2006138226 A RU 2006138226A RU 2006138226 A RU2006138226 A RU 2006138226A
Authority
RU
Russia
Prior art keywords
sensor
context
virtual
representation
response
Prior art date
Application number
RU2006138226/09A
Other languages
English (en)
Inventor
Майкл Д. КОТЦИН (US)
Майкл Д. КОТЦИН
Рашид АЛАМЕХ (US)
Рашид АЛАМЕХ
Original Assignee
Моторола, Инк., Э Корпорейшн Оф Дзе Стрейт Оф Делавэр (Us)
Моторола, Инк., Э Корпорейшн Оф Дзе Стрейт Оф Делавэр
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Моторола, Инк., Э Корпорейшн Оф Дзе Стрейт Оф Делавэр (Us), Моторола, Инк., Э Корпорейшн Оф Дзе Стрейт Оф Делавэр filed Critical Моторола, Инк., Э Корпорейшн Оф Дзе Стрейт Оф Делавэр (Us)
Publication of RU2006138226A publication Critical patent/RU2006138226A/ru

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Claims (21)

1. Способ представления управления содержимым в электронном устройстве, содержащем датчик контекста, содержащий этапы, на которых
принимают сигналы от датчика контекста;
определяют контекстуальные характеристики устройства на основании принятых сигналов датчика контекста;
ассоциируют определенные контекстуальные характеристики с функцией управления данными устройства; и
определяют виртуальное физическое представление, которое выводится в ответ на выполнение функции управления данными.
2. Способ по п.1, дополнительно содержащий этап, на котором устанавливают отношение виртуального физического представления к обнаруженной контекстуальной характеристике.
3. Способ по п.1, дополнительно содержащий этап, на котором устанавливают отношение виртуального физического представления к функции управления данными.
4. Способ по п.1, дополнительно содержащий этап, на котором представляют виртуальное физическое представление посредством пользовательского интерфейса устройства.
5. Способ по п.4, дополнительно содержащий этап, на котором управляют функцией управления данными устройства в ответ на сигнал датчика контекста.
6. Способ по п.5, дополнительно содержащий этап, на котором выполняют первую функцию управления данными устройства, в ответ на прием сигнала датчика контекста и работу устройства в первом режиме,
и выполняют вторую функцию управления данными устройства в ответ на прием сигнала датчика контекста и работу устройства во втором режиме.
7. Способ по п.4, дополнительно содержащий этап, на котором пропорционально выполняют функцию управления данными устройства в ответ на сигнал датчика контекста, и причем виртуальное физическое представление представляют пропорционально выполнению функции управления данными.
8. Способ по п.1, в котором датчик контекста представляет собой, по меньшей мере, один из следующих: емкостной тактильный датчик, датчик движения, температурный датчик, светочувствительный датчик, датчик приближения, инфракрасный датчик, камера или микрофон.
9. Способ по п.8, в котором тактильный датчик представляет собой множество тактильных датчиков, размещенных в корпусе устройства.
10. Способ управления содержимым в электронном устройстве, содержащий этапы, на которых
выбирают данные для последующей передачи, причем упомянутые данные сохраняются в первом устройстве;
обнаруживают контекстуальные характеристики первого устройства;
устанавливают соединение между первым устройством и вторым устройством;
передают выбранные данные второму устройству; и
отображают виртуальное представление обнаруженной контекстуальной характеристики устройства.
11. Способ выполнения команды, следующей из обнаруженного «жеста» в портативном устройстве связи, содержащий этапы, на которых
активируют первый режим работы портативного устройства;
принимают входные сигналы от датчика «жестов», соответствующего предварительно заданному жесту портативного устройства;
выполняют алгоритм в упомянутом портативном устройстве связи в ответ на упомянутую команду или упомянутый результат измерения от датчика, удовлетворяющий первому критерию; и
представляют виртуальное представление физического принципа на пользовательском интерфейсе устройства.
12. Электронное устройство, содержащее
корпус;
микропроцессор, размещенный в корпусе;
пользовательский интерфейс, соединенный с микропроцессором и размещенный в корпусе;
датчик контекстуальных характеристик, электрически соединенный с микропроцессором; и
модуль управления виртуальным физическим представлением, соединенный с микропроцессором и представляющий виртуальное физическое представление пользовательскому интерфейсу в ответ на сигнал от датчика контекста.
13. Устройство по п.12, в котором датчик характеристики контекста устройства выборочно обеспечивает входной сигнал на микропроцессор в ответ на активацию предварительно заданной контекстуальной характеристики.
14. Устройство по п.13, в котором датчик контекста представляет собой емкостной тактильный датчик, датчик движения, температурный датчик, светочувствительный датчик, датчик приближения, инфракрасный датчик, камеру или микрофон.
15. Устройство по п.13, в котором модуль управления виртуальным физическим представлением формирует виртуальное представление широко известного физического процесса, который связан с контекстом, обнаруженным посредством датчика контекста, и причем модуль управления виртуальным физическим представлением посылает виртуальное представление пользовательскому интерфейсу.
16. Устройство по п.15, в котором пользовательский интерфейс представляет собой дисплей.
17. Устройство по п.16, в котором виртуальное представление широко известного физического процесса представляет собой графическую анимацию, отображаемую на дисплее.
18. Устройство по п.17, в котором отображаемая на дисплее графическая анимация представляет собой виртуальное представление жидкости в контейнере.
19. Устройство по п.18, в котором виртуальное представление жидкости в контейнере представляет собой анимацию выливания жидкости из контейнера в ответ на обнаружение датчиком контекста сделанного устройством жеста переливания.
20. Устройство по п.12, в котором модуль управления виртуальным физическим представлением представляет собой модуль толкования «жеста», соединенный с микропроцессором, и принимает входные данные от датчика контекстуальных характеристик устройства, причем модуль управления виртуальным физическим представлением преобразовывает движение устройства в команды управления для управления устройством.
21. Устройство по п.12, в котором пользовательский интерфейс представляет собой дисплей, динамик, вибропреобразователь, микрофон, вспомогательную клавиатуру, джойстик, камеру, сканер или любую их комбинацию.
RU2006138226/09A 2004-03-31 2005-03-04 Способ и устройство для управления содержимым контроля RU2006138226A (ru)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/814,485 2004-03-31
US10/814,485 US20050219211A1 (en) 2004-03-31 2004-03-31 Method and apparatus for content management and control

Publications (1)

Publication Number Publication Date
RU2006138226A true RU2006138226A (ru) 2008-05-10

Family

ID=34961763

Family Applications (1)

Application Number Title Priority Date Filing Date
RU2006138226/09A RU2006138226A (ru) 2004-03-31 2005-03-04 Способ и устройство для управления содержимым контроля

Country Status (6)

Country Link
US (1) US20050219211A1 (ru)
EP (1) EP1735682A1 (ru)
JP (1) JP2007531158A (ru)
KR (1) KR20070007807A (ru)
RU (1) RU2006138226A (ru)
WO (1) WO2005103860A1 (ru)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7894177B2 (en) * 2005-12-29 2011-02-22 Apple Inc. Light activated hold switch
JP4850400B2 (ja) 2004-09-17 2012-01-11 キヤノン株式会社 撮像装置
DE602005025924D1 (en) * 2004-09-20 2011-02-24 Xenon Pharmaceuticals Inc Royl-coa-desaturase
US7808185B2 (en) * 2004-10-27 2010-10-05 Motorola, Inc. Backlight current control in portable electronic devices
US8659546B2 (en) 2005-04-21 2014-02-25 Oracle America, Inc. Method and apparatus for transferring digital content
US7986917B2 (en) 2006-07-10 2011-07-26 Sony Ericsson Mobile Communications Ab Method and system for data transfer from a hand held device
JP5023594B2 (ja) * 2006-07-26 2012-09-12 日本電気株式会社 携帯端末装置、データ送信方法およびデータ送信制御プログラム
JP2008158452A (ja) * 2006-12-26 2008-07-10 Oki Electric Ind Co Ltd 電子ペーパ、電子ペーパを用いたアプリケーション連携システム
US20080284749A1 (en) * 2007-05-15 2008-11-20 High Tech Computer, Corp. Method for operating a user interface for an electronic device and the software thereof
TWI460647B (zh) * 2007-05-15 2014-11-11 Htc Corp 電子裝置與其軟體之使用者介面多重選擇方法
TWI380201B (en) * 2007-05-15 2012-12-21 Htc Corp Method for browsing a user interface for an electronic device and the software thereof
US20090096573A1 (en) 2007-10-10 2009-04-16 Apple Inc. Activation of Cryptographically Paired Device
US8838152B2 (en) 2007-11-30 2014-09-16 Microsoft Corporation Modifying mobile device operation using proximity relationships
US8482403B2 (en) * 2007-12-12 2013-07-09 Sony Corporation Interacting with devices based on physical device-to-device contact
KR101452707B1 (ko) * 2008-01-18 2014-10-21 삼성전자주식회사 터치 모듈 및 이를 구비한 전자기기 케이스
WO2009141497A1 (en) * 2008-05-22 2009-11-26 Nokia Corporation Device and method for displaying and updating graphical objects according to movement of a device
JP4852084B2 (ja) * 2008-05-27 2012-01-11 株式会社東芝 無線通信装置
US20090298419A1 (en) * 2008-05-28 2009-12-03 Motorola, Inc. User exchange of content via wireless transmission
KR100931403B1 (ko) 2008-06-25 2009-12-11 한국과학기술연구원 손 동작에 의한 네트워크 상의 기기 및 정보 제어 시스템
US20100011291A1 (en) * 2008-07-10 2010-01-14 Nokia Corporation User interface, device and method for a physically flexible device
EP2723107B1 (en) * 2008-07-15 2019-05-15 Immersion Corporation Systems and methods for transmitting haptic messages
EP2146490A1 (en) * 2008-07-18 2010-01-20 Alcatel, Lucent User device for gesture based exchange of information, methods for gesture based exchange of information between a plurality of user devices, and related devices and systems
US9358425B2 (en) * 2008-08-12 2016-06-07 Koninklijke Philips N.V. Motion detection system
JP5284910B2 (ja) * 2008-10-29 2013-09-11 京セラ株式会社 携帯電子機器
CN101763328B (zh) * 2008-12-25 2014-01-15 鸿富锦精密工业(深圳)有限公司 数据传输系统及其方法
WO2010088477A1 (en) * 2009-01-29 2010-08-05 Immersion Corporation Systems and methods for interpreting physical interactions with a graphical user interface
KR101690521B1 (ko) * 2009-08-24 2016-12-30 삼성전자주식회사 모션의 크기에 기초한 ui 제공방법 및 이를 적용한 디바이스
WO2011025239A2 (ko) * 2009-08-24 2011-03-03 삼성전자 주식회사 모션을 이용한 ui 제공방법 및 이를 적용한 디바이스
KR101638056B1 (ko) * 2009-09-07 2016-07-11 삼성전자 주식회사 휴대 단말기의 ui 제공 방법
JP5184490B2 (ja) * 2009-11-17 2013-04-17 株式会社日立国際電気 通信システム
US20110163944A1 (en) * 2010-01-05 2011-07-07 Apple Inc. Intuitive, gesture-based communications with physics metaphors
US8839150B2 (en) 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
KR101677629B1 (ko) * 2010-06-04 2016-11-18 엘지전자 주식회사 휴대용 전자기기
US8266551B2 (en) * 2010-06-10 2012-09-11 Nokia Corporation Method and apparatus for binding user interface elements and granular reflective processing
US20120137230A1 (en) * 2010-06-23 2012-05-31 Michael Domenic Forte Motion enabled data transfer techniques
CN102339154A (zh) * 2010-07-16 2012-02-01 谊达光电科技股份有限公司 近接感应的手势侦测方法
WO2012102416A1 (en) * 2011-01-24 2012-08-02 Lg Electronics Inc. Data sharing between smart devices
US20120242664A1 (en) * 2011-03-25 2012-09-27 Microsoft Corporation Accelerometer-based lighting and effects for mobile devices
JP5866796B2 (ja) * 2011-05-12 2016-02-17 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US8743069B2 (en) * 2011-09-01 2014-06-03 Google Inc. Receiving input at a computing device
US9289685B2 (en) * 2011-11-18 2016-03-22 Verizon Patent And Licensing Inc. Method and system for providing virtual throwing of objects
US8996729B2 (en) 2012-04-12 2015-03-31 Nokia Corporation Method and apparatus for synchronizing tasks performed by multiple devices
US9479568B2 (en) 2011-12-28 2016-10-25 Nokia Technologies Oy Application switcher
WO2013121629A1 (ja) * 2012-02-14 2013-08-22 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、誤動作防止方法およびプログラム
US20130234925A1 (en) * 2012-03-09 2013-09-12 Nokia Corporation Method and apparatus for performing an operation at least partially based upon the relative positions of at least two devices
JP5605386B2 (ja) 2012-03-30 2014-10-15 日本電気株式会社 端末装置、制御装置、充放電制御システム、充放電制御調整方法、充放電制御方法およびプログラム
US20140040762A1 (en) * 2012-08-01 2014-02-06 Google Inc. Sharing a digital object
JP6271960B2 (ja) * 2012-11-26 2018-01-31 キヤノン株式会社 情報処理システム
WO2014091062A1 (en) * 2012-12-14 2014-06-19 Nokia Corporation A method for information exchange and a technical equipment
JP5892920B2 (ja) * 2012-12-21 2016-03-23 株式会社Nttドコモ 通信端末、画面表示方法、プログラム
JP5746244B2 (ja) * 2013-03-06 2015-07-08 オリンパス株式会社 撮像操作端末、撮像システム、撮像操作方法、およびプログラム
US8970662B2 (en) * 2013-03-12 2015-03-03 Qualcomm Incorporated Output management for electronic communications
US9210357B1 (en) * 2013-03-13 2015-12-08 Google Inc. Automatically pairing remote
EP2785083A1 (en) * 2013-03-28 2014-10-01 NEC Corporation Improved wireless communication of private data between two terminals
GB201321799D0 (en) * 2013-12-10 2014-01-22 Plum Products Ltd Children's play kitchen
US10332283B2 (en) * 2014-09-16 2019-06-25 Nokia Of America Corporation Visualized re-physicalization of captured physical signals and/or physical states
KR102296323B1 (ko) * 2015-01-14 2021-09-01 삼성전자주식회사 전자 장치 및 전자 장치에서의 정보 처리 방법
KR102318920B1 (ko) 2015-02-28 2021-10-29 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US20170052613A1 (en) * 2015-08-18 2017-02-23 Motorola Mobility Llc Method and Apparatus for In-Purse Detection by an Electronic Device
KR102517839B1 (ko) * 2015-09-25 2023-04-05 삼성전자주식회사 온도를 기반으로 하는 출력 방법 및 이를 지원하는 전자 장치
KR20180084550A (ko) * 2017-01-17 2018-07-25 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
US10480962B2 (en) * 2017-04-21 2019-11-19 Capsule Technologies, Inc. Electronic device including a capacitive sensor in a housing
GB201804129D0 (en) * 2017-12-15 2018-05-02 Cirrus Logic Int Semiconductor Ltd Proximity sensing
US11321909B2 (en) * 2019-08-26 2022-05-03 International Business Machines Corporation Tracking and rendering physical volumetric substances in virtual reality
US11550404B2 (en) * 2021-05-14 2023-01-10 Microsoft Technology Licensing, Llc Tilt-responsive techniques for sharing content

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5169342A (en) * 1990-05-30 1992-12-08 Steele Richard D Method of communicating with a language deficient patient
DE69623704T2 (de) * 1995-02-13 2003-06-26 Koninkl Philips Electronics Nv Tragbare datenverarbeitungsvorrichtung mit einem schirm und einem schwerkraftgesteuerten fühler zur schirmorientierung
US6340957B1 (en) * 1997-08-29 2002-01-22 Xerox Corporation Dynamically relocatable tileable displays
US7302280B2 (en) * 2000-07-17 2007-11-27 Microsoft Corporation Mobile phone operation based upon context sensing
US7289102B2 (en) * 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US7068294B2 (en) * 2001-03-30 2006-06-27 Koninklijke Philips Electronics N.V. One-to-one direct communication
US6714778B2 (en) * 2001-05-15 2004-03-30 Nokia Corporation Context sensitive web services
US7176888B2 (en) * 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
US20050219223A1 (en) * 2004-03-31 2005-10-06 Kotzin Michael D Method and apparatus for determining the context of a device

Also Published As

Publication number Publication date
US20050219211A1 (en) 2005-10-06
KR20070007807A (ko) 2007-01-16
EP1735682A1 (en) 2006-12-27
JP2007531158A (ja) 2007-11-01
WO2005103860A1 (en) 2005-11-03

Similar Documents

Publication Publication Date Title
RU2006138226A (ru) Способ и устройство для управления содержимым контроля
US11237660B2 (en) Electronic device response to force-sensitive interface
US8619034B2 (en) Sensor-based display of virtual keyboard image and associated methodology
US8878793B2 (en) Input apparatus
US8527908B2 (en) Computer user interface system and methods
US8884895B2 (en) Input apparatus
US8743069B2 (en) Receiving input at a computing device
EP2805220B1 (en) Skinnable touch device grip patterns
KR101647848B1 (ko) 정보 입력 및 표시를 위한 운전자 보조 시스템의 멀티모드 사용자 인터페이스
EP3612917B1 (en) Force-sensitive user input interface for an electronic device
US20190012000A1 (en) Deformable Electronic Device with Methods and Systems for Controlling the Deformed User Interface
CN109766160B (zh) 基于情境提供信息的方法和系统
US9507561B2 (en) Method and apparatus for facilitating use of touchscreen devices
EP2184672A1 (en) Information display apparatus, mobile information unit, display control method and display control program
CN108334272B (zh) 一种控制方法及移动终端
KR20130129914A (ko) 터치스크린 상에서의 손가락 인식
CN103210366A (zh) 用于基于邻近的输入的装置和方法
WO2007118893A2 (en) Method, apparatus, and computer program product for entry of data or commands based on tap detection
CN109558061B (zh) 一种操作控制方法及终端
WO2021068804A1 (zh) 菜单显示方法及电子设备
CN110187822B (zh) 一种终端及应用于终端的屏幕显示控制方法
EP3764211A1 (en) Display method and mobile terminal
CN110795189A (zh) 一种应用启动方法及电子设备
CN111459361B (zh) 应用图标显示方法、装置及电子设备
JP5367911B2 (ja) 文字列検索装置

Legal Events

Date Code Title Description
FA92 Acknowledgement of application withdrawn (lack of supplementary materials submitted)

Effective date: 20090728