RU2013114377A - Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой - Google Patents
Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой Download PDFInfo
- Publication number
- RU2013114377A RU2013114377A RU2013114377/08A RU2013114377A RU2013114377A RU 2013114377 A RU2013114377 A RU 2013114377A RU 2013114377/08 A RU2013114377/08 A RU 2013114377/08A RU 2013114377 A RU2013114377 A RU 2013114377A RU 2013114377 A RU2013114377 A RU 2013114377A
- Authority
- RU
- Russia
- Prior art keywords
- mobile unit
- orientation
- movement
- touch
- activated
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1626—Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
- G06F1/1694—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04817—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
1. Мобильный блок для активирования сенсорно активируемой команды, содержащий:процессор;память; идисплей, отображающий интерфейс пользователя, включающий в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.2. Мобильный блок по п. 1, в котором сенсорно активируемые команды по умолчанию связаны, по меньшей мере, с одним из движений и ориентаций мобильного блока и соответствующими установленными по умолчанию пиктограммами.3. Мобильный блок по п. 1, в котором выбор одной из сенсорно активируемых команд связан с персонализированными движениями и персонализированными пиктограммами.4. Мобильный блок по п. 1, дополнительно содержащий:громкоговоритель, воспроизводящий аудиоподсказки, указывающие, по меньшей мере, одно из движения и ориентации мобильного блока.5. Мобильный блок по п. 1, дополнительно содержащий:датчик, определяющий, по меньшей мере, одно из движения и ориентации мобильного устройства.6. Мобильный блок по п. 5, в котором датчик является одним из акселерометра, детектора сенсорного экрана, магнитометра, гироскопа и их комбинации.7. Мобильный блок по п. 5, дополнительно содержащий:по меньшей мере, одно дополнительное устройство приема ввода.8. Мобильный блок по п. 7, в котором датчик и, по меньшей мере, одно дополнительное устройство приема ввода используются для акт�
Claims (20)
1. Мобильный блок для активирования сенсорно активируемой команды, содержащий:
процессор;
память; и
дисплей, отображающий интерфейс пользователя, включающий в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.
2. Мобильный блок по п. 1, в котором сенсорно активируемые команды по умолчанию связаны, по меньшей мере, с одним из движений и ориентаций мобильного блока и соответствующими установленными по умолчанию пиктограммами.
3. Мобильный блок по п. 1, в котором выбор одной из сенсорно активируемых команд связан с персонализированными движениями и персонализированными пиктограммами.
4. Мобильный блок по п. 1, дополнительно содержащий:
громкоговоритель, воспроизводящий аудиоподсказки, указывающие, по меньшей мере, одно из движения и ориентации мобильного блока.
5. Мобильный блок по п. 1, дополнительно содержащий:
датчик, определяющий, по меньшей мере, одно из движения и ориентации мобильного устройства.
6. Мобильный блок по п. 5, в котором датчик является одним из акселерометра, детектора сенсорного экрана, магнитометра, гироскопа и их комбинации.
7. Мобильный блок по п. 5, дополнительно содержащий:
по меньшей мере, одно дополнительное устройство приема ввода.
8. Мобильный блок по п. 7, в котором датчик и, по меньшей мере, одно дополнительное устройство приема ввода используются для активации соответствующей активируемой движением команды.
9. Мобильный блок по п. 3, в котором персонализированные движения являются теми, что выбираются из списка доступных движений и ориентаций мобильного блока и создаются пользователем, и в котором персонализированные пиктограммы являются теми, что выбираются из списка доступных пиктограмм и создаются пользователем.
10. Мобильный блок по п. 1, в котором пиктограмма создается пользователем.
11. Способ активирования сенсорно активируемой команды, содержащий этапы, на которых
принимают выбор команды, которая будет сенсорно активирована;
принимают выбор, по меньшей мере, одного из движения и ориентации мобильного блока для команды и сенсорной пиктограммы, по меньшей мере, для одного из движения и ориентации мобильного блока, при этом, по меньшей мере, одно из выбранного движения и ориентации мобильного блока активирует соответствующую команду; и
создают интерфейс пользователя, включающий в себя команду, при этом пиктограмма команды для команды показывается с сенсорной пиктограммой.
12. Способ по п. 11, в котором, по меньшей мере, одно из движения и ориентации мобильного блока выбирается из списка доступных движений, а сенсорная пиктограмма выбирается из списка доступных пиктограмм.
13. Способ по п. 12, в котором выбор, по меньшей мере, одного из движения и ориентации мобильного блока выбирается из шаблона жестов.
14. Способ по п. 11, дополнительно содержащий этап, на котором
формируют предварительный просмотр сенсорной пиктограммы.
15. Способ по п. 11, в котором выбор, по меньшей мере, одного из движения и ориентации мобильного блока фильтруется в зависимости от дополнительно сенсорно активируемых команд в интерфейсе пользователя.
16. Способ по п. 12, в котором, по меньшей мере, одно из движения и ориентации мобильного блока классифицируется по типам классов.
17. Способ по п. 16, в котором сенсорные пиктограммы связаны с соответствующим одним из типов классов.
18. Способ по п. 17, в котором список доступных движений и список доступных пиктограмм фильтруются в зависимости от типов классов для выбора, по меньшей мере, одного из движения и ориентации мобильного блока и сенсорной пиктограммы.
19. Способ по п. 11, в котором интерфейс пользователя включает в себя, по меньшей мере, одну дополнительную сенсорно активируемую команду, причем каждая из, по меньшей мере, одной дополнительной сенсорно активируемой команды показывается с соответствующей дополнительной пиктограммой.
20. Мобильный блок для активирования сенсорно активируемой команды, содержащий:
процессор;
память; и
средство отображения для показа интерфейса пользователя, включающего в себя множество команд, при этом каждая сенсорно активируемая команда из множества команд показывается с соответствующей пиктограммой, указывающей, по меньшей мере, одно из движения и ориентации мобильного блока, назначенное сенсорно активируемой команде, при этом, по меньшей мере, одно из указываемого движения и ориентации мобильного блока активирует соответствующую сенсорно активируемую команду.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/872,187 | 2010-08-31 | ||
US12/872,187 US9164542B2 (en) | 2010-08-31 | 2010-08-31 | Automated controls for sensor enabled user interface |
PCT/US2011/047713 WO2012030509A1 (en) | 2010-08-31 | 2011-08-15 | Automated controls for sensor enabled user interface |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013114377A true RU2013114377A (ru) | 2014-10-10 |
RU2571606C2 RU2571606C2 (ru) | 2015-12-20 |
Family
ID=44513195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013114377/08A RU2571606C2 (ru) | 2010-08-31 | 2011-08-15 | Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой |
Country Status (7)
Country | Link |
---|---|
US (1) | US9164542B2 (ru) |
EP (1) | EP2612213A1 (ru) |
KR (1) | KR101453703B1 (ru) |
CN (1) | CN103097979B (ru) |
CA (1) | CA2809297C (ru) |
RU (1) | RU2571606C2 (ru) |
WO (1) | WO2012030509A1 (ru) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8791297B2 (en) | 2010-06-29 | 2014-07-29 | Basf Se | Process for preparing formic acid by reaction of carbon dioxide with hydrogen |
JP5768361B2 (ja) * | 2010-11-22 | 2015-08-26 | ソニー株式会社 | 送信装置、受信装置、コンテンツ送受信システム |
US8893054B2 (en) * | 2010-12-08 | 2014-11-18 | At&T Intellectual Property I, L.P. | Devices, systems, and methods for conveying gesture commands |
JP5966665B2 (ja) * | 2012-06-26 | 2016-08-10 | ソニー株式会社 | 情報処理装置、情報処理方法および記録媒体 |
US20140006263A1 (en) * | 2012-06-28 | 2014-01-02 | Daniel Ray Townsend | System, Software, and Method For Design And Personalization Of Content By Users |
KR102028175B1 (ko) * | 2012-07-30 | 2019-10-04 | 삼성전자주식회사 | 벤딩 인터렉션 가이드를 제공하는 플렉서블 장치 및 그 제어 방법 |
CN103777881B (zh) * | 2012-10-24 | 2018-01-09 | 腾讯科技(深圳)有限公司 | 一种触控设备页面控制方法及系统 |
FR2999316A1 (fr) * | 2012-12-12 | 2014-06-13 | Sagemcom Broadband Sas | Dispositif et procede de reconnaissance de gestes pour un controle d'interface utilisateur |
KR101515288B1 (ko) | 2013-06-05 | 2015-04-24 | 엘지전자 주식회사 | 이동 단말기 어셈블리 |
US9307129B2 (en) | 2013-05-07 | 2016-04-05 | Lg Electronics Inc. | Terminal case, mobile terminal, and mobile terminal assembly including the terminal case and the mobile terminal |
TWI511029B (zh) * | 2014-01-28 | 2015-12-01 | Acer Inc | 觸控顯示裝置及其操作方法 |
WO2015136671A1 (ja) * | 2014-03-13 | 2015-09-17 | 富士機械製造株式会社 | 作業機用表示装置 |
KR102244856B1 (ko) * | 2014-04-22 | 2021-04-27 | 삼성전자 주식회사 | 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치 |
MX2016013962A (es) * | 2014-04-24 | 2017-04-27 | Idis Tech Ip Ltd | Aplicacion de mensajeria privada y metodos asociados. |
EP3002669A1 (en) * | 2014-09-30 | 2016-04-06 | Advanced Digital Broadcast S.A. | System and method for controlling a virtual input interface |
CN106095306B (zh) * | 2016-05-31 | 2019-03-26 | Oppo广东移动通信有限公司 | 一种移动终端的传感器控制方法、装置及移动终端 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5252951A (en) * | 1989-04-28 | 1993-10-12 | International Business Machines Corporation | Graphical user interface with gesture recognition in a multiapplication environment |
US6072467A (en) * | 1996-05-03 | 2000-06-06 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | Continuously variable control of animated on-screen characters |
US6268857B1 (en) * | 1997-08-29 | 2001-07-31 | Xerox Corporation | Computer user interface using a physical manipulatory grammar |
US6057845A (en) * | 1997-11-14 | 2000-05-02 | Sensiva, Inc. | System, method, and apparatus for generation and recognizing universal commands |
US20070177804A1 (en) * | 2006-01-30 | 2007-08-02 | Apple Computer, Inc. | Multi-touch gesture dictionary |
US7840912B2 (en) * | 2006-01-30 | 2010-11-23 | Apple Inc. | Multi-touch gesture dictionary |
EP1052849B1 (en) * | 1998-11-30 | 2011-06-15 | Sony Corporation | Set-top box and method for operating same |
US7688306B2 (en) | 2000-10-02 | 2010-03-30 | Apple Inc. | Methods and apparatuses for operating a portable device based on an accelerometer |
US7030861B1 (en) * | 2001-02-10 | 2006-04-18 | Wayne Carl Westerman | System and method for packing multi-touch gestures onto a hand |
US6668177B2 (en) * | 2001-04-26 | 2003-12-23 | Nokia Corporation | Method and apparatus for displaying prioritized icons in a mobile terminal |
WO2002088853A1 (en) | 2001-04-26 | 2002-11-07 | Caveo Technology, Llc | Motion-based input system for handheld devices |
FI117488B (fi) * | 2001-05-16 | 2006-10-31 | Myorigo Sarl | Informaation selaus näytöllä |
US7280096B2 (en) | 2004-03-23 | 2007-10-09 | Fujitsu Limited | Motion sensor engagement for a handheld device |
US8021297B2 (en) | 2004-07-07 | 2011-09-20 | Koninklijke Philips Electronics N.V. | Wearable device |
RU2391696C2 (ru) * | 2004-09-24 | 2010-06-10 | Нокиа Корпорейшн | Способ приема вводов от пользователя электронного устройства |
EP1677182B1 (en) * | 2004-12-28 | 2014-04-23 | Sony Mobile Communications Japan, Inc. | Display method, portable terminal device, and display program |
US7389591B2 (en) | 2005-05-17 | 2008-06-24 | Gesturetek, Inc. | Orientation-sensitive signal output |
US8462109B2 (en) * | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US20090265671A1 (en) * | 2008-04-21 | 2009-10-22 | Invensense | Mobile devices with motion gesture recognition |
US8122384B2 (en) * | 2007-09-18 | 2012-02-21 | Palo Alto Research Center Incorporated | Method and apparatus for selecting an object within a user interface by performing a gesture |
US20090079701A1 (en) * | 2007-09-25 | 2009-03-26 | Grosskopf Jr George | Device and Method for Displaying Data and Receiving User Input |
US20090276730A1 (en) | 2008-03-04 | 2009-11-05 | Alexandre Aybes | Techniques for navigation of hierarchically-presented data |
US8295879B2 (en) * | 2008-05-30 | 2012-10-23 | Motorola Mobility Llc | Devices and methods for initiating functions based on movement characteristics relative to a reference |
US8566717B2 (en) * | 2008-06-24 | 2013-10-22 | Microsoft Corporation | Rendering teaching animations on a user-interface display |
US20100042954A1 (en) * | 2008-08-12 | 2010-02-18 | Apple Inc. | Motion based input selection |
US8191011B2 (en) | 2008-09-18 | 2012-05-29 | Microsoft Corporation | Motion activated content control for media system |
US9248376B2 (en) * | 2008-09-30 | 2016-02-02 | Nintendo Co., Ltd. | Computer-readable storage medium having stored game program therein, and game apparatus |
KR101520689B1 (ko) * | 2008-10-22 | 2015-05-21 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 화면 스크롤 방법 |
FR2938097B1 (fr) * | 2008-10-30 | 2010-12-31 | Oberthur Technologies | Carte a microcircuit, dispositif electronique associe a une telle carte, et procede de commande d'un tel dispositif electronique |
KR101737829B1 (ko) * | 2008-11-10 | 2017-05-22 | 삼성전자주식회사 | 휴대 단말기의 모션 입력 장치 및 그의 운용 방법 |
WO2010076772A2 (en) | 2008-12-30 | 2010-07-08 | France Telecom | User interface to provide enhanced control of an application program |
JP5256109B2 (ja) * | 2009-04-23 | 2013-08-07 | 株式会社日立製作所 | 表示装置 |
US8543946B2 (en) * | 2009-06-29 | 2013-09-24 | Sharp Laboratories Of America, Inc. | Gesture-based interface system and method |
US9519417B2 (en) * | 2009-08-31 | 2016-12-13 | Twin Harbor Labs, LLC | System and method for orientation-based object monitoring and device for the same |
US8457651B2 (en) * | 2009-10-02 | 2013-06-04 | Qualcomm Incorporated | Device movement user interface gestures for file sharing functionality |
US8436821B1 (en) * | 2009-11-20 | 2013-05-07 | Adobe Systems Incorporated | System and method for developing and classifying touch gestures |
US20110214082A1 (en) * | 2010-02-28 | 2011-09-01 | Osterhout Group, Inc. | Projection triggering through an external marker in an augmented reality eyepiece |
-
2010
- 2010-08-31 US US12/872,187 patent/US9164542B2/en active Active
-
2011
- 2011-08-15 KR KR20137008254A patent/KR101453703B1/ko not_active IP Right Cessation
- 2011-08-15 RU RU2013114377/08A patent/RU2571606C2/ru not_active IP Right Cessation
- 2011-08-15 EP EP11749050.8A patent/EP2612213A1/en not_active Withdrawn
- 2011-08-15 CN CN201180042166.4A patent/CN103097979B/zh active Active
- 2011-08-15 CA CA2809297A patent/CA2809297C/en not_active Expired - Fee Related
- 2011-08-15 WO PCT/US2011/047713 patent/WO2012030509A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
RU2571606C2 (ru) | 2015-12-20 |
WO2012030509A1 (en) | 2012-03-08 |
CA2809297A1 (en) | 2012-03-08 |
KR20130065702A (ko) | 2013-06-19 |
CA2809297C (en) | 2016-07-05 |
US20120054620A1 (en) | 2012-03-01 |
KR101453703B1 (ko) | 2014-10-22 |
CN103097979B (zh) | 2016-08-03 |
EP2612213A1 (en) | 2013-07-10 |
CN103097979A (zh) | 2013-05-08 |
WO2012030509A4 (en) | 2012-04-26 |
US9164542B2 (en) | 2015-10-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2013114377A (ru) | Автоматизированные элементы управления для интерфейса пользователя с сенсорной поддержкой | |
US10963139B2 (en) | Operating method for multiple windows and electronic device supporting the same | |
AU2011358860B2 (en) | Operating method of terminal based on multiple inputs and portable terminal supporting the same | |
JP5976632B2 (ja) | 携帯端末機のgui提供方法及び装置 | |
US20130179840A1 (en) | User interface for mobile device | |
US20130007666A1 (en) | Electronic device with touch screen device, method of moving function icon and computer readable storage media comprising computer executable instructions | |
RU2012142254A (ru) | Пользовательский интерфейс | |
KR20170076357A (ko) | 사용자 단말 장치, 이의 스피커 장치의 음량을 조절하기 위한 모드 전환 방법 및 음향 시스템 | |
KR20160123620A (ko) | 디스플레이 장치 및 디스플레이 방법 | |
JP2014215737A5 (ja) | 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体 | |
JP2013544385A (ja) | タッチデバイスでホームスクリーン編集方法及び装置 | |
JP2014215737A (ja) | 情報処理装置、表示制御方法、及びコンピュータプログラム | |
JP5254399B2 (ja) | 表示装置、ユーザインタフェース方法及びプログラム | |
JP2006139615A5 (ru) | ||
KR20150069559A (ko) | 화면 제어 방법 및 이를 구현하는 전자 장치 | |
KR101861377B1 (ko) | 이동 단말에서 모션 기반의 화면 제어 방법 및 이를 위한 이동 단말 | |
EP2290515A2 (en) | Apparatus and method for providing GUI-interacting according to recognized user approach | |
CN103294392A (zh) | 用于在移动装置中编辑内容视图的方法和设备 | |
JP2014508354A5 (ru) | ||
JP5950275B2 (ja) | 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム | |
JP2014174742A (ja) | 携帯型電子機器およびその制御プログラム | |
KR102138501B1 (ko) | 디지털 컨텐츠를 캡쳐하는 디스플레이 디바이스 및 그 제어 방법 | |
JP2014149555A (ja) | 情報機器 | |
KR20150135039A (ko) | 사용자 단말 장치 및 이의 정보 제공 방법 | |
JP2014149853A (ja) | 携帯情報端末、表示制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM4A | The patent is invalid due to non-payment of fees |
Effective date: 20170816 |