KR20110133086A - Apparatus and method of interface for mobile device, and recording medium for the same - Google Patents

Apparatus and method of interface for mobile device, and recording medium for the same Download PDF

Info

Publication number
KR20110133086A
KR20110133086A KR1020100052621A KR20100052621A KR20110133086A KR 20110133086 A KR20110133086 A KR 20110133086A KR 1020100052621 A KR1020100052621 A KR 1020100052621A KR 20100052621 A KR20100052621 A KR 20100052621A KR 20110133086 A KR20110133086 A KR 20110133086A
Authority
KR
South Korea
Prior art keywords
mobile device
edge
command signal
sound
sensor
Prior art date
Application number
KR1020100052621A
Other languages
Korean (ko)
Other versions
KR101168889B1 (en
Inventor
여운승
박시화
김근형
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020100052621A priority Critical patent/KR101168889B1/en
Publication of KR20110133086A publication Critical patent/KR20110133086A/en
Application granted granted Critical
Publication of KR101168889B1 publication Critical patent/KR101168889B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A device and a method for a mobile device interface and a recording medium for the same are provided to effectively operate and control a mobile device by simply knocking the edge of the mobile device. CONSTITUTION: A mobile device has a polygonal edge. A first sensor(110) is included in the mobile device and detects the motion direction of the mobile device according to the user touch in one edge among the polygonal edge. A control unit(120) generates a command signal corresponding to the motion direction. A memory unit(130) stores a command signal corresponding to the motion direction of the mobile device.

Description

모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체{Apparatus and method of interface for mobile device, and recording medium for the same}Apparatus and method of interface for mobile device, and recording medium for the same

본 발명은 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체에 관한 것으로, 보다 상세하게는 모바일 기기의 테두리에 대한 터치에 따른 방향성에 기반한 모바일 기기 인터페이스 장치, 방법 및 이를 위한 기록매체에 관한 것이다.The present invention relates to a mobile device interface device, a method and a recording medium for the same, and more particularly, to a mobile device interface device, a method and a recording medium for the mobile device interface based on the direction according to the touch on the edge of the mobile device.

최근에 사용자의 입력을 용이하게 하기 위해 터치 인터페이스를 구비하는 사용자 단말 등의 모바일 기기가 증가하는 추세이다. 특히 터치 인터페이스가 장착된 대부분의 휴대용 미디어 단말기나 사용자 단말 등의 모바일 기기는 디스플레이 화면 상에서 사용자의 터치를 감지하여 동작되도록 설계가 되어 있다. 이러한 모바일 기기의 조작을 위해서 사용자는 터치패널에 대한 터치 제스쳐를 수행하여야 하는데, 문제는 다양한 기능이 동시에 수행되는 모바일 기기의 특성상, 이미 특정 기능을 수행하는 모바일 기기를 다시 조작하고자 하는 경우 다시 터치 인터페이스에 대한 활성화와 후속하는 직접 조작이 필요하다. 예를 들어 터치 스크린이 꺼져 있는 경우에는 이를 다시 활성화한 후, 터치 제스처 등의 스크린 조작을 수행하여야 한다. 이와 함께, 정전식 터치 스크린의 경우 직접 피부와 접촉하여야 하므로, 장갑을 착용한 상태에서는 스크린을 통한 기기 조작이 불가능하다. Recently, in order to facilitate user input, mobile devices such as user terminals having a touch interface are increasing. In particular, most mobile devices such as portable media terminals or user terminals equipped with a touch interface are designed to operate by sensing a user's touch on the display screen. In order to operate such a mobile device, a user must perform a touch gesture with respect to the touch panel. The problem is that due to the characteristics of a mobile device which performs various functions at the same time, if a user wants to remanage a mobile device that already performs a specific function, the touch interface is used again. Activation and subsequent direct manipulation are required. For example, if the touch screen is turned off, it is necessary to activate it again and then perform a screen manipulation such as a touch gesture. In addition, the capacitive touch screen should be in direct contact with the skin, so it is impossible to operate the device through the screen while wearing gloves.

또한, 대한민국 공개특허 10-2010-0027660는 멀티미디어 기기의 상, 하, 좌, 우 방향의 측면에 각각 별도의 측면 터치 인터페이스를 구비하고, 각각의 측면 터치 인터페이스의 터치 입력을 통해 전면 터치 인터페이스의 디스플레이 화면을 제어하는 방식을 개시한다. 하지만, 상기 종래 기술은 우선 측면에 별도의 터치 인터페이스를 구비하여야 하는 기술적 문제가 있다. 또한, 외부와의 접촉, 충격이 잦은 기기의 측면에 이러한 터치 인터페이스를 구비시키는 경우, 기기의 신뢰성에 문제가 될 수도 있다.In addition, the Republic of Korea Patent Publication 10-2010-0027660 has a separate side touch interface on the sides of the multimedia device up, down, left and right, respectively, the display of the front touch interface through the touch input of each side touch interface A method of controlling the screen is disclosed. However, the prior art has a technical problem of having a separate touch interface on the side. In addition, when the touch interface is provided on the side of the device that is frequently in contact with the outside and impacts, it may be a problem in the reliability of the device.

따라서 본 발명이 해결하려는 과제는 터치 조작 이외의 또 다른 방식에 기반한 새로운 모바일 기기 인터페이스 장치를 제공하는 것이다.Accordingly, an object of the present invention is to provide a new mobile device interface device based on another method besides touch manipulation.

본 발명이 해결하려는 또 다른 과제는 터치 조작 이외의 또 다른 방식에 기반한 새로운 모바일 기기 인터페이스 방법을 제공하는 것이다.Another problem to be solved by the present invention is to provide a new mobile device interface method based on another method other than the touch operation.

상기 과제를 해결하기 위하여, 본 발명은 모바일 기기 인터페이스 장치로서, 상기 장치는 다각의 테두리를 갖는 모바일 기기; 상기 모바일 기기에 구비되며, 상기 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 검출하는 제 1 센서; 및 상기 제 1 센서에 의하여 검출된 모바일 기기의 움직임 방향에 대응되는 명령 신호를 생성시키는 제어부를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치를 제공한다. In order to solve the above problems, the present invention provides a mobile device interface device, the device comprises a mobile device having a polygonal border; A first sensor provided in the mobile device, the first sensor detecting a direction of movement of the mobile device in response to a user touch on one of the edges; And a controller configured to generate a command signal corresponding to the movement direction of the mobile device detected by the first sensor.

상기 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향에 대응하는 명령 신호가 저장된 메모리부를 더 포함할 수 있다.The mobile device interface device may further include a memory unit in which a command signal corresponding to a movement direction of the mobile device is stored.

본 발명의 일 실시예에서 상기 모바일 기기는 사각 테두리를 가지며, 상기 제어부는 상기 모바일 기기의 상, 하, 좌, 우 테두리의 사용자 터치로부터 발생하는 모바일 기기 움직임 방향에 대응되는 명령 신호를 생성시킬 수 있으며, 이때 상, 하, 좌, 우 테두리의 터치로부터 발생하는 명령 신호는 각각 상이할 수 있다.According to an embodiment of the present invention, the mobile device has a rectangular border, and the controller may generate a command signal corresponding to a mobile device movement direction generated from a user touch of the upper, lower, left, and right edges of the mobile device. In this case, the command signals generated from the touch of the upper, lower, left and right edges may be different.

본 발명의 또 다른 일 실시예에서 상기 모바일 기기는 상기 모바일 기기로부터 발생하는 소리를 검출하는 제 2 센서를 더 포함하며, 상기 제어부는 상기 제 2 센서에 의하여 검출된 소리의 소리정보가 상기 모바일 기기 테두리에 대한 사용자 터치로부터 발생하는 소리 정보로 판단되는 경우, 명령신호를 생성시킬 수 있다. In another embodiment of the present invention, the mobile device further includes a second sensor for detecting a sound generated from the mobile device, wherein the controller is configured to display sound information of the sound detected by the second sensor. When it is determined that the sound information generated from the user touch on the edge is generated, a command signal may be generated.

상기 소리정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 둘 다를 동시에 포함할 수 있다. The sound information may simultaneously include volume change over time of the detected sound or frequency information or both.

상기 제 1 센서는 가속도 센서일 수 있으며, 상기 제 1 센서는 상기 다각 테두리 각각에 대한 사용자 터치로부터 발생하는 모바일 기기 움직임 방향을 구분한다. The first sensor may be an acceleration sensor, and the first sensor distinguishes a mobile device movement direction generated from a user touch on each of the polygonal edges.

본 발명의 또 다른 일 실시예에서 상기 제 2 센서는 마이크로폰일 수 있다. In another embodiment of the present invention, the second sensor may be a microphone.

상기 또 다른 과제를 해결하기 위하여, 본 발명은 다각의 테두리를 갖는 모바일 기기의 인터페이스 방법으로, 상기 방법은 상기 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 제 1 검출하는 단계; 상기 움직임 방향에 대응되는 명령신호를 결정하는 단계; 및 상기 결정된 명령 신호에 따라 상기 모바일 기기를 조작하는 단계를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 방법이 제공된다. In order to solve the above further problem, the present invention provides an interface method of a mobile device having a polygonal edge, the method comprising: a first direction of movement of the mobile device in response to a user touch on one of the edges; Detecting; Determining a command signal corresponding to the movement direction; And operating the mobile device according to the determined command signal.

상기 제 1 검출은 상기 모바일 기기에 구비된 가속도 센서에 의하여 수행될 수 있으며, 상기 모바일 기기는 사각 테두리를 가질 수 있다. The first detection may be performed by an acceleration sensor provided in the mobile device, and the mobile device may have a rectangular border.

본 발명의 또 다른 일 실시예에서 상기 방법은 상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계; 상기 제 2 검출된 소리가 상기 모바일 기기 테두리의 사용자 터치로부터 발생하였는지를 판단하는 단계; 상기 제 2 검출된 소리가 모바일 기기 테두리의 사용자 터치로부터 발생한 것으로 판단된 경우, 상기 결정된 명령신호에 따라 상기 모바일 기기를 조작하는 단계를 포함할 수 있으며, 상기 제 2 검출된 소리가 모바일 기기 테두리의 사용자 터치로부터 발생한 것으로 판단되지 않는 경우, 상기 명령 신호에 따라 모바일 기기를 조작하는 단계가 수행되지 않는다. 본 발명의 일 실시예에서 상기 사용자 터치는 상기 모바일 기기 테두리를 두드리는 제스쳐일 수 있다.In another embodiment of the present invention, the method includes the steps of: detecting a sound generated from the mobile device; Determining whether the second detected sound originates from a user touch on the edge of the mobile device; If it is determined that the second detected sound is generated from a user touch on the edge of the mobile device, operating the mobile device according to the determined command signal; If it is not determined that the user touches, the step of operating the mobile device according to the command signal is not performed. In one embodiment of the present invention, the user touch may be a gesture of tapping the edge of the mobile device.

본 발명은 또한 상기 장치 및 방법을 구동, 수행시키기 위한 프로그램 명령어가 기록된 기록매체 및 상기 장치를 포함하는 모바일 기기를 제공한다.
The present invention also provides a recording medium having recorded thereon program instructions for driving and executing the apparatus and method, and a mobile device including the apparatus.

본 발명에 따른 모바일 기기 인터페이스 장치는 터치 패널에 대한 사용자 조작 없이 일정한 방향성을 갖는 모바일 기기의 다각 구조 테두리에 대한 터치 방향성에 따라 모바일 기기를 조작한다. 따라서, 모바일 기기의 측면 테두리를 간단히 두드림으로써 모바일 기기를 효과적으로 조작, 제어할 수 있다. 더 나아가 스크린을 볼 수 없는 경우, 예를 들면 주머니 속에 모바일 기기가 있거나, 스크린 잠금이 걸려있는 경우에도 간단한 두드림 동작만으로도 기기의 기능 조작 가능하다. 또한, 정전식 터치 스크린을 장착한 기기에서도 장갑을 착용한 상태로 사용할 수 있다는 점에서 그 장점이 있다.
The mobile device interface device according to the present invention operates the mobile device according to the touch directionality of the edge of the polygonal structure of the mobile device having a certain directionality without a user operation on the touch panel. Therefore, by simply tapping the side edge of the mobile device, it is possible to effectively operate and control the mobile device. Furthermore, if the screen is not visible, for example, even if the mobile device is in the pocket or the screen is locked, the function of the device can be operated with a simple tapping operation. In addition, there is an advantage in that it can be used while wearing gloves even in a device equipped with a capacitive touch screen.

도 1은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다.
도 2 및 3a, 3b는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치를 이용한 모바일 기기 활용예를 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다.
도 5 및 6은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.
도 7은 본 발명의 일 실시예에 따른 모바일 기기의 인터페이스 방법의 단계도이다.
도 8은 본 발명의 또 다른 일 실시예에 따른 모바일 기기 인터페이스 방법의 단계도이다.
1 is a block diagram of a mobile device interface device according to an embodiment of the present invention.
2, 3A and 3B are diagrams illustrating an example of using a mobile device using a mobile device interface device according to an embodiment of the present invention.
4 is a block diagram of a mobile device interface device according to an embodiment of the present invention.
5 and 6 are diagrams showing an example of the use of the mobile device interface device according to an embodiment of the present invention.
7 is a flowchart illustrating an interface method of a mobile device according to an embodiment of the present invention.
8 is a step diagram of a mobile device interface method according to another embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings which illustrate preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the book, when a part is said to "include" a certain component, it means that it may further include other components, except to exclude other components unless specifically stated otherwise. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software.

본 발명은 다각 구조, 주로 사각 구조를 갖는 모바일 기기의 테두리를 사용자가 터치함으로써 발생하는 모바일 기기의 움직임 방향에 따라 모바일 기기를 조작, 제어하는 모바일 기기 인터페이스 장치를 제공한다. 종래 기술과 달리 측면 테두리에 별도의 터치 패널 등을 구비하지 않고, 가속도 센서에 의한 기기 움직임 방향을 검출하고, 이를 통하여 모바일 기기를 조작한다. 따라서, 별도로 터치 패널을 활성화시키거나, 또 다른 터치 메뉴로 이동할 필요 없이, 측면 터치만으로도 모바일 기기를 효과적으로 제어할 수 있다.The present invention provides a mobile device interface device for operating and controlling the mobile device according to the movement direction of the mobile device generated by the user touching the edge of the mobile device having a polygonal structure, mainly a rectangular structure. Unlike the prior art, the side edge is not provided with a separate touch panel, and the direction of movement of the device by the acceleration sensor is detected, and the mobile device is operated through this. Therefore, it is possible to effectively control the mobile device only by the side touch, without separately activating the touch panel or moving to another touch menu.

도 1은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다. 1 is a block diagram of a mobile device interface device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 모바일 기기 인터페이스 장치는 다각의 테두리를 갖는 모바일 기기(100); 상기 모바일 기기에 구비되며, 상기 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 검출하는 제 1 센서(110); 및 상기 제 1 센서에 의하여 검출된 모바일 기기의 움직임 방향에 대응되는 명령 신호를 생성시키는 제어부(120)를 포함한다. Referring to FIG. 1, a mobile device interface device according to the present invention includes a mobile device 100 having a polygonal edge; A first sensor (110) provided in the mobile device and detecting a movement direction of movement of the mobile device according to a user touch on one of the edges of the polygonal frame; And a controller 120 generating a command signal corresponding to a movement direction of the mobile device detected by the first sensor.

본 발명은 특히 다각형의 테두리 형상을 갖는 모바일 기기는 비연속적인 테두리 굴절각의 특성상 각 테두리를 두드리거나, 터치하는 경우, 모바일 기기의 움직임 방향이 달라지며, 이러한 움직임 방향의 차이는 가속도 센서 등에 의하여 충분히 검출가능하다는 점에 착안하여, 본 발명을 완성하게 되었다. According to the present invention, a mobile device having a polygonal edge shape is characterized by a discontinuous edge refraction angle, and thus, when the user taps or touches each edge, the direction of movement of the mobile device varies. The present invention has been completed in view of the fact that it is detectable.

따라서, 상기 제 1 센서(110)는 모바일 기기의 움직임 방향을 검출할 수 있는 임의의 센서, 예를 들면 가속도 센서 등이 사용될 수 있다.Therefore, the first sensor 110 may be any sensor capable of detecting the movement direction of the mobile device, for example, an acceleration sensor.

본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향에 대응하는 명령 신호가 저장된 메모리부(130)를 더 포함할 수 있다. The mobile device interface device according to an embodiment of the present invention may further include a memory unit 130 in which a command signal corresponding to the movement direction of the mobile device is stored.

도 2 및 3a, 3b는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치를 이용한 모바일 기기 활용예를 나타내는 도면이다.2, 3A and 3B are diagrams illustrating an example of using a mobile device using a mobile device interface device according to an embodiment of the present invention.

도 2를 참조하면, 사각 테두리 구조인 모바일 기기(210)이 개시된다. 2, a mobile device 210 having a rectangular frame structure is disclosed.

상기 모바일 기기(210)의 상, 하, 좌, 우 측면의 테두리를 사용자가 터치함에 따라 발생하는 기기 움직임 방향은 4 종류가 된다. 이 경우, 4 종류의 움직임 방향에 대하여 각각 동일하거나, 상이한 명령 신호가 상기 메모리부(130)에 저장된 후, 매칭되는 움직임 방향에 따라 원하는 명령 신호가 생성될 수 있다. There are four types of device movement directions generated when the user touches the edges of the upper, lower, left, and right sides of the mobile device 210. In this case, after the same or different command signals are stored in the memory unit 130 for the four kinds of movement directions, a desired command signal may be generated according to the matching movement directions.

도 3a 및 3b를 참조하면, 좌측 테두리를 두드리는 경우(기기는 오른쪽으로 움직임), 다음 곡의 재생 명령(1번 곡에서 2번 곡으로 이동)이 수행된다(도 3a 참조). 우측 테두리를 두드리는 경우(기기는 왼쪽으로 움직임), 왼쪽 움직임 방향에 대응하여 저장된 이전 곡의 재생 명령에 따라 2번 곡에서 1번 곡으로 재생하는 곡이 이동된다. 3A and 3B, when the left edge is tapped (the device moves to the right), the playback command for the next song (moving from song 1 to song 2) is performed (see Fig. 3A). When the right edge is tapped (the device moves to the left), the song played from song 2 to song 1 is moved according to the playback command of the previous song stored corresponding to the left movement direction.

본 발명자는 모바일 기기의 움직임은 테두리 터치 이외에 다른 요인에 의해서도 발생할 수 있으며, 이 경우, 다른 요인에 의하여 원하지 않는 모바일 기기 조작이 발생할 수 있다는 점에 주목하였다. 이러한 문제를 해결하기 위하여, 본 발명의 또 다른 일 실시예에 따른 모바일 기기는 사용자의 테두리 터치 여부를 판단할 수 있는 기준으로, 음향 정보를 사용한다. The inventors noted that the movement of the mobile device may be caused by other factors in addition to the edge touch, in which case, unwanted mobile device manipulation may occur by other factors. In order to solve this problem, the mobile device according to another embodiment of the present invention uses sound information as a criterion for determining whether the user touches the edge.

도 4는 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 블록도이다. 4 is a block diagram of a mobile device interface device according to an embodiment of the present invention.

도 4를 참조하면, 상기 인터페이스 장치는 모바일 기기(100)로부터 발생하는 소리를 검출하는 제 2 센서(410)를 더 포함하며, 상기 제어부(120)는 상기 제 2 센서(410)에 의하여 검출된 소리가 상기 모바일 기기(100) 테두리로부터의 사용자 터치에 의한 소리로 판단되는 경우, 명령신호를 생성시키게 된다.Referring to FIG. 4, the interface device further includes a second sensor 410 that detects sound generated from the mobile device 100, and the controller 120 is detected by the second sensor 410. When it is determined that the sound is a sound by a user touch from the edge of the mobile device 100, a command signal is generated.

도 5 및 6은 본 발명의 일 실시예에 따른 모바일 기기 인터페이스 장치의 활용예를 나타내는 도면이다.5 and 6 are diagrams showing an example of the use of the mobile device interface device according to an embodiment of the present invention.

도 5를 참조하면, 사용자는 모바일 기기(210)의 좌측 테두리를 두드린다. 이 경우 좌측 테두리 터치를 통하여 모바일 기기가 움직일 뿐만 아니라, 테두리 터치에 따라 발생하는 특정한 소리, 즉, 특정 음색 또는 음량 또는 특정 음량 및 음색을 가지는 소리가 검출된다. 이 경우, 상기 모바일 기기에 포함된 인터페이스 장치의 제어부는 테두리 터치 패턴에 대응되는 명령 신호를 생성시킨다. 도 4에서는 웹 브라우징의 다음 창으로 이동 명령이 수행되는 예를 나타낸다.Referring to FIG. 5, a user taps the left edge of the mobile device 210. In this case, not only the mobile device moves through the left edge touch, but also a specific sound generated according to the edge touch, that is, a sound having a specific tone or volume or a specific volume and tone is detected. In this case, the controller of the interface device included in the mobile device generates a command signal corresponding to the edge touch pattern. 4 illustrates an example in which a move command to a next window of web browsing is performed.

하지만, 도 6은 사용자는 테두리를 터치하지 않고, 모바일 기기를 오른쪽으로 빨리 움직이는 경우를 나타낸다. 이 경우, 테두리 두드림과 비슷한 형태의 움직임 방향 및 패턴이 검출되나, 테두리 터치에 따른 소리는 검출되지 않는다. 이 경우, 모바일 기기에 포함된 인터페이스 장치의 제어부는 테두리 터치 패턴에 대응되는 명령 신호를 생성시키지 않게 되며, 현재 웹 브라우징 화면이 계속 유지된다.However, FIG. 6 illustrates a case in which the user quickly moves the mobile device to the right without touching the edge. In this case, a movement direction and a pattern similar to that of tapping the edge are detected, but a sound according to the edge touch is not detected. In this case, the controller of the interface device included in the mobile device does not generate a command signal corresponding to the edge touch pattern, and the current web browsing screen is maintained.

상기 또 다른 과제를 해결하기 위하여, 본 발명은 상술한 모바일 기기 인터페이스 장치를 포함하는 모바일 기기를 제공한다. 여기에서, 모바일 기기라 함은 통상적인 사용자 단말 이외에, MP3, PMP, 노트북 등과 같이 사용자가 휴대가능하며, 테두리 터치를 통한 움직임이 검출될 수 있는 임의의 모든 전자기기를 지칭한다. In order to solve the above another problem, the present invention provides a mobile device comprising the above-described mobile device interface device. Herein, a mobile device refers to any electronic device that is portable to a user, such as an MP3, a PMP, a laptop, etc., in addition to a typical user terminal, and in which movement through an edge touch can be detected.

본 발명은 상기 또 다른 과제를 해결하기 위하여, 다각의 테두리를 갖는 모바일 기기의 인터페이스 방법을 제공한다.The present invention provides an interface method of a mobile device having a polygonal edge in order to solve the above another problem.

도 7은 본 발명의 일 실시예에 따른 모바일 기기의 인터페이스 방법의 단계도이다.7 is a flowchart illustrating an interface method of a mobile device according to an embodiment of the present invention.

도 7을 참조하면, 상기 방법은 모바일 기기의 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 검출(제 1 검출)한다(S100). 모바일 기기의 상기 움직임 방향 검출은 모바일 기기에 구비된 가속도 센서 등에 의하여 수행될 수 있으며, 상기 움직임 방향은 테두리의 비연속적인 각도 특성상 구별 가능하다. 이후, 상기 움직임 방향에 대응되는 명령신호가 결정된다(S110). 예를 들면, 좌측 테두리 터치에 따른 모바일 기기의 오른쪽 움직임에 따라 볼륨 증가가, 우측 테두리 터치에 따른 모바일 기기의 왼쪽 움직임에 따라 볼륨 감소가 수행될 수 있다. 더 나아가, 터치 횟수(예를 들면 두드리는 횟수)나 그 강도에 따라 수행되는 명령의 증감량이 조절, 제어될 수도 있으며, 이 또한 본 발명의 범위에 속한다. 이후, 상기 결정된 명령 신호에 따라 상기 모바일 기기가 조작된다(S120).Referring to FIG. 7, the method detects (first detection) a direction of movement of the mobile device according to a user touch on one of the edges of the mobile device (S100). The movement direction detection of the mobile device may be performed by an acceleration sensor or the like provided in the mobile device, and the movement direction may be distinguished due to the discontinuous angle characteristic of the edge. Thereafter, a command signal corresponding to the movement direction is determined (S110). For example, the volume increase may be performed according to the right movement of the mobile device according to the left edge touch, and the volume decrease may be performed according to the left movement of the mobile device according to the right edge touch. Furthermore, the amount of increase or decrease of the command performed according to the number of touches (for example, the number of taps) or the intensity thereof may be adjusted and controlled, which is also within the scope of the present invention. Thereafter, the mobile device is operated according to the determined command signal (S120).

본 발명은 더 나아가 모바일 기기의 움직임은 테두리 터치 이외의 다른 요인에 의하여 발생할 수 있는 점에 착안하여, 테두리 터치에 따른 소리 검출 방식을 더 포함하는 모바일 기기 인터페이스 방법을 제공한다. The present invention further provides a mobile device interface method further comprising a sound detection method according to the edge touch, focusing on the movement of the mobile device may be caused by other factors than the edge touch.

도 8은 본 발명의 또 다른 일 실시예에 따른 모바일 기기 인터페이스 방법의 단계도이다.8 is a step diagram of a mobile device interface method according to another embodiment of the present invention.

도 8을 참조하면, 상기 방법은 상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계(S210); 상기 제 2 검출된 소리가 상기 모바일 기기 테두리의 사용자 터치로부터 발생하였는지를 판단하는 단계(S220)를 포함한다. 만약, 상기 제 2 검출된 소리가 모바일 기기 테두리의 사용자 터치에 따라 발생한 것으로 판단된 경우, 상기 움직임 방향에 할당된 명령이 수행된다(S230). 하지만, 그렇지 않은 경우, 비록 동일한 움직임 방향이 제 1 검출되었다고 하여도, 상기 움직임 방향에 할당된 명령은 수행되지 않는다. 만약, 어떠한 소리가 제 2 검출되지 않은 경우에도, 제 1 검출된 움직임 방향에 설정된 명령신호는 생성되지 않음은 자명하다. 여기에서 상기 소리 정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보를 포함할 수 있으며, 검출된 소리 정보와 미리 저장된 테두리에 대한 사용자 터치로부터 발생하는 소리 정보'를 비교한 후 그 일치 여부를 판단할 수 있다. 예를 들면, 소정 크기 이상의 음량 변화를 소리 정보로 채용하는 경우, 사용자가 테두리를 두드리는 경우 소정 수준 이상의 음량 증가-감소가 검출된다. 이때 연속하는 음량 증가-감소는 외부 소음과 달리 매우 짧은 시간에서 음량 변화가 발생하므로, 시간-음량의 상관관계로부터 테두리 터치여부를 매칭시킬 수 있다. Referring to FIG. 8, the method may further include detecting a sound generated from the mobile device (S210); And determining whether the second detected sound is generated from a user touch on the edge of the mobile device (S220). If it is determined that the second detected sound is generated according to a user touch on the edge of the mobile device, a command assigned to the movement direction is performed (S230). Otherwise, even if the same movement direction is detected first, the command assigned to the movement direction is not performed. If no sound is detected in the second, it is obvious that the command signal set in the first detected movement direction is not generated. Here, the sound information may include volume change or frequency information according to time of the detected sound, and compares the detected sound information with sound information generated from a user's touch on a pre-stored edge and compares the sound information. You can judge. For example, in the case where the volume change of the predetermined size or more is employed as the sound information, the volume increase-decrease of the predetermined level or more is detected when the user taps the edge. At this time, since the volume change occurs in a very short time, unlike the continuous noise increase-decrease, it is possible to match whether the edge touch from the time-volume correlation.

이와 다른 구성으로, 사용자가 테두리를 터치하는 경우 발생하는 고유의 주파수 정보와 실제 검출된 소리의 주파수 정보를 비교하는 방식으로도 테두리 터치에 따른 소리 정보를 검출할 수 있다. 하지만 상술한 방식들은 모두 본 발명의 예시로서, 테두리 터치로부터 발생하는 소리와 다른 요인에 의하여 발생하는 소리를 비교, 구분할 수 있는 한, 임의의 모든 방식이 본 발명의 범위에서 사용될 수 있다.In another configuration, the sound information according to the edge touch may be detected by comparing the original frequency information generated when the user touches the edge with the frequency information of the actually detected sound. However, all of the above-described schemes are examples of the present invention, and any scheme can be used within the scope of the present invention as long as it can compare and distinguish sounds generated by the edge touch and sounds generated by other factors.

본 발명에서 상기 터치는 모바일 기기 테두리를 사용자가 두드리는 제스쳐일 수 있다. In the present invention, the touch may be a gesture of a user tapping the edge of the mobile device.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art to which the present invention pertains. Modifications are possible. Accordingly, the spirit of the invention should be understood only by the claims set forth below, and all equivalent or equivalent modifications will fall within the scope of the invention.

또한, 본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the apparatus according to the present invention can be embodied as computer readable codes on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, hard disk, flash drive, and the like, which are also implemented in the form of a carrier wave (for example, transmission over the Internet). It also includes. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Claims (18)

모바일 기기 인터페이스 장치로서, 상기 장치는
다각의 테두리를 갖는 모바일 기기;
상기 모바일 기기에 구비되며, 상기 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 검출하는 제 1 센서; 및
상기 제 1 센서에 의하여 검출된 모바일 기기의 움직임 방향에 대응되는 명령 신호를 생성시키는 제어부를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
A mobile device interface device, wherein the device is
A mobile device having a polygonal border;
A first sensor provided in the mobile device, the first sensor detecting a direction of movement of the mobile device in response to a user touch on one of the edges; And
And a controller configured to generate a command signal corresponding to the movement direction of the mobile device detected by the first sensor.
제 1항에 있어서,
상기 모바일 기기 인터페이스 장치는 상기 모바일 기기의 움직임 방향에 대응하는 명령 신호가 저장된 메모리부를 더 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
The mobile device interface device further comprises a memory unit storing a command signal corresponding to the movement direction of the mobile device.
제 1항에 있어서,
상기 모바일 기기는 사각 테두리를 가지며, 상기 제어부는 상기 모바일 기기의 상, 하, 좌, 우 테두리의 사용자 터치로부터 발생하는 모바일 기기 움직임 방향에 대응되는 명령 신호를 생성시키는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
The mobile device has a rectangular border, and the control unit generates a command signal corresponding to the mobile device movement direction generated from the user touch of the upper, lower, left, right border of the mobile device. .
제 3항에 있어서,
상, 하, 좌, 우 테두리의 터치로부터 발생하는 명령 신호는 각각 상이한 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 3, wherein
Mobile device interface device, characterized in that the command signal generated from the touch of the upper, lower, left, right edges are different.
제 1항에 있어서,
상기 모바일 기기는 상기 모바일 기기로부터 발생하는 소리를 검출하는 제 2 센서를 더 포함하며, 상기 제어부는 상기 제 2 센서에 의하여 검출된 소리의 소리정보가 상기 모바일 기기 테두리에 대한 사용자 터치로부터 발생하는 소리 정보로 판단되는 경우, 명령신호를 생성시키는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
The mobile device further includes a second sensor for detecting a sound generated from the mobile device, wherein the controller is a sound that the sound information of the sound detected by the second sensor from the user touch on the edge of the mobile device And if it is determined that the information, generates a command signal.
제 5항에 있어서,
상기 소리정보는 검출된 소리의 시간에 따른 음량 변화 또는 주파수 정보 또는 둘 다를 동시에 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
6. The method of claim 5,
And the sound information includes a volume change over time of the detected sound, frequency information, or both.
제 1항에 있어서,
상기 제 1 센서는 가속도 센서인 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
And the first sensor is an acceleration sensor.
제 1항에 있어서,
상기 제 1 센서는 상기 다각 테두리 각각에 대한 사용자 터치로부터 발생하는 모바일 기기 움직임 방향을 구분할 수 있는 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
The first sensor may distinguish the mobile device movement direction generated from the user touch on each of the polygonal edges.
제 1항에 있어서,
상기 제 2 센서는 마이크로폰인 것을 특징으로 하는 모바일 기기 인터페이스 장치.
The method of claim 1,
And the second sensor is a microphone.
제 1항 내지 제 9항 중 어느 한 항에 따른 모바일 기기 인터페이스 장치를 구동시키기 위한 프로그램 명령어가 기록된 기록매체.
A recording medium having recorded thereon program instructions for driving a mobile device interface device according to any one of claims 1 to 9.
제 1항 내지 제 9항 중 어느 한 항에 따른 모바일 기기 인터페이스 장치를 포함하는 모바일 기기.
A mobile device comprising the mobile device interface device according to any one of claims 1 to 9.
다각의 테두리를 갖는 모바일 기기의 인터페이스 방법으로, 상기 방법은
상기 다각 테두리 중 어느 한 테두리에서의 사용자 터치에 따라 상기 모바일 기기가 움직이는 움직임 방향을 제 1 검출하는 단계;
상기 움직임 방향에 대응되는 명령신호를 결정하는 단계; 및
상기 결정된 명령 신호에 따라 상기 모바일 기기를 조작하는 단계를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
An interface method of a mobile device having a polygonal border, the method
Detecting a direction of movement of the mobile device in response to a user touch on one of the polygonal edges;
Determining a command signal corresponding to the movement direction; And
Operating the mobile device according to the determined command signal.
제 12항에 있어서,
상기 제 1 검출은 상기 모바일 기기에 구비된 가속도 센서에 의하여 수행되는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
The method of claim 12,
And wherein the first detection is performed by an acceleration sensor provided in the mobile device.
제 12항에 있어서,
상기 모바일 기기는 사각 테두리를 갖는 것을 특징으로 하는 모바일 기기 모바일 기기 인터페이스 방법.
The method of claim 12,
And the mobile device has a rectangular border.
제 12항에 있어서, 상기 방법은
상기 모바일 기기로부터 발생하는 소리를 제 2 검출하는 단계;
상기 제 2 검출된 소리가 상기 모바일 기기 테두리의 사용자 터치로부터 발생하였는지를 판단하는 단계;
상기 제 2 검출된 소리가 모바일 기기 테두리의 사용자 터치로부터 발생한 것으로 판단된 경우, 상기 결정된 명령신호에 따라 상기 모바일 기기를 조작하는 단계를 포함하는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
The method of claim 12, wherein the method
Detecting a sound generated from the mobile device;
Determining whether the second detected sound originates from a user touch on the edge of the mobile device;
And if it is determined that the second detected sound originates from a user touch on the edge of the mobile device, operating the mobile device according to the determined command signal.
제 15항에 있어서,
상기 제 2 검출된 소리가 모바일 기기 테두리의 사용자 터치로부터 발생한 것으로 판단되지 않는 경우, 상기 명령 신호에 따라 모바일 기기를 조작하는 단계가 수행되지 않는 것을 특징으로 하는 모바일 기기 인터페이스 방법.
16. The method of claim 15,
And when it is determined that the second detected sound is not generated from a user touch on the edge of the mobile device, operating the mobile device according to the command signal is not performed.
제 12항에 있어서,
상기 사용자 터치는 상기 모바일 기기 테두리를 두드리는 제스쳐인 것을 특징으로 하는 모바일 기기 인터페이스 방법.
The method of claim 12,
And the user touch is a gesture of tapping the edge of the mobile device.
제 12항 내지 제 17항 중 어느 한 항에 따른 모바일 기기 인터페이스 방법을 구현하기 위한 프로그램 명령어가 기록된 기록매체. A recording medium having recorded thereon program instructions for implementing the mobile device interface method according to any one of claims 12 to 17.
KR1020100052621A 2010-06-04 2010-06-04 Apparatus and method of interface for mobile device, and recording medium for the same KR101168889B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100052621A KR101168889B1 (en) 2010-06-04 2010-06-04 Apparatus and method of interface for mobile device, and recording medium for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100052621A KR101168889B1 (en) 2010-06-04 2010-06-04 Apparatus and method of interface for mobile device, and recording medium for the same

Publications (2)

Publication Number Publication Date
KR20110133086A true KR20110133086A (en) 2011-12-12
KR101168889B1 KR101168889B1 (en) 2012-08-03

Family

ID=45500844

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100052621A KR101168889B1 (en) 2010-06-04 2010-06-04 Apparatus and method of interface for mobile device, and recording medium for the same

Country Status (1)

Country Link
KR (1) KR101168889B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463450B1 (en) * 2013-04-10 2014-11-21 주식회사 팬택 Apparatus and method for recognizing user interface
KR20160003544A (en) * 2014-07-01 2016-01-11 네이버 주식회사 Method, system and recording medium for optimizing of mobile device using user gesture
KR20190024297A (en) * 2017-08-31 2019-03-08 전자부품연구원 Wearable device and input method for wearable device
WO2021137558A1 (en) * 2020-01-03 2021-07-08 삼성전자(주) Electronic device and control method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853302B2 (en) 2007-01-19 2012-01-11 日本電気株式会社 Command input device for portable terminal and command input method for portable terminal
GB0801396D0 (en) 2008-01-25 2008-03-05 Bisutti Giovanni Electronic apparatus

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101463450B1 (en) * 2013-04-10 2014-11-21 주식회사 팬택 Apparatus and method for recognizing user interface
KR20160003544A (en) * 2014-07-01 2016-01-11 네이버 주식회사 Method, system and recording medium for optimizing of mobile device using user gesture
KR20190024297A (en) * 2017-08-31 2019-03-08 전자부품연구원 Wearable device and input method for wearable device
WO2021137558A1 (en) * 2020-01-03 2021-07-08 삼성전자(주) Electronic device and control method thereof

Also Published As

Publication number Publication date
KR101168889B1 (en) 2012-08-03

Similar Documents

Publication Publication Date Title
KR102061360B1 (en) User interface indirect interaction
JP6309705B2 (en) Method and apparatus for providing user interface of portable terminal
US8250471B2 (en) Electronic devices and method for controlling the user interface thereof
US8446383B2 (en) Information processing apparatus, operation prediction method, and operation prediction program
KR101971067B1 (en) Method and apparatus for providing of user interface in portable device
US20130117703A1 (en) System and method for executing an e-book reading application in an electronic device
US8970525B1 (en) Method and system for trackpad input error mitigation
US8970475B2 (en) Motion sensitive input control
KR101257303B1 (en) Method and apparatus of recognizing gesture with untouched way
KR20110054415A (en) Method and apparatus for displaying screen
KR20100012321A (en) Mobile terminal having touch screen and method for displaying cursor thereof
KR101855141B1 (en) Method and apparatus for setting option in a user device
KR20090066368A (en) Portable terminal having touch screen and method for performing function thereof
US20110279393A1 (en) Method and apparatus for controlling a display unit of a portable terminal
US9658714B2 (en) Electronic device, non-transitory storage medium, and control method for electronic device
KR101210538B1 (en) Apparatus and method of interface for mobile device, and recording medium for the same
KR20170057823A (en) Method and electronic apparatus for touch input via edge screen
US10019148B2 (en) Method and apparatus for controlling virtual screen
KR102134882B1 (en) Method for controlling contents play and an electronic device thereof
US9588584B2 (en) System and method for processing touch input
KR101168889B1 (en) Apparatus and method of interface for mobile device, and recording medium for the same
KR101231513B1 (en) Contents control method and device using touch, recording medium for the same and user terminal having it
JP2013125382A (en) Display controller and display unit using the same
KR101251730B1 (en) Computer control method and device using keyboard, and recording medium of program language for the same
KR20140029096A (en) Method and terminal for displaying a plurality of pages

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150629

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee