KR20110036276A - Terminal device and operating method of the same - Google Patents
Terminal device and operating method of the same Download PDFInfo
- Publication number
- KR20110036276A KR20110036276A KR1020090093850A KR20090093850A KR20110036276A KR 20110036276 A KR20110036276 A KR 20110036276A KR 1020090093850 A KR1020090093850 A KR 1020090093850A KR 20090093850 A KR20090093850 A KR 20090093850A KR 20110036276 A KR20110036276 A KR 20110036276A
- Authority
- KR
- South Korea
- Prior art keywords
- motion
- information
- interface pattern
- sensor
- event
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
Abstract
Description
본 발명은 단말기 및 그 동작 방법에 관한 것으로서, 더욱 상세하게는 사용자가 단말기의 움직임 인터페이스 패턴을 직접 정의함으로써 사용자에게 인터페이스를 최적화할 수 있는 단말기 및 그 동작 방법에 관한 것이다. The present invention relates to a terminal and a method of operating the same, and more particularly, to a terminal and a method of operating the user can optimize the interface to the user by directly defining the movement interface pattern of the terminal.
최근 휴대용 디바이스의 보급이 확산되면서 입력수단으로 키패드, 터치패드, 각종 센서 등이 다양하게 활용되고 있다. 특히, 휴대용 디바이스에 가속도 센서, 지자기 센서, 자이로 센서, 고도계 센서 등의 센서 모듈이 장착되어 출시되고 있으며, 이에 따라 기존의 입력 인터페이스의 제약을 뛰어넘어 다양한 직관적인 인터페이스를 제공하려는 시도가 이루어지고 있다. Recently, with the spread of portable devices, keypads, touch pads, various sensors, and the like have been widely used as input means. In particular, sensor modules such as acceleration sensors, geomagnetic sensors, gyro sensors, altimeter sensors, etc. are being installed on portable devices, and thus, attempts to provide various intuitive interfaces beyond the limitations of existing input interfaces have been made. .
한편, 사용자의 신체적인 특성, 습관, 취향 등은 개인적 배경에 따라 각각 다르므로, 사용자가 조작하는 단말기의 움직임 방향, 세기 및 기울기 등을 일괄적으로 설정하여 적용하는 것은 문제가 있다. 또한, 사용자마다 휴대용 디바이스를 조작하고자 하는 인터페이스의 직관적인 패턴 개념도 동일하지 않다. 따라서, 각 사용자 별로 입력 인터페이스 패턴을 직접 설정하여 인터페이스를 사용자 개인에 최적화할 수 있는 방안이 필요하다. On the other hand, since the physical characteristics, habits, tastes, etc. of the user are different depending on the personal background, there is a problem in setting and applying the movement direction, intensity, and tilt of the terminal operated by the user collectively. In addition, the intuitive pattern concept of the interface for each user to operate the portable device is not the same. Therefore, there is a need for a method of optimizing an interface to a user by directly setting an input interface pattern for each user.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 사용자가 직접 움직임 인터페이스를 설정하여 사용자 개인에 최적화할 수 있는 단말기 및 그 동작 방법을 제공하는데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object thereof is to provide a terminal and a method of operating the same, which can be optimized by a user by directly setting a motion interface.
이와 같은 목적을 달성하기 위한 본 발명에서 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설정받는 단계는 상기 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설정받는 단계는, 입력하고자 하는 움직임 인터페이스 패턴을 사용자로부터 선택받는 단계, 단말기의 움직임 정보를 수신하는 단계, 수신된 움직임 정보를 크기, 방향 및 기울임 정보로 변환하는 단계, 움직임 정보의 수신완료 여부를 확인하는 단계, 움직임 정보의 수신이 완료되었으면 수신된 움직임 정보에 따라 변환된 크기, 방향 및 기울임 정보를 움직임 인터페이스 패턴으로 설정하는 단계를 포함한다. In the present invention for achieving the above object, the step of setting the user's own motion interface pattern from the user, the step of setting the user's unique motion interface pattern from the user, the step of receiving a motion interface pattern to be input from the user Receiving the motion information of the terminal, converting the received motion information into size, direction and tilt information, checking whether the motion information has been received, and if the reception of the motion information is completed, according to the received motion information Setting the converted magnitude, direction, and tilt information into a motion interface pattern.
단말기의 움직임을 감지하는 단계는 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함하는 센서를 이용하여 단말기의 움직임을 감지하는 것일 수 있다. The detecting of the movement of the terminal may include detecting the movement of the terminal using a sensor including a speed sensor, a geomagnetic sensor, a gyro sensor, or an altimeter sensor.
움직임이 있으면, 움직임 정보와 상기 움직임 인터페이스 패턴 정보를 비교하여 매칭하는 단계는 상기 움직임 인터페이스 패턴 정보를 수신하는 단계, 어플리 케이션에 상기 움직임 인터페이스 패턴 정보를 처리하는 처리 로직이 있는지 여부를 확인하는 단계, 상기 움직임 인터페이스 패턴 정보를 처리하는 처리 로직이 존재하면, 상기 처리 로직에 따라 상기 움직임 인터페이스 패턴 정보에 대한 연산을 수행하는 단계를 포함한다. If there is a motion, comparing and matching the motion information and the motion interface pattern information may include receiving the motion interface pattern information, checking whether an application has processing logic for processing the motion interface pattern information, If there is processing logic for processing the motion interface pattern information, performing the operation on the motion interface pattern information according to the processing logic.
매칭된 움직임 인터페이스 패턴 정보에 대응하는 이벤트를 생성하는 단계 및 생성된 이벤트를 출력하는 단계에서 상기 이벤트는 동영상, 이미지, 텍스트, 음향, 진동, 발광 이벤트를 포함하는 것일 수 있다. The generating of the event corresponding to the matched motion interface pattern information and the outputting of the generated event may include a video, an image, a text, a sound, a vibration, and a light emitting event.
본 발명의 일 실시예에 따른 단말기는 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설정받고, 단말기의 움직임을 감지하며, 감지된 움직임 정보와 상기 움직임 인터페이스 패턴 정보를 비교하여 상기 움직임 정보에 대응하는 움직임 인터페이스 정보를 매칭하는 센서 인터페이스 모듈 및 상기 센서 인터페이스 모듈에서 매칭된 움직임 인터페이스 패턴 정보를 수신하여 대응하는 이벤트를 생성하고, 생성된 이벤트를 출력하는 어플리케이션 모듈을 포함한다. According to an embodiment of the present invention, a terminal receives a user's own motion interface pattern from a user, detects movement of the terminal, compares the detected motion information with the motion interface pattern information, and corresponds to the motion information. And a sensor interface module that matches the information, an application module that receives the matched motion interface pattern information from the sensor interface module, generates a corresponding event, and outputs the generated event.
상기 센서 인터페이스 모듈은, 단말기의 움직임을 감지하기 위한 입력센서부, 사용자로부터 설정받은 움직임 인터페이스 패턴 정보가 저장되어 있는 패턴설정 정보부 및 상기 입력센서부로부터 입력받은 움직임 정보와 상기 패턴 설정 정보부로부터의 움직임 인터페이스 패턴 정보를 비교하여 매칭하는 연산부를 포함할 수 있다. The sensor interface module may include an input sensor unit for detecting a movement of a terminal, a pattern setting information unit storing movement interface pattern information set by a user, and movement information received from the input sensor unit and movements from the pattern setting information unit. It may include a calculation unit for comparing and matching the interface pattern information.
상기 어플리케이션 모듈은, 상기 센서 인터페이스 모듈로부터 매칭된 움직임 인터페이스 패턴 정보를 수신하여 대응하는 이벤트를 생성하는 제어부 및 상기 제어부에서 생성된 이벤트를 출력하는 출력부를 포함할 수 있다. The application module may include a controller configured to receive matched motion interface pattern information from the sensor interface module to generate a corresponding event, and an output unit to output an event generated by the controller.
상기 입력센서부는 단말기의 움직임을 감지하기 위한 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함할 수 있다. The input sensor unit may include a speed sensor, a geomagnetic sensor, a gyro sensor, or an altimeter sensor for detecting a movement of the terminal.
상기 이벤트는 동영상, 이미지, 텍스트, 음향, 진동, 발광 이벤트를 포함하는 것일 수 있다. The event may include a video, an image, a text, a sound, a vibration, and a light emitting event.
본 발명에 의하면 단말기에서 사용자 개인별로 특화된 움직임 인터페이스 패턴을 구현하는 것이 가능하다는 효과가 있다. 즉, 본 발명에서는 사용자 개인이 움직임 인터페이스 패턴을 직접 정의함으로써, 별도의 학습없이 단말기를 조작할 수 있게 된다. According to the present invention, it is possible to implement a movement interface pattern specialized for each user in a terminal. That is, in the present invention, by directly defining the movement interface pattern, the user can operate the terminal without additional learning.
또한, 본 발명에서는 움직임 인터페이스 패턴 설정시에 사용자 개인에 특화된 오차 임계치를 정의함으로써, 단말기 조작 성공률을 높일 수 있는 효과가 있다.In addition, the present invention has an effect of increasing the terminal operation success rate by defining an error threshold specific to the user at the time of setting the motion interface pattern.
본 발명에서는 이러한 움직임 인터페이스 패턴을 응용프로그램에서 자유롭게 활용할 수 있도록 SDK(Software Development Kit) 형태로 모듈화할 수 있고, 따라서 본 발명을 보다 범용적으로 적용할 수 있는 장점이 있다. In the present invention, such a movement interface pattern can be modularized in the form of a software development kit (SDK) so as to be freely used in an application program, and thus there is an advantage that the present invention can be applied more universally.
이하, 첨부된 도면을 참조해서 본 발명의 실시예를 상세히 설명하면 다음과 같다. 우선 각 도면의 구성 요소들에 참조 부호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used for the same reference numerals even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
도 1은 본 발명의 일 실시예에 따른 단말기의 내부구조를 보여주는 블록도이다. 본 발명에서 단말기는 센서 인터페이스 모듈(100), 어플리케이션 모듈(200)을 포함하여 이루어진다. 1 is a block diagram showing the internal structure of a terminal according to an embodiment of the present invention. In the present invention, the terminal includes a
도 1을 참조하면, 센서 인터페이스 모듈(100)은 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설정받고, 단말기의 움직임을 감지하며, 감지된 움직임 정보와 움직임 인터페이스 패턴 정보를 비교하여 움직임 정보에 대응하는 움직임 인터페이스 정보를 매칭한다. Referring to FIG. 1, the
어플리케이션 모듈(200)은 센서 인터페이스 모듈(100)에서 매칭된 움직임 인터페이스 패턴 정보를 수신하여 대응하는 이벤트를 생성하고, 생성된 이벤트를 출력한다. The
센서 인터페이스 모듈(100)은 입력센서부(110), 패턴설정 정보부(120), 연산부(130)를 포함하여 이루어진다. The
입력센서부(110)는 단말기의 움직임을 감지하는 역할을 한다. 본 발명의 일 실시예에서 입력센서부(110)는 단말기의 움직임을 감지하기 위한 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함할 수 있다. The
패턴설정 정보부(120)에는 사용자로부터 설정받은 움직임 인터페이스 패턴 정보가 저장되어 있다. The pattern
연산부(130)는 입력센서부(110)로부터 입력받은 움직임 정보와 패턴 설정 정보부(120)로부터의 움직임 인터페이스 패턴 정보를 비교하여 매칭하는 역할을 한다. The calculating
어플리케이션 모듈(200)은 제어부(140) 및 출력부(150)를 포함하여 이루어진다. The
제어부(140)는 센서 인터페이스 모듈(100)의 연산부(130)로부터 매칭된 움직임 인터페이스 패턴 정보를 수신하여 대응하는 이벤트를 생성하는 역할을 한다. 본 발명의 일 실시예에서 이벤트는 동영상, 이미지, 텍스트, 음향, 진동, 발광 이벤트를 포함할 수 있다.The
출력부(150)는 제어부(140)에서 생성된 이벤트를 출력하는 역할을 한다. 예를 들어, 출력부(150)는 제어부(140)에서 생성된 동영상, 이미지, 텍스트, 음향, 진동, 발광 이벤트를 출력할 수 있다. The
이제 이러한 구성을 갖는 단말기에서의 동작 방법을 도면을 참조하여 상세히 설명하면 다음과 같다. Now, a method of operation in a terminal having such a configuration will be described in detail with reference to the accompanying drawings.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 단말기에서의 동작 방법을 설명하기 위한 흐름도이다. 2 to 4 are flowcharts illustrating a method of operation in a terminal according to an embodiment of the present invention.
도 2를 참조하면, 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설 정받는다(S201). Referring to FIG. 2, a user's own motion interface pattern is set by the user (S201).
그리고, 단말기의 움직임을 감지한다(S203). 본 발명에서 S203 단계는 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함하는 센서를 이용하여 단말기의 움직임을 감지할 수 있다. Then, the movement of the terminal is sensed (S203). In the present invention, step S203 may detect the movement of the terminal using a sensor including a speed sensor, a geomagnetic sensor, a gyro sensor, or an altimeter sensor.
움직임이 있으면, 움직임 정보와 움직임 인터페이스 패턴 정보를 비교하여 매칭한다(S205). If there is motion, the motion information and the motion interface pattern information are compared and matched (S205).
매칭된 움직임 인터페이스 패턴 정보에 대응하는 이벤트를 생성한다(S207). 본 발명의 일 실시예에서 이벤트는 동영상, 이미지, 텍스트, 음향, 진동, 발광 이벤트를 포함하는 것일 수 있다. An event corresponding to the matched motion interface pattern information is generated (S207). In one embodiment of the present invention, the event may include a video, an image, a text, a sound, a vibration, and a light emitting event.
생성된 이벤트를 출력한다(S209). The generated event is output (S209).
본 발명에서 S201 단계에서 사용자 고유의 움직임 인터페이스 패턴을 사용자로부터 설정받는 방법을 도면을 참조하여 상세히 설명하면 다음과 같다. In the present invention, a method of receiving a user's own movement interface pattern in step S201 will be described in detail with reference to the accompanying drawings.
도 3을 참조하면, 입력하고자 하는 움직임 인터페이스 패턴을 사용자로부터 선택받는다(S301). 예를 들어, 입력하고자 하는 움직임 인터페이스 패턴은 왼쪽 이동, 오른쪽 이동, 위쪽 이동, 아래쪽 이동, 줌 인, 줌 아웃, 선택, 취소 등이 될 수 있다. Referring to FIG. 3, a motion interface pattern to be input is selected by a user (S301). For example, the movement interface pattern to be input may be left move, right move, up move, down move, zoom in, zoom out, select, cancel, and the like.
다음, 단말기의 움직임 정보를 수신한다(S303). 본 발명의 일 실시예에서 단말기의 움직임 정보는 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함하는 센서를 이용하여 감지할 수 있다. Next, the motion information of the terminal is received (S303). In an embodiment of the present invention, the motion information of the terminal may be detected using a sensor including a speed sensor, a geomagnetic sensor, a gyro sensor, or an altimeter sensor.
수신된 움직임 정보를 크기, 방향 및 기울임 정보로 변환한다(S305). The received motion information is converted into size, direction, and tilt information (S305).
움직임 정보의 수신완료 여부를 확인한다(S307). It is checked whether the reception of the motion information is completed (S307).
움직임 정보의 수신이 완료되었으면 수신된 움직임 정보에 따라 변환된 크기, 방향 및 기울임 정보를 움직임 인터페이스 패턴으로 생성한다(S309). When the reception of the motion information is completed, the size, direction, and tilt information converted according to the received motion information are generated as a motion interface pattern (S309).
이후, 단말기의 움직임 정보를 재수신한다(S311). 본 발명의 일 실시예에서 단말기의 움직임 정보는 속도 센서, 지자기 센서, 자이로 센서 또는 고도계 센서를 포함하는 센서를 이용하여 감지할 수 있다. Thereafter, the terminal receives the motion information of the terminal again (S311). In an embodiment of the present invention, the motion information of the terminal may be detected using a sensor including a speed sensor, a geomagnetic sensor, a gyro sensor, or an altimeter sensor.
재수신된 움직임 값을 반영하여 패턴의 임계치 범위를 조정한다(S313). 여기서 임계치는 사용자가 임의로 설정가능하도록 구현되는 것이 바람직하다. The threshold range of the pattern is adjusted by reflecting the re-received motion value (S313). Here, the threshold is preferably implemented so that the user can set arbitrarily.
그리고, 움직임 인터페이스 패턴 정보를 저장한다(S315). Then, the movement interface pattern information is stored (S315).
도 2에서 S207 단계의 이벤트를 생성하는 단계를 도면을 참조하여 상세히 설명하면 다음과 같다. Referring to the drawings for generating an event of the step S207 in Figure 2 will be described in detail as follows.
도 4를 참조하면, 움직임 인터페이스 패턴 정보를 수신한다(S401). Referring to FIG. 4, motion interface pattern information is received (S401).
어플리케이션에 움직임 인터페이스 패턴 정보를 처리하는 처리 로직이 있는지 여부를 확인한다(S403). It is checked whether the application has processing logic for processing motion interface pattern information (S403).
움직임 인터페이스 패턴 정보를 처리하는 처리 로직이 존재하면, 처리 로직에 따라 움직임 인터페이스 패턴 정보에 대한 연산을 수행한다(S405). If there is processing logic for processing the motion interface pattern information, the operation is performed on the motion interface pattern information according to the processing logic (S405).
그리고, 연산 결과에 따라 이벤트를 생성한다(S407). Then, an event is generated according to the operation result (S407).
생성된 이벤트를 출력부(150)로 전송한다(S409).The generated event is transmitted to the output unit 150 (S409).
S403 단계에서 어플리케이션에 움직임 인터페이스 패턴 정보를 처리하는 처리 로직이 존재하지 않으면, 이벤트 생성 단계를 종료한다. If there is no processing logic for processing the motion interface pattern information in the application in step S403, the event generation step ends.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.While the invention has been described using some preferred embodiments, these embodiments are illustrative and not restrictive. Those skilled in the art will appreciate that various changes and modifications can be made without departing from the spirit of the invention and the scope of the rights set forth in the appended claims.
도 1은 본 발명의 일 실시예에 따른 단말기의 내부구조를 보여주는 블록도이다. 1 is a block diagram showing the internal structure of a terminal according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 단말기에서의 동작 방법을 보여주는 흐름도이다. 2 is a flowchart illustrating a method of operating in a terminal according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 단말기에서의 인터페이스 설정 방법을 보여주는 흐름도이다.3 is a flowchart illustrating a method of setting an interface in a terminal according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 단말기에서의 동작 방법을 설명하기 위한 흐름도이다. 4 is a flowchart illustrating a method of operating in a terminal according to an embodiment of the present invention.
*도면의 주요 부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *
100 센서 인터페이스 모듈 200 어플리케이션 모듈100
110 입력센서부 120 패턴설정 정보부110
130 연산부 140 제어부130
150 출력부150 outputs
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090093850A KR20110036276A (en) | 2009-10-01 | 2009-10-01 | Terminal device and operating method of the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090093850A KR20110036276A (en) | 2009-10-01 | 2009-10-01 | Terminal device and operating method of the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110036276A true KR20110036276A (en) | 2011-04-07 |
Family
ID=44044258
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090093850A KR20110036276A (en) | 2009-10-01 | 2009-10-01 | Terminal device and operating method of the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110036276A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101380967B1 (en) * | 2011-09-09 | 2014-04-10 | 주식회사 팬택 | Apparatus for setting user-defined pattern for executing application and method thereof |
-
2009
- 2009-10-01 KR KR1020090093850A patent/KR20110036276A/en not_active Application Discontinuation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101380967B1 (en) * | 2011-09-09 | 2014-04-10 | 주식회사 팬택 | Apparatus for setting user-defined pattern for executing application and method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10599393B2 (en) | Multimodal input system | |
US8704767B2 (en) | Environmental gesture recognition | |
KR100700143B1 (en) | Device and method for displaying key selection in touch keypad | |
US9389779B2 (en) | Depth-based user interface gesture control | |
US9626029B2 (en) | Electronic device and method of controlling electronic device using grip sensing | |
KR100663437B1 (en) | Remote inputting method using finger print sensor | |
CN102549532B (en) | Electronic apparatus using touch panel and setting value modification method of same | |
US10248217B2 (en) | Motion detection system | |
KR20180067587A (en) | An operation method and apparatus using fingerprint identification, and a mobile terminal | |
RU2006138226A (en) | METHOD AND DEVICE FOR CONTROL CONTENT CONTROL | |
CN103097979A (en) | Automated controls for sensor enabled user interface | |
CN104123072B (en) | It is a kind of for providing the method and apparatus of the dummy keyboard in mobile device | |
JP5553546B2 (en) | Image projection apparatus and control method thereof | |
CN102820022B (en) | Display device and operation method thereof | |
CN110737355A (en) | Double click event detection device, system and method | |
KR20140058006A (en) | Electronic pen input sysme and input method using the same | |
KR101533603B1 (en) | Device and method for object recognition | |
KR20090076124A (en) | Method for controlling the digital appliance and apparatus using the same | |
KR20110036276A (en) | Terminal device and operating method of the same | |
KR20150046997A (en) | Apparatus and Method for Recognize of Touch of User Terminal | |
JP2014107153A (en) | Electronic apparatus and method for controlling electronic apparatus | |
KR101013219B1 (en) | Method and system for input controlling by using touch type | |
KR101177650B1 (en) | Method for controlling touch screen in portable device, and portable device of the same | |
KR101609263B1 (en) | Apparatus for recognizing gesture using infrared ray and method thereof | |
KR20190068543A (en) | Information processing apparatus, method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |