KR20130098754A - Input interface apparatus and method - Google Patents

Input interface apparatus and method Download PDF

Info

Publication number
KR20130098754A
KR20130098754A KR1020120020532A KR20120020532A KR20130098754A KR 20130098754 A KR20130098754 A KR 20130098754A KR 1020120020532 A KR1020120020532 A KR 1020120020532A KR 20120020532 A KR20120020532 A KR 20120020532A KR 20130098754 A KR20130098754 A KR 20130098754A
Authority
KR
South Korea
Prior art keywords
input
mode
user
information
preset
Prior art date
Application number
KR1020120020532A
Other languages
Korean (ko)
Other versions
KR101863555B1 (en
Inventor
손태식
정대기
김성민
강성철
류용관
이성호
유형욱
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020120020532A priority Critical patent/KR101863555B1/en
Publication of KR20130098754A publication Critical patent/KR20130098754A/en
Application granted granted Critical
Publication of KR101863555B1 publication Critical patent/KR101863555B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks

Abstract

PURPOSE: A device and method for an input interface are provided to replace an input with a mouse and a keyboard with an input a portable device, thereby improving convenience in an input mode. CONSTITUTION: A device for an input interface includes an input mode determining part. The input mode determining part includes an input identifying part (210), a corresponding mode determining part (230), and an input parameter determining part (250). The input identifying part identifies whether or not an input from a user is an input corresponding to a predetermined input mode. When the input from the user is the input corresponding to the predetermined input mode, the corresponding mode determining part determines the input mode corresponding to the input from the user. The input parameter determining part determines an input parameter for collecting information for the input from the user based on the input mode. The corresponding mode determining part determines the input mode to correspond to one of a gesture mode, a motion recognizing mode, a mouse mode, or a keyboard mode based on the input from the user. [Reference numerals] (100) Data storage unit; (130) Data correction unit; (210) Input identifying part; (230) Corresponding mode determining part; (250) Input parameter determining part; (300) Identification determining unit

Description

입력 인터페이스 장치 및 방법{INPUT INTERFACE APPARATUS AND METHOD}Input interface device and method {INPUT INTERFACE APPARATUS AND METHOD}

본 발명은 입력 인터페이스 장치 및 방법에 관한 것으로, 보다 상세하게는 설정된 입력 모드에 기초하여 사용자의 입력을 인식하는 입력 인터페이스 장치 및 방법에 관한 것이다.The present invention relates to an input interface device and method, and more particularly, to an input interface device and method for recognizing a user's input based on a set input mode.

인터넷 등의 무선 통신망의 발달 및 인터넷을 이용할 수 있는 기술의 발달로 인하여 PC와 같은 고정된 사용 환경을 필요로 하는 장치보다, 스마트 폰(smart phone), 태블릿(tablet) PC와 같이 휴대성, 간편성이 부각되는 기기의 사용이 증가되는 추세이다. 이러한 기술 발달에 따라 소프트웨어 또는 하드웨어적인 측면에서 IT 산업의 기술 발전에 따른 새로운 패러다임을 제시하려는 움직임이 일어나고 있다. 소프트웨어적인 측면을 살펴보면, Windows 중심의 운영체제는 Android, iOS, 바다 등 다양한 기기에 맞는 운영체제로 다양화되어 가고 있고, 각 운영체제에 따라 그 특성에 맞는 콘텐트들이 속속 개발되고 있는 것이 현재의 상황이며, 하드웨어적인 측면에서는 데이터 송수신 향상을 위한 처리 장비 및 시스템에 대한 향상이 이루어지고 있는 실정이다.Due to the development of wireless communication networks such as the Internet and the development of technologies that can use the Internet, portability and simplicity, such as smart phones and tablet PCs, are more important than devices requiring a fixed usage environment such as a PC. The use of these emerging devices is on the rise. As these technologies develop, there is a movement to propose a new paradigm according to the technological development of the IT industry in terms of software or hardware. Looking at the software aspect, Windows-based operating systems are diversifying into operating systems suitable for various devices such as Android, iOS, and the sea, and the contents of each operating system are being developed one after another. In terms of aspects, improvements to processing equipment and systems for improving data transmission and reception are being made.

이러한 추세에도 불구하고 아직도 PC의 사용환경이 개선되지 않고 남아있는 것 중에 하나가 바로 입력방식이다. 현재 휴대용 기기가 제공하는 입력장치와 사용자로부터 감지하는 센서는 터치, 모션, 근거리, 가속도 등 그 종류가 상당히 다양하다. 따라서, PC의 활용측면에서 휴대용 기기가 제공하는 터치, 모션 센서 등을 충분히 활용하여 입력 방식의 편의성을 상향시키기 위한 노력이 필요하다.In spite of this trend, one of the things that the PC environment has not improved is the input method. Currently, there are various types of input devices provided by portable devices and sensors sensed by a user such as touch, motion, near field, and acceleration. Therefore, in terms of utilization of the PC, efforts to enhance the convenience of the input method by fully utilizing the touch and motion sensor provided by the portable device are necessary.

스마트 폰(Smart Phone)나 태블릿(Tablet) PC 등 센서를 구비하는 휴대용 기기의 터치 센서, 자이로 센서, 또는 가속도 센서 등을 이용하여, 마우스, 키보드, 제스쳐(gesture) 인식 등의 다양한 입력 방식을 통합한 장치를 제공하여 입력 방식의 편의성을 높이는데 그 목적이 있다.Integrates various input methods such as mouse, keyboard, and gesture recognition by using touch sensor, gyro sensor, or acceleration sensor of a portable device having a sensor such as a smart phone or a tablet PC. The purpose is to increase the convenience of the input method by providing a device.

상술한 기술적 과제를 해결하기 위한 본 발명의 일 실시예는 입력된 명령을 인식하기 위하여 미리 설정된 인식 데이터가 저장된 데이터 저장부; 사용자의 입력에 기초하여 미리 설정된 복수의 입력 모드 중 상기 사용자의 입력에 대응되는 입력 모드를 설정하는 입력 모드 설정부; 및 상기 설정된 입력 모드에 기초하여 입력 정보를 수집하고, 상기 수집된 입력 정보를 상기 인식 데이터와 비교하여 입력된 명령을 인식하는 인식 판별부를 포함하는 입력 인터페이스 장치를 제공하는 것을 특징으로 한다.One embodiment of the present invention for solving the above technical problem is a data storage unit for storing the predetermined recognition data to recognize the input command; An input mode setting unit configured to set an input mode corresponding to the input of the user among a plurality of preset input modes based on the input of the user; And a recognition determiner configured to collect input information based on the set input mode, and recognize the input command by comparing the collected input information with the recognition data.

또한, 상기 입력 모드 설정부는 상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단하는 입력 확인부; 상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 상기 사용자의 입력에 대응하는 입력 모드로 설정하는 대응 모드 설정부; 및 상기 설정된 입력 모드에 기초하여 상기 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정하는 입력 파라미터 설정부를 포함하는 것을 특징으로 할 수 있다.The input mode setting unit may include an input confirmation unit that determines whether the input of the user corresponds to a preset input mode; A corresponding mode setting unit configured to set an input mode corresponding to the input of the user when the input of the user corresponds to a preset input mode; And an input parameter setting unit configured to set an input parameter for collecting the input information of the user based on the set input mode.

또한, 상기 대응 모드 설정부는 상기 사용자의 입력에 기초하여 제스쳐 모드, 모션 인식 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정하는 것을 특징으로 할 수 있다.The corresponding mode setting unit may set an input mode to correspond to one of a gesture mode, a motion recognition mode, a mouse mode, and a keyboard mode based on the user input.

바람직하게는, 설정된 입력 모드가 제스처 모드로 설정되는 경우, 상기 입력 파라미터 설정부는 미리 설정된 센서 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 할 수 있다.Preferably, when the set input mode is set to the gesture mode, the input parameter setting unit may set an input parameter for collecting preset sensor information.

바람직하게는, 설정된 입력 모드가 모션 인식 모드로 설정되는 경우, 자이로 센서, 가속도 센서 또는 근거리 센서 중 적어도 하나 이상의 센서 정보인것을 특징으로 할 수 있다.Preferably, when the set input mode is set as a motion recognition mode, the at least one sensor information of a gyro sensor, an acceleration sensor, or a near field sensor may be characterized.

바람직하게는, 설정된 입력 모드가 마우스 모드로 설정되는 경우, 상기 입력 파라미터 설정부는 마우스의 센서로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 할 수 있다.Preferably, when the set input mode is set to a mouse mode, the input parameter setting unit may set an input parameter for collecting information generated from a sensor of a mouse.

바람직하게는, 설정된 입력 모드가 키보드 모드로 설정되는 경우, 상기 입력 파라미터 설정부는 키보드 입력으로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 할 수 있다.Preferably, when the set input mode is set to the keyboard mode, the input parameter setting unit may set an input parameter for collecting information generated from the keyboard input.

또한, 데이터 저장부에 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 상기 데이터 저장부에 저장하는 데이터 수정부를 더 포함하는 것을 특징으로 할 수 있다.The apparatus may further include a data corrector configured to correct recognition data stored in the data storage unit or store new recognition data in the data storage unit.

상술한 기술적 과제를 해결하기 위한 본 발명의 다른 실시예는 사용자의 입력에 기초하여 미리 설정된 복수의 입력 모드 중 상기 사용자의 입력에 대응되는 입력 모드를 설정하는 입력 모드 설정 단계; 및 상기 설정된 입력 모드에 기초하여 입력 정보를 수집하고, 상기 수집된 입력 정보를 미리 저장된 인식 데이터와 비교하여 입력된 명령을 인식하는 인식 판별 단계를 포함하는 입력 인터페이스 방법을 제공하는 것을 특징으로 한다.Another embodiment of the present invention for solving the above technical problem is an input mode setting step of setting an input mode corresponding to the user's input among a plurality of preset input mode based on the user's input; And a recognition determining step of collecting input information based on the set input mode and recognizing the input command by comparing the collected input information with previously stored recognition data.

또한, 상기 입력 모드 설정 단계는 상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단하는 입력 확인 단계; 상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 상기 사용자의 입력에 대응하는 입력 모드로 설정하는 대응 모드 설정 단계; 및 상기 설정된 입력 모드에 기초하여 상기 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정하는 입력 파라미터 설정 단계를 포함하는 것을 특징으로 한다.The input mode setting step may further include: an input checking step of determining whether the input of the user corresponds to a preset input mode; A corresponding mode setting step of setting an input mode corresponding to the input of the user when the input of the user corresponds to a preset input mode; And an input parameter setting step of setting an input parameter for collecting the input information of the user based on the set input mode.

또한, 상기 대응 모드 설정 단계는 상기 사용자의 입력에 기초하여 제스쳐 모드, 모션 인식 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정하는 단계인 것을 특징으로 할 수 있다.The corresponding mode setting may include setting an input mode to correspond to one of a gesture mode, a motion recognition mode, a mouse mode, and a keyboard mode based on the user input.

또한, 미리 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 저장하기 위한 데이터 수정 단계를 더 포함하는 것을 특징으로 하는 할 수 있다.In addition, the method may further include a data modification step for modifying previously stored recognition data or storing new recognition data.

스마트 폰(Smart phone)나 태블릿 PC(Tablet PC)와 같은 휴대용 기기로 종래 마우스, 키보드의 입력을 대체함으로써 입력방식의 편이성을 향상시킨다.The convenience of the input method is improved by replacing the input of a conventional mouse and keyboard with a portable device such as a smart phone or a tablet PC.

도 1은 본 발명의 일 실시예에 따른 입력 인터페이스 장치를 도시한 블록도이다.
도 2 및 도 3 은 본 발명의 일 실시예에 따른 입력 인터페이스 방법을 도시한 순서도이다.
1 is a block diagram illustrating an input interface device according to an embodiment of the present invention.
2 and 3 are flowcharts illustrating an input interface method according to an embodiment of the present invention.

이하에서는 본 발명의 일부 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 아울러 본 발명을 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

이하의 실시예들은 본 발명의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합하지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시예를 구성할 수도 있다. 본 발명의 실시예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시예의 일부 구성이나 특징은 다른 실시예에 포함될 수 있고, 또는 다른 실시예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments are a combination of elements and features of the present invention in a predetermined form. Each component or characteristic may be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, some of the elements and / or features may be combined to form an embodiment of the present invention. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments.

본 발명의 실시예들은 다양한 수단을 통해 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하드웨어, 펌웨어(firmware), 소프트웨어 또는 그것들의 결합 등에 의해 구현될 수 있다. Embodiments of the present invention may be implemented by various means. For example, embodiments of the present invention may be implemented by hardware, firmware, software, or a combination thereof.

하드웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 하나 또는 그 이상의 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서, 콘트롤러, 마이크로 콘트롤러, 마이크로 프로세서 등에 의해 구현될 수 있다.For a hardware implementation, the method according to embodiments of the present invention may be implemented in one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs) , Field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, and the like.

펌웨어나 소프트웨어에 의한 구현의 경우, 본 발명의 실시예들에 따른 방법은 이상에서 설명된 기능 또는 동작들을 수행하는 모듈, 절차 또는 함수 등의 형태로 구현될 수 있다. 소프트웨어 코드는 메모리 유닛에 저장되어 프로세서에 의해 구동될 수 있다. 상기 메모리 유닛은 상기 프로세서 내부 또는 외부에 위치하여, 이미 공지된 다양한 수단에 의해 상기 프로세서와 데이터를 주고 받을 수 있다.In the case of an implementation by firmware or software, the method according to embodiments of the present invention may be implemented in the form of a module, a procedure or a function for performing the functions or operations described above. The software code can be stored in a memory unit and driven by the processor. The memory unit may be located inside or outside the processor, and may exchange data with the processor by various well-known means.

이하의 설명에서 사용되는 특정(特定) 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.
Specific terms used in the following description are provided to help the understanding of the present invention, and the use of the specific terms may be modified in other forms without departing from the technical spirit of the present invention.

도 1을 참조하여 본 발명의 일 실시예에 따른 입력 인터페이스 장치를 설명한다. 본 발명의 일 실시예에 따른 입력 인터페이스 장치는 데이터 저장부(100), 입력 모드 설정부(200) 및 인식 판별부(300)를 포함한다.An input interface device according to an embodiment of the present invention will be described with reference to FIG. 1. The input interface device according to an embodiment of the present invention includes a data storage unit 100, an input mode setting unit 200, and a recognition determination unit 300.

데이터 저장부(100)는 입력된 명령을 인식하기 위하여 미리 설정된 인식 데이터가 저장된다. 미리 설정된 인식 데이터란, 사용자로부터 특정 입력이 입력된 경우에 입력 인터페이스 장치의 모드 설정을 변경한다거나, 특정 입력에 대하여 설정 모드마다 사용자의 명령을 달리 해석하도록 미리 설정된 데이터를 의미한다. 예를 들어, 휴대용 기기가 터치용 센서를 이용하여 3개의 지점에 대한 사용자의 입력을 인식하는 경우에는 마우스(Mouse) 인식 모드로 설정되도록 인식 데이터가 저장될 수 있다.The data storage unit 100 stores preset recognition data in order to recognize an input command. The preset recognition data refers to data preset to change the mode setting of the input interface device when a specific input is input from the user or to interpret the user's command differently for each setting mode with respect to the specific input. For example, when the portable device recognizes a user's input to three points using a touch sensor, the recognition data may be stored to be set to a mouse recognition mode.

입력 모드 설정부(200)는 사용자의 입력에 기초하여 미리 설정된 복수의 입력 모드 중 사용자의 입력에 대응되는 입력 모드를 설정한다. 본 발명의 일 실시예에 따르면, 입력 모드 설정부(200)는 입력 확인부(210), 대응 모드 설정부(230), 및 입력 파라미터 설정부(250)를 포함한다.The input mode setting unit 200 sets an input mode corresponding to the user's input among a plurality of preset input modes based on the user's input. According to an embodiment of the present invention, the input mode setting unit 200 includes an input checking unit 210, a corresponding mode setting unit 230, and an input parameter setting unit 250.

입력 확인부(210)는 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단한다. 예를 들어, 터치용 센서를 이용하여 3개의 지점에 대한 사용자의 입력을 인식한 경우에는 미리 설정된 인식 데이터와 매칭되는지 여부를 판단한다.The input checking unit 210 determines whether the user's input corresponds to a preset input mode. For example, when a user input of three points is recognized by using a touch sensor, it is determined whether it matches with preset recognition data.

대응 모드 설정부(230)는 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 사용자의 입력에 대응하는 입력 모드로 설정한다. 본 발명의 일 실시예에 따르면, 대응 모드 설정부(230)는 사용자의 입력에 기초하여 제스쳐 모드, 모션 인식 모드, 마우스 모드, 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정할 수 있다.The corresponding mode setting unit 230 sets the input mode corresponding to the input of the user when the input of the user corresponds to the preset input mode. According to an embodiment of the present disclosure, the corresponding mode setting unit 230 may set an input mode to correspond to one of a gesture mode, a motion recognition mode, a mouse mode, or a keyboard mode based on a user input.

입력 파라미터 설정부(250)는 설정된 입력 모드에 기초하여 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정한다.The input parameter setting unit 250 sets input parameters for collecting user input information based on the set input mode.

예를 들어, 설정된 입력 모드가 제스처 모드인 경우, 입력 파라미터 설정부는 미리 설정된 센서 정보를 수집하기 위한 입력 파라미터를 설정할 수 있다. 본 발명의 일 실시예에 따르면, 터치 센서를 이용하여 제스처를 인식하기 위한 파라미터를 설정한다. 사용자가 미리 설정한 시간마다 변화를 계산해서 8방향의 벡터(Vector)의 리스트(list)를 얻어내고, 가장 일치하는 패턴을 가지고 있는 이벤트를 제어 프로그램에 전송하기 위한 파라미터를 설정한다.For example, when the set input mode is the gesture mode, the input parameter setting unit may set an input parameter for collecting preset sensor information. According to an embodiment of the present invention, a parameter for recognizing a gesture is set using a touch sensor. The user calculates the change at each preset time, obtains a list of vectors in eight directions, and sets parameters for transmitting the event having the most matching pattern to the control program.

다른 예로, 설정된 입력 모드가 모션 인식 모드인 경우에는 가속도 센서, 자이로 센서, 또는 회전 센서등으로부터 수집되는 정보를 인식하기 위한 파라미터를 설정한다. 즉, 모션 인식을 통하여 사용자가 단말기를 쥐고 흔드는 동작을 인식하거나, 회전 센서와 중력 센서를 이용하여 사용자가 단말기를 뒤집는 동작을 인식할 수 있는 파라미터를 설정한다.As another example, when the set input mode is a motion recognition mode, a parameter for recognizing information collected from an acceleration sensor, a gyro sensor, a rotation sensor, or the like is set. That is, the motion recognition recognizes the motion of the user holding the terminal, or sets a parameter for recognizing the motion of the user flipping the terminal using the rotation sensor and the gravity sensor.

또 다른 예를 들어, 설정된 입력 모드가 마우스 모드인 경우, 입력 파라미터 설정부(250)는 마우스의 센서로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정할 수 있다. 본 발명의 일 실시예에 따르면, 입력 인터페이스 장치는 터치스크린을 구비하고, 입력 파라미터 설정부(250)는 터치스크린의 좌표를 계산해서 4방향(상하좌우), 좌/우 클릭 상태를 전송하기 위한 파라미터가 설정될 수 있다. For another example, when the set input mode is a mouse mode, the input parameter setting unit 250 may set an input parameter for collecting information generated from a sensor of a mouse. According to an embodiment of the present invention, the input interface device includes a touch screen, and the input parameter setting unit 250 calculates coordinates of the touch screen to transmit four directions (up, down, left, right) and left / right click states. Parameters can be set.

또 다른 예를 들어, 설정된 입력 모드가 키보드 모드인 경우, 입력 파라미터 설정부는 키보드 입력으로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정할 수 있다. 본 발명의 일실시예에 따르면, 사용자로부터 미리 설정한 키보드 자판에 해당하는 좌표의 상태변화를 보고, 상태변화가 발생한 좌표에 대응되는 키를 계산하여 제어 프로그램에 전송하기 위한 파라미터를 설정한다.For another example, when the set input mode is the keyboard mode, the input parameter setting unit may set an input parameter for collecting information generated from the keyboard input. According to an embodiment of the present invention, the user sees a state change of a coordinate corresponding to a preset keyboard keyboard from a user, calculates a key corresponding to the coordinate where the state change has occurred, and sets a parameter for transmitting to a control program.

인식 판별부(300)는 설정된 입력 모드에 기초하여 입력 정보를 수집하고, 상기 수집된 입력 정보를 인식 데이터와 비교하여 입력된 명령을 인식한다. 예를 들어, 제스처 모드에 기초하여 입력정보가 수집된 경우에는 프로그램 사용자가 제스처를 단말기를 통해 시스템에 입력하고, 입력되는 제스처는 x, y 좌표 분석을 통한 방향 정보와 회전 정보들을 이용하여 시스템에서 분석, 인식하게 된다. 본 발명의 일 실시예에 따르면, 휴대용 기기가 최초 제스쳐 터치 이벤트를 인식하면 인식 판별부는 터치 이벤트(Motion 이벤트)를 넘겨주며, 로테이션 부호 확인을 통해 입력되는 두 제스처의 차이 정도를 비교하여 입력되는 제스처에 해당하는 제스처를 결정한다. 이에 기초하여 계산된 8방향 벡터 리스트를 가지고 방향 변화 리스트를 계산한다. 계산된 변화 리스트를 데이터 베이스에 저장된 패턴(pattern)의 벡터 및 방향 변화와 비교함으로서 사용자의 인식을 판별한다.The recognition determiner 300 collects input information based on the set input mode, and recognizes the input command by comparing the collected input information with recognition data. For example, when input information is collected based on the gesture mode, a program user inputs a gesture to the system through the terminal, and the input gesture is inputted in the system using direction information and rotation information through x and y coordinate analysis. Analyze and recognize. According to an embodiment of the present invention, when the portable device recognizes the first gesture touch event, the recognition determining unit hands over the touch event (Motion event), and compares the degree of difference between the two gestures inputted through the rotation code check. Determine the corresponding gesture. Based on this, the direction change list is calculated using the calculated eight-direction vector list. The recognition of the user is determined by comparing the calculated change list with the vector and direction change of the pattern stored in the database.

다른 예로, 모션 인식 모드에 기초하여 입력정보가 수집된 경우에는 단말기를 들고 모션을 취하는 과정을 통해 센서 이벤트를 발생시키고, 센서 정보들을 시스템에 알려주어 시스템이 모션을 인식할 수 있도록 한다. 본 발명의 일 실시예에 따르면, 입력 인터페이스 장치에서는 센서 이벤트 정보를 넘겨받아 센서값 분석을 통해 모션을 구분하고, 모션에 해당하는 이벤트를 반환받는다.As another example, when input information is collected based on a motion recognition mode, a sensor event is generated through a process of picking up a terminal and informing a sensor so that the system can recognize the motion. According to an embodiment of the present invention, the input interface device receives the sensor event information, classifies the motion through sensor value analysis, and receives an event corresponding to the motion.

또 다른 예로서, 인식 판별부(300)는 마우스 모드에 기초하여 입력 정보가 수집된 경우에는 설정된 파라미터 정보에 따라, 마우스가 이동하게 될 포인터의 위치를 시스템에게 알려줄 수 있으며, 시스템은 입력된 정보를 이용하여 입력된 명령에 따라 마우스의 위치 상태를 변화시킨다.As another example, when the input information is collected based on the mouse mode, the recognition determiner 300 may inform the system of the position of the pointer to which the mouse is to move according to the set parameter information. Use to change the position of the mouse according to the input command.

또 다른 예를 들어, 인식 판별부(300)는 키보드 모드에 기초하여 입력 정보가 수집된 경우에는 설정된 파라미터 정보에 따라, 키보드 자판 및 배열을 알 수 있도록 설정된 정보를 시스템에게 알려줄 수 있으며, 시스템은 입력된 정보를 이용하여 입력된 명령에 따른 키를 시스템에게 알려준다.For another example, when the input information is collected based on the keyboard mode, the recognition determiner 300 may inform the system of information set to know the keyboard keyboard and the arrangement according to the set parameter information. Using the inputted information, the system is informed of the key according to the entered command.

본 발명의 일 실시예에 따르면 데이터 수정부(130)를 더 포함할 수 있다.According to an embodiment of the present invention, the data correction unit 130 may be further included.

데이터 수정부(130)는 데이터 저장부에 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 데이터 저장부에 저장한다. 본 발명의 일 실시예에 따르면, 데이터 수정부는 인식 데이터를 새롭게 정의하거나, 기저장된 인식 데이터를 수정, 변경할 수 있다. 예를 들어, 새로운 제스처 데이터를 생성하여 인식 데이터에 포함시키고자 하는 경우라면, 어떠한 기능에 대한 제스처를 정의할 것인지 키보드를 이용하여 입력받을 수 있으며, 저장 가능한 제스처(gesture)로 인식되는 경우에는 데이터 베이스에 저장한다. The data correction unit 130 modifies the recognition data stored in the data storage unit or stores new recognition data in the data storage unit. According to an embodiment of the present invention, the data correction unit may newly define recognition data, or may modify or change previously stored recognition data. For example, if a user wants to generate new gesture data and include it in the recognition data, the user can input a function for defining a gesture by using a keyboard. Save it to the base.

도 2를 참조하여 본 발명의 일 실시예에 따른 입력 인터페이스 방법에 대하여 설명한다. 상술한 입력 인터페이스 방법과 동일한 내용은 상술한 내용으로 대체한다.An input interface method according to an embodiment of the present invention will be described with reference to FIG. 2. The same contents as the above-described input interface method are replaced with the above contents.

S110 단계에서 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단한다.In operation S110, it is determined whether the user's input corresponds to a preset input mode.

S120 단계에서 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 사용자의 입력에 대응하는 입력 모드로 설정한다.If the user's input is an input corresponding to a preset input mode in operation S120, the input mode is set to an input mode corresponding to the user's input.

본 발명의 일 실시예에 따르면, 사용자의 입력에 기초하여 제스쳐 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정한다.According to an embodiment of the present invention, an input mode is set to correspond to one of a gesture mode, a mouse mode, or a keyboard mode based on a user input.

S130 단계에서 설정된 입력 모드에 기초하여 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정한다. An input parameter for collecting user input information is set based on the input mode set in step S130.

S140 단계에서 설정된 입력 파라미터에 따른 입력 정보를 수집하고, 수집된 입력 정보를 미리 저장된 인식 데이터와 비교하여 입력된 명령을 인식한다.Input information according to the input parameter set in step S140 is collected, and the collected input information is compared with previously stored recognition data to recognize an input command.

도 3을 참조하여 본 발명의 일 실시예에 따른 입력 인터페이스 방법에 대하여 설명한다. 상술한 입력 인터페이스 장치의 내용 또는 인터페이스 방법과 동일한 내용은 상술한 내용으로 대체한다. An input interface method according to an embodiment of the present invention will be described with reference to FIG. 3. The same contents as those of the above-described input interface apparatus or interface method are replaced with the above contents.

S210 단계에서 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단한다.In operation S210, it is determined whether the user's input corresponds to a preset input mode.

S220 단계에서 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 사용자의 입력에 대응하는 입력 모드로 설정한다.If the user's input is an input corresponding to a preset input mode in operation S220, the user's input is set to an input mode corresponding to the user's input.

본 발명의 일 실시예에 따르면, 사용자의 입력에 기초하여 제스쳐 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정한다.According to an embodiment of the present invention, an input mode is set to correspond to one of a gesture mode, a mouse mode, or a keyboard mode based on a user input.

S230 단계에서 설정된 입력 모드에 기초하여 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정한다. An input parameter for collecting user input information is set based on the input mode set in step S230.

S240 단계에서 설정된 입력 파라미터에 따른 입력 정보를 수집하고, 수집된 입력 정보를 미리 저장된 인식 데이터와 비교하여 입력된 명령을 인식한다.Input information according to the input parameter set in step S240 is collected, and the inputted command is recognized by comparing the collected input information with previously stored recognition data.

S250 단계에서 미리 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 저장하기 위한 데이터를 수정한다.
In operation S250, the previously stored recognition data is corrected, or data for storing new recognition data is modified.

본 발명에 의한 실시예들은 컴퓨터 프로그램으로 작성 가능하다. 이 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(Computer Readable Media)에 저장되고, 컴퓨터에 의하여 읽혀지고 실행됨으로써 실시예를 구현한다. 정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다.
Embodiments of the present invention can be written in a computer program. The code and code segments that make up this computer program can be easily deduced by a computer programmer in the field. In addition, the computer program is stored in a computer readable medium (Computer Readable Media), and the embodiment is implemented by being read and executed by a computer. The information storage medium includes a magnetic recording medium, an optical recording medium and a carrier wave medium.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. 그러므로, 상기 개시된 실시예 들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof. Therefore, the above-described embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is shown not in the above description but in the claims, and all differences within the scope should be construed as being included in the present invention.

Claims (13)

입력된 명령을 인식하기 위하여 미리 설정된 인식 데이터가 저장된 데이터 저장부;
사용자의 입력에 기초하여 미리 설정된 복수의 입력 모드 중 상기 사용자의 입력에 대응되는 입력 모드를 설정하는 입력 모드 설정부; 및
상기 설정된 입력 모드에 기초하여 입력 정보를 수집하고, 상기 수집된 입력 정보를 상기 인식 데이터와 비교하여 입력된 명령을 인식하는 인식 판별부를 포함하는 입력 인터페이스 장치.
A data storage unit for storing recognition data preset to recognize an input command;
An input mode setting unit configured to set an input mode corresponding to the input of the user among a plurality of preset input modes based on the input of the user; And
And a recognition determiner configured to collect input information based on the set input mode and recognize the input command by comparing the collected input information with the recognition data.
제1 항에 있어서, 상기 입력 모드 설정부는
상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단하는 입력 확인부;
상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 상기 사용자의 입력에 대응하는 입력 모드로 설정하는 대응 모드 설정부; 및
상기 설정된 입력 모드에 기초하여 상기 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정하는 입력 파라미터 설정부를 포함하는 것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 1, wherein the input mode setting unit
An input confirmation unit determining whether the input of the user corresponds to a preset input mode;
A corresponding mode setting unit configured to set an input mode corresponding to the input of the user when the input of the user corresponds to a preset input mode; And
And an input parameter setting unit configured to set an input parameter for collecting the input information of the user based on the set input mode.
제2 항에 있어서, 상기 대응 모드 설정부는
상기 사용자의 입력에 기초하여 제스쳐 모드, 모션 인식 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정하는 것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 2, wherein the corresponding mode setting unit
And setting an input mode to correspond to one of a gesture mode, a motion recognition mode, a mouse mode, and a keyboard mode based on the user input.
제3 항에 있어서,
상기 설정된 입력 모드가 제스처 모드로 설정되는 경우,
상기 입력 파라미터 설정부는 미리 설정된 센서 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 3,
When the set input mode is set to the gesture mode,
And the input parameter setting unit sets an input parameter for collecting preset sensor information.
제3 항에 있어서,
상기 설정된 입력 모드가 모션 인식 모드로 설정되는 경우,
자이로 센서, 가속도 센서 또는 근거리 센서 중 적어도 하나 이상의 센서 정보인것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 3,
When the set input mode is set to the motion recognition mode,
And at least one sensor information of a gyro sensor, an acceleration sensor, or a near field sensor.
제3 항에 있어서,
상기 설정된 입력 모드가 마우스 모드로 설정되는 경우,
상기 입력 파라미터 설정부는 마우스의 센서로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 3,
When the set input mode is set to the mouse mode,
The input parameter setting unit sets an input parameter for collecting information generated from the sensor of the mouse.
제3 항에 있어서,
상기 설정된 입력 모드가 키보드 모드로 설정되는 경우,
상기 입력 파라미터 설정부는 키보드 입력으로부터 생성되는 정보를 수집하기 위한 입력 파라미터를 설정하는 것을 특징으로 하는 입력 인터페이스 장치.
The method of claim 3,
When the set input mode is set to the keyboard mode,
The input parameter setting unit sets an input parameter for collecting information generated from the keyboard input.
제1 항에 있어서,
상기 데이터 저장부에 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 상기 데이터 저장부에 저장하는 데이터 수정부를 더 포함하는 것을 특징으로 하는 입력 인터페이스 장치.
The method according to claim 1,
And a data correction unit configured to correct recognition data stored in the data storage unit or to store new recognition data in the data storage unit.
사용자의 입력에 기초하여 미리 설정된 복수의 입력 모드 중 상기 사용자의 입력에 대응되는 입력 모드를 설정하는 입력 모드 설정 단계; 및
상기 설정된 입력 모드에 기초하여 입력 정보를 수집하고, 상기 수집된 입력 정보를 미리 저장된 인식 데이터와 비교하여 입력된 명령을 인식하는 인식 판별 단계를 포함하는 입력 인터페이스 방법.
An input mode setting step of setting an input mode corresponding to the input of the user among a plurality of preset input modes based on the input of the user; And
And a recognition determination step of collecting input information based on the set input mode and recognizing the input command by comparing the collected input information with pre-stored recognition data.
제9 항에 있어서, 상기 입력 모드 설정 단계는
상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인지 여부를 판단하는 입력 확인 단계;
상기 사용자의 입력이 미리 설정된 입력 모드에 대응하는 입력인 경우, 상기 사용자의 입력에 대응하는 입력 모드로 설정하는 대응 모드 설정 단계; 및
상기 설정된 입력 모드에 기초하여 상기 사용자의 입력 정보를 수집하기 위한 입력 파라미터를 설정하는 입력 파라미터 설정 단계를 포함하는 것을 특징으로 하는 입력 인터페이스 방법.
The method of claim 9, wherein the input mode setting step
An input checking step of determining whether the user input is an input corresponding to a preset input mode;
A corresponding mode setting step of setting an input mode corresponding to the input of the user when the input of the user corresponds to a preset input mode; And
And an input parameter setting step of setting an input parameter for collecting the input information of the user based on the set input mode.
제10 항에 있어서, 상기 대응 모드 설정 단계는
상기 사용자의 입력에 기초하여 제스쳐 모드, 모션 인식 모드, 마우스 모드 또는 키보드 모드 중 하나에 대응하도록 입력 모드를 설정하는 단계인 것을 특징으로 하는 입력 인터페이스 방법.
The method of claim 10, wherein the corresponding mode setting step
And setting an input mode to correspond to one of a gesture mode, a motion recognition mode, a mouse mode, and a keyboard mode based on the user input.
제9 항에 있어서,
미리 저장된 인식 데이터를 수정하거나, 새로운 인식 데이터를 저장하기 위한 데이터 수정 단계를 더 포함하는 것을 특징으로 하는 입력 인터페이스 방법.
10. The method of claim 9,
And a data modification step for modifying previously stored recognition data or storing new recognition data.
제9 항 내지 제12 항에 있어서, 어느 한 항의 입력 인터페이스 방법을 컴퓨터에서 실행가능하도록 기록한 것을 특징으로 하는 컴퓨터 판독 가능한 기록 매체.13. The computer-readable recording medium of claim 9, wherein the input interface method of any one of them is recorded to be executable on a computer.
KR1020120020532A 2012-02-28 2012-02-28 Input interface apparatus and method KR101863555B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120020532A KR101863555B1 (en) 2012-02-28 2012-02-28 Input interface apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120020532A KR101863555B1 (en) 2012-02-28 2012-02-28 Input interface apparatus and method

Publications (2)

Publication Number Publication Date
KR20130098754A true KR20130098754A (en) 2013-09-05
KR101863555B1 KR101863555B1 (en) 2018-07-06

Family

ID=49450494

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120020532A KR101863555B1 (en) 2012-02-28 2012-02-28 Input interface apparatus and method

Country Status (1)

Country Link
KR (1) KR101863555B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977582B2 (en) 2014-01-03 2018-05-22 Samsung Electronics Co., Ltd. Window display method and apparatus of displaying a window using an external input device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050096578A (en) * 2004-03-31 2005-10-06 에스케이텔레텍주식회사 Method for utilizing touch screen of mobile phone as an external input device for personal computer
KR100782081B1 (en) * 2006-09-20 2007-12-04 삼성전자주식회사 Method for data communications using touch screen in portable terminal
KR100852874B1 (en) * 2007-01-05 2008-08-19 가온미디어 주식회사 Touch-screen Device
KR20100031183A (en) * 2008-09-12 2010-03-22 삼성전자주식회사 Display apparatus, display system and control method
KR20100093293A (en) * 2009-02-16 2010-08-25 주식회사 팬택 Mobile terminal with touch function and method for touch recognition using the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977582B2 (en) 2014-01-03 2018-05-22 Samsung Electronics Co., Ltd. Window display method and apparatus of displaying a window using an external input device

Also Published As

Publication number Publication date
KR101863555B1 (en) 2018-07-06

Similar Documents

Publication Publication Date Title
EP3312752B1 (en) Electronic device and method for acquiring fingerprint information
US10534439B2 (en) Techniques for gesture-based initiation of inter-device wireless connections
KR101345320B1 (en) predictive virtual keyboard
CN108292165B (en) Touch gesture detection evaluation
US9201521B2 (en) Storing trace information
US10216392B2 (en) Information processing method and first electronic device for detecting second electronic device
EP3223119B1 (en) Method and device for adjusting object attribute information
EP3195100A1 (en) Inactive region for touch surface based on contextual information
US20130154947A1 (en) Determining a preferred screen orientation based on known hand positions
US9746929B2 (en) Gesture recognition using gesture elements
EP2693313A2 (en) Electronic pen input recognition apparatus and method using capacitive-type touch screen panel (tsp)
US10204265B2 (en) System and method for authenticating user
KR20200094829A (en) Apparatus and method for providing of application list in electronic device
TW201732530A (en) Motion recognition apparatus and control method
US10528248B2 (en) Method for providing user interface and electronic device therefor
KR102096070B1 (en) Method for improving touch recognition and an electronic device thereof
CN103761041A (en) Information processing method and electronic device
CN104898818A (en) Information processing method and electronic equipment
CN104133578A (en) Touch screen panel display and touch key input system
KR102106354B1 (en) Method and apparatus for controlling operation in a electronic device
US9904402B2 (en) Mobile terminal and method for input control
KR20130098754A (en) Input interface apparatus and method
US10757246B2 (en) Method and apparatus for performing at least one operation based on devices context
US9710080B2 (en) Portable electronic device including contact sensors, and method for controlling same
CN104808910A (en) Lock screen interface control method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant