KR20160072637A - Wearable interface apparatus for user - Google Patents
Wearable interface apparatus for user Download PDFInfo
- Publication number
- KR20160072637A KR20160072637A KR1020140180549A KR20140180549A KR20160072637A KR 20160072637 A KR20160072637 A KR 20160072637A KR 1020140180549 A KR1020140180549 A KR 1020140180549A KR 20140180549 A KR20140180549 A KR 20140180549A KR 20160072637 A KR20160072637 A KR 20160072637A
- Authority
- KR
- South Korea
- Prior art keywords
- finger
- sensor
- contact
- user
- motion sensor
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 착용형 상용자 인터페이스 장치에 관한 것이다.
The present invention relates to a wearable commercial interface device.
입·출력할 수 있는 기능, 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다. 이러한 이동 단말기는 그 기능이 다양화됨에 따라, 사진이나 동영상의 촬영, 음악 파일이나 동영상 파일의 재생, 게임, 방송의 수신, 무선 인터넷 등과 같은 복잡한 기능들을 갖추게 되었으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.A function capable of inputting / outputting data, and a function of storing data. As the function of the mobile terminal is diversified, the mobile terminal has complicated functions such as photographing and photographing of a moving picture, playback of a music file or a moving picture file, reception of a game, broadcasting, wireless Internet, etc., and a comprehensive multimedia device .
이동 단말기는 자신의 개성을 표현하기 위한 개인 휴대품으로 여겨지면서 다양한 디자인이 요구되고 있으며, 이러한 디자인들의 일례로서 바 타입, 슬라이드 타입, 폴더 타입, 스위블 타입 등의 구조를 들 수 있다.The mobile terminal is considered to be a personal portable device for expressing its own personality, and various designs are required. Examples of such designs include a bar type, a slide type, a folder type, and a swivel type.
또한, 이동 단말기는 형태를 계속 바꾸고 있으며, 최근에는 소형화 요구에 따라 안경 형태, 손목 시계 형태의 웨어러블 디바이스가 출현하고 있다.In addition, the shape of a mobile terminal has been continuously changing, and in recent years wearable devices in the form of glasses and wrist watches have emerged in response to demands for miniaturization.
이와 같이, 웨어러블 디스플레이 디바이스가 진화함에 따라, 소형화된 새로운 형태의 웨어러블 입력 디바이스가 요구되고 있다. 특히, 이러한 웨어러블 입력 디바이스는 사용자의 신체에 착용하기 편하고, 직관적으로 사용자의 명령을 입력할 수 있어야 한다.As the wearable display device evolves in this way, a new compact wearable input device is required. Particularly, such a wearable input device should be easy to wear on the user's body and intuitively input the user's command.
본 발명이 해결하고자 하는 과제는 사용자의 손가락에 쉽게 착용할 수 있고, 사용자 명령의 입력이 직관적인 착용형 사용자 인터페이스 장치를 제공하는 것이다.A problem to be solved by the present invention is to provide a wearable user interface device that can be easily worn on a user's finger and the input of a user command is intuitive.
상기 과제를 달성하기 위하여 본 발명의 실시예에 따른 착용형 사용자 인터페이스 장치는 일측에 입구를 가지고, 사용자의 손가락이 내삽되고, 손가락의 접힘 동작에 의해 접히는 핑거 자켓, 상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력하는 제1모션 센서, 상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력하는 제2모션 센서, 상기 핑거자켓에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력하는 접촉센서, 상기 제1모션 센서, 제2모션 센서 및 접촉센서에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력하는 신호처리 유닛 및 상기 제1모션 센서, 제2모션 센서 및 접촉센서를 활성화하는 스위칭 유닛을 포함하고, 상기 스위칭 유닛은 상기 핑거 자켓의 일단에 배치되는 제1접점과 상기 핑거 자켓의 타단에 배치되어 제1접점과 선택적으로 접촉되는 제2접점을 포함하고, 상기 제1접점과 상기 제2접점은 손가락의 접힘상태에서 접촉되는 것을 특징으로 한다.In order to achieve the above object, a wearable user interface device according to an embodiment of the present invention includes a finger jacket having an inlet at one side thereof, a user's finger being inserted and folded by a folding operation of a finger, A first motion sensor for outputting a first sensing signal according to a finger movement, a second motion sensor disposed on the finger jacket for outputting a second sensing signal in accordance with the movement of the user's finger, A touch sensor that outputs a third sensing signal according to a finger movement of the user, a user's finger movement from a plurality of sensing signals output from the first motion sensor, the second motion sensor, and the touch sensor, And a switching unit for activating the first motion sensor, the second motion sensor and the contact sensor Wherein the switching unit includes a first contact disposed at one end of the finger jacket and a second contact disposed at the other end of the finger jacket and selectively in contact with the first contact, Is contacted in a folded state of the finger.
본 발명의 이동 단말기에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the mobile terminal of the present invention, there are one or more of the following effects.
실시예는 사용자의 손가락에 쉽게 장착되어서, 사용자가 명령을 입력하기 용이한 이점이 존재한다.The embodiment is easily mounted on the user's fingers, so there is an advantage that the user can easily input commands.
또한, 실시예는 사용자가 손가락을 접는 동작으로 간단하게 인터페이스 장치를 활성화하는 이점이 존재한다.The embodiment also has the advantage that the user simply activates the interface device by the finger-folding operation.
또한, 실시예는 사용자가 손가락을 접은 상태에서 엄지 손가락으로 쉽게 사용자 명령을 입력하는 이점이 존재한다.The embodiment also has the advantage that the user can easily input a user command with his / her thumb while the finger is folded.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.
도 1 및 2는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치를 서로 다른 방향에서 바라본 개념도이다.
도 3는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치와 타켓기기의 제어블록도이다.
도 4는 본 발명의 타켓기기의 일 실시예인 이동 단말기의 개념도이다.
도 5 내지 도 8은 일 실시예에 따른 착용형 사용자 인터페이스 장치의 동작방법을 설명하는 설명도이다.
도 9는 본 발명의 다른 실시예에 따른 착용형 사용자 인터페이스 장치를 도시한 개념도이다.1 and 2 are conceptual diagrams of a wearable user interface device according to an embodiment of the present invention, viewed from different directions.
3 is a control block diagram of a wearable user interface device and a target device according to an embodiment of the present invention.
4 is a conceptual diagram of a mobile terminal, which is an embodiment of the target device of the present invention.
5 to 8 are explanatory diagrams illustrating a method of operating a wearable user interface device according to an embodiment.
9 is a conceptual diagram illustrating a wearable user interface device according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.
도 1 및 2는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치를 서로 다른 방향에서 바라본 개념도, 도 3는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치와 타켓기기의 제어블록도, 도 4는 본 발명의 타켓기기의 일 실시예인 이동 단말기의 개념도이다.FIG. 3 is a control block diagram of a wearable user interface device and a target device according to an exemplary embodiment of the present invention; FIG. 3 is a block diagram of a wearable user interface device and a target device according to an exemplary embodiment of the present invention; 4 is a conceptual diagram of a mobile terminal, which is an embodiment of the target device of the present invention.
착용형 사용자 인터페이스 장치(300)는 타켓기기에 사용자 명령을 출력한다. 타켓기기는 착용형 사용자 인터페이스 장치(300)에서 출력되는 사용자 명령에 대응되는 제어를 수행한다.The wearable
먼저, 도 3 및 도 4를 참조하여, 타켓기기의 일 예인 이동 단말기를 설명하도록 한다.First, with reference to FIG. 3 and FIG. 4, a mobile terminal, which is an example of a target device, will be described.
도 3을 참조하면, 이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150) 및 제어부(180) 등을 포함할 수 있다. 도 3에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 3, the
또한, 이동 단말기(100)는 인터페이스부(160), 메모리(170) 및 전원 공급부(190)를 더 포함할 수 있다.The
보다 구체적으로, 상술한 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 이동 단말기(100)와 외부서버 사이, 또는 착용형 사용자 인터페이스 장치(300)와 이동 단말기(100)(타켓 기기)의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The
이러한 무선 통신부(110)는, 무선 인터넷 모듈 및 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.The
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, wireless LAN (WLAN), wireless fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, DLNA (Digital Living Network Alliance), WiBro Interoperability for Microwave Access, High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE) and Long Term Evolution-Advanced (LTE-A) Transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.
근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-range communication module is for short range communication, and includes Bluetooth (registered trademark), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Communication, Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology. The short-range communication module may communicate with the
여기에서, 다른 이동 단말기(100)는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display), 착용형 사용자 인터페이스 장치(300))가 될 수 있다. Here, the other
근거리 통신 모듈은 이동 단말기(100) 주변에, 이동 단말기(100)와 통신 가능한 착용형 사용자 인터페이스 장치(300)를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 감지된 착용형 사용자 인터페이스 장치(300)가 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈을 통해 착용형 사용자 인터페이스 장치(300)로 전송하거나, 착용형 사용자 인터페이스 장치(300)에서 입력된 데이터에 따라 이동 단말기(100)를 제어할 수 있다.The short range communication module can detect (or recognize) the wearable
입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(proximity sensor), 조도 센서( illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(참조)), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부, 햅팁 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The
인터페이스부는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 인터페이스부에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit serves as a path to various kinds of external devices connected to the
또한, 메모리는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory stores data supporting various functions of the
제어부(180)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 구체적으로, 제어부(180)는 착용형 사용자 인터페이스 장치(300)에서 입력된 제어 데이터를 기초로 사용자의 제어명령으로 처리할 수 있다.In addition to the operations associated with the application program, the
또한, 제어부(180)는 메모리에 저장된 응용 프로그램을 구동하기 위하여, 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the
각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 이동 단말기의 동작, 제어, 또는 제어방법은 메모리에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement a method of operation, control, or control of the mobile terminal according to various embodiments described below. The method of operation, control, or control of the mobile terminal may also be implemented on the mobile terminal by driving at least one application program stored in the memory.
도 1 내지 도 3을 참조하면, 핑거 자켓(310)은 사용자의 손가락이 내삽된다. 구체적으로, 핑커 자켓은 일측에 손가락이 삽입되는 입구를 가지고 타측은 막히거나 오픈된 구조를 가질 수 있다.1 to 3, the
또한, 핑거 자켓(310)은 손가락의 접힘동작에 의해 접히는 플렉서블한 재질을 가질 수 있다. 예를 들면, 핑거 자켓(310)은 절연성과 플렉서블한 성질을 가지는 수지, 가죽 재질을 포함한다. 핑거 자켓(310)은 사용자자의 손가락 중 엄지 손가락(11)을 제외한 손가락에 착용된다. 바람직하게는, 핑거 자켓(310)은 사용자의 검지 손가락에 착용되고, 핑거 자켓(310)이 착용된 엄지 손가락(11)에 의해 사용자 명령이 입력될 수 있다. 따라서, 핑거 자켓(310)은 검지 손가락의 형상 및 크기에 대응되는 형상 및 크기를 가진다.Further, the
물론, 착용형 사용자 인터페이스 장치는 장갑의 형태로 모든 손가락을 수용하는 구조(이에 대해서는 후술함)를 가질 수도 있지만, 바람직하게는, 도 1에서 도시하는 바와 같이, 핑거 자켓(310)은 검지 손가락이 내삽되는 형상을 가진다. 그리고, 핑거 자켓(310)을 손가락에서 빠지지 않게 고정하기 위해서, 홀더(341)(343)를 더 포함할 수 있다.Of course, the wearable user interface device may have a structure (described later) that accommodates all the fingers in the form of gloves, but preferably, as shown in Figure 1, It has an interpolated shape. In order to fix the
홀더(341)(343)는 핑거 자켓(310)에서 연장되어 핑거 자켓(310)이 껴지는 손가락 이외의 손가락에 삽입되는 구조를 가진다. 구체적으로, 홀더(341)(343)는 중지 손가락(13)과 엄지 손가락(11)이 내삽되고, 핑거 자켓(310)의 입구에서 연장되어 형성된다.The
예를 들면, 핑거 자켓(310)은 일측을 형성하는 제1영역(S1)과, 타측을 형성하는 제3영역(S3)과, 제1영역(S1) 및 제3영역(S3) 사이의 제2영역(S2)으로 구획된다. 제1영역(S1)에는 손가락이 삽입되는 입구가 형성된다.For example, the
그리고, 제1영역(S1)은 손가락의 첫마디뼈의 위치에 대응되고, 제2영역(S2)은 손가락의 중간마디뼈의 위치에 대응되며, 제3영역(S3)은 손가락의 말단을 형성하는 끝마디뼈의 위치에 대응된다. 여기서, 손의 구조는 손바닥을 형성하는 손허리뼈와, 손허리뼈에 힌지결합되는 첫마디뼈와, 첫마디뼈에 힌지결합되는 중간마디뼈와 중간마디뼈에 힌질결합되는 끝마디뼈로 구성된다.The first region S1 corresponds to the position of the first bony bone of the finger, the second region S2 corresponds to the position of the middle node bone of the finger, and the third region S3 corresponds to the position of the finger Corresponds to the position of the tip bone. Here, the structure of the hand is composed of the hand back bone forming the palm of the hand, the first bony bone hinged to the back of the hand, the middle node bone hinged to the first bony bone, and the end bony bone hinged to the middle node bone.
제1모션 센서(321)는 핑거 자켓(310)에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 제1모션 센서(321)는 엄지 손가락(11)의 움직임을 센싱한 제1센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The
구체적으로, 제1모션 센서(321)는 제1영역(S1)의 외면에 배치된다. 더욱 구체적으로, 제1모션 센서(321)는 핑거 자켓(310)에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락의 엄지 손가락(11)방향 측면으로 노출된다, 즉, 제1모션 센서(321)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다. 여기서, 손가락의 바닥 방향을 바닥면이라고 정의하고, 바닥면과 마주보는 면을 상면, 바닥면과 상면을 연결하는 면을 손가락의 측면으로 정의할 수 있다.Specifically, the
제1모션 센서(321)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는, 제1모션 센서(321)는 터치 센서로 구현되고, 제1모션 센서(321)는 사용자의 손가락의 접촉상태에서 이동방향 및 이동속도 값을 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. The
이를 위해, 제1모션 센서(321)는 핑거 자켓(310)의 길이 방향으로 소정의 길이를 가지게 배치되며, 바람직하게는 제1영역(S1)의 길이와 대응되거나, 제1영역(S1)의 길이 보다 짧은 길이를 가진다. 따라서, 제1모션 센서(321)는 손가락이 제1영역(S1)내에서 이동하는 것을 감지하게 된다.The
제2모션 센서(323)는 핑거 자켓(310)에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 제2모션 센서(323)는 엄지 손가락(11)의 움직임을 센싱한 제2센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The
구체적으로, 제2모션 센서(323)는 제2영역(S2)의 외면에 배치된다. 더욱 구체적으로, 제2모션 센서(323)는 핑거 자켓(310)의 외면에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락의 엄지 손가락(11) 방향 측면으로 노출된다, 즉, 제2모션 센서(323)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다.Specifically, the
제2모션 센서(323)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는 제2모션 센서(323)는 터치 센서로 구현되고, 제2모션 센서(323)는 사용자의 손가락의 접촉상태에서 이동방향 및 이동속도 값을 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. The
이를 위해, 제2모션 센서(323)는 핑거 자켓(310)의 길이 방향으로 소정의 길이를 가지게 배치되며, 바람직하게는 제2영역(S2)의 길이와 대응되는 길이를 가진다. 따라서, 제2모션 센서(323)는 손가락이 제2영역(S2) 내에서 이동하는 것을 감지하게 된다.For this purpose, the
접촉센서(325)는 핑거 자켓(310)에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 접촉센서(325)는 엄지 손가락(11)의 접촉을 센싱한 제3센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The
구체적으로, 접촉센서(325)는 제3영역(S3)의 외면에 배치된다. 더욱 구체적으로, 접촉센서(325)는 핑거 자켓(310)의 외면에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락에서 엄지 손가락(11) 방향 측면으로 노출된다, 즉, 접촉센서(325)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다.Specifically, the
접촉센서(325)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는 접촉센서(325)는 터치 센서로 구현되고, 접촉센서(325)는 사용자의 손가락의 접촉상태를 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. 특히, 접촉센서(325)에서 입력된 제3센싱신호는 신호처리 유닛(351)(352)에서 클릭명령에 대응되는 제어 데이터로 생성된다. The
상술한, 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)는 핑거 자켓(310)의 길이방향으로 형성된 임의의 선 상에 배치된다. The
그리고, 도 6에서 도시하는 바와 같이, 손가락의 접힘상태에서, 제1영역(S1)과 제2영역(S2)은 서로 수직되게 배치된다. 여기서, 수직은 수학적 의미의 완전한 수직을 의미하는 것은 아니고, 오차를 포함하는 범위의 수직을 의미할 것이다. 이 때, 제1모션 센서(321)는 수평방향으로 길게 배치되고(제1영역(S1)), 제2모션 센서(323)는 수직방향으로 길게 배치되며, 제1센싱신호는 타켓기기의 마우스 포인터의 평면좌표의 X축방향의 움직임에 대응되고, 제2센싱신호는 마우스 포인터의 Y축 방향의 움직임에 대응된다. 따라서, 손가락을 접는 간단한 동작으로, 직관적인 입력을 할 수 있는 이점이 존재한다.6, in the folded state of the finger, the first region S1 and the second region S2 are arranged perpendicular to each other. Here, the vertical does not mean a complete vertical of the mathematical meaning but it will mean the vertical of the range including the error. In this case, the
스위칭 유닛(330)은 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)를 활성화한다. 예를 들면, 스위칭 유닛(330)은 배터리에 연결된 제1접점(331)과 제2접점(333)을 포함한다. 스위칭 유닛(330)은 배터리, 제1모션 센서(321), 제2모션 센서(323), 접촉센서(325) 및 신호처리 유닛(351)(352)과 전기적으로 연결되고, 제1접점(331)과 제2접점(333)의 접촉여부에 따라 전원을 공급하게 된다.The
제1접점(331)은 핑거 자켓(310)의 일단에 배치되고, 제2접점(333)은 핑거 자켓(310)의 타단에 배치되어 제1접점(331)과 선택적으로 접촉된다. 제1접점(331)은 제1영역(S1)에 배치되고, 제2접점(333)은 제3영역(S3)에 배치된다. 더욱 구체적으로, 제1접점(331)과 제2접점(333)은 손가락의 접힘상태에서 접촉된다. 여기서, 손가락의 접힘상태는 도 6에서와 같이, 손가락이 주먹을 쥔 상태일 수 있다. 또는, 손가락의 접힘상태는 손가락의 말단(끝마디뼈)과 손가락의 첫마디뼈에 접촉되는 상태일 수 있다. 이때, 핑거 자켓(310)도 손가락의 접힘에 의해 밴딩되어 제1영역(S1)과 제3영역(S3)이 접촉되게 된다.The
제1접점(331)과 제2접점(333)이 접촉되면 배터리의 전기가 통전되어 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)가 활성화된다.When the
바람직하게는, 손가락의 접힘동작에 의해 제1접점(331)과 제2접점(333)의 접촉이 용이하도록 제1접점(331)과 제2접점(333)은 핑거 자켓(310)에서 사용자의 손바닥 방향으로 노출된다. 따라서, 핑거 자켓(310) 단면의 원주 상에서 제1접점(331)과 제1모션 센서(321)는 서로 약 90도의 중심각을 가지게 위치되고, 핑거 자켓(310) 단면의 원주 상에서 제2접점(333)과 접촉센서(325)는 서로 약 90도의 중심각을 가지게 위치될 수 있다.The
신호처리 유닛(351)(352)은 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력한다.The
예를 들면, 신호처리 유닛(351)(352)은 제1센싱신호 및 제2센싱신호들을 기반으로, 타켓기기의 마우스 포인터의 이동방향과 이동속도 값을 결정하는 신호 처리부(351)와, 결정된 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터를 생성하여 타켓 기기로 전송하는 신호 송신부(352)를 포함한다.For example, the
여기서, 신호 송신부(352)는 타켓 기기의 무선 통신부(100)에 제어 데이터를 송신하거나, 서로 데이터를 주고 받을 수 있다.Here, the
또한, 신호 처리부(351)는 제3센싱신호를 기반으로 타켓기기의 클릭명령에 대응되는 제어 데이터를 생성하여 하고, 신호 송신부(352)는 클릭명령에 대응되는 제어 데이터를 타켓 기기로 전송한다.The
타켓기기의 제어부(180)는 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터에 따라 디스플레이부(151)에 표시된 마우스 포인터의 움직임을 표시한다. 또한, 타켓기기의 제어부(180)는 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터에 따라 다양한 제어 테이터를 생성하여 타켓기기를 제어(타켓기기의 볼륨, 디스플레이부의 밝기 조절 등)할 수 있다.The
또한, 본원 발명에 따른 착용형 사용자 인터페이스 장치(300)를 이동 단말기에 적용할 경우, 기존의 이동 단말기의 키보드나 터치 스크린이 필요하지 않기 때문에 이동 단말기의 크기를 줄일 수 있다. 즉, 디스플레이 화면이 최소한의 정보만을 제공하고 이어폰이 정보 제공을 보조할 경우, 이동 단말기의 형태가 손목 시계나 반지의 형태로 변환가능하다.In addition, when the wearable
또한, 본원 발명에 따른 착용형 사용자 인터페이스 장치(300)를 이동 단말기에 적용할 경우, 디스플레이 화면이 없는 이동 단말기를 구현할 수 있다. 예를 들어, 착용형 사용자 인터페이스 장치(300)가 장착된 손가락의 움직임에 따라 해당 메뉴에 대한 정보를 이어폰으로 전달하고 원하는 메뉴에서 손가락의 클릭 동작이 인식되면 이동 단말기의 각각의 기능을 수행할 수 있다. 또한, 이동 단말기의 기능에 필요한 손가락 동작을 미리 정의하고, 해당 손가락 동작이 인식되면 휴대전화 기능을 수행할 수도 있다. 또한, 일정 시간 동안 반복되는 손가락 클릭 동작의 횟수를 기반으로, 이동 단말기의 기능을 수행할 수 있다. 예를 들어, 일정 시간 동안 두 번의 클릭 동작이 인식되면 통화연결 기능을 수행하고, 일정 시간 동안 세 번의 클릭 동작이 인식되면 통화종료 기능을 수행하며, 한 번의 클릭 동작이 인식되면 메뉴탐색 기능을 시작하고, 손가락의 움직임에 따라 메뉴를 탐색하여 실행할 수 있다.
In addition, when the wearable
도 5 내지 도 8은 일 실시예에 따른 착용형 사용자 인터페이스 장치의 동작방법을 설명하는 설명도이다.5 to 8 are explanatory diagrams illustrating a method of operating a wearable user interface device according to an embodiment.
먼저, 도 5를 참고하면, 사용자는 착용형 사용자 인터페이스 장치(300)를 사용자의 손가락에 착용한다. 구체적으로, 핑거 자켓(310)이 검지 손가락에 착용된다.First, referring to FIG. 5, the user wears the wearable
이후, 도 6에 도시하는 바와 같이, 착용형 사용자 인터페이스 장치(300)를 활성화시키기 위해, 사용자가 손가락(상세히는, 검지)의 접힘상태를 만든다. 이 때, 제1영역(S1)과 제3영역(S3)에 위치된 제1접점(331)과 제2접점(333)이 통전되고 착용형 사용자 인터페이스 장치(300)가 활성화된다.Then, as shown in Fig. 6, in order to activate the wearable
도 7을 참고하면, 사용자는 제1영역(S1)에 위치된 제1모션 센서(321)와 제2영역(S2)에 위치된 제2모션 센서(323)에 엄지 손가락(11)의 움직임을 감지시킬 수 있다. 구체적으로, 제1모션 센서(321)에 의해 감지된 엄지 손가락(11)의 움직임은 마우스 포인터의 X좌표 움직임에 대응되고, 제2모션 센서(323)에 의해 감지된 엄지 손가락(11)의 움직임은 마우스 포인터의 Y좌표 움직임에 대응된다. 접촉센서(325)에 엄지 손가락(11)이 터치되면서 클릭명령이 입력되게 된다.7, the user can move the
도 8을 참고하면, 착용형 사용자 인터페이스 장치(300)의 장치에서 입력된 제어 데이터에 의해 이동 단말기의 마우스 포인터가 이동된다.
Referring to FIG. 8, the mouse pointer of the mobile terminal is moved by the control data input from the apparatus of the wearable
도 9는 본 발명의 다른 실시예에 따른 착용형 사용자 인터페이스 장치를 도시한 개념도이다.9 is a conceptual diagram illustrating a wearable user interface device according to another embodiment of the present invention.
도 9를 참조하면, 실시예의 착용형 사용자 인터페이스 장치는 장갑의 형태로 모든 손가락을 수용하는 구조를 도시하고 있다. 도 1의 실시예와 비교하면, 검지 손가락을 제외한 다른 손가락이 수용되는 핑거 글러브를 더 포함한다.Referring to Fig. 9, the wearable user interface device of the embodiment shows a structure for receiving all fingers in the form of gloves. Compared with the embodiment of FIG. 1, the finger glove further includes a finger glove in which other fingers other than the index finger are accommodated.
이 때, 핑거 자켓(310)은 검지 손가락을 수용하는 부분으로 정의될 수 있다. 그리고, 엄지 손가락(11)의 말단에 대응하는 핑거 글러브의 경우, 사용자 명령 입력을 위해, 도전체가 부착되거나 엄지 손가락(11)의 말단이 노출되는 구조를 가질 수 있다.
At this time, the
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.
Claims (10)
상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력하는 제1모션 센서;
상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력하는 제2모션 센서;
상기 핑거자켓에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력하는 접촉센서;
상기 제1모션 센서, 제2모션 센서 및 접촉센서에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력하는 신호처리 유닛; 및
상기 제1모션 센서, 제2모션 센서 및 접촉센서를 활성화하는 스위칭 유닛을 포함하고,
상기 스위칭 유닛은,
상기 핑거 자켓의 일단에 배치되는 제1접점과 상기 핑거 자켓의 타단에 배치되어 제1접점과 선택적으로 접촉되는 제2접점을 포함하고,
상기 제1접점과 상기 제2접점은 손가락의 접힘상태에서 접촉되는 착용형 사용자 인터페이스 장치.A finger jacket having an inlet on one side, a user's finger being interpolated, and folded by the folding action of the finger;
A first motion sensor disposed in the finger jacket and outputting a first sensing signal according to a user's finger movement;
A second motion sensor disposed in the finger jacket and outputting a second sensing signal in accordance with a user's finger motion;
A touch sensor disposed in the finger jacket and outputting a third sensing signal according to a finger contact of the user;
A signal processing unit for outputting a finger movement of a user and a user command corresponding to finger contact from a plurality of sensing signals output from the first motion sensor, the second motion sensor, and the touch sensor to a target device; And
And a switching unit for activating the first motion sensor, the second motion sensor and the contact sensor,
The switching unit includes:
A first contact disposed at one end of the finger jacket and a second contact disposed at the other end of the finger jacket and selectively in contact with the first contact,
Wherein the first contact and the second contact are in contact with each other in a folded state of the finger.
상기 핑거 자켓은,
일측을 형성하는 제1영역과, 타측을 형성하는 제3영역과, 상기 제1영역 및 제3영역 사이의 제2영역으로 구획되고,
상기 제1모션 센서는 제1영역의 외면에 배치되고, 상기 제2모션 센서는 제2영역의 외면에 배치되며, 상기 접촉센서는 제3영역의 외면에 배치되는 착용형 사용자 인터페이스 장치. The method according to claim 1,
The finger jacket includes:
A first region forming one side, a third region forming the other side, and a second region between the first region and the third region,
Wherein the first motion sensor is disposed on the outer surface of the first region, the second motion sensor is disposed on the outer surface of the second region, and the contact sensor is disposed on the outer surface of the third region.
상기 제1영역은 손가락의 첫마디뼈의 위치에 대응되고, 상기 제2영역은 손가락의 중간마디뼈의 위치에 대응되며, 제3영역은 손가락의 끝마디뼈의 위치에 대응되는 착용형 사용자 인터페이스 장치.3. The method of claim 2,
Wherein the first region corresponds to the position of the first bony bone of the finger, the second region corresponds to the position of the middle bony bone of the finger, and the third region corresponds to the position of the bony bone of the finger.
상기 제1접점은 상기 제1영역에 배치되고, 상기 제2접점은 제3영역에 배치되는 착용형 사용자 인터페이스 장치.3. The method of claim 2,
Wherein the first contact is disposed in the first area and the second contact is disposed in the third area.
상기 제1접점과 제2접점은 사용자의 손의 바닥 방향으로 노출되고,
상기 제1모션 센서, 제2모션 센서 및 접촉센서는 사용자의 손가락의 엄지 손가락 방향 측면으로 노출되는 착용형 사용자 인터페이스 장치.5. The method of claim 4,
The first contact and the second contact are exposed in the direction of the bottom of the user's hand,
Wherein the first motion sensor, the second motion sensor, and the contact sensor are exposed on the thumb direction side of the user's finger.
상기 신호처리 유닛은,
상기 제1센싱신호 및 제2센싱신호들을 기반으로, 상기 타켓기기의 마우스 포인터의 이동방향과 이동속도 값을 결정하는 신호처리부와,
상기 결정된 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터를 생성하여 타켓 기기로 전송하는 신호송신부를 포함하는 착용형 사용자 인터페이스 장치.The method according to claim 1,
The signal processing unit includes:
A signal processor for determining a moving direction and a moving speed value of the mouse pointer of the target device based on the first sensing signal and the second sensing signals;
And a signal transmitter for generating control data including information on a movement direction of the mouse pointer and a movement speed value and transmitting the control data to a target device.
손가락의 접힘상태에서, 상기 제1영역과 상기 제2영역은 서로 수직되게 배치되는 착용형 사용자 인터페이스 장치.3. The method of claim 2,
Wherein in the folded state of the finger, the first region and the second region are disposed perpendicular to each other.
상기 핑거 자켓은 상기 사용자의 검지에 착용되는 착용형 사용자 인터페이스 장치.The method according to claim 1,
Wherein the finger jacket is worn on the index of the user.
상기 제1모션 센서 또는 제2모션 센서는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현되는 착용형 사용자 인터페이스 장치.The method according to claim 1,
Wherein the first motion sensor or the second motion sensor is implemented as at least one of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor.
상기 접촉센서는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현되는 착용형 사용자 인터페이스 장치.
The method according to claim 1,
Wherein the touch sensor is implemented as at least one of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140180549A KR20160072637A (en) | 2014-12-15 | 2014-12-15 | Wearable interface apparatus for user |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140180549A KR20160072637A (en) | 2014-12-15 | 2014-12-15 | Wearable interface apparatus for user |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160072637A true KR20160072637A (en) | 2016-06-23 |
Family
ID=56353318
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140180549A KR20160072637A (en) | 2014-12-15 | 2014-12-15 | Wearable interface apparatus for user |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160072637A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200002413A (en) * | 2018-06-29 | 2020-01-08 | 조선대학교산학협력단 | Band-type optical wireless mouse |
WO2020080733A1 (en) * | 2018-10-16 | 2020-04-23 | 주식회사 콕스스페이스 | Interface device for controlling virtual content |
WO2021060601A1 (en) * | 2019-09-26 | 2021-04-01 | 주식회사 팜캣 | Method and system for recognizing motion through points and angles |
CN113854679A (en) * | 2021-11-22 | 2021-12-31 | 温州大学 | Flexible intelligent glove for remote control intelligent equipment |
-
2014
- 2014-12-15 KR KR1020140180549A patent/KR20160072637A/en not_active Application Discontinuation
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200002413A (en) * | 2018-06-29 | 2020-01-08 | 조선대학교산학협력단 | Band-type optical wireless mouse |
WO2020080733A1 (en) * | 2018-10-16 | 2020-04-23 | 주식회사 콕스스페이스 | Interface device for controlling virtual content |
WO2020080732A1 (en) * | 2018-10-16 | 2020-04-23 | 주식회사 콕스스페이스 | Interface method for controlling virtual content |
WO2021060601A1 (en) * | 2019-09-26 | 2021-04-01 | 주식회사 팜캣 | Method and system for recognizing motion through points and angles |
KR20210037063A (en) * | 2019-09-26 | 2021-04-06 | 주식회사 팜캣 | Method and system recognizing gesture using points and angles |
CN113854679A (en) * | 2021-11-22 | 2021-12-31 | 温州大学 | Flexible intelligent glove for remote control intelligent equipment |
CN113854679B (en) * | 2021-11-22 | 2024-03-12 | 温州大学 | Flexible intelligent glove for remote control intelligent equipment |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20170128820A (en) | Mobile terminal and method for controlling the same | |
CN108491149B (en) | Split screen display method and terminal | |
KR20160035948A (en) | Mobile terminal and system including the same | |
KR20160045269A (en) | Wearable device and mobile terminal for supporting communication with the device | |
KR20150088599A (en) | Mobile terminal and method for controlling the same | |
KR20170126294A (en) | Mobile terminal and method for controlling the same | |
KR101641424B1 (en) | Terminal and operating method thereof | |
KR20160000627A (en) | Mobile terminal and method for controlling the same | |
KR20150098115A (en) | Mobile terminal and method for controlling the same | |
KR20160072637A (en) | Wearable interface apparatus for user | |
KR20160018163A (en) | Mobile terminal and communication system thereof | |
KR101880592B1 (en) | Stylus and mobile terminal having the same | |
KR20160086166A (en) | Mobile terminal and method for controlling the same | |
KR20160147564A (en) | Mobile terminal and control method thereof | |
KR20160102811A (en) | Mobile terminal that can control handwriting relevant function through gesture of the hand which is worn a wrist wearable device and method for controlling the same | |
KR102166719B1 (en) | Apparatus and method for information exchange | |
KR102130801B1 (en) | Apparatus for detecting wrist step and method thereof | |
KR20160068534A (en) | Mobile terminal and method for controlling the same | |
KR20160066269A (en) | Mobile terminal and method for controlling the same | |
KR20150135844A (en) | Mobile terminal and method for controlling the same | |
KR20160016181A (en) | Mobile terminal and method for controlling the same | |
KR101566113B1 (en) | Watch-type mobile terminal and method for controlling the saem | |
KR101677643B1 (en) | Mobile terminal and method for controlling the same | |
KR102294598B1 (en) | Mobile terminal and method for controlling the same | |
KR20160142671A (en) | Watch type mobile terminal and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |