KR20160072637A - Wearable interface apparatus for user - Google Patents

Wearable interface apparatus for user Download PDF

Info

Publication number
KR20160072637A
KR20160072637A KR1020140180549A KR20140180549A KR20160072637A KR 20160072637 A KR20160072637 A KR 20160072637A KR 1020140180549 A KR1020140180549 A KR 1020140180549A KR 20140180549 A KR20140180549 A KR 20140180549A KR 20160072637 A KR20160072637 A KR 20160072637A
Authority
KR
South Korea
Prior art keywords
finger
sensor
contact
user
motion sensor
Prior art date
Application number
KR1020140180549A
Other languages
Korean (ko)
Inventor
최원제
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140180549A priority Critical patent/KR20160072637A/en
Publication of KR20160072637A publication Critical patent/KR20160072637A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A wearable user interface apparatus according to one embodiment of the present invention comprises: a finger jacket which has an inlet on one side, in which fingers of a user are inserted, and which is folded by a folding operation of the fingers; a first motion sensor which is placed on the finger jacket and outputs a first sensing signal according to motions of fingers of the user; a second motion sensor which is placed on the finger jacket and outputs a second sensing signal according to motions of fingers of the user; a contact sensor which is placed on the finger jacket and outputs a third sensing signal according to a finger contact of the user; a signal processing unit which outputs a user command corresponding to a finger motion and a finger contact of a user from multiple sensing signals received from the first motion sensor, the second motion sensor and the contact sensor to a target device; and a switching unit activating the first motion sensor, the second motion sensor and the contact sensor. The switching unit contains a first contact point placed on one end of the finger jacket and a second contact point which is placed on the other end of the finger jacket and is selectively contacted with the first contact point. The first contact point is contacted with the second contact point when fingers are folded.

Description

착용형 사용자 인터페이스 장치{Wearable interface apparatus for user}[0001] Wearable interface apparatus for user [0002]

본 발명은 착용형 상용자 인터페이스 장치에 관한 것이다.
The present invention relates to a wearable commercial interface device.

입·출력할 수 있는 기능, 및 데이터를 저장할 수 있는 기능 등을 하나 이상 갖춘 휴대용 기기이다. 이러한 이동 단말기는 그 기능이 다양화됨에 따라, 사진이나 동영상의 촬영, 음악 파일이나 동영상 파일의 재생, 게임, 방송의 수신, 무선 인터넷 등과 같은 복잡한 기능들을 갖추게 되었으며, 종합적인 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다.A function capable of inputting / outputting data, and a function of storing data. As the function of the mobile terminal is diversified, the mobile terminal has complicated functions such as photographing and photographing of a moving picture, playback of a music file or a moving picture file, reception of a game, broadcasting, wireless Internet, etc., and a comprehensive multimedia device .

이동 단말기는 자신의 개성을 표현하기 위한 개인 휴대품으로 여겨지면서 다양한 디자인이 요구되고 있으며, 이러한 디자인들의 일례로서 바 타입, 슬라이드 타입, 폴더 타입, 스위블 타입 등의 구조를 들 수 있다.The mobile terminal is considered to be a personal portable device for expressing its own personality, and various designs are required. Examples of such designs include a bar type, a slide type, a folder type, and a swivel type.

또한, 이동 단말기는 형태를 계속 바꾸고 있으며, 최근에는 소형화 요구에 따라 안경 형태, 손목 시계 형태의 웨어러블 디바이스가 출현하고 있다.In addition, the shape of a mobile terminal has been continuously changing, and in recent years wearable devices in the form of glasses and wrist watches have emerged in response to demands for miniaturization.

이와 같이, 웨어러블 디스플레이 디바이스가 진화함에 따라, 소형화된 새로운 형태의 웨어러블 입력 디바이스가 요구되고 있다. 특히, 이러한 웨어러블 입력 디바이스는 사용자의 신체에 착용하기 편하고, 직관적으로 사용자의 명령을 입력할 수 있어야 한다.As the wearable display device evolves in this way, a new compact wearable input device is required. Particularly, such a wearable input device should be easy to wear on the user's body and intuitively input the user's command.

본 발명이 해결하고자 하는 과제는 사용자의 손가락에 쉽게 착용할 수 있고, 사용자 명령의 입력이 직관적인 착용형 사용자 인터페이스 장치를 제공하는 것이다.A problem to be solved by the present invention is to provide a wearable user interface device that can be easily worn on a user's finger and the input of a user command is intuitive.

상기 과제를 달성하기 위하여 본 발명의 실시예에 따른 착용형 사용자 인터페이스 장치는 일측에 입구를 가지고, 사용자의 손가락이 내삽되고, 손가락의 접힘 동작에 의해 접히는 핑거 자켓, 상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력하는 제1모션 센서, 상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력하는 제2모션 센서, 상기 핑거자켓에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력하는 접촉센서, 상기 제1모션 센서, 제2모션 센서 및 접촉센서에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력하는 신호처리 유닛 및 상기 제1모션 센서, 제2모션 센서 및 접촉센서를 활성화하는 스위칭 유닛을 포함하고, 상기 스위칭 유닛은 상기 핑거 자켓의 일단에 배치되는 제1접점과 상기 핑거 자켓의 타단에 배치되어 제1접점과 선택적으로 접촉되는 제2접점을 포함하고, 상기 제1접점과 상기 제2접점은 손가락의 접힘상태에서 접촉되는 것을 특징으로 한다.In order to achieve the above object, a wearable user interface device according to an embodiment of the present invention includes a finger jacket having an inlet at one side thereof, a user's finger being inserted and folded by a folding operation of a finger, A first motion sensor for outputting a first sensing signal according to a finger movement, a second motion sensor disposed on the finger jacket for outputting a second sensing signal in accordance with the movement of the user's finger, A touch sensor that outputs a third sensing signal according to a finger movement of the user, a user's finger movement from a plurality of sensing signals output from the first motion sensor, the second motion sensor, and the touch sensor, And a switching unit for activating the first motion sensor, the second motion sensor and the contact sensor Wherein the switching unit includes a first contact disposed at one end of the finger jacket and a second contact disposed at the other end of the finger jacket and selectively in contact with the first contact, Is contacted in a folded state of the finger.

본 발명의 이동 단말기에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the mobile terminal of the present invention, there are one or more of the following effects.

실시예는 사용자의 손가락에 쉽게 장착되어서, 사용자가 명령을 입력하기 용이한 이점이 존재한다.The embodiment is easily mounted on the user's fingers, so there is an advantage that the user can easily input commands.

또한, 실시예는 사용자가 손가락을 접는 동작으로 간단하게 인터페이스 장치를 활성화하는 이점이 존재한다.The embodiment also has the advantage that the user simply activates the interface device by the finger-folding operation.

또한, 실시예는 사용자가 손가락을 접은 상태에서 엄지 손가락으로 쉽게 사용자 명령을 입력하는 이점이 존재한다.The embodiment also has the advantage that the user can easily input a user command with his / her thumb while the finger is folded.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.

도 1 및 2는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치를 서로 다른 방향에서 바라본 개념도이다.
도 3는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치와 타켓기기의 제어블록도이다.
도 4는 본 발명의 타켓기기의 일 실시예인 이동 단말기의 개념도이다.
도 5 내지 도 8은 일 실시예에 따른 착용형 사용자 인터페이스 장치의 동작방법을 설명하는 설명도이다.
도 9는 본 발명의 다른 실시예에 따른 착용형 사용자 인터페이스 장치를 도시한 개념도이다.
1 and 2 are conceptual diagrams of a wearable user interface device according to an embodiment of the present invention, viewed from different directions.
3 is a control block diagram of a wearable user interface device and a target device according to an embodiment of the present invention.
4 is a conceptual diagram of a mobile terminal, which is an embodiment of the target device of the present invention.
5 to 8 are explanatory diagrams illustrating a method of operating a wearable user interface device according to an embodiment.
9 is a conceptual diagram illustrating a wearable user interface device according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다. The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC A tablet PC, an ultrabook, a wearable device such as a smartwatch, a smart glass, and a head mounted display (HMD). have.

그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.However, it will be appreciated by those skilled in the art that the configuration according to the embodiments described herein may be applied to fixed terminals such as a digital TV, a desktop computer, a digital signage, and the like, will be.

도 1 및 2는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치를 서로 다른 방향에서 바라본 개념도, 도 3는 본 발명의 일 실시예에 따른 착용형 사용자 인터페이스 장치와 타켓기기의 제어블록도, 도 4는 본 발명의 타켓기기의 일 실시예인 이동 단말기의 개념도이다.FIG. 3 is a control block diagram of a wearable user interface device and a target device according to an exemplary embodiment of the present invention; FIG. 3 is a block diagram of a wearable user interface device and a target device according to an exemplary embodiment of the present invention; 4 is a conceptual diagram of a mobile terminal, which is an embodiment of the target device of the present invention.

착용형 사용자 인터페이스 장치(300)는 타켓기기에 사용자 명령을 출력한다. 타켓기기는 착용형 사용자 인터페이스 장치(300)에서 출력되는 사용자 명령에 대응되는 제어를 수행한다.The wearable user interface device 300 outputs a user command to the target device. The target device performs control corresponding to the user command output from the wearable user interface device 300. [

먼저, 도 3 및 도 4를 참조하여, 타켓기기의 일 예인 이동 단말기를 설명하도록 한다.First, with reference to FIG. 3 and FIG. 4, a mobile terminal, which is an example of a target device, will be described.

도 3을 참조하면, 이동 단말기(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150) 및 제어부(180) 등을 포함할 수 있다. 도 3에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 3, the mobile terminal 100 may include a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, a controller 180, and the like. The components shown in FIG. 3 are not essential for implementing a mobile terminal, so that the mobile terminal described herein may have more or fewer components than the components listed above.

또한, 이동 단말기(100)는 인터페이스부(160), 메모리(170) 및 전원 공급부(190)를 더 포함할 수 있다.The mobile terminal 100 may further include an interface unit 160, a memory 170, and a power supply unit 190.

보다 구체적으로, 상술한 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 이동 단말기(100)와 외부서버 사이, 또는 착용형 사용자 인터페이스 장치(300)와 이동 단말기(100)(타켓 기기)의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.The wireless communication unit 110 may be connected between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, between the mobile terminal 100 and the external server 100, Or one or more modules that enable wireless communication between the wearable user interface device 300 and the mobile terminal 100 (the target device). In addition, the wireless communication unit 110 may include one or more modules that connect the mobile terminal 100 to one or more networks.

이러한 무선 통신부(110)는, 무선 인터넷 모듈 및 근거리 통신 모듈 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a wireless Internet module and a local area communication module.

무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Wireless Internet technologies include, for example, wireless LAN (WLAN), wireless fidelity (Wi-Fi), wireless fidelity (Wi-Fi) Direct, DLNA (Digital Living Network Alliance), WiBro Interoperability for Microwave Access, High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE) and Long Term Evolution-Advanced (LTE-A) Transmits and receives data according to at least one wireless Internet technology, including Internet technologies not listed above.

근거리 통신 모듈은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short-range communication module is for short range communication, and includes Bluetooth (registered trademark), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Communication, Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology. The short-range communication module may communicate with the mobile terminal 100 and the wireless communication system through the wireless area networks, between the mobile terminal 100 and another mobile terminal 100, And can support wireless communication between networks in which the mobile terminal 100 (or an external server) is located. The short-range wireless communication network may be a short-range wireless personal area network.

여기에서, 다른 이동 단말기(100)는 본 발명에 따른 이동 단말기(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트워치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display), 착용형 사용자 인터페이스 장치(300))가 될 수 있다. Here, the other mobile terminal 100 may be a wearable device (e.g., a smartwatch, a smart glass, etc.) capable of interchanging data with the mobile terminal 100 according to the present invention (smart glass), head mounted display (HMD), wearable user interface device 300).

근거리 통신 모듈은 이동 단말기(100) 주변에, 이동 단말기(100)와 통신 가능한 착용형 사용자 인터페이스 장치(300)를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 감지된 착용형 사용자 인터페이스 장치(300)가 이동 단말기(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기(100)에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈을 통해 착용형 사용자 인터페이스 장치(300)로 전송하거나, 착용형 사용자 인터페이스 장치(300)에서 입력된 데이터에 따라 이동 단말기(100)를 제어할 수 있다.The short range communication module can detect (or recognize) the wearable user interface device 300 that can communicate with the mobile terminal 100, around the mobile terminal 100. [ Further, when the detected wearable user interface device 300 is an authenticated device for communicating with the mobile terminal 100, the control unit 180 may transmit at least a part of the data processed in the mobile terminal 100 to the short- To the wearable user interface device 300 or to control the mobile terminal 100 according to the data input from the wearable user interface device 300. [

입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 may include a camera or an image input unit for inputting a video signal, a microphone for inputting an audio signal, or an audio input unit, a user input unit (e.g., a touch key) for receiving information from a user, , A mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.

센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(proximity sensor), 조도 센서( illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(참조)), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include at least one sensor for sensing at least one of information in the mobile terminal, surrounding environment information surrounding the mobile terminal, and user information. For example, the sensing unit 140 may include a proximity sensor, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor G- sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a finger scan sensor, an ultrasonic sensor, an optical sensor an optical sensor, such as a camera, a microphone, a battery gauge, an environmental sensor such as a barometer, a hygrometer, a thermometer, a radiation sensor, a thermal sensor, ), A chemical sensor (e.g., an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification can combine and utilize information sensed by at least two of the sensors.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부, 햅팁 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 may generate at least one of a display unit 151, an acoustic output unit, a haptic-tip module, and a light output unit. The display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. Such a touch screen may function as a user input unit for providing an input interface between the mobile terminal 100 and a user and may provide an output interface between the mobile terminal 100 and a user.

인터페이스부는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 인터페이스부에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit serves as a path to various kinds of external devices connected to the mobile terminal 100. The interface unit 160 is connected to a device having a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, And may include at least one of a port, an audio I / O port, a video I / O port, and an earphone port. In the mobile terminal 100, corresponding to the connection of the external device to the interface, it is possible to perform appropriate control with respect to the connected external device.

또한, 메모리는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory stores data supporting various functions of the mobile terminal 100. The memory may store a plurality of application programs (application programs or applications) driven by the mobile terminal 100, data for operation of the mobile terminal 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. Also, at least a part of these application programs may exist on the mobile terminal 100 from the time of shipment for the basic functions (e.g., telephone call receiving function, message receiving function, and calling function) of the mobile terminal 100. Meanwhile, the application program may be stored in the memory, installed on the mobile terminal 100, and operated by the control unit 180 to perform the operation (or function) of the mobile terminal.

제어부(180)는 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 구체적으로, 제어부(180)는 착용형 사용자 인터페이스 장치(300)에서 입력된 제어 데이터를 기초로 사용자의 제어명령으로 처리할 수 있다.In addition to the operations associated with the application program, the control unit 180 typically controls the overall operation of the mobile terminal 100. The control unit 180 may process or process signals, data, information, etc. input or output through the above-mentioned components, or may drive an application program stored in the memory to provide or process appropriate information or functions to the user. Specifically, the control unit 180 can process the control command based on the control data input from the wearable user interface device 300 as a user's control command.

또한, 제어부(180)는 메모리에 저장된 응용 프로그램을 구동하기 위하여, 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components to drive an application program stored in the memory. Furthermore, the controller 180 may operate at least two of the components included in the mobile terminal 100 in combination with each other for driving the application program.

각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 이동 단말기의 동작, 제어, 또는 제어방법은 메모리에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다.At least some of the components may operate in cooperation with each other to implement a method of operation, control, or control of the mobile terminal according to various embodiments described below. The method of operation, control, or control of the mobile terminal may also be implemented on the mobile terminal by driving at least one application program stored in the memory.

도 1 내지 도 3을 참조하면, 핑거 자켓(310)은 사용자의 손가락이 내삽된다. 구체적으로, 핑커 자켓은 일측에 손가락이 삽입되는 입구를 가지고 타측은 막히거나 오픈된 구조를 가질 수 있다.1 to 3, the finger jacket 310 is inserted with the user's finger. Specifically, the fingerker jacket may have an inlet through which a finger is inserted on one side and a closed or open structure on the other side.

또한, 핑거 자켓(310)은 손가락의 접힘동작에 의해 접히는 플렉서블한 재질을 가질 수 있다. 예를 들면, 핑거 자켓(310)은 절연성과 플렉서블한 성질을 가지는 수지, 가죽 재질을 포함한다. 핑거 자켓(310)은 사용자자의 손가락 중 엄지 손가락(11)을 제외한 손가락에 착용된다. 바람직하게는, 핑거 자켓(310)은 사용자의 검지 손가락에 착용되고, 핑거 자켓(310)이 착용된 엄지 손가락(11)에 의해 사용자 명령이 입력될 수 있다. 따라서, 핑거 자켓(310)은 검지 손가락의 형상 및 크기에 대응되는 형상 및 크기를 가진다.Further, the finger jacket 310 may have a flexible material that is folded by the folding action of the finger. For example, the finger jacket 310 includes a resin and a leather material having insulating and flexible properties. The finger jacket 310 is worn on the finger of the user's finger except the thumb 11. Preferably, the finger jacket 310 is worn on a user's index finger, and a user command can be input by the thumb 11 on which the finger jacket 310 is worn. Accordingly, the finger jacket 310 has a shape and size corresponding to the shape and size of the index finger.

물론, 착용형 사용자 인터페이스 장치는 장갑의 형태로 모든 손가락을 수용하는 구조(이에 대해서는 후술함)를 가질 수도 있지만, 바람직하게는, 도 1에서 도시하는 바와 같이, 핑거 자켓(310)은 검지 손가락이 내삽되는 형상을 가진다. 그리고, 핑거 자켓(310)을 손가락에서 빠지지 않게 고정하기 위해서, 홀더(341)(343)를 더 포함할 수 있다.Of course, the wearable user interface device may have a structure (described later) that accommodates all the fingers in the form of gloves, but preferably, as shown in Figure 1, It has an interpolated shape. In order to fix the finger jacket 310 so as not to come off the fingers, the holder 341 and 343 may be further included.

홀더(341)(343)는 핑거 자켓(310)에서 연장되어 핑거 자켓(310)이 껴지는 손가락 이외의 손가락에 삽입되는 구조를 가진다. 구체적으로, 홀더(341)(343)는 중지 손가락(13)과 엄지 손가락(11)이 내삽되고, 핑거 자켓(310)의 입구에서 연장되어 형성된다.The holders 341 and 343 extend from the finger jacket 310 and have a structure in which the finger jacket 310 is inserted into fingers other than the finger. Specifically, the holders 341 and 343 are formed by extending the stop finger 13 and the thumb 11, and extending from the entrance of the finger jacket 310. [

예를 들면, 핑거 자켓(310)은 일측을 형성하는 제1영역(S1)과, 타측을 형성하는 제3영역(S3)과, 제1영역(S1) 및 제3영역(S3) 사이의 제2영역(S2)으로 구획된다. 제1영역(S1)에는 손가락이 삽입되는 입구가 형성된다.For example, the finger jacket 310 has a first region S1 forming one side, a third region S3 forming the other side, and a third region S3 forming the other side between the first region S1 and the third region S3. 2 area S2. In the first area S1, an inlet through which a finger is inserted is formed.

그리고, 제1영역(S1)은 손가락의 첫마디뼈의 위치에 대응되고, 제2영역(S2)은 손가락의 중간마디뼈의 위치에 대응되며, 제3영역(S3)은 손가락의 말단을 형성하는 끝마디뼈의 위치에 대응된다. 여기서, 손의 구조는 손바닥을 형성하는 손허리뼈와, 손허리뼈에 힌지결합되는 첫마디뼈와, 첫마디뼈에 힌지결합되는 중간마디뼈와 중간마디뼈에 힌질결합되는 끝마디뼈로 구성된다.The first region S1 corresponds to the position of the first bony bone of the finger, the second region S2 corresponds to the position of the middle node bone of the finger, and the third region S3 corresponds to the position of the finger Corresponds to the position of the tip bone. Here, the structure of the hand is composed of the hand back bone forming the palm of the hand, the first bony bone hinged to the back of the hand, the middle node bone hinged to the first bony bone, and the end bony bone hinged to the middle node bone.

제1모션 센서(321)는 핑거 자켓(310)에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 제1모션 센서(321)는 엄지 손가락(11)의 움직임을 센싱한 제1센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The first motion sensor 321 is disposed in the finger jacket 310 and outputs a first sensing signal in accordance with the movement of the user's finger. Preferably, the finger jacket 310 is worn on the index finger, and the first motion sensor 321 outputs a first sensing signal sensing the movement of the thumb 11 to the signal processing unit 351 (352) do.

구체적으로, 제1모션 센서(321)는 제1영역(S1)의 외면에 배치된다. 더욱 구체적으로, 제1모션 센서(321)는 핑거 자켓(310)에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락의 엄지 손가락(11)방향 측면으로 노출된다, 즉, 제1모션 센서(321)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다. 여기서, 손가락의 바닥 방향을 바닥면이라고 정의하고, 바닥면과 마주보는 면을 상면, 바닥면과 상면을 연결하는 면을 손가락의 측면으로 정의할 수 있다.Specifically, the first motion sensor 321 is disposed on the outer surface of the first area S1. More specifically, the first motion sensor 321 is exposed to the side of the thumb 11 of the user's finger to facilitate sensing of the movement of the thumb 11 in the finger jacket 310. That is, The motion sensor 321 is exposed from the index finger of the user toward the side of the thumb 11. Here, the bottom direction of the finger is defined as the bottom surface, the surface facing the bottom surface is defined as the top surface, and the surface connecting the bottom surface and the top surface can be defined as the side surface of the finger.

제1모션 센서(321)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는, 제1모션 센서(321)는 터치 센서로 구현되고, 제1모션 센서(321)는 사용자의 손가락의 접촉상태에서 이동방향 및 이동속도 값을 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. The first motion sensor 321 may be implemented as one or more of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor. Preferably, the first motion sensor 321 is implemented as a touch sensor, and the first motion sensor 321 measures the moving direction and the moving speed value in the contact state of the user's finger, (352).

이를 위해, 제1모션 센서(321)는 핑거 자켓(310)의 길이 방향으로 소정의 길이를 가지게 배치되며, 바람직하게는 제1영역(S1)의 길이와 대응되거나, 제1영역(S1)의 길이 보다 짧은 길이를 가진다. 따라서, 제1모션 센서(321)는 손가락이 제1영역(S1)내에서 이동하는 것을 감지하게 된다.The first motion sensor 321 is arranged to have a predetermined length in the longitudinal direction of the finger jacket 310 and preferably corresponds to the length of the first area S1 or may have a length corresponding to that of the first area S1, The length is shorter than the length. Accordingly, the first motion sensor 321 senses that the finger moves in the first area S1.

제2모션 센서(323)는 핑거 자켓(310)에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 제2모션 센서(323)는 엄지 손가락(11)의 움직임을 센싱한 제2센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The second motion sensor 323 is disposed in the finger jacket 310 and outputs a second sensing signal in accordance with the movement of the user's finger. Preferably, the finger jacket 310 is worn on the index finger, and the second motion sensor 323 outputs a second sensing signal sensing the movement of the thumb 11 to the signal processing unit 351 (352) do.

구체적으로, 제2모션 센서(323)는 제2영역(S2)의 외면에 배치된다. 더욱 구체적으로, 제2모션 센서(323)는 핑거 자켓(310)의 외면에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락의 엄지 손가락(11) 방향 측면으로 노출된다, 즉, 제2모션 센서(323)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다.Specifically, the second motion sensor 323 is disposed on the outer surface of the second area S2. More specifically, the second motion sensor 323 is exposed to the side of the thumb 11 of the user's finger to facilitate sensing of the movement of the thumb 11 on the outer surface of the finger jacket 310, The second motion sensor 323 is exposed to the side of the index finger of the user in the direction of the thumb 11.

제2모션 센서(323)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는 제2모션 센서(323)는 터치 센서로 구현되고, 제2모션 센서(323)는 사용자의 손가락의 접촉상태에서 이동방향 및 이동속도 값을 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. The second motion sensor 323 may be implemented as one or more of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor. Preferably, the second motion sensor 323 is implemented as a touch sensor, and the second motion sensor 323 measures the movement direction and the movement speed value in the contact state of the user's finger, and transmits it to the signal processing unit 351 ( 352, respectively.

이를 위해, 제2모션 센서(323)는 핑거 자켓(310)의 길이 방향으로 소정의 길이를 가지게 배치되며, 바람직하게는 제2영역(S2)의 길이와 대응되는 길이를 가진다. 따라서, 제2모션 센서(323)는 손가락이 제2영역(S2) 내에서 이동하는 것을 감지하게 된다.For this purpose, the second motion sensor 323 has a predetermined length in the longitudinal direction of the finger jacket 310, and preferably has a length corresponding to the length of the second area S2. Accordingly, the second motion sensor 323 senses that the finger moves in the second area S2.

접촉센서(325)는 핑거 자켓(310)에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력한다. 바람직하게는, 핑거 자켓(310)이 검지 손가락에 착용되고, 접촉센서(325)는 엄지 손가락(11)의 접촉을 센싱한 제3센싱신호를 신호처리 유닛(351)(352)으로 출력한다.The touch sensor 325 is disposed on the finger jacket 310 and outputs a third sensing signal in accordance with the finger contact of the user. Preferably, the finger jacket 310 is worn on the index finger, and the touch sensor 325 outputs a third sensing signal sensing the touch of the thumb 11 to the signal processing unit 351 (352).

구체적으로, 접촉센서(325)는 제3영역(S3)의 외면에 배치된다. 더욱 구체적으로, 접촉센서(325)는 핑거 자켓(310)의 외면에서 엄지 손가락(11)의 움직임에 대해 센싱이 용이하도록 사용자의 손가락에서 엄지 손가락(11) 방향 측면으로 노출된다, 즉, 접촉센서(325)는 사용자의 검지 손가락에서 엄지 손가락(11) 방향의 측면으로 노출된다.Specifically, the contact sensor 325 is disposed on the outer surface of the third area S3. More specifically, the touch sensor 325 is exposed to the side of the thumb 11 in the direction of the thumb 11 to facilitate sensing of the movement of the thumb 11 on the outer surface of the finger jacket 310, (325) is exposed from the index finger of the user toward the side of the thumb (11).

접촉센서(325)는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현될 수 있다. 바람직하게는 접촉센서(325)는 터치 센서로 구현되고, 접촉센서(325)는 사용자의 손가락의 접촉상태를 측정하고, 이를 신호처리 유닛(351)(352)으로 출력한다. 특히, 접촉센서(325)에서 입력된 제3센싱신호는 신호처리 유닛(351)(352)에서 클릭명령에 대응되는 제어 데이터로 생성된다. The touch sensor 325 may be implemented as one or more of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor. Preferably, the touch sensor 325 is implemented as a touch sensor, and the touch sensor 325 measures the contact state of the user's finger and outputs it to the signal processing unit 351 (352). In particular, the third sensing signal input from the touch sensor 325 is generated as control data corresponding to the click instruction in the signal processing units 351 and 352.

상술한, 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)는 핑거 자켓(310)의 길이방향으로 형성된 임의의 선 상에 배치된다. The first motion sensor 321, the second motion sensor 323 and the contact sensor 325 described above are disposed on any line formed in the longitudinal direction of the finger jacket 310. [

그리고, 도 6에서 도시하는 바와 같이, 손가락의 접힘상태에서, 제1영역(S1)과 제2영역(S2)은 서로 수직되게 배치된다. 여기서, 수직은 수학적 의미의 완전한 수직을 의미하는 것은 아니고, 오차를 포함하는 범위의 수직을 의미할 것이다. 이 때, 제1모션 센서(321)는 수평방향으로 길게 배치되고(제1영역(S1)), 제2모션 센서(323)는 수직방향으로 길게 배치되며, 제1센싱신호는 타켓기기의 마우스 포인터의 평면좌표의 X축방향의 움직임에 대응되고, 제2센싱신호는 마우스 포인터의 Y축 방향의 움직임에 대응된다. 따라서, 손가락을 접는 간단한 동작으로, 직관적인 입력을 할 수 있는 이점이 존재한다.6, in the folded state of the finger, the first region S1 and the second region S2 are arranged perpendicular to each other. Here, the vertical does not mean a complete vertical of the mathematical meaning but it will mean the vertical of the range including the error. In this case, the first motion sensor 321 is arranged long in the horizontal direction (first area S1), the second motion sensor 323 is arranged long in the vertical direction, Axis direction of the pointer in the X-axis direction, and the second sensing signal corresponds to the movement of the mouse pointer in the Y-axis direction. Therefore, there is an advantage that an intuitive input can be performed by a simple operation of folding a finger.

스위칭 유닛(330)은 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)를 활성화한다. 예를 들면, 스위칭 유닛(330)은 배터리에 연결된 제1접점(331)과 제2접점(333)을 포함한다. 스위칭 유닛(330)은 배터리, 제1모션 센서(321), 제2모션 센서(323), 접촉센서(325) 및 신호처리 유닛(351)(352)과 전기적으로 연결되고, 제1접점(331)과 제2접점(333)의 접촉여부에 따라 전원을 공급하게 된다.The switching unit 330 activates the first motion sensor 321, the second motion sensor 323, and the contact sensor 325. For example, the switching unit 330 includes a first contact 331 and a second contact 333 connected to the battery. The switching unit 330 is electrically connected to the battery, the first motion sensor 321, the second motion sensor 323, the contact sensor 325 and the signal processing units 351 and 352, and the first contact 331 And the second contact 333 are in contact with each other.

제1접점(331)은 핑거 자켓(310)의 일단에 배치되고, 제2접점(333)은 핑거 자켓(310)의 타단에 배치되어 제1접점(331)과 선택적으로 접촉된다. 제1접점(331)은 제1영역(S1)에 배치되고, 제2접점(333)은 제3영역(S3)에 배치된다. 더욱 구체적으로, 제1접점(331)과 제2접점(333)은 손가락의 접힘상태에서 접촉된다. 여기서, 손가락의 접힘상태는 도 6에서와 같이, 손가락이 주먹을 쥔 상태일 수 있다. 또는, 손가락의 접힘상태는 손가락의 말단(끝마디뼈)과 손가락의 첫마디뼈에 접촉되는 상태일 수 있다. 이때, 핑거 자켓(310)도 손가락의 접힘에 의해 밴딩되어 제1영역(S1)과 제3영역(S3)이 접촉되게 된다.The first contact 331 is disposed at one end of the finger jacket 310 and the second contact 333 is disposed at the other end of the finger jacket 310 to selectively contact the first contact 331. The first contact 331 is disposed in the first area S1 and the second contact 333 is disposed in the third area S3. More specifically, the first contact 331 and the second contact 333 are in contact with each other in the folded state of the finger. Here, the folded state of the finger may be a state in which the fingers are gripped by the fingers as shown in Fig. Alternatively, the folded state of the fingers may be in contact with the distal ends of the fingers (the tip of the fingers) and the first fingers of the fingers. At this time, the finger jacket 310 is also bent by the folding of the finger, so that the first region S1 and the third region S3 are brought into contact with each other.

제1접점(331)과 제2접점(333)이 접촉되면 배터리의 전기가 통전되어 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)가 활성화된다.When the first contact 331 and the second contact 333 come into contact with each other, the battery is energized to activate the first motion sensor 321, the second motion sensor 323, and the contact sensor 325.

바람직하게는, 손가락의 접힘동작에 의해 제1접점(331)과 제2접점(333)의 접촉이 용이하도록 제1접점(331)과 제2접점(333)은 핑거 자켓(310)에서 사용자의 손바닥 방향으로 노출된다. 따라서, 핑거 자켓(310) 단면의 원주 상에서 제1접점(331)과 제1모션 센서(321)는 서로 약 90도의 중심각을 가지게 위치되고, 핑거 자켓(310) 단면의 원주 상에서 제2접점(333)과 접촉센서(325)는 서로 약 90도의 중심각을 가지게 위치될 수 있다.The first contact 331 and the second contact 333 may be provided on the finger jacket 310 so as to facilitate contact between the first contact 331 and the second contact 333 by the folding operation of the finger. It is exposed in the direction of the palm. The first contact 331 and the first motion sensor 321 are located at a central angle of about 90 degrees with respect to each other on the circumference of the end face of the finger jacket 310 and the second contact 333 And the touch sensor 325 may be positioned to have a central angle of about 90 degrees with each other.

신호처리 유닛(351)(352)은 제1모션 센서(321), 제2모션 센서(323) 및 접촉센서(325)에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력한다.The signal processing units 351 and 352 receive the finger motion of the user from the plurality of sensing signals outputted from the first motion sensor 321, the second motion sensor 323 and the contact sensor 325, Output the user command to the target device.

예를 들면, 신호처리 유닛(351)(352)은 제1센싱신호 및 제2센싱신호들을 기반으로, 타켓기기의 마우스 포인터의 이동방향과 이동속도 값을 결정하는 신호 처리부(351)와, 결정된 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터를 생성하여 타켓 기기로 전송하는 신호 송신부(352)를 포함한다.For example, the signal processing units 351 and 352 include a signal processing unit 351 for determining the moving direction and the moving speed value of the mouse pointer of the target device based on the first sensing signal and the second sensing signals, And a signal transmission unit 352 for generating control data including information on the movement direction of the mouse pointer and the movement speed value and transmitting the control data to the target device.

여기서, 신호 송신부(352)는 타켓 기기의 무선 통신부(100)에 제어 데이터를 송신하거나, 서로 데이터를 주고 받을 수 있다.Here, the signal transmitting unit 352 can send control data to or receive data from the wireless communication unit 100 of the target device.

또한, 신호 처리부(351)는 제3센싱신호를 기반으로 타켓기기의 클릭명령에 대응되는 제어 데이터를 생성하여 하고, 신호 송신부(352)는 클릭명령에 대응되는 제어 데이터를 타켓 기기로 전송한다.The signal processing unit 351 generates control data corresponding to a click command of the target apparatus based on the third sensing signal, and the signal transmitting unit 352 transmits the control data corresponding to the click command to the target apparatus.

타켓기기의 제어부(180)는 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터에 따라 디스플레이부(151)에 표시된 마우스 포인터의 움직임을 표시한다. 또한, 타켓기기의 제어부(180)는 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터에 따라 다양한 제어 테이터를 생성하여 타켓기기를 제어(타켓기기의 볼륨, 디스플레이부의 밝기 조절 등)할 수 있다.The control unit 180 of the target device displays the movement of the mouse pointer displayed on the display unit 151 according to the control data including the information on the moving direction of the mouse pointer and the moving speed value. In addition, the controller 180 of the target device generates various control data according to the control data including the information on the movement direction of the mouse pointer and the movement speed value, and controls the target device (the volume of the target device, )can do.

또한, 본원 발명에 따른 착용형 사용자 인터페이스 장치(300)를 이동 단말기에 적용할 경우, 기존의 이동 단말기의 키보드나 터치 스크린이 필요하지 않기 때문에 이동 단말기의 크기를 줄일 수 있다. 즉, 디스플레이 화면이 최소한의 정보만을 제공하고 이어폰이 정보 제공을 보조할 경우, 이동 단말기의 형태가 손목 시계나 반지의 형태로 변환가능하다.In addition, when the wearable user interface device 300 according to the present invention is applied to a mobile terminal, the size of the mobile terminal can be reduced because a keyboard or a touch screen of a conventional mobile terminal is not needed. That is, if the display screen provides only minimal information and the earphone assists in providing information, the form of the mobile terminal can be converted into a wristwatch or ring form.

또한, 본원 발명에 따른 착용형 사용자 인터페이스 장치(300)를 이동 단말기에 적용할 경우, 디스플레이 화면이 없는 이동 단말기를 구현할 수 있다. 예를 들어, 착용형 사용자 인터페이스 장치(300)가 장착된 손가락의 움직임에 따라 해당 메뉴에 대한 정보를 이어폰으로 전달하고 원하는 메뉴에서 손가락의 클릭 동작이 인식되면 이동 단말기의 각각의 기능을 수행할 수 있다. 또한, 이동 단말기의 기능에 필요한 손가락 동작을 미리 정의하고, 해당 손가락 동작이 인식되면 휴대전화 기능을 수행할 수도 있다. 또한, 일정 시간 동안 반복되는 손가락 클릭 동작의 횟수를 기반으로, 이동 단말기의 기능을 수행할 수 있다. 예를 들어, 일정 시간 동안 두 번의 클릭 동작이 인식되면 통화연결 기능을 수행하고, 일정 시간 동안 세 번의 클릭 동작이 인식되면 통화종료 기능을 수행하며, 한 번의 클릭 동작이 인식되면 메뉴탐색 기능을 시작하고, 손가락의 움직임에 따라 메뉴를 탐색하여 실행할 수 있다.
In addition, when the wearable user interface device 300 according to the present invention is applied to a mobile terminal, a mobile terminal without a display screen can be implemented. For example, when the wearable user interface device 300 receives the information about the corresponding menu in accordance with the movement of the finger attached thereto, and when the click operation of the finger is recognized in the desired menu, each function of the mobile terminal can be performed have. Further, a finger operation necessary for the function of the mobile terminal may be defined in advance, and the mobile phone function may be performed when the finger operation is recognized. Further, the mobile terminal can perform the function of the mobile terminal based on the number of times the finger is clicked repeatedly for a predetermined time. For example, if two clicks are recognized for a certain period of time, a call connection function is performed. If three clicks are recognized for a predetermined time, a call termination function is performed. If a click operation is recognized, And the menu can be searched and executed according to the movement of the finger.

도 5 내지 도 8은 일 실시예에 따른 착용형 사용자 인터페이스 장치의 동작방법을 설명하는 설명도이다.5 to 8 are explanatory diagrams illustrating a method of operating a wearable user interface device according to an embodiment.

먼저, 도 5를 참고하면, 사용자는 착용형 사용자 인터페이스 장치(300)를 사용자의 손가락에 착용한다. 구체적으로, 핑거 자켓(310)이 검지 손가락에 착용된다.First, referring to FIG. 5, the user wears the wearable user interface device 300 on the user's finger. Specifically, the finger jacket 310 is worn on the index finger.

이후, 도 6에 도시하는 바와 같이, 착용형 사용자 인터페이스 장치(300)를 활성화시키기 위해, 사용자가 손가락(상세히는, 검지)의 접힘상태를 만든다. 이 때, 제1영역(S1)과 제3영역(S3)에 위치된 제1접점(331)과 제2접점(333)이 통전되고 착용형 사용자 인터페이스 장치(300)가 활성화된다.Then, as shown in Fig. 6, in order to activate the wearable user interface device 300, the user makes a folded state of the finger (in detail, the index finger). At this time, the first contact 331 and the second contact 333 located in the first area S1 and the third area S3 are energized and the wearable user interface device 300 is activated.

도 7을 참고하면, 사용자는 제1영역(S1)에 위치된 제1모션 센서(321)와 제2영역(S2)에 위치된 제2모션 센서(323)에 엄지 손가락(11)의 움직임을 감지시킬 수 있다. 구체적으로, 제1모션 센서(321)에 의해 감지된 엄지 손가락(11)의 움직임은 마우스 포인터의 X좌표 움직임에 대응되고, 제2모션 센서(323)에 의해 감지된 엄지 손가락(11)의 움직임은 마우스 포인터의 Y좌표 움직임에 대응된다. 접촉센서(325)에 엄지 손가락(11)이 터치되면서 클릭명령이 입력되게 된다.7, the user can move the thumb 11 to the first motion sensor 321 located in the first area S1 and the second motion sensor 323 located in the second area S2 Can be detected. Specifically, the movement of the thumb 11 detected by the first motion sensor 321 corresponds to the X coordinate movement of the mouse pointer, and the movement of the thumb 11 sensed by the second motion sensor 323 Corresponds to the Y coordinate movement of the mouse pointer. The thumb 11 is touched to the touch sensor 325, and a click command is input.

도 8을 참고하면, 착용형 사용자 인터페이스 장치(300)의 장치에서 입력된 제어 데이터에 의해 이동 단말기의 마우스 포인터가 이동된다.
Referring to FIG. 8, the mouse pointer of the mobile terminal is moved by the control data input from the apparatus of the wearable user interface device 300.

도 9는 본 발명의 다른 실시예에 따른 착용형 사용자 인터페이스 장치를 도시한 개념도이다.9 is a conceptual diagram illustrating a wearable user interface device according to another embodiment of the present invention.

도 9를 참조하면, 실시예의 착용형 사용자 인터페이스 장치는 장갑의 형태로 모든 손가락을 수용하는 구조를 도시하고 있다. 도 1의 실시예와 비교하면, 검지 손가락을 제외한 다른 손가락이 수용되는 핑거 글러브를 더 포함한다.Referring to Fig. 9, the wearable user interface device of the embodiment shows a structure for receiving all fingers in the form of gloves. Compared with the embodiment of FIG. 1, the finger glove further includes a finger glove in which other fingers other than the index finger are accommodated.

이 때, 핑거 자켓(310)은 검지 손가락을 수용하는 부분으로 정의될 수 있다. 그리고, 엄지 손가락(11)의 말단에 대응하는 핑거 글러브의 경우, 사용자 명령 입력을 위해, 도전체가 부착되거나 엄지 손가락(11)의 말단이 노출되는 구조를 가질 수 있다.
At this time, the finger jacket 310 can be defined as a portion that receives the index finger. And, in the case of the finger glove corresponding to the end of the thumb 11, it may have a structure in which a conductor is attached or the end of the thumb 11 is exposed for user command input.

이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It should be understood that various modifications may be made by those skilled in the art without departing from the spirit and scope of the present invention.

Claims (10)

일측에 입구를 가지고, 사용자의 손가락이 내삽되고, 손가락의 접힘동작에 의해 접히는 핑거 자켓;
상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제1센싱신호를 출력하는 제1모션 센서;
상기 핑거자켓에 배치되어 사용자의 손가락 움직임에 따라 제2센싱신호를 출력하는 제2모션 센서;
상기 핑거자켓에 배치되어 사용자의 손가락 접촉에 따라 제3센싱신호를 출력하는 접촉센서;
상기 제1모션 센서, 제2모션 센서 및 접촉센서에서 출력된 다수의 센싱신호로부터 사용자의 손가락 움직임과, 손가락 접촉에 대응되는 사용자 명령을 타켓 기기로 출력하는 신호처리 유닛; 및
상기 제1모션 센서, 제2모션 센서 및 접촉센서를 활성화하는 스위칭 유닛을 포함하고,
상기 스위칭 유닛은,
상기 핑거 자켓의 일단에 배치되는 제1접점과 상기 핑거 자켓의 타단에 배치되어 제1접점과 선택적으로 접촉되는 제2접점을 포함하고,
상기 제1접점과 상기 제2접점은 손가락의 접힘상태에서 접촉되는 착용형 사용자 인터페이스 장치.
A finger jacket having an inlet on one side, a user's finger being interpolated, and folded by the folding action of the finger;
A first motion sensor disposed in the finger jacket and outputting a first sensing signal according to a user's finger movement;
A second motion sensor disposed in the finger jacket and outputting a second sensing signal in accordance with a user's finger motion;
A touch sensor disposed in the finger jacket and outputting a third sensing signal according to a finger contact of the user;
A signal processing unit for outputting a finger movement of a user and a user command corresponding to finger contact from a plurality of sensing signals output from the first motion sensor, the second motion sensor, and the touch sensor to a target device; And
And a switching unit for activating the first motion sensor, the second motion sensor and the contact sensor,
The switching unit includes:
A first contact disposed at one end of the finger jacket and a second contact disposed at the other end of the finger jacket and selectively in contact with the first contact,
Wherein the first contact and the second contact are in contact with each other in a folded state of the finger.
제1항에 있어서,
상기 핑거 자켓은,
일측을 형성하는 제1영역과, 타측을 형성하는 제3영역과, 상기 제1영역 및 제3영역 사이의 제2영역으로 구획되고,
상기 제1모션 센서는 제1영역의 외면에 배치되고, 상기 제2모션 센서는 제2영역의 외면에 배치되며, 상기 접촉센서는 제3영역의 외면에 배치되는 착용형 사용자 인터페이스 장치.
The method according to claim 1,
The finger jacket includes:
A first region forming one side, a third region forming the other side, and a second region between the first region and the third region,
Wherein the first motion sensor is disposed on the outer surface of the first region, the second motion sensor is disposed on the outer surface of the second region, and the contact sensor is disposed on the outer surface of the third region.
제2항에 있어서,
상기 제1영역은 손가락의 첫마디뼈의 위치에 대응되고, 상기 제2영역은 손가락의 중간마디뼈의 위치에 대응되며, 제3영역은 손가락의 끝마디뼈의 위치에 대응되는 착용형 사용자 인터페이스 장치.
3. The method of claim 2,
Wherein the first region corresponds to the position of the first bony bone of the finger, the second region corresponds to the position of the middle bony bone of the finger, and the third region corresponds to the position of the bony bone of the finger.
제2항에 있어서,
상기 제1접점은 상기 제1영역에 배치되고, 상기 제2접점은 제3영역에 배치되는 착용형 사용자 인터페이스 장치.
3. The method of claim 2,
Wherein the first contact is disposed in the first area and the second contact is disposed in the third area.
제4항에 있어서,
상기 제1접점과 제2접점은 사용자의 손의 바닥 방향으로 노출되고,
상기 제1모션 센서, 제2모션 센서 및 접촉센서는 사용자의 손가락의 엄지 손가락 방향 측면으로 노출되는 착용형 사용자 인터페이스 장치.
5. The method of claim 4,
The first contact and the second contact are exposed in the direction of the bottom of the user's hand,
Wherein the first motion sensor, the second motion sensor, and the contact sensor are exposed on the thumb direction side of the user's finger.
제1항에 있어서,
상기 신호처리 유닛은,
상기 제1센싱신호 및 제2센싱신호들을 기반으로, 상기 타켓기기의 마우스 포인터의 이동방향과 이동속도 값을 결정하는 신호처리부와,
상기 결정된 마우스 포인터의 이동방향에 대한 정보와 이동속도 값을 포함하는 제어 데이터를 생성하여 타켓 기기로 전송하는 신호송신부를 포함하는 착용형 사용자 인터페이스 장치.
The method according to claim 1,
The signal processing unit includes:
A signal processor for determining a moving direction and a moving speed value of the mouse pointer of the target device based on the first sensing signal and the second sensing signals;
And a signal transmitter for generating control data including information on a movement direction of the mouse pointer and a movement speed value and transmitting the control data to a target device.
제2항에 있어서,
손가락의 접힘상태에서, 상기 제1영역과 상기 제2영역은 서로 수직되게 배치되는 착용형 사용자 인터페이스 장치.
3. The method of claim 2,
Wherein in the folded state of the finger, the first region and the second region are disposed perpendicular to each other.
제1항에 있어서,
상기 핑거 자켓은 상기 사용자의 검지에 착용되는 착용형 사용자 인터페이스 장치.
The method according to claim 1,
Wherein the finger jacket is worn on the index of the user.
제1항에 있어서,
상기 제1모션 센서 또는 제2모션 센서는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현되는 착용형 사용자 인터페이스 장치.
The method according to claim 1,
Wherein the first motion sensor or the second motion sensor is implemented as at least one of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor.
제1항에 있어서,
상기 접촉센서는 근전도 센서, 압전 센서, 광 신호 센서 및 터치 센서 중에서 하나 이상으로 구현되는 착용형 사용자 인터페이스 장치.







The method according to claim 1,
Wherein the touch sensor is implemented as at least one of an electromyogram sensor, a piezoelectric sensor, an optical signal sensor, and a touch sensor.







KR1020140180549A 2014-12-15 2014-12-15 Wearable interface apparatus for user KR20160072637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140180549A KR20160072637A (en) 2014-12-15 2014-12-15 Wearable interface apparatus for user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140180549A KR20160072637A (en) 2014-12-15 2014-12-15 Wearable interface apparatus for user

Publications (1)

Publication Number Publication Date
KR20160072637A true KR20160072637A (en) 2016-06-23

Family

ID=56353318

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140180549A KR20160072637A (en) 2014-12-15 2014-12-15 Wearable interface apparatus for user

Country Status (1)

Country Link
KR (1) KR20160072637A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200002413A (en) * 2018-06-29 2020-01-08 조선대학교산학협력단 Band-type optical wireless mouse
WO2020080733A1 (en) * 2018-10-16 2020-04-23 주식회사 콕스스페이스 Interface device for controlling virtual content
WO2021060601A1 (en) * 2019-09-26 2021-04-01 주식회사 팜캣 Method and system for recognizing motion through points and angles
CN113854679A (en) * 2021-11-22 2021-12-31 温州大学 Flexible intelligent glove for remote control intelligent equipment

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200002413A (en) * 2018-06-29 2020-01-08 조선대학교산학협력단 Band-type optical wireless mouse
WO2020080733A1 (en) * 2018-10-16 2020-04-23 주식회사 콕스스페이스 Interface device for controlling virtual content
WO2020080732A1 (en) * 2018-10-16 2020-04-23 주식회사 콕스스페이스 Interface method for controlling virtual content
WO2021060601A1 (en) * 2019-09-26 2021-04-01 주식회사 팜캣 Method and system for recognizing motion through points and angles
KR20210037063A (en) * 2019-09-26 2021-04-06 주식회사 팜캣 Method and system recognizing gesture using points and angles
CN113854679A (en) * 2021-11-22 2021-12-31 温州大学 Flexible intelligent glove for remote control intelligent equipment
CN113854679B (en) * 2021-11-22 2024-03-12 温州大学 Flexible intelligent glove for remote control intelligent equipment

Similar Documents

Publication Publication Date Title
KR20170128820A (en) Mobile terminal and method for controlling the same
CN108491149B (en) Split screen display method and terminal
KR20160035948A (en) Mobile terminal and system including the same
KR20160045269A (en) Wearable device and mobile terminal for supporting communication with the device
KR20150088599A (en) Mobile terminal and method for controlling the same
KR20170126294A (en) Mobile terminal and method for controlling the same
KR101641424B1 (en) Terminal and operating method thereof
KR20160000627A (en) Mobile terminal and method for controlling the same
KR20150098115A (en) Mobile terminal and method for controlling the same
KR20160072637A (en) Wearable interface apparatus for user
KR20160018163A (en) Mobile terminal and communication system thereof
KR101880592B1 (en) Stylus and mobile terminal having the same
KR20160086166A (en) Mobile terminal and method for controlling the same
KR20160147564A (en) Mobile terminal and control method thereof
KR20160102811A (en) Mobile terminal that can control handwriting relevant function through gesture of the hand which is worn a wrist wearable device and method for controlling the same
KR102166719B1 (en) Apparatus and method for information exchange
KR102130801B1 (en) Apparatus for detecting wrist step and method thereof
KR20160068534A (en) Mobile terminal and method for controlling the same
KR20160066269A (en) Mobile terminal and method for controlling the same
KR20150135844A (en) Mobile terminal and method for controlling the same
KR20160016181A (en) Mobile terminal and method for controlling the same
KR101566113B1 (en) Watch-type mobile terminal and method for controlling the saem
KR101677643B1 (en) Mobile terminal and method for controlling the same
KR102294598B1 (en) Mobile terminal and method for controlling the same
KR20160142671A (en) Watch type mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination