KR101552134B1 - Wearable device - Google Patents

Wearable device Download PDF

Info

Publication number
KR101552134B1
KR101552134B1 KR1020140139081A KR20140139081A KR101552134B1 KR 101552134 B1 KR101552134 B1 KR 101552134B1 KR 1020140139081 A KR1020140139081 A KR 1020140139081A KR 20140139081 A KR20140139081 A KR 20140139081A KR 101552134 B1 KR101552134 B1 KR 101552134B1
Authority
KR
South Korea
Prior art keywords
optical signal
wearable device
reflected
blood vessel
information
Prior art date
Application number
KR1020140139081A
Other languages
Korean (ko)
Inventor
박준호
Original Assignee
박준호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박준호 filed Critical 박준호
Priority to KR1020140139081A priority Critical patent/KR101552134B1/en
Application granted granted Critical
Publication of KR101552134B1 publication Critical patent/KR101552134B1/en
Priority to US15/517,923 priority patent/US10474191B2/en
Priority to PCT/KR2015/010825 priority patent/WO2016060461A1/en
Priority to US16/601,359 priority patent/US10908642B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed is a wearable device including: an optical signal delivery unit delivering an optical signal, an optical signal detection unit receiving a reflected optical signal generated by being reflected from an object; a data processing unit processing the received reflected optical signal; and a key determination unit detecting a key input action of a user based on the data of processing the reflected optical signal, and generating an input value matching the key input action.

Description

웨어러블 디바이스{WEARABLE DEVICE}[0002] WEARABLE DEVICE [

본 발명은 웨어러블 디바이스에 관련된 기술이다.The present invention relates to a wearable device.

일상 생활에서 전자 기기의 사용이 필수적인 최근의 생활 환경에서 전자 기기들은 각각의 입력 수단을 포함한다. 그러나, 이러한 일반적인 입력 수단들은 키보드, 마우스 등의 2차원 입력 수단에서 큰 개선이 이루어지지 않고 있다. 나아가, 휴대성과 편리성 측면에서도 개선될 필요가 있다.In recent life environments where the use of electronic devices is essential in everyday life, electronic devices include respective input means. However, such general input means have not been greatly improved in a two-dimensional input means such as a keyboard and a mouse. Furthermore, it needs to be improved in terms of portability and convenience.

이에 따라, 휴대성과 편리성을 동시에 충족시킬 수 있는 입력 수단의 등장이 요구된다. 특히, 전자 기기들이 소형화되는 추세에서, 새로운 입력 수단은 휴대성과 편리성뿐 아니라 전자 기기들의 기능을 충분히 활용할 수 있도록 다양한 입력 값들을 처리할 수 있어야 한다.Accordingly, the emergence of an input means capable of simultaneously satisfying portability and convenience is required. In particular, in the trend of miniaturization of electronic devices, the new input means must be capable of handling various input values in order to fully utilize the functions of electronic devices as well as portability and convenience.

본 발명은 상기한 바와 같은 기술의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은 휴대 가능한 입력 수단을 활용하여 사용자가 편리하게 데이터 입력을 가능하도록 하는 것이다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to allow a user to conveniently input data by utilizing portable input means.

본 발명의 또 다른 목적은 웨어러블 디바이스가 키보드와 마우스의 입력 수단을 대체할 수 있도록 다양한 종류의 데이터 입력을 가능케 하는 것이다.Another object of the present invention is to enable various kinds of data input so that the wearable device can replace the input means of the keyboard and the mouse.

본 발명의 또 다른 목적은 웨어러블 디바이스의 장점인 휴대성을 유지하면서도 입력되는 데이터의 정확도를 유지할 수 있도록 하는 것이다.Yet another object of the present invention is to maintain the accuracy of input data while maintaining portability which is an advantage of wearable devices.

본 발명에서 이루고자 하는 기술적 목적들은 이상에서 언급한 사항들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 이하 설명할 본 발명의 실시 예들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 고려될 수 있다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are not intended to limit the invention to the particular form disclosed. ≪ / RTI >

상기 기술적 과제를 해결하기 위한 웨어러블 디바이스는 광신호를 송출하는 광신호 송출부, 광신호가 대상체에 반사되어 생성되는 반사 광신호를 수신하는 광신호 감지부, 수신된 반사 광신호를 처리하는 데이터 처리부 및 반사 광신호를 처리한 데이터에 기초하여 사용자의 키 입력 동작을 감지하고 키 입력 동작에 매칭되는 입력 값을 생성하는 키 결정부를 포함하되, 광신호 송출부는 서로 다른 제 1 파장 및 제 2 파장을 갖는 제 1 광신호 및 제 2 광신호를 송출하고, 광신호 감지부는 제 1 광신호에 의한 제 1 반사 광신호 및 제 2 광신호에 의한 제 2 반사 광신호를 수신하고, 데이터 처리부는 제 1 반사 광신호 및 제 2 반사 광신호에 기초하여 대상체의 혈관에 대한 패턴 정보를 생성하고, 키 결정부는 사용자의 키 입력 동작에 따라 변화하는 혈관에 대한 정보를 패턴 정보와 비교하여 키 입력 동작을 감지한다.According to an aspect of the present invention, there is provided a wearable device including a light signal transmitting unit for transmitting an optical signal, a light signal detecting unit for receiving a reflected light signal generated by reflecting an optical signal to a target object, a data processing unit for processing the received reflected light signal, And a key determiner for detecting a key input operation of the user based on the data obtained by processing the reflected optical signal and generating an input value matched with the key input operation, wherein the optical signal transmitter includes a first optical transmitter having a first wavelength and a second wavelength, The first optical signal and the second optical signal are transmitted, and the optical signal receiving unit receives the first reflected optical signal based on the first optical signal and the second reflected optical signal based on the second optical signal, And a second determination unit configured to generate pattern information on the blood vessel of the object based on the optical signal and the second reflected light signal, Information is compared with the pattern information to detect the key input operation.

데이터 처리부는 제 1 반사 광신호를 처리한 데이터에서 제 2 반사 광신호를 처리한 데이터를 뺀 혈관 데이터를 획득할 수 있다.The data processing unit can obtain the blood vessel data by subtracting the data obtained by processing the second reflected light signal from the data obtained by processing the first reflected light signal.

데이터 처리부는 혈관 데이터를 이용하여 혈관에 대한 패턴 정보를 생성할 수 있다.The data processing unit can generate the pattern information on the blood vessel using the blood vessel data.

웨어러블 디바이스는 대상체를 3차원으로 감지하여 3차원 스캔 정보를 생성하는 깊이 센서 및 3차원 스캔 정보에 기초하여 대상체에 대한 3차원 모델을 생성하고 패턴 정보에 기초하여 혈관을 나타내는 패턴을 3차원 모델에 추가하는 영상 처리부를 더 포함할 수 있다.A wearable device generates a three-dimensional model for a target object based on a depth sensor that senses an object three-dimensionally and generates three-dimensional scan information and a three-dimensional model that represents a blood vessel based on pattern information based on three- The image processing unit may further include a video processing unit.

웨어러블 디바이스는 키 입력 동작에 따라 변화하는 혈관에 대한 정보를 3차원 모델에 추가된 패턴과 비교함으로써 키 입력 동작을 감지할 수 있다.The wearable device can detect a key input operation by comparing information about a blood vessel changing according to a key input operation to a pattern added to the three-dimensional model.

혈관에 대한 정보는 광신호 감지부가 대상체에서 혈관으로 인한 색상, 채도 및 명도 중 적어도 하나의 분포를 감지함으로써 획득할 수 있다.The information on the blood vessel can be obtained by detecting the distribution of at least one of hue, saturation, and brightness due to the blood vessel in the object.

키 결정부는 감지된 키 입력 동작에 기초하여, 사용자 손바닥과 손가락의 첫 번째 마디를 연결하는 제 1 관절, 손가락의 첫 번째 마디와 두 번째 마디를 연결하는 제 2 관절의 3차원 위치를 결정하고, 제 1 관절 및 제 2 관절의 3차원 위치에 기초하여 입력 값을 생성할 수 있다.The key determining unit determines a three-dimensional position of the first joint connecting the user's palm and the first node of the finger, the second joint connecting the first node and the second node of the finger, An input value can be generated based on the three-dimensional position of the first joint and the second joint.

키 결정부는 제 1 관절 및 제 2 관절의 3차원 위치 및 제 1 관절 및 제 2 관절이 굽어진 각도를 결정하고, 두 관절의 3차원 위치 및 두 관절의 각도에 따라 키 입력 동작이 감지된 손가락의 끝의 3차원 위치를 계산할 수 있다.The key determining unit determines the three-dimensional position of the first joint and the second joint, and the angle at which the first joint and the second joint are bent, and determines a key input operation based on the three-dimensional position of the two joints and the angle of the two joints. The three-dimensional position of the end of the light beam can be calculated.

광신호 감지부는 수신되는 반사 광신호를 파장에 따라 분리함으로써 제 1 반사 광신호 및 제 2 반사 광신호를 각각 감지할 수 있다.The optical signal detection unit can detect the first reflected optical signal and the second reflected optical signal, respectively, by separating the received reflected optical signal according to the wavelength.

광신호 감지부는 시간 영역 또는 주파수 영역에서 구별되어 수신되는 제 1 반사 광신호 및 제 2 반사 광신호를 각각 감지할 수 있다.The optical signal sensing unit may sense the first reflected optical signal and the second reflected optical signal separately received in the time domain or the frequency domain.

상기 기술적 과제를 해결하기 위한 또 다른 웨어러블 디바이스는 광신호를 송출하는 광신호 송출부, 광신호가 대상체에 반사되어 생성되는 반사 광신호를 수신하는 광신호 감지부, 수신된 반사 광신호를 처리하는 데이터 처리부, 반사 광신호를 처리한 데이터에 기초하여 대상체와의 거리 및 각도를 측정하는 위치 결정부 및 외부로 영상을 출력하는 영상 출력부를 포함하되, 광신호 송출부는 서로 다른 제 1 파장 및 제 2 파장을 갖는 제 1 광신호 및 제 2 광신호를 송출하고, 광신호 감지부는 제 1 광신호에 의한 제 1 반사 광신호 및 제 2 광신호에 의한 제 2 반사 광신호를 수신하고, 데이터 처리부는 제 1 반사 광신호 및 제 2 반사 광신호에 기초하여 대상체의 혈관에 대한 패턴 정보를 생성하고, 위치 결정부는 패턴 정보를 기저장된 혈관 정보와 비교하여 대상체와의 거리 및 각도를 측정하고, 영상 출력부는 거리 및 각도에 기초하여 영상을 고정된 위치에 고정된 크기로 출력한다.According to another aspect of the present invention, there is provided a wearable device including an optical signal transmitting unit for transmitting an optical signal, an optical signal detecting unit for receiving a reflected optical signal generated by reflecting an optical signal on a target object, A processing unit, a positioning unit for measuring a distance and an angle with respect to the target object based on the data obtained by processing the reflected optical signal, and an image output unit for outputting an image to the outside, wherein the optical signal transmitting unit comprises: And the optical signal receiving unit receives the first reflected optical signal by the first optical signal and the second reflected optical signal by the second optical signal, and the data processing unit receives the first optical signal and the second optical signal, Generates pattern information on the blood vessel of the object based on the first reflected light signal and the second reflected light signal, and the positioning unit compares the pattern information with the previously stored blood vessel information The distance and angle to the object are measured, and the image output unit outputs the image at a fixed size to the fixed position based on the distance and the angle.

본 발명의 실시 예들에 따르면 다음과 같은 효과를 기대할 수 있다.According to the embodiments of the present invention, the following effects can be expected.

첫째로, 사용자는 휴대성과 편리성을 동시에 제공할 수 있는 웨어러블 디바이스를 통해 개선된 형태로 데이터 입력이 가능하다.First, users can input data in improved form through wearable device that can provide both portability and convenience.

둘째로, 웨어러블 디바이스가 키보드와 마우스를 대체할 수 있어, 추가적인 입력수단 없이도 웨어러블 디바이스만으로 다양한 데이터 입력이 가능하게 된다.Secondly, since the wearable device can replace the keyboard and the mouse, various data can be input only by the wearable device without any additional input means.

셋째로, 웨어러블 디바이스의 휴대성을 유지하면서도 데이터 입력의 정확성을 유지할 수 있어, 사용자에게 개선된 형태의 데이터 입력 환경을 제공할 수 있다.Third, the accuracy of data input can be maintained while maintaining the portability of the wearable device, and an improved data input environment can be provided to the user.

본 발명의 실시 예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 이하의 본 발명의 실시 예들에 대한 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 발명을 실시함에 따른 의도하지 않은 효과들 역시 본 발명의 실시 예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.The effects obtainable in the embodiments of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be obtained from the description of the embodiments of the present invention described below by those skilled in the art Can be clearly understood and understood. In other words, undesirable effects of implementing the present invention can also be obtained by those skilled in the art from the embodiments of the present invention.

이하에 첨부되는 도면들은 본 발명에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 본 발명에 대한 실시 예들을 제공한다. 다만, 본 발명의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다. 각 도면에서의 참조 번호(reference numerals)들은 구조적 구성요소(structural elements)를 의미한다.
도 1은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 4는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 5는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 6은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 7은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 8은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 9는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다.
도 10은 본 발명의 또 다른 실시 예에 의한 웨어러블 디바이스의 구현 형태를 도시하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of this specification, illustrate embodiments of the invention and, together with the description, serve to explain the principles of the invention. It is to be understood, however, that the technical features of the present invention are not limited to the specific drawings, and the features disclosed in the drawings may be combined with each other to constitute a new embodiment. Reference numerals in the drawings refer to structural elements.
1 is a block diagram showing the configuration of a wearable device according to an embodiment of the present invention.
FIG. 2 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention.
FIG. 3 is a diagram illustrating an operation process of a wearable device according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an operation process of a wearable device according to an embodiment of the present invention.
5 is a view for explaining the operation of the wearable device according to an embodiment of the present invention.
FIG. 6 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention.
FIG. 7 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention.
FIG. 8 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention.
9 is a view for explaining the operation of the wearable device according to an embodiment of the present invention.
10 is a view showing an embodiment of a wearable device according to another embodiment of the present invention.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

이하의 실시 예들은 본 발명의 구성요소들과 특징들을 소정 형태로 결합한 것들이다. 각 구성요소 또는 특징은 별도의 명시적 언급이 없는 한 선택적인 것으로 고려될 수 있다. 각 구성요소 또는 특징은 다른 구성요소나 특징과 결합되지 않은 형태로 실시될 수 있다. 또한, 일부 구성요소들 및/또는 특징들을 결합하여 본 발명의 실시 예를 구성할 수도 있다. 본 발명의 실시 예들에서 설명되는 동작들의 순서는 변경될 수 있다. 어느 실시 예의 일부 구성이나 특징은 다른 실시 예에 포함될 수 있고, 또는 다른 실시 예의 대응하는 구성 또는 특징과 교체될 수 있다.The following embodiments are a combination of elements and features of the present invention in a predetermined form. Each component or characteristic may be considered optional unless otherwise expressly stated. Each component or feature may be implemented in a form that is not combined with other components or features. In addition, some of the elements and / or features may be combined to form an embodiment of the present invention. The order of the operations described in the embodiments of the present invention may be changed. Some configurations or features of certain embodiments may be included in other embodiments, or may be replaced with corresponding configurations or features of other embodiments.

도면에 대한 설명에서, 본 발명의 요지를 흐릴 수 있는 절차 또는 단계 등은 기술하지 않았으며, 당업자의 수준에서 이해할 수 있을 정도의 절차 또는 단계는 또한 기술하지 아니하였다.In the description of the drawings, there is no description of procedures or steps that may obscure the gist of the present invention, nor is any description of steps or steps that can be understood by those skilled in the art.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함(comprising 또는 including)”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “…부”, “…기”, “모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떠한 구성이 다른 구성에 “연결”된다고 할 때, 이는 물리적 연결뿐 아니라 전기적 연결 또한 포함할 수 있으며, 나아가 논리적인 연결 관계에 있음을 의미할 수도 있다. Throughout the specification, when an element is referred to as " comprising " or " including ", it is meant that the element does not exclude other elements, do. In addition, the term " "... Quot ;, " module " and the like refer to a unit for processing at least one function or operation, which may be implemented by hardware, software, or a combination of hardware and software. Also, throughout the specification, when a configuration is referred to as being " connected " to another configuration, this may include not only a physical connection, but also an electrical connection, and furthermore, a logical connection.

또한, “일(a 또는 an)”, “하나(one)”, “그(the)” 및 유사 관련어는 본 발명을 기술하는 문맥에 있어서(특히, 이하의 청구항의 문맥에서) 본 명세서에 달리 지시되거나 문맥에 의해 분명하게 반박되지 않는 한, 단수 및 복수 모두를 포함하는 의미로 사용될 수 있다.Also, the terms " a or ", " one ", " the ", and the like are synonyms in the context of describing the invention (particularly in the context of the following claims) May be used in a sense including both singular and plural, unless the context clearly dictates otherwise.

또한, 본 명세서에서 “사용자”는 웨어러블 디바이스의 착용자, 사용자 등이 될 수 있으며 웨어러블 디바이스를 수리하는 기술자 또한 포함할 수 있으나, 이에 한정되는 것은 아니다.In this specification, the term " user " may be a wearer of a wearable device, a user, or the like, and may include a technician repairing the wearable device, but the present invention is not limited thereto.

이하, 본 발명에 따른 바람직한 실시 형태를 첨부된 도면을 참조하여 상세하게 설명한다. 첨부된 도면과 함께 이하에 개시될 상세한 설명은 본 발명의 예시적인 실시형태를 설명하고자 하는 것이며, 본 발명이 실시될 수 있는 유일한 실시형태를 나타내고자 하는 것이 아니다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The following detailed description, together with the accompanying drawings, is intended to illustrate exemplary embodiments of the invention and is not intended to represent the only embodiments in which the invention may be practiced.

또한, 본 발명의 실시 예들에서 사용되는 특정 용어들은 본 발명의 이해를 돕기 위해서 제공된 것이며, 이러한 특정 용어의 사용은 본 발명의 기술적 사상을 벗어나지 않는 범위에서 다른 형태로 변경될 수 있다.In addition, the specific terminology used in the embodiments of the present invention is provided to help understanding of the present invention, and the use of such specific terminology can be changed into other forms without departing from the technical idea of the present invention.

도 1은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 구성을 도시한 블록도이다.1 is a block diagram showing the configuration of a wearable device according to an embodiment of the present invention.

도 1은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 구성을 도시한 블록도이다. 웨어러블 디바이스(100)는 도 1에 도시된 구성 이외에도 다른 범용적인 구성을 더 포함할 수 있으며, 도 1에 도시된 구성보다 적은 구성으로 구현될 수도 있다. 즉, 웨어러블 디바이스(100)의 구현 형태나 권리범위가 도 1에 도시되고 설명하는 내용에 한정되는 것은 아니다. 1 is a block diagram showing the configuration of a wearable device according to an embodiment of the present invention. The wearable device 100 may further include other general configurations in addition to the configurations shown in FIG. 1, and may be implemented with fewer configurations than those shown in FIG. That is, the embodiment and the scope of rights of the wearable device 100 are not limited to the contents shown in FIG.

웨어러블 디바이스(100)는 사용자의 신체 일부(예를 들어, 손)에 장착되는 입출력 수단이다. 웨어러블 디바이스(100)는 여러 가지 수단을 활용하여 사용자의 신체 움직임을 감지하며, 감지한 움직임이 형성하는 동작에 따라 데이터와 신호를 생성한다. 웨어러블 디바이스(100)는 생성한 데이터와 신호를 외부 디바이스나 서버로 전송하여 외부 디바이스에 대한 입력 수단으로 동작할 수 있다. The wearable device 100 is an input / output means that is mounted on a part of a user's body (e.g., a hand). The wearable device 100 senses a user's body movement by using various means and generates data and a signal according to an action that the sensed movement forms. The wearable device 100 may transmit the generated data and signals to an external device or a server and operate as input means for an external device.

이하에서는 웨어러블 디바이스(100)가 포함하는 여러 가지 구성들에 대해 각각 설명한다. 일 실시 예에 의한 웨어러블 디바이스(100)는 광신호 송출부(105), 광신호 감지부(110), 데이터 처리부(115), 키 결정부(120), 깊이 센서(125), 영상 처리부(130), 위치 결정부(135), 영상 출력부(140), 자이로스코프 센서(145), 가속도 센서(150), 피드백부(155), 통신부(160), 저장부(165), 전원부(170) 및 제어부(175)를 포함할 수 있다. 도시된 구성들은 서로 유선 또는 무선으로 연결되어 데이터와 신호를 주고 받을 수 있다. 상술한 바와 같이, 도 1에 도시된 구성들은 웨어러블 디바이스(100)를 구성하는 예시에 불과하여, 웨어러블 디바이스(100)는 도시된 구성보다 적거나 많은 구성을 포함하도록 구현될 수 있다.Hereinafter, various configurations of the wearable device 100 will be described. The wearable device 100 according to one embodiment includes an optical signal sending unit 105, an optical signal detecting unit 110, a data processing unit 115, a key determining unit 120, a depth sensor 125, an image processing unit 130 A positioning unit 135, an image output unit 140, a gyroscope sensor 145, an acceleration sensor 150, a feedback unit 155, a communication unit 160, a storage unit 165, a power source unit 170, And a controller 175. The depicted configurations may be wired or wirelessly coupled to each other to exchange data and signals. As described above, the configurations shown in Fig. 1 are merely examples of configuring the wearable device 100, so that the wearable device 100 can be implemented to include fewer or more configurations than those shown.

광신호 송출부(105)는 광신호를 생성하고 송출한다. 광신호 송출부(105)는 특정 파장을 갖는 광신호를 생성할 수 있으며, 예를 들어 광신호 송출부(105)는 가시 광선(약 300 내지 700nm)이나 적외선(약 700 내지 3000nm)의 파장을 갖는 광신호를 생성할 수 있다. 다만, 광신호 송출부(105)가 생성하는 광신호의 파장 대역은 상술한 내용에 한정되는 것은 아니며, 광신호 송출부(105)는 상술한 파장의 근적외선 이외에도 더 긴 파장을 갖는 원적외선 등 다양한 파장의 광신호를 생성할 수 있다. 이와는 달리, 광신호 송출부(105)는 특정 대역의 파장을 갖는 광신호를 생성하는 대신에 연속적인 스펙트럼의 광신호를 생성할 수도 있다. 광신호 송출부(105)가 생성하는 광신호의 파장에 대한 구체적인 실시 예는 도 2에서 설명한다. The optical signal transmitting unit 105 generates and transmits an optical signal. For example, the optical signal transmitting unit 105 may transmit a wavelength of visible light (about 300 to 700 nm) or infrared light (about 700 to 3000 nm) to the optical signal transmitting unit 105 Can be generated. However, the wavelength band of the optical signal generated by the optical signal transmitting unit 105 is not limited to the above-described contents. The optical signal transmitting unit 105 may transmit various wavelengths, such as far-infrared rays having a longer wavelength in addition to the near- Can be generated. Alternatively, the optical signal transmitting unit 105 may generate an optical signal of a continuous spectrum instead of generating an optical signal having a wavelength of a specific band. A specific example of the wavelength of the optical signal generated by the optical signal transmitting unit 105 will be described with reference to FIG.

한편, 광신호 송출부(105)는 생성한 광신호를 송출한다. 광신호 송출부(105)는 광신호를 출력함에 있어서 연속적인 웨이브(continuous wave)의 형태로 광신호를 송출할 수도 있고, 불연속적인 펄스(non-continuous pulse)의 형태로 광신호를 송출할 수도 있다. On the other hand, the optical signal transmitting unit 105 transmits the generated optical signal. The optical signal transmitting unit 105 may output an optical signal in the form of a continuous wave when transmitting the optical signal or may transmit the optical signal in the form of a non-continuous pulse have.

또한, 광신호 송출부(105)는 패턴이 형성된 광신호를 송출할 수도 있다. 패턴은 송출되는 광신호가 외부면에 투영되었을 때에 형성되는 기결정된 모양과 형태를 의미한다. 예를 들어, 광신호 송출부(105)는 줄무늬 형태의 패턴을 갖는 광신호를 송출할 수 있다. 또한, 이러한 광신호의 패턴은 프로그램화되어 미리 저장될 수 있으며, 웨어러블 디바이스(100)가 식별할 수 있는 임의의 패턴이 될 수 있다. Also, the optical signal transmitting unit 105 may transmit an optical signal in which a pattern is formed. The pattern means a predetermined shape and shape to be formed when an optical signal to be emitted is projected on the outer surface. For example, the optical signal transmitting unit 105 can transmit an optical signal having a pattern of a striped pattern. In addition, the pattern of such an optical signal can be programmed and stored in advance, and can be any pattern that the wearable device 100 can identify.

상술한 바와 같이, 광신호 송출부(105)는 여러 가지 방식에 따라 광신호를 생성하고 송출한다. 광신호 송출부(105)는 광신호의 파장, 광신호의 종류나 송출 방식 등을 결합하여 다양한 방식으로 광신호를 생성하고 송출할 수 있다. 한편, 웨어러블 디바이스(100)는 광신호 송출부(105)를 하나 이상 포함할 수 있으며, 구체적인 예에 대해서는 도 2에서 설명한다. As described above, the optical signal transmitting unit 105 generates and transmits optical signals according to various methods. The optical signal transmitting unit 105 may combine the wavelength of the optical signal, the type and mode of the optical signal, and generate and transmit optical signals in various manners. Meanwhile, the wearable device 100 may include one or more optical signal transmitting units 105, and a specific example will be described with reference to FIG.

광신호 감지부(110)는 외부로부터 수신되는 광신호를 감지한다. 광신호 송출부(105)가 송출한 광신호가 외부의 대상체(예를 들어, 사물이나 인체 일부 등)에 반사되면, 광신호의 세기, 파장, 주파수 대역, 에너지 등 다양한 물리적 특성 값이 변경된다. 이하에서는 이와 같이 외부면에 반사되어 물리적 특성이 변경된 광신호를 반사 광신호라 한다. 즉, 광신호 감지부(110)는 이와 같이 외부의 대상체에 반사되어 생성된 반사 광신호를 감지한다. The optical signal sensing unit 110 senses an optical signal received from the outside. When the optical signal transmitted by the optical signal transmitting unit 105 is reflected on an external object (for example, an object or a part of a human body), various physical property values such as the intensity, wavelength, frequency band, and energy of the optical signal are changed. Hereinafter, an optical signal that is reflected on the outer surface and thus has a changed physical property is referred to as a reflective optical signal. In other words, the optical signal sensing unit 110 senses the reflected optical signal generated by reflection of the external object.

광신호 송출부(105)가 다양한 파장의 광신호를 송출함에 따라, 광신호 감지부(110)는 광신호 송출부(105)가 송출할 수 있는 파장의 광신호를 감지할 수 있다. 즉, 광신호 감지부(110)는 가시광선 파장의 광신호, 근적외선 및 원적외선 파장의 광신호 등을 감지할 수 있으며, 광신호 감지부(110)가 검출하는 파장이 이러한 예시 대역에 한정되는 것이 아님은 앞서 설명한 바와 유사하다.As the optical signal transmitting unit 105 transmits optical signals of various wavelengths, the optical signal sensing unit 110 can sense an optical signal having a wavelength that can be transmitted by the optical signal transmitting unit 105. That is, the optical signal sensing unit 110 can sense an optical signal having a visible light wavelength, a near-infrared light, and a far-infrared light, and the wavelength detected by the optical signal sensing unit 110 is limited to the example band It is similar to that described above.

데이터 처리부(115)는 광신호 감지부(110)가 수신한 광신호를 처리하여 수신 데이터를 생성한다. 데이터 처리부(115)에 의한 데이터 처리 과정은 광신호 감지부(110)가 수신한 아날로그 신호인 광신호를 디지털화 하는 과정을 포함할 수 있다. 데이터 처리를 통해 수신 데이터를 생성하는 과정은 일정 주기로 수행되거나 웨어러블 디바이스(100)의 제어부(175)로부터의 제어 명령에 따라 수행될 수 있다.The data processing unit 115 processes the optical signal received by the optical signal sensing unit 110 to generate reception data. The process of data processing by the data processing unit 115 may include a process of digitizing an optical signal, which is an analog signal received by the optical signal sensing unit 110. The process of generating received data through data processing may be performed at regular intervals or in accordance with a control command from the controller 175 of the wearable device 100.

한편, 데이터 처리부(115)가 생성한 수신 데이터는 대상체가 신체 일부인 경우 대상체의 혈관에 대한 정보를 포함할 수 있다. 즉, 구체적으로는 후술하겠으나 광신호 송출부(105)가 송출한 광신호는 대상체의 혈관에서 반사, 산란, 흡수 되어 물리적 특성 값이 달라진다. 이에 따라, 데이터 처리부(115)는 광신호 감지부(110)가 수신한 반사 광신호를 처리함으로써 대상체의 혈관의 배치 및 분포에 대한 정보를 획득할 수 있다. 상술한 수신 데이터에 있어서, 이하에서는 특히 대상체가 혈관인 경우의 수신 데이터를 설명의 편의상 혈관 데이터라 한다.On the other hand, the received data generated by the data processing unit 115 may include information on blood vessels of the subject when the subject is a part of the body. Specifically, as will be described later, the optical signal transmitted by the optical signal transmitting unit 105 is reflected, scattered, and absorbed by the blood vessel of the object, thereby changing the physical property value. Accordingly, the data processing unit 115 can acquire information on the arrangement and distribution of the blood vessels of the target object by processing the reflected optical signal received by the optical signal sensing unit 110. In the above-described received data, reception data in the case where the target object is a blood vessel is referred to as blood vessel data for convenience of explanation.

상술한 바와 같이 광신호 송출부(105), 광신호 감지부(110) 및 데이터 처리부(115)가 혈관을 감지하고 혈관 데이터를 생성함에 있어서, 후술할 깊이 센서(125)가 함께 동작할 수 있다. 구체적으로는 후술하겠으나 깊이 센서(125)는 대상체를 3차원으로 감지하여 입체적인 구조와 형태, 위치 등을 감지할 수 있다. 이에 따라, 감지된 혈관에 대한 혈관 데이터는 혈관의 분포와 배치에 대한 2차원 정보로 구성될 수 있을뿐 아니라, 깊이 센서(125)가 함께 동작하여 획득된 혈관 데이터는 3차원 정보로 구성될 수도 있다. As described above, when the optical signal transmitting unit 105, the optical signal sensing unit 110, and the data processing unit 115 sense blood vessels and generate blood vessel data, a depth sensor 125 to be described later can operate together . Specifically, as will be described later, the depth sensor 125 senses a three-dimensional object to sense a three-dimensional structure, shape, and position. Accordingly, the blood vessel data for the detected blood vessel can be configured as two-dimensional information about the distribution and arrangement of blood vessels, and the blood vessel data obtained by the operation of the depth sensor 125 can be configured as three-dimensional information have.

키 결정부(120)는 사용자의 키 입력 동작을 감지하고, 키 입력 동작에 매칭되는 입력 값을 생성한다. 키 입력 동작이란 웨어러블 디바이스(100)를 장착한 사용자가 가상의 키보드 상의 소정의 키를 누르는 동작을 의미한다. 즉, 사용자는 실제 키보드가 없는 경우라 하더라도 웨어러블 디바이스(100)를 장착한 채로 키를 누르는 동작을 수행할 수 있으며, 이러한 동작이 키 입력 동작을 의미한다. 한편, 키 입력 동작은 사용자의 손가락이 소정의 표면을 접촉하거나 누르는 동작을 의미할 수 있는데, 사용자의 손가락이 신체의 일부(예를 들어, 다른 손가락이나 손바닥 등)나 외부 사물 등의 대상체에 접촉하는 것을 의미할 수 있다. 또한, 키 입력 동작은 손가락이 꼭 외부 표면에 접촉하지 않는다 하더라도, 일정 이상의 각도로 손가락이 굽어지는 경우라면 모두 포함할 수 있다. 즉, 손가락이 외부 표면에 접촉하는 경우와 유사한 동작을 공중에서 수행하는 경우, 손가락이 외부 표면에 접촉하지 않더라도 키 입력 동작에 해당될 수 있다.The key determining unit 120 detects the key input operation of the user and generates an input value matching the key input operation. The key input operation means an operation in which a user wearing the wearable device 100 presses a predetermined key on a virtual keyboard. That is, the user can perform the operation of pressing the key while wearing the wearable device 100 even if the user does not have the actual keyboard, and this operation means the key input operation. On the other hand, the key input operation may refer to an operation in which a user's finger touches or presses a predetermined surface. When a user's finger touches a part of the body (e.g., another finger or a palm) It can mean to do. In addition, the key input operation can include both the case where the finger does not touch the outer surface, and the case where the finger is bent at an angle of more than a certain degree. That is, in the case of performing an operation similar to the case where the finger contacts the outer surface in the air, it may correspond to the key input operation even if the finger does not touch the outer surface.

키 결정부(120)는 데이터 처리부(115)가 생성한 수신 데이터를 이용하여 사용자가 수행하는 키 입력 동작을 감지할 수 있다. 구체적으로 설명하면, 수신 데이터는 앞서 설명한 바와 같이 혈관에 대한 정보를 포함한다. 이에 따라, 키 결정부(120)는 사용자의 키 입력 동작에 따라 혈관의 배치 및 분포가 감지되면, 감지된 혈관에 대한 정보를 기저장된 혈관에 대한 데이터와 비교한다. 이러한 비교 과정은 혈관의 배치와 분포로 인하여 나타나는 색상, 채도, 명도, 크기, 모양 중 적어도 하나의 변화를 비교함으로써 이루어질 수 있다. The key determiner 120 can detect a key input operation performed by the user using the received data generated by the data processor 115. [ More specifically, the received data includes information on blood vessels as described above. Accordingly, when the arrangement and distribution of the blood vessels are detected according to the key input operation of the user, the key determining unit 120 compares the information on the detected blood vessels with the data on the pre-stored blood vessels. Such a comparison process can be performed by comparing at least one of changes in color, saturation, brightness, size, and shape due to arrangement and distribution of blood vessels.

키 결정부(120)는 비교 결과에 따라 사용자의 키 입력 동작이 어떠한 키에 대응되는지 파악할 수 있다. 다시 말해서, 키 결정부(120)는 키 입력 동작에 따라 감지되는 혈관에 대한 정보를 기저장된 정보와 비교함으로써 입력 값을 생성하며, 자세한 실시 예에 대해서는 후술한다. The key determining unit 120 can determine which key corresponds to the user's key input operation according to the comparison result. In other words, the key determining unit 120 generates an input value by comparing information on blood vessels sensed according to a key input operation with pre-stored information, and detailed embodiments will be described later.

한편, 생성된 입력 값은 사용자의 키 입력 동작이 어떠한 키를 누르는 동작인지 나타내는 값이며, 웨어러블 디바이스(100) 내부적으로 처리되거나 웨어러블 디바이스(100)에 연결된 외부 디바이스나 서버로 전송될 수 있다. Meanwhile, the generated input value is a value indicating a key pressing operation of the user, and can be transmitted to an external device or server connected to the wearable device 100 or processed internally in the wearable device 100.

깊이 센서(125)는 대상체를 3차원으로 스캔하여 3차원 스캔 정보를 생성한다. 즉, 깊이 센서(125)는 대상체로 여러 가지 종류의 신호를 송출하고, 대상체 표면에서 송출한 신호의 변화를 감지하거나 대상체로부터 반사되는 신호를 감지한다. 깊이 센서(125)는 감지한 신호를 분석하여 대상체에 대한 3차원 스캔 정보를 생성할 수 있다. 예를 들어, 깊이 센서(125)는 대상체가 사용자의 손인 경우, 손을 3차원으로 감지하여 손의 외형에 대한 3차원 스캔 정보를 생성할 수 있다. The depth sensor 125 scans the object three-dimensionally to generate three-dimensional scan information. That is, the depth sensor 125 transmits various kinds of signals to a target object, detects a change in a signal transmitted from the target surface, or detects a signal reflected from the target object. The depth sensor 125 may analyze the sensed signal to generate three-dimensional scan information for a target object. For example, if the object is a user's hand, the depth sensor 125 may sense the hand three-dimensionally and generate three-dimensional scan information on the contour of the hand.

대상체를 3차원으로 스캔하는 깊이 센서(125)는 여러 가지 종류의 센서나 디바이스를 포함할 수 있다. 예를 들어, 깊이 센서(125)는 적외선 신호를 대상체로 송출하고 대상체 표면에서의 변화를 감지하는 적외선 카메라, 대상체로 초음파 신호나 광신호를 송출하고 대상체로부터 반사되는 신호와의 시간 차이를 측정하는 ToF(Time of Flight) 카메라, 레이저 신호를 대상체로 송출하고 반사되는 신호를 감지하는 레이저 송수신기, 두 위치에서 대상체를 촬영한 차이값을 분석하는 스테레오(stereo) 카메라 등을 포함할 수 있다. The depth sensor 125, which scans the object in three dimensions, may include various types of sensors or devices. For example, the depth sensor 125 may include an infrared camera that transmits an infrared signal to a target object and senses a change in the surface of the target object, a time difference between a signal reflected from the target object and an ultrasound signal or an optical signal, A time-of-flight (ToF) camera, a laser transceiver that transmits a laser signal to a subject and senses a reflected signal, and a stereo camera that analyzes a difference value obtained by photographing the object at two positions.

이외에도, 펄스 레이저광을 대기 중에 발사하여 그 반사체나 산란체를 이용하는 라이더(LIDAR, LIght Detection And Ranging) 방식, 대상체의 표면에서 코히어런트(coherent)한 빛이 반사되는 패턴의 변화를 감지하는 스페클 간섭법(speckle interferometry) 방식, 두 개의 LED를 활용하는 적외선 근접 어레이(IPA, Infrared Proximity Array) 감지 방식, RGB 카메라 등 또한 깊이 센서(125)를 구현하기 위해 적용될 수 있다. In addition, a pulse laser light is launched into the atmosphere, and a rider (LIDAR, LIght Detection And Ranging) method using the reflector or scattering body, a speckle detecting a change in a pattern of coherent light reflected from the surface of the object A speckle interferometry method, an infrared proximity array (IPA) sensing method using two LEDs, an RGB camera, and the like can also be applied to implement the depth sensor 125. [

한편, 깊이 센서(125)가 패턴화된 특정 파장의 광신호를 이용하여 3차원 스캔 정보를 생성하는 경우, 상술한 광신호 송출부(105)와 동일한 구성으로 구현될 수 있다. 즉, 광신호 송출부(105)는 패턴화된 광신호를 혈관을 감지하기 위한 용도와 3차원 스캔 정보 생성을 위한 용도로 모두 활용할 수 있다. 이러한 경우, 광신호 출력부(105)는 서로 다른 파장의 광신호들을 출력하는 것에 더하여 패턴이 있는 광신호를 출력함으로써 깊이 센서(125)의 역할을 수행하거나, 깊이 센서(125)의 역할만을 수행할 수 있다. 광신호 송출부(105)가 깊이 센서(125)의 역할을 수행하기 위하여 출력하는 패턴화된 광신호는 혈관을 감지하기 위한 광신호의 파장 중 어느 하나가 이용될 수도 있고, 다른 파장의 광신호가 이용될 수도 있다. Meanwhile, when the depth sensor 125 generates the three-dimensional scan information by using the patterned optical signal of the specific wavelength, it can be realized with the same configuration as the optical signal transmitting unit 105 described above. That is, the optical signal transmitting unit 105 can utilize the patterned optical signal for both the purpose of detecting blood vessels and the purpose of generating three-dimensional scan information. In this case, the optical signal output unit 105 outputs optical signals having different wavelengths, and outputs a patterned optical signal to perform the role of the depth sensor 125 or only the role of the depth sensor 125 can do. The patterned optical signal output by the optical signal transmitting unit 105 to serve as the depth sensor 125 may be any of the wavelengths of the optical signal for detecting the blood vessel, May be used.

또한, 깊이 센서(125)는 광신호 송출부(105)에 대해 설명한 바와 유사하게 두 가지 방식으로 동작하여 스캔 정보를 생성할 수 있다. 즉, 깊이 센서(125)는 대상체로 광신호(패턴화된 광신호)를 송출하고 3차원 스캔 정보를 생성함에 있어서, 수신되는 광신호의 시점과 주파수 대역에 대해 미리 알고 있을 수도 있고 모를 수도 있다. 구체적으로, 깊이 센서(125)가 송출되는 광신호의 시점과 파장 대역(또는, 주파수 대역)을 미리 알고 있는 경우, 깊이 센서(125)는 해당 광신호가 수신될 시점을 미리 계산하며 계산된 시점과 주파수 대역에서 수신되는 광신호를 통해 3차원 스캔 정보를 생성하게 된다. 이러한 경우, 광신호 송출부(105)가 대상체의 혈관에 대한 정보를 획득하기 위하여 특정 파장의 광신호를 송출하는 중간중간에 깊이 센서(125)는 3차원 스캔 정보의 생성을 위한 광신호를 송출할 수 있다. In addition, the depth sensor 125 may operate in two ways to generate scan information, similar to that described for the optical signal transmitter 105. That is, the depth sensor 125 may know or may not know the viewpoint and the frequency band of the received optical signal in transmitting the optical signal (patterned optical signal) to the object and generating the three-dimensional scan information . Specifically, when the depth sensor 125 knows the starting point and the wavelength band (or frequency band) of the optical signal to be transmitted, the depth sensor 125 calculates in advance the point in time when the optical signal is received, Dimensional scanning information through an optical signal received in a frequency band. In this case, the depth sensor 125 transmits the optical signal for generating the three-dimensional scan information in the middle of the optical signal transmitting unit 105 transmitting the optical signal of the specific wavelength to acquire the information about the blood vessel of the object can do.

반대로, 깊이 센서(125)가 수신되는 광신호에 대한 정보를 모르더라도, 수신되는 광신호를 선택적으로 감지하기 위한 수단을 구비하는 경우에는 3차원 스캔 정보를 생성할 수 있다. 즉, 깊이 센서(125)는 광신호의 특정 파장 대역을 검출하기 위한 필터 등을 구비할 수 있으며, 이러한 경우에는 수신 광신호를 선택적으로 감지할 수 있다. Conversely, even if the depth sensor 125 is not aware of information about the optical signal to be received, it can generate the three-dimensional scan information if it has means for selectively sensing the optical signal to be received. That is, the depth sensor 125 may include a filter or the like for detecting a specific wavelength band of the optical signal. In this case, the depth sensor 125 may selectively sense the received optical signal.

대상체를 3차원으로 스캔하기 위한 깊이 센서(125)는 상술한 구성들의 예시에 한정되는 것은 아니며, 그 이외의 다른 여러 가지 구성들이 깊이 센서(125)에 포함될 수 있다. 또한, 깊이 센서(125)는 상술한 구성들 중 둘 이상이 조합되는 형태로 구현될 수도 있다. The depth sensor 125 for scanning the object three-dimensionally is not limited to the example of the above-described configurations, and various other configurations may be included in the depth sensor 125. In addition, the depth sensor 125 may be implemented in a combination of two or more of the above-described configurations.

또한, 깊이 센서(125)가 대상체를 3차원 스캔하는 과정을 수행한 뒤, 컴퓨터 비전 기술(computer vision technique)을 활용하여 3차원 스캔 정보의 정확도를 향상시킬 수도 있다. 컴퓨터 비전 기술은 2D 영상을 해석하는 과정에서 깊이 정보의 정확도를 향상시키는 용도로 활용되며, depth-from-focus 방식, depth-from-stereo 방식, depth-from-shape 방식, depth-from-motion 방식 등이 포함된다. 깊이 센서(125)는 상술한 여러 가지 방식들을 활용하여 대상체에 대한 3차원 스캔 정보를 정확하게 생성할 수 있다.In addition, after the depth sensor 125 performs a process of scanning a target object in a three-dimensional manner, the accuracy of the three-dimensional scan information may be improved by using a computer vision technique. Computer vision technology is used to improve the accuracy of depth information in the process of 2D image analysis. It is used for depth-from-focus, depth-from-stereo, depth-from-shape and depth-from-motion And the like. The depth sensor 125 can accurately generate three-dimensional scan information for a target object by utilizing the above-described various methods.

한편, 이상에서는 대상체가 사용자의 신체 일부인 손인 경우를 예로 들어 설명하였으나, 이에 한정되는 것은 아니다. 즉, 대상체는 신체 일부를 의미할 수 있을뿐 아니라, 물체, 공간, 구조물 등 다양한 대상을 의미할 수 있다. 예를 들어, 대상체가 핸드폰, 노트북, 책상 등과 같은 물체인 경우, 깊이 센서(125)는 핸드폰, 노트북을 3차원 스캔하여 3차원 스캔 정보를 생성할 수 있다. 또한, 웨어러블 디바이스(100)가 방 안에 위치한 경우, 깊이 센서(125)는 방 안의 공간과 벽면을 대상체로하여 스캔할 수 있다. 이에 따라, 깊이 센서(125)는 방의 벽면들에 의한 3차원 공간에 대해 인식하고, 벽면에 대한 3차원 스캔 정보를 생성할 수 있다. 이러한 경우, 깊이 센서(125)는 웨어러블 디바이스(100)가 방 안에 어디에 위치하는지, 즉 소정 공간 이내에서 웨어러블 디바이스(100)의 절대좌표를 알 수 있다. In the above description, the object is a hand, which is a part of the user's body, but the present invention is not limited thereto. That is, the object can mean not only a body part but also various objects such as an object, a space, and a structure. For example, when the object is an object such as a cell phone, a notebook, a desk, etc., the depth sensor 125 can scan the mobile phone and the notebook three-dimensionally to generate three-dimensional scan information. In addition, when the wearable device 100 is located in the room, the depth sensor 125 can scan the room and the wall surface in the room using the object. Accordingly, the depth sensor 125 can recognize the three-dimensional space by the wall surfaces of the room and can generate the three-dimensional scanning information about the wall surface. In such a case, the depth sensor 125 can know the absolute coordinates of the wearable device 100 where the wearable device 100 is located, that is, within a predetermined space.

영상 처리부(130)는 깊이 센서(125)와 연결되어 3차원 스캔 정보를 수신하고 처리한다. 구체적으로, 영상 처리부(130)는 깊이 센서(125)로부터 수신되는 3차원 스캔 정보를 이용하여 3차원 영상을 생성하고, 3차원 렌더링 과정을 거쳐 대상체에 대한 3차원 모델을 생성할 수 있다. 예를 들어, 대상체가 사용자의 손인 경우, 영상 처리부(130)는 깊이 센서(125)가 사용자의 손을 감지함에 따라 손에 대한 3차원 모델을 생성할 수 있다. 또 다른 예로 대상체가 핸드폰과 같은 물체인 경우, 영상 처리부(130)는 핸드폰의 3차원 모델을 생성할 수 있다. 3차원 모델은 흑백 또는 컬러로 표현될 수 있다.The image processing unit 130 is connected to the depth sensor 125 to receive and process the 3D scan information. Specifically, the image processor 130 generates a three-dimensional image using the three-dimensional scan information received from the depth sensor 125, and generates a three-dimensional model of the object through the three-dimensional rendering process. For example, if the object is a user's hand, the image processing unit 130 may generate a three-dimensional model of the hand as the depth sensor 125 senses the user's hand. As another example, when the object is an object such as a mobile phone, the image processing unit 130 can generate a three-dimensional model of the mobile phone. The three-dimensional model can be expressed in black and white or color.

또한, 영상 처리부(130)는 데이터 처리부(115)가 생성한 수신 데이터를 이용하여 기생성된 3차원 모델에 혈관에 대한 패턴을 추가할 수 있다. 앞서 설명한 바와 같이, 데이터 처리부(115)는 광신호 감지부(110)가 수신한 광신호를 처리하여 대상체의 혈관에 대한 정보를 생성한다. 영상 처리부(130)는 혈관에 대한 정보를 처리하여 시각적으로 확인할 수 있는 패턴으로 생성하고, 3차원 스캔 정보에 기초하여 생성된 3차원 모델에 생성된 패턴을 추가할 수 있다. 즉, 영상 처리부(130)는 대상체의 외형만 존재하는 3차원 모델에 혈관에 대한 패턴을 입힌 3차원 모델을 생성할 수 있다.In addition, the image processing unit 130 can add a pattern for blood vessels to the three-dimensional model created using the received data generated by the data processing unit 115. [ As described above, the data processing unit 115 processes the optical signal received by the optical signal sensing unit 110 to generate information on the blood vessel of the object. The image processing unit 130 may process the information about the blood vessel to generate a pattern that can be visually confirmed, and may add the generated pattern to the three-dimensional model generated based on the three-dimensional scan information. That is, the image processing unit 130 can generate a three-dimensional model in which a pattern for a blood vessel is imaged on a three-dimensional model in which only the outer shape of the object exists.

한편, 키 결정부(120)는 혈관에 대한 정보를 기저장된 정보와 비교하여 입력 값을 생성하는 과정에서, 영상 처리부(130)가 생성한 3차원 모델의 패턴을 분석할 수 있다. 즉, 키 결정부(120)는 감지된 패턴에 대한 정보를 3차원 모델에 추가된 혈관의 패턴에 대한 정보와 비교함으로써 사용자의 키 입력 동작이 어떠한 입력 값에 매칭되는지 파악할 수 있다. Meanwhile, the key determining unit 120 may analyze the pattern of the three-dimensional model generated by the image processing unit 130 in the process of generating the input value by comparing the information about the blood vessel with the stored information. That is, the key determining unit 120 can determine which input value matches the key input operation of the user by comparing the information on the detected pattern with the information on the pattern of the blood vessel added to the three-dimensional model.

위치 결정부(135)는 웨어러블 디바이스(100)가 외부의 기준점으로부터 떨어진 거리와 기울어진 각도를 결정한다. 상술한 바와 같이 데이터 처리부(115)가 혈관에 대한 정보를 포함하는 수신 데이터를 생성하면, 위치 결정부(135)는 수신 데이터를 분석하여 웨어러블 디바이스(100)가 소정의 외부 기준점(예를 들어, 대상체)으로부터 얼마나 떨어져있는지, 얼마나 기울어져있는지를 파악한다. 이러한 과정은 앞서 키 결정부(120)가 키 입력 동작에 따라 입력 값을 생성하는 과정과 유사하게, 기저장된 혈관에 대한 정보와 감지된 수신 데이터를 비교함으로써 수행될 수 있다. 또는, 위치 결정부(135)는 혈관의 패턴이 추가된 3차원 모델과 수신 데이터를 비교함으로써 기준점과의 거리와 각도를 결정할 수 있다.The positioning unit 135 determines the angle at which the wearable device 100 is inclined with respect to the distance from the external reference point. When the data processing unit 115 generates the reception data including the information about the blood vessels as described above, the positioning unit 135 analyzes the reception data and transmits the reception data to the wearable device 100 at a predetermined external reference point (for example, Object) and how tilted it is. This process can be performed by comparing the previously stored blood vessel information with the sensed received data, similar to the process in which the key determiner 120 generates an input value according to a key input operation. Alternatively, the positioning unit 135 can determine the distance and angle with the reference point by comparing the received data with the three-dimensional model to which the pattern of the blood vessel is added.

또는, 위치 결정부(135)는 상술한 깊이 센서(125)를 이용하여 대상과 자신의 위치 및 거리를 알 수도 있다. 즉, 위치 결정부(135)는 깊이 센서(125)가 생성하여 기저장된 대상체의 3차원 모델과 감지되는 대상체의 외형을 분석하여 대상체에 대한 자신의 위치 및 거리를 알 수 있다. 또 다른 예를 들면, 위치 결정부(135)는 후술할 자이로스코프 센서(145) 및 가속도 센서(150)를 이용하여 대상체와 자신의 위치를 파악할 수도 있다. Alternatively, the positioning unit 135 may know the position and distance between the object and itself using the depth sensor 125 described above. That is, the position determination unit 135 can recognize the position and distance of the target object by analyzing the three-dimensional model of the target object generated by the depth sensor 125 and the external shape of the target object to be sensed. As another example, the positioning unit 135 may determine the position of the object and the object using the gyroscope sensor 145 and the acceleration sensor 150, which will be described later.

영상 출력부(140)는 외부로 영상을 투사(project)한다. 영상 출력부(140)는 사물이나 신체 일부 등 외부로 영상을 출력할 수 있으며, 이러한 대상은 제한이 없다. 예를 들어, 영상 출력부(140)는 신체 일부인 손바닥, 손등, 팔에 영상을 투사할 수도 있고, 책상, 벽면과 같은 사물에 영상을 투사할 수도 있다. 영상 출력부(140)가 투사하는 영상은 임의의 이미지, 동영상, 3차원 영상(입체 영상) 등 모든 종류의 영상을 포함할 수 있다.The video output unit 140 projects an image to the outside. The video output unit 140 can output an image to the outside such as an object or a part of the body. For example, the image output unit 140 may project an image on a palm, a hand, or an arm that is a part of the body, or may project an image on an object such as a desk or a wall. The image projected by the image output unit 140 may include all kinds of images such as an arbitrary image, moving image, and three-dimensional image (stereoscopic image).

한편, 영상 출력부(140)는 영상을 투사하는 과정에서 위치 결정부(135)가 결정한 정보를 활용할 수 있다. 구체적으로 설명하면, 영상 출력부(140)는 위치 결정부(135)가 대상체와의 거리 및 각도를 측정한 결과를 이용하여, 웨어러블 디바이스(100)가 이동하더라도 출력하는 영상이 일정한 위치와 크기에 투영되도록 할 수 있다. 다시 말해서, 위치 결정부(135)는 자신의 3차원 공간 상의 움직임을 측정하고 분석함으로써 외부의 기준점(예를 들어, 영상이 투사되는 대상체)과 자신과의 거리, 각도를 계산한다. 이어서, 영상 출력부(140)는 계산된 거리와 각도를 고려하여 영상이 일정하게 투영될 수 있도록 영상을 출력하는 각도와 위치를 변경할 수 있다. Meanwhile, the image output unit 140 may utilize the information determined by the position determination unit 135 in the process of projecting the image. More specifically, the video output unit 140 uses the result of measuring the distance and the angle of the position determination unit 135 with respect to the target object, so that even if the wearable device 100 moves, To be projected. In other words, the positioning unit 135 calculates the distance and angle between the reference point (for example, the object to which the image is projected) and itself by measuring and analyzing the motion on the three-dimensional space of the position determining unit 135. Then, the image output unit 140 may change the angle and the position of outputting the image so that the image can be uniformly projected in consideration of the calculated distance and angle.

이상에서는 광신호 송출부(105)와 영상 출력부(140)가 별도의 구성인 것으로 도시하고 설명하였으나, 두 구성은 동일한 구성으로 구현될 수도 있다. 즉, 광신호 송출부(105)는 여러 가지 파장의 광신호를 송출할 수 있을 뿐 아니라, 웨어러블 디바이스(100)가 출력하는 영상 또한 송출할 수 있다. 이러한 과정은 번갈아가며 이루어질 수 있는데, 즉, 영상 출력부(140)의 역할을 수행하도록 구현되는 광신호 송출부(105)는 서로 다른 파장의 광신호를 번갈아가며 출력하는 사이에 주기적 또는 비주기적으로 영상을 출력할 수 있다. 영상이 출력되는 도중에 혈관을 감지하기 위한 광신호가 출력되는 경우, 앞서 설명한 선택적으로 특정 파장의 광신호를 검출하는 과정에서 영상을 활용할 수 있다. 즉, 영상 출력부를 사용자가 시각적으로 인지할 수 있는 가시광선 파장으로 영상을 출력하게 되므로, 영상 출력부에 의해 출력되는 가시광선 파장의 광신호를 혈관을 감지하기 위한 광신호 중 하나로 활용한다. 이에 따라, 광신호 송출부(105)는 추가적으로 적외선 파장의 광신호만 더 송출하게 되면 서로 다른 파장의 두 광신호를 송출하는 것과 동일/유사한 효과를 얻을 수 있다. In the above description, the optical signal transmitting unit 105 and the image output unit 140 are shown as separate components, but the two configurations may be implemented in the same configuration. That is, the optical signal transmitting unit 105 can transmit optical signals of various wavelengths as well as the video outputted by the wearable device 100. The optical signal transmitting unit 105, which is implemented to perform the role of the image output unit 140, may periodically or non-periodically transmit the optical signals of different wavelengths alternately The image can be output. When an optical signal for detecting a blood vessel is outputted during the output of the image, the image can be utilized in the process of selectively detecting the optical signal of the specific wavelength as described above. That is, since the image output unit outputs the image at a wavelength of visible light visible to the user, the optical signal having the visible light wavelength output by the image output unit is utilized as one of the optical signals for detecting the blood vessel. Accordingly, when the optical signal transmitting unit 105 further transmits only the optical signal of the infrared wavelength, the same / similar effect as that of transmitting two optical signals of different wavelengths can be obtained.

다시 말해서, 광신호 송출부(105)는 제 1 광신호 출력, 제 2 광신호 출력, 영상 출력의 과정을 순차적으로 반복하며 수행할 수도 있으며, 광신호를 출력하는 과정은 영상 출력에 비해 상대적으로 매우 짧은 시간 간격으로 이루어질 수 있다. 이러한 경우, 사용자는 짧은 시간 동안 출력되는 광신호를 시각적으로 충분히 인지할 수 없고 영상만을 확인할 수 있게 된다. In other words, the optical signal transmitting unit 105 may sequentially perform the processes of outputting the first optical signal, outputting the second optical signal, and outputting the image, and the process of outputting the optical signal may be performed relatively It can be done in very short time intervals. In this case, the user can not visually fully recognize the optical signal output for a short period of time, and only the image can be confirmed.

한편, 광신호 송출부(105)가 깊이 센서(125)와 동일한 구성으로 구현됨은 앞서 설명한 바 있다. 즉, 광신호 송출부(105)가 깊이 센서(125)의 역할과 영상 출력부(140)의 역할을 모두 수행하는 경우, 세 구성은 하나의 구성으로 구현될 수도 있다. 이러한 실시 예에서, 광신호 송출부(105)는 영상을 출력하는 도중에 광신호를 송출함에 더하여, 패턴화된 광신호를 송출하여 깊이 센서(125)의 역할도 수행할 수 있다. The optical signal transmitting unit 105 has the same configuration as the depth sensor 125 described above. That is, when the optical signal transmitting unit 105 performs both the role of the depth sensor 125 and the function of the image output unit 140, the three configurations may be implemented as one configuration. In this embodiment, the optical signal transmitting unit 105 may transmit the optical signal in the middle of outputting the image, and may also serve as the depth sensor 125 by transmitting the patterned optical signal.

자이로스코프 센서(145)는 각속도를 측정하여 웨어러블 디바이스(100)의 기울기를 감지한다. 자이로스코프 센서(145)의 종류와 기능 등에 대해서는 기술분야의 통상의 지식을 가진자라면 당연히 알 수 있어, 구체적인 설명은 생략한다. 가속도 센서(150)는 속도 변화를 측정하여 웨어러블 디바이스(100)의 가속도와 기울기를 감지한다. 가속도 센서(150) 또한 그 종류와 기능에 대해 이미 알려진 바가 많아, 구체적인 설명은 생략한다.The gyroscope sensor 145 senses the inclination of the wearable device 100 by measuring the angular velocity. The kind and function of the gyroscope sensor 145 are obvious to those of ordinary skill in the art, and a detailed description thereof will be omitted. The acceleration sensor 150 measures the acceleration and the tilt of the wearable device 100 by measuring a change in velocity. Acceleration sensor 150 is also known in terms of its type and function, and a detailed description thereof will be omitted.

한편, 자이로스코프 센서(145)와 가속도 센서(150)는 웨어러블 디바이스(100)의 3차원 공간 상의 움직임을 측정한다. 즉, 자이로스코프 센서(145)와 가속도 센서(150)는 웨어러블 디바이스(100)가 3차원 공간 상에서 어떠한 방향, 속도, 기울기로 움직이는지를 측정함으로써, 마우스 입력 동작을 감지한다. 마우스 입력 동작은 사용자가 웨어러블 디바이스(100)를 장착한 채로 공간 상에서 웨어러블 디바이스(100)를 이동시켜 마우스의 커서를 조작하는 입력을 의미한다. 상술한 키 결정부(120)는 자이로스코프 센서(145)와 가속도 센서(150)가 감지한 측정 값을 이용하여 웨어러블 디바이스(100)의 공간 상에서의 움직임을 감지하여, 마우스 입력 동작에 매칭되는 커서 값을 생성할 수 있다. Meanwhile, the gyroscope sensor 145 and the acceleration sensor 150 measure the movement of the wearable device 100 in the three-dimensional space. That is, the gyroscope sensor 145 and the acceleration sensor 150 sense the mouse input operation by measuring how the wearable device 100 moves in three-dimensional space in what direction, speed, and slope. The mouse input operation refers to an input for moving the wearable device 100 in a space while the user wears the wearable device 100 and operating the cursor of the mouse. The key determiner 120 detects movement of the wearable device 100 in the space using the measured values sensed by the gyroscope sensor 145 and the acceleration sensor 150, Value can be generated.

즉, 웨어러블 디바이스(100)는 커서 값을 외부로 전송하여 입력 디바이스의 역할을 수행하는 ‘공간 마우스’로 동작할 수 있다. 또한, 웨어러블 디바이스(100)는 상술한 깊이 센서(125)를 활용하여 신체나 외부 대상체의 3차원 모델을 생성함으로써, 신체나 외부 대상체를 대상으로 공간 마우스의 역할을 수행하도록 구현될 수 있다. That is, the wearable device 100 may operate as a 'spatial mouse' that transmits the cursor value to the outside to perform the role of the input device. In addition, the wearable device 100 can be implemented to perform a role of a spatial mouse for a body or an external object by generating a three-dimensional model of a body or an external object using the depth sensor 125 described above.

또한, 마우스 입력 동작과 관련하여 마우스 클릭 동작을 설명한다. 마우스 클릭 동작은 사용자가 웨어러블 디바이스(100)를 장착한 채로 마우스 입력 동작을 수행하는 도중에, 둘 이상의 손가락을 접촉함으로써 마우스의 왼쪽 또는 오른쪽 버튼을 클릭하는 입력을 의미한다. 예를 들어, 웨어러블 디바이스(100)는 사용자가 엄지 손가락과 검지 손가락을 접촉하는 경우를 마우스 왼쪽 버튼의 클릭, 중지 손가락과 엄지 손가락을 접촉하는 경우를 마우스 오른쪽 버튼의 클릭에 대한 마우스 클릭 동작으로 인식할 수 있다. 한편, 해당 클릭 동작은 마우스 클릭 값으로 생성되며, 외부 디바이스나 서버로 전송될 수 있다.In addition, the mouse click operation will be described with respect to the mouse input operation. The mouse click operation refers to an input in which a left or right button of a mouse is clicked by touching two or more fingers while a user performs a mouse input operation while wearing the wearable device 100. [ For example, the wearable device 100 recognizes the case where the user touches the thumb and the index finger with the click of the left button of the mouse, and the case where the stop finger touches the thumb with the mouse click as the mouse click action with respect to the right click of the mouse can do. Meanwhile, the click operation is generated as a mouse click value and can be transmitted to an external device or a server.

피드백부(155)는 웨어러블 디바이스(100)가 여러 가지 수단을 이용하여 사용자에게 촉각 피드백을 전송하는 수단이다. 촉각 피드백은 다양한 경우에 생성되고 사용자에게 전송될 수 있는데, 예를 들어 웨어러블 디바이스(100)가 공간 상의 특정 좌표에 위치하거나 해당 좌표를 지나는 경우, 웨어러블 디바이스(100)에 연결된 외부 디바이스에서 재생되는 컨텐츠로부터 사용자에게 촉각 피드백을 전송할 것을 지시하는 신호가 수신되는 경우 등 여러 가지 경우에 있어서 사용자에게 촉각 피드백을 제공할 수 있다. The feedback unit 155 is a means by which the wearable device 100 transmits tactile feedback to the user by using various means. The tactile feedback can be generated in various cases and transmitted to the user. For example, when the wearable device 100 is located at a specific coordinate in the space or passes the coordinates, the tactile feedback can be transmitted to the wearable device 100 The tactile feedback can be provided to the user in various cases, such as when a signal is received from the user indicating that the tactile feedback should be transmitted to the user.

피드백부(155)가 사용자에게 촉각 피드백을 전송하는 수단은 여러 가지가 될 수 있다. 예를 들어, 피드백부(155)는 진동 모듈을 포함하여 사용자에게 진동 신호를 전달하거나, 압력 모듈을 포함하여 웨어러블 디바이스(100)를 장착한 사용자가 압력을 느끼게 할 수도 있다. 또한, 피드백부(155)는 전단 응력(shear stress) 모듈을 통해 사용자에게 촉각 피드백을 제공하거나 전류 모듈을 통해 사용자의 신체에 영향이 없을 정도의 미세 전류를 전달할 수도 있다.The means by which the feedback unit 155 transmits the tactile feedback to the user may be various. For example, the feedback unit 155 may include a vibration module to transmit a vibration signal to a user, or a user wearing the wearable device 100 including a pressure module may feel pressure. In addition, the feedback unit 155 may provide tactile feedback to the user through a shear stress module, or may transmit a microcurrent not to affect the user's body through the current module.

통신부(160)는 데이터 통신을 수행하며 외부와의 송신 및 수신을 수행한다. 예를 들어, 통신부(160)는 무선으로 외부 네트워크와 연결되어 외부 디바이스, 서버 등과 통신할 수 있으며, 통신을 수행하기 위한 하나 이상의 통신 모듈을 포함할 수 있다. The communication unit 160 performs data communication and performs transmission and reception with the outside. For example, the communication unit 160 may include one or more communication modules for communicating with an external device, a server, and the like, and performing communication by being connected to an external network wirelessly.

통신부(160)는 근거리 통신을 위한 모듈로써 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스, 지그비(zigbee), WFD(Wi-Fi Direct), UWB(ultra wideband), 적외선 통신(IrDA, infrared Data Association), BLE(Bluetooth Low Energy), NFC(Near Field Communication) 등의 통신 기능을 구현하기 위한 모듈을 포함할 수 있다. The communication unit 160 is a module for short-range communication and is a wireless LAN, a Wi-Fi, a Bluetooth, a zigbee, a Wi-Fi direct, an ultra wideband (UWB) , infrared data association), BLE (Bluetooth low energy), NFC (Near Field Communication), and the like.

통신부(160)는 상술한 통신 모듈을 이용하여 키 결정부(120)가 생성한 입력 값, 커서 값, 클릭 값 등을 외부로 전송할 수 있다. 또한, 통신부(160)는 상술한 통신 모듈들을 통해 외부 디바이스로부터 3차원 위치 정보를 수신할 수도 있다.The communication unit 160 can transmit an input value, a cursor value, a click value, and the like generated by the key determination unit 120 to the outside using the communication module. Also, the communication unit 160 may receive three-dimensional position information from an external device through the communication modules described above.

저장부(165)는 웨어러블 디바이스(100)로 입출력되는 데이터와 정보를 저장할 수 있다. 예를 들어, 저장부(165)는 키 결정부(120)가 생성한 입력 값, 커서 값, 클릭 값들을 저장할 수 있다. 또한, 저장부(165)는 웨어러블 디바이스(100)가 실행할 수 있는 여러 가지 종류의 프로그램 데이터나 알고리즘 데이터를 저장할 수도 있다.The storage unit 165 may store data and information input to and output from the wearable device 100. For example, the storage unit 165 may store an input value, a cursor value, and a click value generated by the key determination unit 120. In addition, the storage unit 165 may store various types of program data or algorithm data that the wearable device 100 can execute.

저장부(165)는 플래시 메모리 타입(flash memory type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory) 및 PROM(Programmable Read-Only Memory) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 인터넷 상에서 저장부(165)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The storage unit 165 may be a flash memory type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a random access memory (RAM) (ROM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), and a programmable read-only memory (PROM) Also, the wearable device 100 may operate a web storage or a cloud server that performs a storage function of the storage unit 165 on the Internet.

전원부(170)는 웨어러블 디바이스(100)의 동작을 위한 전원을 공급한다. 전원부(170)는 리튬-이온(Li-ion) 배터리, 리튬-폴리머(Li-polymer) 배터리 등 다양한 종류의 전원 공급 수단을 포함할 수 있으며, 웨어러블 디바이스(100)는 복수의 전원부(170)를 포함할 수도 있다. 전원부(170)는 웨어러블 디바이스(100)의 다른 구성들과 유선으로 연결되어 전원을 공급할 수 있으며, 무선 전력 전달 기술 등을 통해 무선으로 외부 전력을 공급받아 충전할 수도 있다. 또한, 전원부(170)는 일정 이상의 정도로 구부러지거나 펴질 수 있는 플렉서블(flexible) 배터리를 포함할 수도 있다. The power supply unit 170 supplies power for operation of the wearable device 100. The power supply unit 170 may include various types of power supply means such as a Li-ion battery and a Li-polymer battery. The wearable device 100 includes a plurality of power supply units 170 . The power supply unit 170 may be connected to the other components of the wearable device 100 in a wired manner to supply power, and may be supplied with external power wirelessly through a wireless power transfer technique or the like. In addition, the power supply unit 170 may include a flexible battery that can be bent or spread to a certain degree or more.

제어부(175)는 이상에서 설명한 구성들과 연결되어 웨어러블 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(175)는 광신호 송출부(105)가 송출한 광신호가 광신호 감지부(110)에 의해 반사 광신호로 감지되면, 데이터 처리부(115)로 하여금 반사 광신호를 처리하여 수신 데이터를 생성하도록 제어한다. 또한, 제어부(175)는 수신 데이터에 기초하여 키 결정부(120)가 입력 값을 생성하도록 제어할 수도 있다. 나아가, 제어부(175)는 위치 결정부(135)를 이용하여 영상 처리부(130)가 고정된 위치에 고정된 크기로 영상을 출력하도록 제어하거나, 키 결정부(120)와 영상 출력부(140)가 수행하는 역할을 보조하기 위해 영상 처리부(130)로 하여금 3차원 모델을 생성하도록 제어할 수도 있다. 즉, 제어부(175)는 웨어러블 디바이스(100)가 사용자의 동작에 따라 입력 수단 또는 출력 수단으로 동작하기 위한 여러 가지 기능을 제어할 수 있다.The controller 175 controls the overall operation of the wearable device 100 by being connected to the configurations described above. For example, when the optical signal transmitted from the optical signal transmitting unit 105 is detected as a reflected optical signal by the optical signal detecting unit 110, the control unit 175 processes the reflected optical signal by the data processing unit 115 And controls to generate received data. The control unit 175 may also control the key determination unit 120 to generate an input value based on the received data. The control unit 175 may control the image processing unit 130 to output an image of a fixed size to the fixed position using the position determination unit 135 or may control the key determination unit 120 and the image output unit 140, Dimensional model may be generated by the image processing unit 130 in order to assist the user in performing the function of the 3D model. That is, the control unit 175 can control various functions for the wearable device 100 to operate as the input means or the output means according to the operation of the user.

이하에서는 웨어러블 디바이스(100)가 사용자 신체의 움직임에 따라 동작하는 실시 예를 설명한다. 이하에서 특별한 설명이 없는 한 도시된 웨어러블 디바이스가 사용자의 엄지손가락에 링(ring) 형태로 장착되도록 구현된 실시 예를 도시한다. 링 형태로 구현된 웨어러블 디바이스(100)는 사용자의 왼손, 오른손 또는 양손 모두에 장착되도록 구현될 수도 있으며, 이는 단순한 설계와 구조 변경을 통해 구현될 수 있다. 다만, 웨어러블 디바이스(100)는 이러한 링 형태 이외에도 장갑 형태, 팔찌 형태, 클립 형태 등 다양한 형태로 구현될 수 있으며, 구체적인 예는 도 10에서 설명한다. Hereinafter, an embodiment in which the wearable device 100 operates according to the movement of the user's body will be described. In the following, an illustrative embodiment is shown in which a wearable device as shown is mounted on a ring of a user's thumb, unless otherwise specified. The wearable device 100 implemented in a ring form may be implemented to be mounted on the left, right, or both hands of the user, which can be implemented through simple design and structural changes. However, the wearable device 100 may be implemented in various forms such as a glove shape, a bracelet shape, a clip shape, etc., in addition to the ring shape, and a specific example will be described with reference to FIG.

또한, 웨어러블 디바이스(100)는 둘 이상의 분리된 형태로 구현될 수도 있다. 즉, 도 1에서 설명한 구성들은 둘 이상의 분리된 웨어러블 디바이스(100)의 어느 하나 또는 둘 이상에 모두 포함될 수 있고, 둘 이상의 분리된 웨어러블 디바이스(100)들은 서로 연동하여 데이터를 주고받으며 동작할 수 있다. 다시 말해서, 웨어러블 디바이스(100)는 도 1에서 설명한 구성 중 일부 또는 전부를 포함하는 형태로 구현될 수 있으며, 일부를 포함하는 경우에는 다른 일부를 포함하는 또 다른 웨어러블 디바이스(100)와 연동하여 동작할 수 있다.In addition, the wearable device 100 may be implemented in two or more separate forms. That is, the configurations described in FIG. 1 may be included in any one or two or more of the two or more separate wearable devices 100, and two or more separate wearable devices 100 may operate in conjunction with each other to exchange data . In other words, the wearable device 100 may be implemented in a form including some or all of the configurations described in FIG. 1, and in a case where the wearable device 100 includes a part of the wearable device 100, the wearable device 100 may operate in cooperation with another wearable device 100, can do.

도 2는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 2에 도시된 그래프는 웨어러블 디바이스가 송출하는 광신호의 출력을 파장 대역에 따라 도시한다.FIG. 2 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention. The graph shown in Fig. 2 shows the output of the optical signal transmitted by the wearable device according to the wavelength band.

앞서 설명한 바와 같이, 웨어러블 디바이스는 다양한 파장의 광신호를 생성하고 송출할 수 있다. 이하에서는, 본 발명의 실시 예와 관련하여 웨어러블 디바이스가 두 개의 서로 다른 파장의 광신호를 송출하는 과정을 설명한다. 설명의 편의를 위해 두 광신호의 파장을 각각 제 1 파장 및 제 2 파장이라 하며, 제 1 파장은 제 1 주파수 대역(BW1) 내의 파장을 의미하고, 제 2 파장은 제 2 주파수 대역(BW2) 내의 파장을 의미할 수 있다. 예를 들어 설명하면, 제 1 주파수 대역(BW1)은 근적외선의 주파수 대역일 수 있고, 제 2 주파수 대역(BW2)은 가시광선의 주파수 대역일 수 있다. 즉, 웨어러블 디바이스는 근적외선의 제 1 파장을 갖는 제 1 광신호 및 가시광선의 제 2 파장을 갖는 제 2 광신호를 생성하고 송출할 수 있다.As described above, the wearable device can generate and transmit optical signals of various wavelengths. Hereinafter, a process in which a wearable device transmits optical signals of two different wavelengths will be described in connection with an embodiment of the present invention. For convenience of explanation, the wavelengths of the two optical signals are referred to as a first wavelength and a second wavelength, respectively. The first wavelength means a wavelength in the first frequency band BW1. The second wavelength means a wavelength in the second frequency band BW2. The wavelength of the light. For example, the first frequency band BW1 may be a near-infrared frequency band, and the second frequency band BW2 may be a frequency band of visible light. That is, the wearable device can generate and transmit the first optical signal having the first wavelength of the near-infrared light and the second optical signal having the second wavelength of the visible light line.

한편, 웨어러블 디바이스는 제 1 광신호 및 제 2 광신호를 출력하기 위하여, 연속적인 스펙트럼의 파장을 갖는 광신호를 생성할 수도 있고, 각각의 파장 또는 파장대를 갖는 광신호를 생성할 수도 있다. 구체적으로 설명하면, 웨어러블 디바이스는 도 2에 실선으로 도시된 바와 같이 서로 다른 파장을 갖는 제 1 광신호 및 제 2 광신호를 각각 생성할 수 있다. 반면에, 웨어러블 디바이스는 도 2에 점선으로 도시된 바와 같이 상대적으로 넓은 연속적인 스펙트럼의 파장을 갖는 광신호를 생성하고, 소정의 필터(예를 들어, 대역통과(band pass) 필터)를 이용하여 제 1 파장 및 제 2 파장을 갖는 광신호들을 출력할 수도 있다. On the other hand, the wearable device may generate an optical signal having a continuous spectral wavelength, or may generate an optical signal having each wavelength or a wavelength band, in order to output the first optical signal and the second optical signal. Specifically, the wearable device can generate the first optical signal and the second optical signal having different wavelengths, respectively, as shown by the solid line in FIG. On the other hand, the wearable device generates an optical signal having a relatively wide continuous spectrum of wavelengths as shown by the dotted line in Fig. 2, and uses a predetermined filter (for example, a band pass filter) And output optical signals having the first wavelength and the second wavelength.

전자의 경우, 웨어러블 디바이스는 두 광신호를 생성하기 위한 광신호 송출부를 하나만 포함할 수도 있고, 서로 다른 파장의 두 광신호를 각각 생성하도록 둘 이상의 광신호 송출부를 포함할 수도 있다. 후자의 경우에도, 웨어러블 디바이스는 하나의 단일한 광신호 송출부를 포함할 수 있으며, 광신호 송출부를 둘 이상 포함하도록 구현될 수 있다. In the former case, the wearable device may include only one optical signal transmitting unit for generating two optical signals, or may include two or more optical signal transmitting units for generating two optical signals of different wavelengths, respectively. In the latter case, the wearable device may include one single optical signal transmitting unit and may be implemented to include two or more optical signal transmitting units.

도 3은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 3은 대상체가 신체 일부인 경우에 있어서, 웨어러블 디바이스가 대상체로 광신호를 송출하고 반사 광신호를 감지하는 과정을 설명한다. 도 3에서 신체 일부인 대상체(300)는 예를 들어 손의 피부가 될 수 있으며, 대상체(300) 내부에 어둡게 도시된 영역은 신체 내부의 혈관(310)이 될 수 있다.FIG. 3 is a diagram illustrating an operation process of a wearable device according to an embodiment of the present invention. 3 illustrates a process in which the wearable device transmits an optical signal to a target and detects a reflected optical signal when the target is a part of the body. In FIG. 3, the body 300, which is a part of the body, may be the skin of the hand, for example, and the area darkened inside the body 300 may be the blood vessel 310 inside the body.

먼저, 도 2에서 설명한 바와 같이 웨어러블 디바이스는 둘 이상의 서로 다른 파장의 광신호를 생성하고 송출한다. 도 3의 실시 예에서, λ1의 파장을 갖는 A1, B1은 웨어러블 디바이스가 송출하는 제 1 광신호를 도시하며, λ2의 파장을 갖는 A2는 웨어러블 디바이스가 송출하는 또 다른 광신호인 제 2 광신호를 도시한다. 웨어러블 디바이스는 서로 다른 파장의 두 광신호를 생성하고 대상체(300)인 신체 피부로 송출한다. 한편, 도 3에서는 제 1 광신호는 근적외선 대역의 파장을 가지며 제 2 광신호는 가시광선 대역의 파장을 가지는 실시 예를 설명한다. First, as described in FIG. 2, the wearable device generates and transmits optical signals having two or more different wavelengths. In the embodiment of Fig. 3, A1 and B1 having a wavelength of lambda 1 indicate a first optical signal transmitted by the wearable device, and A2 having a wavelength of lambda 2 is a second optical signal / RTI > The wearable device generates two optical signals having different wavelengths and transmits them to the body skin, which is the object 300. 3, the first optical signal has a wavelength in a near-infrared band and the second optical signal has a wavelength in a visible light band.

인체 내부에는 피부 조직과 혈관 등이 존재하며, 각각은 서로 다른 성분으로 구성된다. 특히, 혈관에는 헤모글로빈을 포함하는 적혈구가 존재하여 붉은색을 띄게 된다. 이러한 헤모글로빈은 산화 헤모글로빈(oxyhemoglobin)과 탈산화 헤모글로빈(deoxyhemoglobin)으로 나뉜다. 산화 헤모글로빈은 동맥에 다수 존재하며 신체 조직으로 산소를 전달하며, 탈산화 헤모글로빈은 신체 조직들에 산소를 전달한 뒤인 정맥에 다수 존재한다. 즉, 동맥과 정맥은 각각에 위치하는 헤모글로빈 종류의 차이로 인하여 서로 다른 물리적 특성을 갖는다. 특히, 정맥에 포함되는 산화/탈산화 헤모글로빈은 빛의 파장이 달라짐에 따라 흡수율이 달라진다. 산화/탈산화 헤모글로빈이 포함된 정맥은 주변의 다른 조직에 비해 근적외선 영역의 파장(약 700 내지 900nm)에 대한 흡수율이 상대적으로 높기 때문에, 근적외선 영역의 광신호가 정맥과 다른 조직에서 산란/반사되는 양은 크게 차이나게 된다. 이러한 차이는 근적외선 영역의 파장을 이용하여 영상을 생성할 경우 큰 명암 차이로 확인된다.There are skin tissues and blood vessels inside the human body, each of which is composed of different components. Particularly, blood vessels contain red blood cells containing hemoglobin and become red. These hemoglobin are divided into oxyhemoglobin and deoxyhemoglobin. Oxidized hemoglobin is present in many arteries and transports oxygen to body tissues, and deoxidized hemoglobin is present in a number of veins that carry oxygen to body tissues. In other words, arteries and veins have different physical properties due to differences in the types of hemoglobin located in each. In particular, oxidation / deoxygenated hemoglobin contained in the veins varies in absorption rate as the wavelength of light changes. Since the venous vein containing oxidized / de-oxidized hemoglobin has a relatively high absorption rate for the wavelength of the near infrared region (about 700 to 900 nm) as compared with other surrounding tissues, the amount of scattering / reflection of the optical signal in the near- It will be greatly different. This difference is confirmed as a large difference in contrast when the image is generated using the wavelength of the near infrared region.

한편, 웨어러블 디바이스는 이러한 혈관(정맥)과 다른 주변 조직과의 물리적 특성 차이를 이용하여 신체의 혈관을 감지할 수 있다. 즉, 웨어러블 디바이스가 송출한 제 1 광신호(A1, B1) 및 제 2 광신호(A2)는 서로 다른 파장을 가지며, 제 1 광신호(A1, B1)의 일부(A1)는 대상체(300)인 피부에서 대부분 반사/산란되고, 제 1 광신호(A1, B1)의 나머지 일부(B1)는 대상체(300)인 피부를 통과하여 대상체(300) 내부의 혈관(310)에서 반사/산란된다. 후자의 광신호(B1)는 혈관(310)까지 도달하여 정맥의 탈산화 헤모글로빈에 의해 산란/반사된다. 제 2 광신호(A2)는 제 1 광신호(A1, B1) 중에서 일부 광신호(A1)와 유사하게 대상체(300)인 피부에서 반사/산란된다. 다시 말해서, 제 1 광신호(A1, B1)는 대상체(300)에 대한 투과성이 있는 파장의 광신호로, 피부의 층들을 통과하며 층마다 반사/산란/흡수된다. 제 2 광신호(A2)는 투과성이 적어 피부의 겉에서 대부분 반사/산란되며, 제 1 광신호(A1) 중에서 일부 광신호(A1)와 유사한 특성을 갖는다.On the other hand, the wearable device can detect the blood vessels of the body using the difference in physical characteristics between the blood vessels (veins) and other surrounding tissues. That is, the first optical signals A1 and B1 and the second optical signal A2 transmitted from the wearable device have different wavelengths, and a part A1 of the first optical signals A1 and B1 is transmitted to the target 300, And the remaining part B1 of the first optical signals A1 and B1 passes through the skin that is the object 300 and is reflected / scattered in the blood vessel 310 inside the object 300. The latter optical signal B1 reaches the blood vessel 310 and is scattered / reflected by the vein deoxyhemoglobin. The second optical signal A2 is reflected / scattered by the skin, which is the object 300, similar to some of the optical signals A1 among the first optical signals A1 and B1. In other words, the first optical signal A1, B1 is an optical signal of a wavelength that is transmissive to the object 300, passes through the layers of the skin and is reflected / scattered / absorbed per layer. The second optical signal A2 is less transmissive and mostly reflected / scattered from the surface of the skin, and has characteristics similar to some optical signals A1 among the first optical signal A1.

웨어러블 디바이스는 제 1 광신호(A1, B1) 및 제 2 광신호(A2)를 대상체로 송출한 뒤, 대상체에서 반사되는 반사 광신호를 각각 수신한다. 이러한 반사 광신호는 제 1 광신호(A1, B1)가 피부 및 정맥에서 반사되는 광신호(A1+B1)와 제 2 광신호(A2)가 피부에서 반사되는 광신호(A2)를 모두 포함한다. 설명의 편의를 위해, 제 1 광신호(A1, B1)에 의한 반사 광신호(A1+B1)을 제 1 반사 광신호, 제 2 광신호(A2)에 의한 반사 광신호를 제 2 반사 광신호(A2)라 한다. The wearable device transmits the first optical signal (A1, B1) and the second optical signal (A2) to the target object, and then receives the reflected optical signal reflected from the target object. The reflected optical signal includes both the optical signal A1 + B1 in which the first optical signals A1 and B1 are reflected from the skin and the vein and the optical signal A2 in which the second optical signal A2 is reflected from the skin . For convenience of explanation, it is assumed that a reflected optical signal (A1 + B1) by the first optical signals A1 and B1 is referred to as a first reflected optical signal and a reflected optical signal by the second optical signal A2 is referred to as a second reflected optical signal (A2).

웨어러블 디바이스는 제 1 반사 광신호(A1+B1)에 대한 처리 과정을 거쳐 수신 데이터를 생성하며, 이러한 수신 데이터는 대상체의 피부와 혈관에 대한 정보를 모두 포함한다. The wearable device generates reception data through a process for the first reflected optical signal (A1 + B1), and the received data includes both information about skin and blood vessels of the object.

이어서, 웨어러블 디바이스는 제 1 광신호(A1, B1)와는 다른 파장의 광신호인 제 2 광신호(A2)를 대상체로 재송출한다. 즉, 새롭게 송출되는 제 2 광신호(A2)는 앞서 웨어러블 디바이스가 송출했던 제 1 광신호(A1, B1)와 다른 파장의 광신호이나, 제 1 광신호(A1, B1)의 일부(A1)에 의해 획득되는 정보인 피부 겉면에 대한 정보를 유사하게 포함한다. 즉, 제 2 광신호(A2)는 대상체의 피부에서 반사되어 웨어러블 디바이스에 수신되며, 제 2 광신호에 의한 반사 광신호(A2)는 제 1 반사 광신호(A1+B1)에 포함된 정보 중 일부를 유사하게 포함한다.Then, the wearable device resends the second optical signal A2, which is an optical signal having a wavelength different from that of the first optical signals A1 and B1, to the target object. That is, the second optical signal A2 to be newly transmitted is an optical signal having a wavelength different from that of the first optical signals A1 and B1 transmitted by the wearable device or a part A1 of the first optical signals A1 and B1, Information about the skin surface, which is information obtained by the user. That is, the second optical signal A2 is reflected by the skin of the object and is received by the wearable device, and the reflected optical signal A2 by the second optical signal is received from the information contained in the first reflected optical signal A1 + B1 Some of which are similar.

웨어러블 디바이스는 제 2 반사 광신호(A2)에 대한 처리 과정을 거쳐 수신 데이터를 생성하며, 이러한 수신 데이터는 앞서 제 1 반사 광신호(A1+B1)에 대한 수신 데이터와는 달리 대상체의 피부에 대한 정보만을 포함한다.The wearable device generates the received data through the process of the second reflected optical signal A2 and the received data is transmitted to the skin of the target object differently from the received data for the first reflected optical signal A1 + Information only.

웨어러블 디바이스는 제 1 반사 광신호(A1+B1)에 기초하여 생성했던 수신 데이터와 제 2 반사 광신호(A2)에 기초하여 생성한 수신 데이터를 비교한다. 이러한 비교 과정은 두 수신 데이터의 차이를 비교함으로써 제 1 반사 광신호(A1+B1)의 데이터에서 제 2 반사 광신호(A2)의 데이터를 빼는 과정을 포함할 수 있다. 즉, 웨어러블 디바이스는 제 1 반사 광신호(A1+B1)의 데이터에서 제 2 반사 광신호(A2)의 영향을 제거함으로써 제 1 반사 광신호(A1+B1)에서 대상체 내부의 혈관(310)에 대한 정보만을 획득할 수 있다. 다시 말해서, 웨어러블 디바이스는 제 1 반사 광신호(A1+B1)에서 피부에 대한 정보를 제거하고, 제 1 반사 광신호(A1+B1) 중 일부(B1)로부터 혈관에 대한 정보만을 획득할 수 있게 되며, 이와 같이 두 반사 광신호의 데이터를 뺌으로써 생성되는 데이터가 혈관 데이터가 될 수 있다. The wearable device compares the received data generated based on the first reflected optical signal (A1 + B1) with the received data generated based on the second reflected optical signal (A2). This comparison may include subtracting the data of the second reflected optical signal A2 from the data of the first reflected optical signal A1 + B1 by comparing the difference between the two received data. That is, the wearable device removes the influence of the second reflected optical signal A2 from the data of the first reflected light signal (A1 + B1), thereby obtaining the first reflected light signal (A1 + B1) Can only obtain information about In other words, the wearable device removes information about the skin from the first reflected light signal (A1 + B1) and obtains information about the vessel from the part (B1) of the first reflected light signal (A1 + B1) The data generated by subtracting the data of the two reflected optical signals may be blood vessel data.

구체적으로는 후술하겠으나, 웨어러블 디바이스는 혈관 데이터에 포함된 혈관에 대한 정보를 활용하여 사용자의 키 입력 동작을 감지하고 입력 값을 생성한다. 이에 따라, 웨어러블 디바이스는 혈관에 대한 정보만을 정확하게 추출하도록 동작할 수 있어야 한다. 웨어러블 디바이스는 상술한 바와 같이 두 개의 서로 다른 파장의 광신호를 송출하고 그 둘 간의 차이를 계산하는 과정을 거쳐 혈관에 대한 정보만을 효율적으로 획득할 수 있게 된다. Specifically, as will be described later, the wearable device senses a key input operation of a user and generates an input value by utilizing information on blood vessels included in the blood vessel data. Accordingly, the wearable device must be able to operate to accurately extract information about the blood vessel. The wearable device transmits optical signals of two different wavelengths as described above, and calculates the difference therebetween, so that only the information on the blood vessel can be acquired efficiently.

한편, 이상에서는 웨어러블 디바이스가 제 1 반사 광신호와 제 2 반사 광신호를 각각 수신한다는 내용을 설명하였다. 이하에서는, 구체적으로 웨어러블 디바이스가 서로 다른 파장의 두 반사 광신호를 어떻게 분리 감지하는지에 대해 설명한다. 웨어러블 디바이스가 제 1 파장의 제 1 반사 광신호와 제 2 파장의 제 2 반사 광신호를 수신하는 방법은 3가지 정도로 나누어 생각해볼 수 있다. In the above description, the wearable device receives the first reflected light signal and the second reflected light signal, respectively. Hereinafter, how the wearable device separates and detects two reflected optical signals of different wavelengths will be described in detail. The wearable device receives the first reflected light signal of the first wavelength and the second reflected light signal of the second wavelength in three ways.

첫째로, 웨어러블 디바이스는 수신되는 반사 광신호를 파장에 따라 분리하여 감지할 수 있다. 즉, 웨어러블 디바이스는 제 1 반사 광신호와 제 2 반사 광신호의 파장이 서로 다르므로, 두 반사 광신호를 함께 수신한 뒤 각각의 반사 광신호를 별도로 처리한다. 다시 말해서, 웨어러블 디바이스는 두 파장의 광신호들을 함께 송출한 뒤 두 반사 광신호가 함께 수신되더라도, 파장 별로 반사 광신호를 구별하여 처리할 수 있다. 예를 들어, 웨어러블 디바이스는 광신호를 구별하여 감지하기 위한 포토 디텍터(photo detector)를 파장 별로 구비할 수 있다. First, the wearable device can separate and detect the received reflected optical signal according to the wavelength. That is, since the wavelengths of the first reflected optical signal and the second reflected optical signal are different from each other, the wearable device receives the two reflected optical signals together and processes the respective reflected optical signals separately. In other words, the wearable device can transmit the optical signals of the two wavelengths together and process the reflected optical signal by wavelength separately, even if the two reflected optical signals are received together. For example, the wearable device may include a photo detector for discriminating and detecting an optical signal for each wavelength.

첫번째 예에서, 웨어러블 디바이스는 서로 다른 파장의 반사 광신호를 선택적으로 감지할 수 있다. 이에 따라, 웨어러블 디바이스는 제 1 파장의 제 1 광신호와 제 2 파장의 제 2 광신호를 번갈아 송출하거나, 동시에 송출하거나, 하나의 광신호를 지속적으로 송출하면서 다른 하나의 광신호를 주기적 또는 비주기적으로 송출하는 등 다양한 방식으로 광신호들을 송출하더라도 반사 광신호들을 구별하여 감지할 수 있게 된다.In the first example, the wearable device can selectively detect reflected optical signals of different wavelengths. Accordingly, the wearable device alternately transmits or simultaneously transmits the first optical signal of the first wavelength and the second optical signal of the second wavelength, or transmits the other optical signal periodically or non-periodically while continuously transmitting one optical signal. It is possible to distinguish and detect the reflected optical signals even if the optical signals are transmitted in various ways such as periodically transmitting.

둘째로, 웨어러블 디바이스는 반사 광신호들을 시간 영역 또는 주파수 영역으로 구별하여 감지할 수 있다. 즉, 웨어러블 디바이스는 서로 다른 파장의 광신호들을 송출함에 있어서 시간 차이를 두고 송출하거나 파장 마다 세기를 달리하여 송출할 수 있다. 첫번째 예와는 달리 수신되는 반사 광신호를 파장 별로 구별하지 못한다 하더라도, 웨어러블 디바이스는 어떠한 파장의 광신호가 어떠한 시점에 송출되는지 미리 알고 있으므로 수신되는 반사 광신호가 어떠한 파장의 광신호에 의한 반사 광신호인지 추측할 수 있다. Second, the wearable device can distinguish and detect the reflected optical signals in the time domain or the frequency domain. That is, the wearable device can send out optical signals having different wavelengths with a time difference, or transmit the optical signals with different intensity for each wavelength. Unlike the first example, even if the received reflected light signal can not be distinguished by wavelength, the wearable device knows beforehand what time the optical signal of the wavelength is to be transmitted, so that the reflected optical signal received is the reflected optical signal of the wavelength You can guess.

두번째 예에서, 웨어러블 디바이스는 제 1 파장의 제 1 광신호와 제 2 파장의 제 2 광신호를 번갈아가며 송출할 수 있다. 이러한 경우, 웨어러블 디바이스는 순차적으로 수신되는 반사 광신호가 어떠한 파장의 광신호에 의한 반사 광신호인지 미리 알고 있으므로, 반사 광신호를 파장 별로 구별하기 위한 부담을 덜 수 있다. 본 실시 예에서, 웨어러블 디바이스는 두 광신호를 번갈아 송출하거나, 하나의 광신호를 지속적으로 송출하며 다른 하나의 광신호를 주기적 또는 비주기적으로 송출하는 방식을 이용할 수 있다. In the second example, the wearable device can transmit the first optical signal of the first wavelength and the second optical signal of the second wavelength alternately. In this case, since the wearable device knows in advance which reflected optical signal received sequentially is a reflected optical signal of an optical signal of a certain wavelength, it is possible to reduce the burden for distinguishing the reflected optical signal by wavelength. In this embodiment, the wearable device may use a method of transmitting two optical signals alternately, transmitting one optical signal continuously, and transmitting another optical signal periodically or non-periodically.

셋째로, 광신호들의 세기를 달리하여 송출하는 경우를 생각해볼 수 있다. 웨어러블 디바이스는 서로 다른 광신호들의 출력 세기를 달리하여 송출할 수 있으며, 이러한 실시 예는 상술한 첫번째 실시 예와 두번째 실시 예와 결합되어 적용될 수 있다. 본 실시 예에서, 웨어러블 디바이스는 반사 광신호들의 세기 차이가 상대적으로 크게 감지되기 때문에, 시간 영역 또는 주파수 영역 별로 반사 광신호를 더 효율적으로 검출할 수 있게 된다.Third, a case where the intensity of the optical signals is transmitted in a different manner can be considered. The wearable device can transmit the output intensity of different optical signals differently, and this embodiment can be applied in combination with the first embodiment and the second embodiment described above. In this embodiment, the wearable device is able to detect the reflected optical signal more efficiently by time or frequency domain because the intensity difference of the reflected optical signals is relatively large.

한편, 이상에서는 웨어러블 디바이스가 제 1 광신호와 제 2 광신호를 송출하고 반사 광신호들을 분석하는 실시 예에 대해 설명하였다. 다만, 웨어러블 디바이스가 생성하고 수신하는 광신호는 웨어러블 디바이스가 동작하는 주변 환경의 실내광과 자연광에 의해 영향을 받을 수 있다. 예를 들어, 웨어러블 디바이스가 가시광선 파장의 제 2 광신호를 생성하고 대상체로 송출하는 경우, 제 2 광신호의 반사 광신호는 햇빛이 대상체에 반사됨으로써 생성되는 광신호와 섞여 잡음이 발생할 수 있다. 따라서, 이러한 잡음을 제거하기 위한 과정이 요구될 수 있다.In the above description, the wearable device transmits the first optical signal and the second optical signal and analyzes the reflected optical signals. However, the optical signal generated and received by the wearable device may be influenced by the ambient light and natural light of the surrounding environment in which the wearable device operates. For example, when a wearable device generates a second optical signal having a wavelength of visible light and transmits the second optical signal to a target object, the reflected optical signal of the second optical signal may be mixed with an optical signal generated by reflecting sunlight on a target object, . Therefore, a process for removing such noise may be required.

외부의 빛에 의한 영향을 제거하는 여러 가지 실시 예가 있을 수 있다. 첫째로, 웨어러블 디바이스는 자연광, 실내광, 빔프로젝터에 의한 빛 등의 외부 요인을 배제하도록 동작할 수 있다. 즉, 웨어러블 디바이스는 광신호 송출부가 광신호를 송출하기 전에 광신호 감지부로 감지되는 빛을 외부광으로 인식한다. 이어서, 웨어러블 디바이스는 광신호를 송출한 뒤에 감지되는 반사 광신호에서 외부광에 의한 영향을 제거함으로써 자신이 송출한 광신호에 의한 반사 광신호만을 획득할 수 있다. There may be various embodiments for eliminating the influence of external light. First, the wearable device can operate to exclude external factors such as natural light, indoor light, and light by a beam projector. That is, the wearable device recognizes the light sensed by the optical signal sensing unit as external light before the optical signal transmitting unit transmits the optical signal. Then, the wearable device can obtain only the reflected optical signal by the optical signal transmitted by the wearable device by removing the influence of the external light in the reflected optical signal detected after transmitting the optical signal.

둘째로, 웨어러블 디바이스는 외부광에 의한 영향을 제거하는 대신 외부광을 이용할 수도 있다. 즉, 웨어러블 디바이스가 제 1 광신호로서 근적외선 파장의 광신호를, 제 2 광신호로서 가시광선 파장의 광신호를 활용하는 경우, 웨어러블 디바이스는 제 1 광신호와 제 2 광신호를 직접 생성하고 송출하는 대신 외부광을 선택적으로 수신할 수 있다. 구체적으로 설명하면, 웨어러블 디바이스가 생성하고자 하는 제 1 광신호와 제 2 광신호의 파장이 외부광에 의해서도 생성될 수 있다. 이러한 경우, 웨어러블 디바이스는 외부광이 대상체에 반사되어 생성된 반사 광신호를 필터링하여 소정 파장의 반사 광신호를 선택하여 수신할 수 있다. 이에 따라, 웨어러블 디바이스는 자신이 직접 광신호를 생성하지 않더라도 외부광을 활용하여 동일하거나 유사한 결과를 얻을 수 있다. 그러나, 이와 같이 외부광을 활용하는 경우 원하는 파장의 광신호가 충분히 수신되지 않을 수 있으므로, 웨어러블 디바이스는 수신되는 외부광을 분석하여 필요한 파장의 광신호만을 추가적으로 생성하고 송출하여 외부광을 보충할 수도 있다. Second, the wearable device may use external light instead of eliminating the influence of external light. That is, when the wearable device utilizes the optical signal of the near-infrared wavelength as the first optical signal and the optical signal of the visible light wavelength as the second optical signal, the wearable device directly generates the first optical signal and the second optical signal, It is possible to selectively receive external light. More specifically, the wavelengths of the first optical signal and the second optical signal to be generated by the wearable device can be generated by external light. In this case, the wearable device can filter the reflected optical signal generated by reflecting the external light to the object and select the reflected optical signal of the predetermined wavelength to receive the reflected optical signal. Accordingly, the wearable device can obtain the same or similar result by utilizing external light even if the wearable device does not directly generate the optical signal. However, when the external light is used, the optical signal of the desired wavelength may not be sufficiently received. Therefore, the wearable device may analyze the external light received to additionally generate and transmit the optical signal of the required wavelength to supplement external light .

결론적으로, 웨어러블 디바이스는 특정 파장의 반사 광신호를 수신함에 있어서, 자신이 직접 광신호를 생성하고 대상체로 송출하여 원하는 결과를 얻을 수도 있는 반면, 외부광을 선택적으로 수신함으로써 동일한 결과를 얻을 수도 있다. As a result, when a wearable device receives a reflected optical signal having a specific wavelength, it can directly generate an optical signal and transmit it to a target object to obtain a desired result, while achieving the same result by selectively receiving external light .

한편, 이상에서는 제 1 광신호, 제 2 광신호, 제 1 반사 광신호, 제 2 반사 광신호 등의 용어를 이용하여 본 발명의 실시 예를 설명하였다. 다만, 이와 같이 ‘제1’, ‘제2’ 등의 명칭은 각각의 개념을 구별하여 설명하기 위한 용어에 불과하며, 발명의 내용이 이러한 용어에 한정되는 것은 아니다. In the foregoing, embodiments of the present invention have been described using terms such as a first optical signal, a second optical signal, a first reflected optical signal, and a second reflected optical signal. However, the names such as 'first', 'second', and the like are merely terms for distinguishing the respective concepts, and the contents of the invention are not limited to these terms.

도 4 내지 도 7에서는 웨어러블 디바이스가 상술한 과정에 따라 혈관에 대한 정보를 획득하고 입력 값을 생성하는 과정을 설명한다. 도 4는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 4에서는 웨어러블 디바이스(100)가 사용자의 왼손 엄지 손가락의 첫 번째 마디에 장착된 실시 예를 도시한다. 4 to 7, a description will be given of a process in which the wearable device acquires information on blood vessels and generates an input value according to the procedure described above. FIG. 4 is a diagram illustrating an operation process of a wearable device according to an embodiment of the present invention. 4 illustrates an embodiment in which the wearable device 100 is mounted on the first node of the user's left thumb.

상술한 바와 같이 웨어러블 디바이스(100)는 광신호 송출부(105) 및 광신호 감지부(110)를 포함한다. 도 4에서는 광신호 송출부(105)와 광신호 감지부(110)가 인접하여 배치되고, 참조 번호를 통해 표시하지는 않았으나 다른 기능 모듈들이 일렬로 배열되는 형태를 도시한다. 다만, 이는 설명의 편의를 위한 구현 형태의 예시에 불과하며, 웨어러블 디바이스(100)에 포함된 구성들이 이러한 배치 형태에 한정되는 것은 아니다. As described above, the wearable device 100 includes the optical signal sending unit 105 and the optical signal sensing unit 110. In FIG. 4, the optical signal transmitting unit 105 and the optical signal sensing unit 110 are arranged adjacent to each other, and not shown through reference numerals, but other functional modules are arranged in a line. However, this is merely an example of an embodiment for convenience of explanation, and the configurations included in the wearable device 100 are not limited to such a configuration.

즉, 광신호 송출부(105)와 광신호 감지부(110)는 웨어러블 디바이스(100)에 하나 이상 포함될 수 있고, 서로 일정 거리 이상 이격되어 배치될 수도 있다. 또한, 웨어러블 디바이스(100)가 두 개의 분리된 형태로 구현되는 경우, 광신호 송출부(105)와 광신호 감지부(110)는 각각 웨어러블 디바이스(100)에 하나씩 포함될 수도 있다. 또한, 도 4에 도시된 웨어러블 디바이스(100)는 링 형태로 구현되나, 이러한 구현 형태에 한정되지 않음은 앞서 도 1에서 설명한 바와 같다.That is, the optical signal transmitting unit 105 and the optical signal sensing unit 110 may be included in the wearable device 100 or may be disposed apart from each other by a predetermined distance. When the wearable device 100 is implemented in two separate forms, the optical signal transmitting unit 105 and the optical signal sensing unit 110 may be included in the wearable device 100, respectively. In addition, although the wearable device 100 shown in FIG. 4 is implemented in a ring shape, the wearable device 100 is not limited to this embodiment as described with reference to FIG.

웨어러블 디바이스(100)는 사용자의 신체에 장착되어 대상체(410)인 사용자의 손을 감지하며, 대상체(410) 내의 혈관(400)에 대한 정보를 획득한다. 즉, 웨어러블 디바이스(100)는 사용자의 신체 일부 또는 사물에 장착되어 대상체(410)로 광신호를 송출하며, 대상체(410)의 외부 또는 내부에서 반사된 반사 광신호를 수신하여 대상체(410)와 혈관(400)에 대한 정보를 획득한다. The wearable device 100 is attached to a user's body and senses a user's hand as a target object 410 and acquires information on the blood vessel 400 in the target object 410. That is, the wearable device 100 transmits an optical signal to a target object 410 mounted on a part or body of a user, receives a reflected optical signal reflected from the outside or inside of the target 410, Information about the blood vessel 400 is obtained.

도 5는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 5에서는 웨어러블 디바이스가 사용자의 손에 대한 3차원 모델을 생성하는 과정을 설명한다. 5 is a view for explaining the operation of the wearable device according to an embodiment of the present invention. FIG. 5 illustrates a process in which a wearable device creates a three-dimensional model of a user's hand.

먼저, 도 5의 좌측에 도시된 실시 예를 설명한다. 웨어러블 디바이스의 깊이 센서는 대상체인 사용자의 손을 3차원으로 감지하여 3차원 스캔 정보를 생성한다. 도시된 바와 같이 사용자의 왼손을 전체적으로 스캔하기 위해서는 웨어러블 디바이스가 왼손 엄지 손가락 대신 다른 신체 부위(예를 들어, 오른손 엄지 손가락)에 장착될 수도 있다. 사용자는 웨어러블 디바이스를 장착한 오른손을 왼손의 주변으로 둘러가며 깊이 센서가 왼손을 3차원으로 스캔하게끔 할 수 있다. First, the embodiment shown on the left side of FIG. 5 will be described. The depth sensor of the wearable device senses the hand of the target chain user three-dimensionally and generates three-dimensional scan information. As shown, a wearable device may be mounted on another body part (e.g., the right hand thumb) instead of the left hand thumb to scan the entire user's left hand. The user can move the right hand equipped with the wearable device around the left hand and let the depth sensor scan the left hand in three dimensions.

한편, 웨어러블 디바이스는 사용자의 손등면보다 손바닥면에 대한 정보가 중요하다. 이에 따라, 웨어러블 디바이스가 사용자의 손바닥면에 대한 3차원 스캔 정보를 정확하게 획득할 수 있도록, 사용자는 감지 센서가 왼손의 손바닥면을 바라볼 때는 천천히 스캔하고, 감지 센서가 왼손의 손등면을 바라볼 때는 손바닥면 보다는 빠른 속도로 스캔할 수도 있다. 또는, 손등면에 대한 3차원 정보를 정확하게 획득할 필요가 없는 경우, 사용자는 손등면에 대한 3차원 스캔 과정은 생략할 수도 있다.On the other hand, information about the palm surface is important for the wearable device rather than the user's hand. Accordingly, in order for the wearable device to accurately acquire the three-dimensional scan information on the user's palm surface, the user scans slowly when the detection sensor looks at the palm surface of the left hand, and when the detection sensor looks at the palm surface of the left hand, You can scan at a faster rate than the palm of your hand. Alternatively, if it is not necessary to accurately acquire the three-dimensional information on the back of the hand, the user may omit the three-dimensional scanning process on the back of the hand.

깊이 센서는 사용자의 손에 대한 3차원 스캔 정보를 생성하고, 영상 처리부로 해당 정보를 전송한다. 영상 처리부는 3차원 스캔 정보를 분석하고 처리하여 사용자의 왼손에 대한 3차원 모델(500)을 생성한다. 3차원 모델(500)은 3차원 영상일 수 있으며, 3차원 렌더링 과정을 거쳐 생성될 수도 있다. The depth sensor generates three-dimensional scan information for the user's hand and transmits the corresponding information to the image processing unit. The image processor analyzes and processes the three-dimensional scan information to generate a three-dimensional model 500 for the user's left hand. The three-dimensional model 500 may be a three-dimensional image or may be generated through a three-dimensional rendering process.

한편, 깊이 센서가 스캔한 결과인 3차원 스캔 정보를 이용하여 생성된 3차원 모델(500)은 웨어러블 디바이스가 필요로 하는 혈관에 대한 정보는 충분히 포함하지 못할 수 있다. 즉, 손바닥에 혈관이 희미하게 나타나기는 하나, 웨어러블 디바이스가 이를 감지하여 입력 값을 생성하기에 충분할 정도로 나타나지는 않는다. 즉, 깊이 센서는 사용자 손의 외형은 정확하게 측정할 수 있지만, 혈관의 분포와 배치에 대한 특징들까지 감지하지는 못할 수도 있다. On the other hand, the three-dimensional model 500 generated using the three-dimensional scan information, which is the result of the scan of the depth sensor, may not sufficiently contain information on the blood vessels required by the wearable device. That is, blood vessels appear faintly in the palm of a hand, but the wearable device does not appear to be sufficient to generate the input value. That is, the depth sensor can accurately measure the appearance of the user's hand, but may not be able to detect the distribution and placement characteristics of the blood vessel.

이에 따라, 도 5의 우측에 도시된 바와 같이 3차원 모델(500)에 대하여 패턴을 추가하는 과정이 수행된다. 웨어러블 디바이스는 도 2 및 도 3에서 설명한 바와 같이 광신호 송출부와 광신호 감지부를 이용하여 손바닥의 혈관에 대한 정보를 획득하며, 획득한 정보는 혈관에 대한 패턴(520)으로 생성된다. Accordingly, a process of adding a pattern to the three-dimensional model 500 is performed as shown on the right side of FIG. As described with reference to FIGS. 2 and 3, the wearable device acquires information on the palm of the hand using the optical signal sending unit and the optical signal sensing unit, and the obtained information is generated as a pattern 520 for the blood vessel.

이와 같이 웨어러블 디바이스가 혈관을 감지하여 패턴 정보를 생성하는 일련의 과정은, 깊이 센서가 3차원 스캔 정보를 생성하는 과정과 동시에 이루어지거나 별도로 이루어질 수 있다. 즉, 깊이 센서가 대상체의 손을 3차원으로 인식하여 3차원 스캔 정보를 생성하는 도중에 광신호 감지부는 혈관을 감지하고 데이터 처리부가 패턴 정보를 생성할 수 있다. 이러한 경우, 3차원 스캔 정보와 혈관에 대한 패턴 정보는 함께 영상 처리부로 전달되고, 영상 처리부는 두 정보를 순차적으로 처리하여 3차원 모델을 생성하게 된다. 이러한 실시 예에서는 패턴(520)이 추가된 3차원 모델(510)이 한번의 스캔 과정으로 생성될 수 있다. The process of generating the pattern information by sensing the blood vessel by the wearable device may be performed simultaneously with the process of generating the three-dimensional scan information by the depth sensor, or separately. That is, while the depth sensor recognizes the hand of the object in three dimensions and generates three-dimensional scan information, the optical signal sensing unit senses the blood vessel and the data processing unit can generate the pattern information. In this case, the 3D scan information and the pattern information about the blood vessel are transmitted to the image processing unit, and the image processing unit sequentially processes the two information to generate the three-dimensional model. In this embodiment, the three-dimensional model 510 to which the pattern 520 is added can be generated in a single scanning process.

이와는 달리, 깊이 센서가 대상체의 손을 스캔하여 3차원 스캔 정보를 생성하고 영상 처리부가 3차원 스캔 정보를 이용하여 3차원 모델을 생성하면, 광신호 감지부와 데이터 처리부가 패턴 정보를 생성하기 위한 과정이 추가적으로 수행될 수 있다. 이러한 경우, 웨어러블 디바이스가 대상체인 손을 스캔하는 과정이 2번 이루어져야 한다. 즉, 전자의 경우에는 1번의 스캔 과정으로 3차원 스캔 정보와 패턴 정보가 모두 생성되는 반면, 후자의 경우에는 1번째 스캔을 통해서 3차원 스캔 정보가 생성되고 2번째 스캔을 통해서 패턴 정보가 생성될 수 있다. 후자의 경우, 영상 처리부는 3차원 모델을 미리 생성해두고, 이어서 수신되는 패턴 정보를 처리하게 된다.Alternatively, when the depth sensor generates the three-dimensional scan information by scanning the hand of the object and the image processing unit generates the three-dimensional model using the three-dimensional scan information, the optical signal sensing unit and the data processing unit A process can be additionally performed. In this case, the wearable device must scan the target chain twice. That is, in the former case, both of the three-dimensional scan information and the pattern information are generated in one scan process, whereas in the latter case, the three-dimensional scan information is generated through the first scan and the pattern information is generated through the second scan . In the latter case, the image processing unit generates the three-dimensional model in advance, and then processes the received pattern information.

데이터 처리부가 생성한 패턴 정보는 영상 처리부로 전달되며, 3차원 모델(500)에 패턴(520)을 입히는 과정이 수행된다. 즉, 영상 처리부는 3차원 스캔 정보에 의해 생성된 3차원 모델(500)에 패턴(520)을 입히는 과정을 처리함으로써, 패턴이 추가된 3차원 모델(510)을 생성할 수 있다. 한편, 패턴(520)은 혈관에 대한 정보를 포함하는데, 혈관(예를 들어, 정맥)은 손바닥과 손가락 등 신체 위치에 따라 깊이와 굵기가 달라 3차원 입체 구조물로 볼 수 있다. 이에 따라, 3차원 모델(500)에 추가되는 혈관에 대한 패턴(520)은 피부 표면과 표면 아래에서의 3차원 정보(깊이, 굵기, 방향성 등)를 가질 수 있다.The pattern information generated by the data processing unit is transferred to the image processing unit, and the process of applying the pattern 520 to the three-dimensional model 500 is performed. That is, the image processing unit can process the process of applying the pattern 520 to the three-dimensional model 500 generated by the three-dimensional scan information, thereby generating the three-dimensional model 510 to which the pattern is added. Meanwhile, the pattern 520 includes information on blood vessels. The blood vessels (for example, veins) can be regarded as a three-dimensional three-dimensional structure with different depths and thicknesses depending on the positions of the body such as the palms and fingers. Accordingly, the pattern 520 for the blood vessel added to the three-dimensional model 500 can have three-dimensional information (depth, thickness, directionality, etc.) on the skin surface and the surface.

도 6 및 도 7에서는 상술한 3차원 모델과 혈관의 패턴을 이용하여 웨어러블 디바이스가 사용자의 동작을 분석하는 실시 예를 설명한다. 도 6은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. FIGS. 6 and 7 illustrate an embodiment in which the wearable device analyzes the user's operation using the three-dimensional model and the blood vessel pattern. FIG. FIG. 6 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention.

도 5에서 설명한 바에 따라 영상 처리부는 3차원 스캔 정보와 패턴 정보를 이용하여 대상체(예를 들어, 사용자의 왼손)의 3차원 모델을 생성한다. 3차원 모델을 생성하는 초기 과정이 수행되고 나면, 웨어러블 디바이스(100)는 지속적으로 사용자의 혈관을 감지한다. 즉, 광신호 감지부는 대상체로부터 반사되는 반사 광신호를 지속적으로 수신하며, 데이터 처리부는 서로 다른 파장의 반사 광신호들을 지속적으로 분석하여 혈관의 외형 변화를 감지한다. 예를 들어, 웨어러블 디바이스(100)는 손바닥이나 손가락의 마디에 위치하는 혈관의 외형 변화를 감지하거나, 손바닥과 손가락 마디를 연결하는 관절에 위치하는 혈관의 외형 변화를 감지한다.As described with reference to FIG. 5, the image processing unit generates a three-dimensional model of a target object (for example, a left hand of the user) using the three-dimensional scan information and the pattern information. After the initial process of generating the three-dimensional model is performed, the wearable device 100 continuously senses the user's blood vessel. That is, the optical signal sensing unit continuously receives the reflected optical signal reflected from the object, and the data processing unit continuously analyzes the reflected optical signals of different wavelengths to detect the change of the external shape of the blood vessel. For example, the wearable device 100 senses a change in external shape of a blood vessel located at a palm or a node of a finger or a change in external shape of a blood vessel located at a joint connecting the palm and a finger.

사용자가 키 입력 동작(즉, 타이핑)을 수행하면 손가락들의 움직임에 따라 손의 혈관들의 공간 상에서의 위치와 배치가 변화한다. 예를 들어, 손가락이 굽어짐에 따라 손가락의 첫째 마디와 둘째 마디에 위치한 혈관들이 이루는 각도는 작아지며, 서로 인접하도록 배치된다. 이에 따라, 웨어러블 디바이스(100)의 광신호 감지부가 감지하는 혈관의 분포와 배치가 달라지게 된다.When the user performs a key input operation (i.e., typing), the position and arrangement of the blood vessels of the hand in the space change according to the movement of the fingers. For example, as the fingers are bent, the angles between the first and second nodes of the finger become smaller, and they are disposed adjacent to each other. Accordingly, the distribution and arrangement of the blood vessels detected by the optical signal sensing unit of the wearable device 100 are different.

한편, 웨어러블 디바이스(100)는 감지한 신체적 특징들을 기생성한 3차원 모델의 패턴과 비교할 수 있다. 즉, 웨어러블 디바이스(100)는 이미 사용자의 혈관에 대한 패턴 정보를 이용하여 3차원 모델을 생성해둔 바 있다. 이에 따라, 사용자의 키 입력 동작으로 인하여 혈관의 위치가 변화하면, 감지된 혈관의 정보를 기생성한 3차원 모델의 혈관 패턴과 비교할 수 있다. Meanwhile, the wearable device 100 can compare the detected physical characteristics with the pattern of the three-dimensional model. That is, the wearable device 100 has already generated the three-dimensional model using the pattern information on the blood vessel of the user. Accordingly, when the position of the blood vessel is changed due to the key input operation of the user, the information of the detected blood vessel can be compared with the blood vessel pattern of the generated three-dimensional model.

예를 들어, 웨어러블 디바이스(100)는 도 4와 도 5에서 생성한 사용자의 손바닥의 혈관 패턴을 3차원 모델에 추가하여 저장해둔 채로, 사용자의 키 입력 동작을 감지한다. 사용자가 왼손(600)을 움직여 특정 키를 누르면, 웨어러블 디바이스(100)는 왼손(600)의 혈관 변화를 감지한다. 웨어러블 디바이스(100)의 광신호 감지부는 왼손(600) 혈관에서 반사되는 반사 광신호를 지속적으로 감지하여 혈관의 위치와 배치를 감지할 수 있으며, 3차원 모델에 기저장된 패턴과 비교할 수 있다.For example, the wearable device 100 detects the key input operation of the user while storing the blood vessel pattern of the palm of the user created in FIGS. 4 and 5 in addition to the three-dimensional model. When the user moves the left hand 600 and presses a certain key, the wearable device 100 senses the blood vessel change of the left hand 600. [ The optical signal sensing unit of the wearable device 100 can continuously sense the position and arrangement of blood vessels by continuously sensing the reflected optical signal reflected from the left hand blood vessel 600 and can compare with the pattern stored in the three-dimensional model.

웨어러블 디바이스(100)는 혈관의 변화에 따라 왼손(600)의 동작이 어떻게 이루어지는지 알 수 있으며, 손가락이 굽어짐에 따라 손가락의 첫 번째 마디와 두 번째 마디가 형성하는 각도의 변화 또한 계산할 수 있다. 이러한 계산 과정은 혈관의 변화와 기저장된 3차원 모델의 패턴과의 비교를 통해 수행될 수 있으며, 결론적으로는 키 입력 동작에 따른 손가락 끝의 3차원 공간 상의 위치가 계산된다. 키 입력 동작에 따른 손가락의 3차원 위치는 키 입력 동작이 매칭되는 소정의 키를 결정하며, 웨어러블 디바이스(100)는 해당 키를 입력 값으로 생성한다. 구체적으로는 도 7에서 설명한다. The wearable device 100 can know how the operation of the left hand 600 is performed according to the change of the blood vessel and can calculate the change of the angle formed by the first and second nodes of the finger as the finger is bent . This calculation process can be performed by comparing the change of the blood vessel with the pattern of the pre-stored three-dimensional model. As a result, the position of the fingertip in the three-dimensional space according to the key input operation is calculated. The three-dimensional position of the finger according to the key input operation determines a predetermined key matched with the key input operation, and the wearable device 100 generates the key as an input value. This will be described in detail with reference to FIG.

정리하면, 웨어러블 디바이스(100)는 지속적으로 사용자의 혈관을 감지하면서, 감지된 혈관의 배치와 분포, 위치의 변화를 기저장된 3차원 모델과 비교한다. 이러한 비교 결과로부터, 웨어러블 디바이스(100)는 키 입력 동작에 매칭되는 소정의 입력 값을 계산해낼 수 있다.In summary, the wearable device 100 continuously detects the blood vessels of the user, and compares the detected arrangement, distribution, and position of the blood vessels with pre-stored three-dimensional models. From this comparison result, the wearable device 100 can calculate a predetermined input value matching the key input operation.

도 7은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 7에서 x/y/z 축은 3차원 공간을 나타내며, 원점, P1, P2, P3, P4를 연결하는 선은 대상체가 사용자의 손인 경우 사용자의 손목과 손가락의 뼈대를 나타낸다. 즉, 원점은 손목의 중심을, P1은 손바닥과 손가락의 첫번째 마디가 연결되는 관절을, P2는 손가락 첫번째 마디와 두번째 마디가 연결되는 관절을, P3는 손가락 두번째 마디와 세번째 마디가 연결되는 관절을, P4는 손가락 끝을 각각 나타낸다. FIG. 7 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention. In FIG. 7, the x / y / z axis represents the three-dimensional space, and the line connecting the origin, P1, P2, P3, and P4 represents the skeleton of the user's wrist and finger when the object is the user's hand. P2 is the joint between the first node and the second node, P3 is the joint between the second node and the third node, and P3 is the joint between the second node and the third node. , And P4 indicates the fingertip, respectively.

도 6에서 설명한 바와 같이, 웨어러블 디바이스는 사용자 손가락의 첫번째 마디와 두번째 마디가 연결되는 관절의 3차원 위치와 굽어진 각도를 계산할 수 있다. 즉, 웨어러블 디바이스는 도 6에서 P2의 3차원 위치와 각도 θ2를 계산할 수 있다. 한편, 웨어러블 디바이스는 사용자의 손에 대한 3차원 모델을 생성하고 저장하므로, P2의 3차원 위치를 계산한다는 것은 손목의 중심으로부터 P2까지의 거리 d1을 계산한다는 것을 의미한다. As described in FIG. 6, the wearable device can calculate the three-dimensional position and bend angle of the joint to which the first and second nodes of the user's finger are connected. That is, the wearable device can calculate an angle? 2 and a three-dimensional position of P2 in FIG. On the other hand, since the wearable device generates and stores a three-dimensional model of the user's hand, calculating the three-dimensional position of P2 means calculating the distance d1 from the center of the wrist to P2.

한편, 웨어러블 디바이스는 P2의 경우와 유사하게, 손바닥과 첫 번째 마디가 연결되는 관절인 P1의 3차원 위치와 θ1 또한 계산할 수 있다. 또는, 웨어러블 디바이스는 3차원 모델을 생성하는 과정에서 손목의 중심으로부터 손바닥과 첫번째 마디 사이의 관절 까지의 거리, 즉 P1의 위치를 미리 계산할 수 있다. 이러한 경우, 웨어러블 디바이스는 θ1에 대해서는 θ2와 유사한 방식으로 혈관의 패턴의 비교를 통해 계산할 수 있게 된다. 즉, 웨어러블 디바이스는 각 관절에서의 혈관의 분포 위치와 크기, 외형 변화를 기저장된 패턴과 비교하여 각 관절의 위치와 굽어진 각도를 계산할 수 있다. On the other hand, similarly to the case of P2, the wearable device can calculate θ1 and the three-dimensional position of the joint P1 between the palm and the first node. Alternatively, the wearable device can previously calculate the distance from the center of the wrist to the joint between the palm and the first node in the process of generating the three-dimensional model, that is, the position of P1. In this case, the wearable device can be calculated through comparison of the patterns of blood vessels in a manner similar to? 2 for? 1. That is, the wearable device can calculate the position and bend angle of each joint by comparing the distribution position, size, and appearance change of the blood vessel in each joint with the pre-stored pattern.

한편, 사용자의 손이 자연스러운 동작에 따라 굽어진다고 가정하면, P1의 좌표, P2의 좌표, θ1, θ2에 대해 알 수 있다면 P3의 좌표, θ3, P4의 좌표를 모두 계산할 수 있다. 이러한 과정은 실험적인 방법으로서, 경험에 의한 추정으로 볼 수도 있다. 그러나, 사용자가 손가락 관절들을 의식적으로 비정상적인 각도로 굽히지 않는 한, P1, P2, θ1, θ2의 관계로부터 P3의 좌표 및 θ3에 대해 높은 정확도로 알 수 있으며, 마찬가지로 P1, P2, P3, θ1, θ2, θ3의 관계로부터 P4의 위치 정보 또한 정확하게 추정해낼 수 있다.On the other hand, assuming that the user's hand is bent according to the natural motion, if the coordinates of P1, the coordinates of P2, θ1, and θ2 are known, all the coordinates of P3, θ3 and P4 can be calculated. This process is an experimental method and can be viewed as an estimation by experience. However, as long as the user does not consciously bend the finger joints at an abnormal angle, the coordinates of P3 and the angle θ3 can be known with high accuracy from the relationship of P1, P2, θ1 and θ2. Similarly, P1, P2, P3, , &thetas; 3, the positional information of P4 can be accurately estimated.

상술한 과정에서, θ1, θ2, θ3의 범위가 문제될 수 있다. 즉, θ1, θ2, θ3은 180도 이내가 되도록 측정되어야 한다. 사용자가 손가락을 높게 치켜드는 경우, 사용자의 손바닥과 첫 번째 마디를 연결하는 관절은 180도 이상으로 측정될 수 있다. 그러나, 이러한 각도는 정상적인 키 입력 동작과는 거리가 멀다. 따라서, 웨어러블 디바이스는 손가락 관절들의 각도 θ1, θ2, θ3을 측정하는 과정에서 각 각도가 180도 이내가 되는 값만을 의미 있는 값으로 획득할 수 있다. 웨어러블 디바이스는 각도 θ1, θ2, θ3가 180도 이상으로 측정되는 경우의 값을 무시하도록 구현될 수도 있으며, 반대로 180도 이상으로 측정되는 경우를 특정 동작에 매핑시켜 별도로 처리할 수도 있다. In the above process, the range of? 1,? 2,? 3 may be a problem. That is, θ1, θ2, and θ3 should be measured to be within 180 degrees. When the user lifts his or her finger high, the joint connecting the user's palm and the first node may be measured at 180 degrees or more. However, this angle is far from normal key input operation. Accordingly, the wearable device can acquire only meaningful values that are within 180 degrees of each angle in measuring the angles? 1,? 2,? 3 of the finger joints. The wearable device may be implemented so as to ignore values when the angles? 1,? 2,? 3 are measured to be 180 degrees or more, or conversely, a case where the measured angles are 180 degrees or more may be mapped to a specific operation and processed separately.

한편, 이러한 추정 과정의 정확도를 향상시키기 위한 방법은 여러 가지가 있을 수 있다. 예를 들어, 최초로 손의 3차원 모델을 생성하는 과정이 이루어진 뒤 웨어러블 디바이스는 사용자로 하여금 특정 키를 입력하기 위한 동작을 수행하도록 지시할 수 있다. 사용자가 해당 키를 자연스럽게 입력하는 동작을 취하면, 웨어러블 디바이스는 이러한 동작을 감지하여 P3, P4, θ3를 추정하는 과정에서 어떠한 수치를 보상해야 하는지 미리 알 수 있다. 즉, 사용자의 키 입력 동작에 따른 입력 값을 계산하는 과정에서 소프트웨어적인 보상이 이루어질 수 있다. On the other hand, there are various methods for improving the accuracy of the estimation process. For example, after the process of generating a three-dimensional model of the hand is first performed, the wearable device can instruct the user to perform an operation for inputting a specific key. When the wearer device senses such an operation and estimates P3, P4, and &thetas; 3, the wearable device can know in advance which value should be compensated. That is, software compensation can be performed in the process of calculating the input value according to the key input operation of the user.

또 다른 방식으로, 웨어러블 디바이스가 P3의 3차원 위치와 θ3를 직접 측정할 수도 있다. 즉, 광신호 감지부와 데이터 처리부는 손가락의 두 번째 마디와 세 번째 마디를 연결하는 관절 부근의 혈관을 3차원 모델의 혈관 패턴과 비교하여, 해당 관절의 3차원 위치와 굽어진 각도를 측정할 수도 있다. 이러한 경우, 웨어러블 디바이스가 P1, P2, P3, θ1, θ2, θ3, d2를 직접 측정하게 되므로 P4를 추정하는 과정에서의 정확도가 크게 상승하게 된다. 또는, 앞서 설명한 소프트웨어적인 보상 과정이 P3, θ3를 직접 측정하는 방식과 함께 복합적으로 수행될 수도 있다.Alternatively, the wearable device may measure the 3-dimensional position of P3 and? 3 directly. That is, the optical signal sensing unit and the data processing unit compares the blood vessel near the joint, which connects the second and third nodes of the finger, with the blood vessel pattern of the three-dimensional model, and measures the three- It is possible. In this case, since the wearable device directly measures P1, P2, P3, θ1, θ2, θ3, and d2, the accuracy in the process of estimating P4 is greatly increased. Alternatively, the above-described software compensation process may be performed in combination with a method of directly measuring P3 and? 3.

결론적으로, 웨어러블 디바이스는 사용자가 타이핑을 수행함에 따라 키 입력 동작을 감지하고, 해당 키 입력 동작이 어떠한 키에 매칭되는지 판단하여 입력 값을 생성한다. 이러한 입력 값은 웨어러블 디바이스에 연결된 외부 디바이스나 서버로 전송될 수 있으며, 웨어러블 디바이스는 입력 수단으로 동작하게 된다.As a result, the wearable device senses the key input operation according to the user's typing and generates an input value by determining which key the corresponding key input operation is matched with. Such an input value can be transmitted to an external device or a server connected to the wearable device, and the wearable device operates as an input means.

이상에서는 사용자의 손가락 중 검지, 중지, 약지, 소지에 대한 키 입력 동작을 감지하는 실시 예를 설명하였다. 한편, 웨어러블 디바이스는 엄지 손가락의 키 입력 동작 또한 감지할 수 있어야 한다. 먼저, 웨어러블 디바이스가 엄지에 장착된 경우를 설명한다. 웨어러블 디바이스는 자신이 장착된 손가락인 엄지의 위치를 직접 측정할 수도 있고, 간접적으로 추정할 수도 있다. Hereinabove, an embodiment has been described in which the key input operation for sensing, stopping, ringing, and holding of the user's finger is detected. Meanwhile, the wearable device should also be able to detect the key input operation of the thumb. First, the case where the wearable device is mounted on the thumb will be described. The wearable device can directly measure the position of the thumb, which is a finger attached to the wearable device, or indirectly estimate it.

웨어러블 디바이스가 엄지에 장착되어 엄지의 키 입력 동작을 직접 측정하는 경우, 광신호 감지부와 데이터 처리부는 엄지 손가락 끝의 위치를 인식하기에 충분한 만큼의 각도를 감지한다. 이에 따라, 웨어러블 디바이스는 자신이 장착된 엄지 손가락 끝의 3차원 위치 정보를 계산할 수 있다. 또한, 웨어러블 디바이스는 엄지 손가락 끝의 위치로부터 엄지 손가락 상에서 자신이 얼마만큼 떨어진 위치에 장착되었는지 또한 계산할 수 있다. When the wearable device is mounted on the thumb and directly measures the key input operation of the thumb, the optical signal sensing unit and the data processing unit sense an angle sufficient to recognize the position of the thumb tip. Accordingly, the wearable device can calculate the three-dimensional position information of the thumb tip to which the wearable device is attached. In addition, the wearable device can also calculate how far it is mounted on the thumb from the position of the thumb tip.

이와는 달리, 웨어러블 디바이스가 엄지의 키 입력 동작을 간접적으로 측정하는 경우, 웨어러블 디바이스는 다른 네 손가락의 관절들의 위치로부터 자신이 장착된 엄지의 위치를 추정할 수 있다. 즉, 웨어러블 디바이스는 다른 네 손가락들의 P1, P2 위치로부터 자신의 3차원 상 위치를 추정할 수 있다. 웨어러블 디바이스가 P1 또는 P2를 이용하여 자신의 위치를 추정하는 경우, 네 손가락의 P1 또는 P2, 즉 네 개의 위치 정보를 활용하게 되며, 웨어러블 디바이스가 P1 및 P2를 이용하여 자신의 위치를 추정하는 경우, 여덟 개의 위치 정보를 활용하여 자신의 위치를 추정한다. 즉, 웨어러블 디바이스는 3차원 공간 상에서 자신의 위치를 특정하기 위한 충분한 수의 정보를 가지고 있으므로, 다른 네 손가락 관절들의 위치 정보로부터 자신이 위치한 엄지 손가락의 위치를 추정할 수 있다. 엄지 손가락이 자신의 위치를 측정/추정하는 두 가지 방식은, 웨어러블 디바이스가 검지, 중지, 약지, 소지에 장착되는 경우에도 유사하게 적용될 수 있다. 즉, 웨어러블 디바이스는 자신이 장착된 엄지 손가락 끝의 위치 또한 측정할 수 있다.Alternatively, when the wearable device indirectly measures the key input operation of the thumb, the wearable device can estimate the position of the thumb mounted by itself from the positions of the joints of the other four fingers. That is, the wearable device can estimate its three-dimensional position from P1, P2 positions of the other four fingers. When the wearable device estimates its position using P1 or P2, it utilizes P1 or P2 of four fingers, that is, four pieces of position information, and when the wearable device estimates its position using P1 and P2 , And estimates its position using eight positional information. That is, since the wearable device has a sufficient number of pieces of information for specifying its position on the three-dimensional space, it can estimate the position of the thumb located on the basis of the position information of other four finger joints. The two ways in which the thumb measures / estimates its position can be similarly applied when the wearable device is mounted on the index finger, the stop finger, the finger grip, and the base. That is, the wearable device can also measure the position of the thumb tip on which the wearable device is mounted.

한편, 웨어러블 디바이스가 엄지 손가락이 아닌 다른 손가락에 장착되어 엄지 손가락을 감지하는 경우, 엄지는 다른 네 손가락과는 다른 구조를 가지므로 엄지에 대한 위치와 각도를 측정하는 또 다른 과정이 요구된다. On the other hand, when the wearable device is mounted on a finger other than the thumb and detects the thumb, the thumb has a different structure from the other four fingers, and therefore another process of measuring the position and angle with respect to the thumb is required.

엄지는 다른 네 손가락과는 달리, 손바닥과 첫 번째 마디가 연결되는 관절, 첫 번째 마디와 두 번째 마디가 연결되는 관절 총 2개의 관절을 포함한다. 즉, 웨어러블 디바이스는 엄지의 두 관절의 위치만 획득하더라도 엄지 끝의 위치를 측정할 수 있다. 이에 따라, 웨어러블 디바이스가 엄지 대신 다른 손가락에 장착되는 경우, 엄지에 대한 P1, P2, θ1, θ2로부터 측정되는 P3는 곧 손가락 끝의 위치가 된다. 이에 따라, 웨어러블 디바이스는 다른 네 손가락보다 정확도 높게 엄지 손가락 끝의 위치를 측정할 수 있다. Unlike the other four fingers, the thumb includes the joint where the palm and the first node are connected, and the joint where the first and second nodes are connected. That is, the wearable device can measure the position of the thumb tip even if only the positions of the two joints of the thumb are acquired. Accordingly, when the wearable device is attached to another finger instead of the thumb, P3 measured from P1, P2,? 1,? 2 with respect to the thumb is the position of the fingertip. Accordingly, the wearable device can measure the position of the thumb tip with higher accuracy than the other four fingers.

이상에서는, 웨어러블 디바이스가 손가락의 관절 부분의 혈관을 감지하고 기저장된 패턴과 비교하여 키 입력 동작을 감지하여 손가락 끝의 3차원 위치를 계산하는 실시 예를 설명하였다. 상술한 바와 같이, 손가락 끝의 3차원 위치는 특정 입력 값과 매칭되며, 웨어러블 디바이스는 손가락의 3차원 위치로부터 해당 키 입력 동작이 어떠한 키를 누르는 동작인지 확인하고, 확인된 키를 입력 값으로 생성할 수 있다. In the above description, the wearable device senses the blood vessel of the joint part of the finger, compares it with the previously stored pattern, and detects the key input operation to calculate the three-dimensional position of the fingertip. As described above, the three-dimensional position of the fingertip is matched with a specific input value, and the wearable device confirms which key is pressed by the key input operation from the three-dimensional position of the finger, generates the confirmed key as an input value can do.

다만, 이하에서는 상술한 내용과는 달리, 웨어러블 디바이스가 손가락의 마디 부근의 혈관을 감지하는 실시 예를 설명한다. 즉, 웨어러블 디바이스는 손가락 관절뿐만 아니라 손가락 마디의 혈관을 감지함으로써 손가락 끝의 3차원 위치를 파악할 수도 있다. 예를 들어, 웨어러블 디바이스는 손바닥과 손가락 첫번째 마디의 혈관의 배치와 분포를 감지하여 손바닥과 손가락 첫 번째 마디를 연결하는 관절의 위치와 각도(P1, θ1)를 감지할 수 있으며, 첫 번째 마디와 두 번째 마디의 혈관을 감지함으로써 두 마디를 연결하는 관절의 위치와 각도(P2, θ2)를 감지할 수 있다. 두 관절의 위치를 측정함으로써 손가락 끝의 위치를 추정하는 과정은 앞서 설명한 실시 예가 유사하게 적용될 수 있다. Hereinafter, an embodiment in which a wearable device senses a blood vessel near a node of a finger will be described, unlike the above description. That is, the wearable device can grasp not only the finger joint but also the three-dimensional position of the fingertip by detecting the blood vessels of the finger joint. For example, a wearable device can sense the position and angle (P1, θ1) of the joint connecting the palm and the first node of the finger by detecting the arrangement and distribution of the blood vessels of the first node of the palm and fingers, By detecting the blood vessels of the second node, the position and angle (P2, θ2) of the joint connecting the two nodes can be detected. The process of estimating the position of the fingertip by measuring the position of the two joints can be similarly applied to the embodiment described above.

나아가, 웨어러블 디바이스는 단일한 손가락 마디 하나만을 감지하더라도 관절의 위치를 감지할 수 있다. 즉, 3차원 모델에 추가된 혈관의 패턴 정보는 3차원 정보일 수 있으므로, 혈관의 굵기와 기울기에 대한 정보를 포함할 수 있음은 앞서 설명할 수 있다. 이에 따라, 웨어러블 디바이스는 단일한 손가락 마디 하나에서 혈관을 감지하여 기저장된 패턴과 비교함으로써 다른 관절의 위치를 알 수 있다. 이러한 실시 예와 관련하여, 손가락 관절이 굽어짐에 따라 혈관의 배치와 위치가 변할 뿐 아니라, 혈관의 명도와 채도 등도 변화한다. 즉, 손가락이 굽어짐에 따라 손가락의 살이 겹치고 주름이 생기는 등, 확인되는 혈관의 외관이 변화하게 된다. 결과적으로, 웨어러블 디바이스는 감지되는 혈관의 투명도와 명도, 채도 등을 종합적으로 고려하여 손가락 끝의 위치를 파악할 수 있다.Furthermore, the wearable device can sense the position of the joint even if only one finger node is detected. That is, since the pattern information of the blood vessel added to the three-dimensional model may be three-dimensional information, it can be described that information about the thickness and slope of the blood vessel can be included. Accordingly, the wearable device can recognize the position of another joint by sensing a blood vessel in a single finger node and comparing it with a previously stored pattern. With respect to this embodiment, as the finger joints are bent, not only the arrangement and position of the blood vessels change, but also the brightness and the saturation of the blood vessels change. That is, as the fingers are bent, fingers of the fingers are overlapped and wrinkles are formed. As a result, the wearable device can grasp the position of the fingertip in consideration of transparency, lightness, and saturation of the blood vessel to be sensed.

도 8은 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 8에서는 웨어러블 디바이스가 사용자의 마우스 입력 동작과 마우스 클릭 동작을 감지하고 커서 값, 클릭 값을 생성하는 실시 예를 설명한다.FIG. 8 is a view for explaining an operation procedure of a wearable device according to an embodiment of the present invention. 8 illustrates an embodiment in which the wearable device detects a mouse input operation and a mouse click operation of a user and generates a cursor value and a click value.

웨어러블 디바이스(100)가 공간 상에서 움직이는 경우, 자이로스코프 센서(150)와 가속도 센서(160)는 웨어러블 디바이스(100)의 공간 상의 위치 변화, 가속도 변화, 기울기 변화를 측정한다. 이에 따라, 웨어러블 디바이스(100)는 사용자가 웨어러블 디바이스(100)를 장착한 채로 공간 상에서 손을 이동하는 마우스 입력 동작을 감지할 수 있다. 또한, 웨어러블 디바이스(100)는 마우스 입력 동작 중에 검지 손가락 또는 중지 손가락을 엄지 손가락에 맞닿는 마우스 클릭 동작 또한 감지할 수 있다.When the wearable device 100 moves in space, the gyroscope sensor 150 and the acceleration sensor 160 measure a positional change, an acceleration change, and a tilt change of the wearable device 100 in space. Accordingly, the wearable device 100 can detect a mouse input operation in which a user moves his / her hand in space while wearing the wearable device 100. In addition, the wearable device 100 may also detect a mouse click action of touching the index finger or the stop finger with the thumb during a mouse input operation.

먼저, 웨어러블 디바이스(100)가 마우스 입력 동작을 감지하여 커서 값을 생성하는 실시 예를 설명한다. 자이로스코프 센서(150)와 가속도 센서(160)는 웨어러블 디바이스(100)의 공간 상의 위치 변화가 측정되면, 사용자의 마우스 입력 동작을 감지한다. 사용자의 마우스 입력 동작은 사용자가 마우스 커서를 특정 위치에서 다른 위치로 이동시키기 위한 동작이며, 소정의 커서 값에 매칭된다. 커서 값은 외부 디바이스나 서버로 전송되어 마우스 커서의 이동 방향과 이동 값을 지정할 수 있다. First, an embodiment in which the wearable device 100 detects a mouse input operation and generates a cursor value will be described. The gyroscope sensor 150 and the acceleration sensor 160 sense a user's mouse input operation when a change in position of the wearable device 100 in space is measured. The user's mouse input operation is an operation for the user to move the mouse cursor from a specific position to another position, and is matched with a predetermined cursor value. The cursor value can be transferred to an external device or server to specify the movement direction and movement value of the mouse cursor.

한편, 커서 값의 기준 위치는 사용자의 손바닥 중앙의 위치(860)가 될 수 있다. 즉, 마우스 입력 동작에 따른 커서 값은 손바닥의 중앙의 위치(860)를 기준으로 결정될 수 있다. 이것은, 손바닥 중앙의 위치(860)는 사용자가 손과 손가락을 움직이더라도 그 움직임에 따른 영향이 적다는 점에 기인한다. 즉, 후술할 마우스 클릭 동작으로 인하여 검지 손가락과 중지 손가락이 굽어질 때, 손의 다른 부분들은 손가락과 이어진 근육들의 움직임으로 인하여 정확한 기준위치가 되기 어렵다. 한편, 손바닥 중앙의 위치(860)는 마우스 입력 동작 중에 마우스 클릭 동작이 감지되더라도 그 위치가 상대적으로 일정하다. 따라서, 웨어러블 디바이스(100)는 손바닥 중앙의 위치(860)의 변화에 기초하여 커서 값을 생성하게 된다. 또는, 웨어러블 디바이스(100)는 손바닥 중앙의 위치(860) 대신 손등 중앙의 위치를 커서 값의 기준 위치로 활용할 수도 있다. On the other hand, the reference position of the cursor value may be the position 860 of the center of the palm of the user. That is, the cursor value according to the mouse input operation can be determined based on the position 860 at the center of the palm. This is because the position 860 at the center of the palm is caused by the fact that even if the user moves the hand and the finger, the influence of the movement is small. That is, when the index finger and the stop finger are bent due to a mouse click operation to be described later, other parts of the hand are hard to become accurate reference positions due to the movement of the muscles connected to the finger. On the other hand, the position 860 at the center of the palm is relatively constant even when a mouse click operation is detected during the mouse input operation. Accordingly, the wearable device 100 generates a cursor value based on a change in the position 860 of the center of the palm. Alternatively, the wearable device 100 may utilize the position of the center of the back of the hand instead of the position 860 of the center of the palm as a reference position of the cursor value.

이어서, 마우스 클릭 동작을 설명한다. 마우스 입력 동작이 감지되는 도중에 웨어러블 디바이스(100)의 손가락 인식부(120)는 손가락들의 끝의 위치(810, 820, 830, 840)를 지속적으로 감지할 수 있다. 이러한 과정은 앞서 도 5 내지 도 7에서 설명한 실시 예에 따라 수행될 수 있다. Next, the mouse click operation will be described. The finger recognition unit 120 of the wearable device 100 can continuously detect the positions 810, 820, 830 and 840 of the fingers during the detection of the mouse input operation. This process can be performed according to the embodiment described in FIGS. 5 to 7 above.

한편, 공간 상에서 웨어러블 디바이스(100)가 이동함에 따라 마우스 입력 동작이 감지되는 도중에, 웨어러블 디바이스(100)는 검지 손가락과 중지 손가락이 엄지 손가락에 맞닿는 지를 감지한다. 이러한 과정은 검지 손가락의 끝의 위치(810), 중지 손가락의 끝의 위치(820)가 웨어러블 디바이스(100)에 일정 거리 이상 인접하였는지 여부를 기준으로 계산될 수 있다. 즉, 웨어러블 디바이스(100)가 엄지 손가락에 장착되는 경우, 검지 손가락과 중지 손가락이 엄지 손가락에 닿는 것은 두 손가락의 끝의 위치(810, 820)가 웨어러블 디바이스(100)에 일정 거리 이상 인접했음을 의미한다. 따라서, 웨어러블 디바이스(100)는 두 손가락의 끝의 위치(810, 820)에 기초하여 마우스 클릭 동작을 감지할 수 있다. Meanwhile, as the wearable device 100 moves in the space, the wearable device 100 senses whether the index finger and the stop finger touch the thumb during the detection of the mouse input operation. This process can be calculated based on whether or not the position 810 of the index finger tip and the position 820 of the stop finger tip are adjacent to the wearable device 100 by a predetermined distance or more. That is, when the wearable device 100 is mounted on the thumb, the index finger and the stop finger touch the thumb, which means that the positions 810 and 820 of the two fingers are adjacent to the wearable device 100 by a predetermined distance or more do. Accordingly, the wearable device 100 can detect a mouse click operation based on the positions 810 and 820 of the ends of two fingers.

또는, 웨어러블 디바이스(100)는 두 손가락의 끝의 위치(810, 820)와 엄지 손가락 끝의 위치(850)의 위치를 비교하여 마우스 클릭 동작을 감지할 수도 있다. 즉, 도 7에서 설명한 바와 같이 웨어러블 디바이스(100)는 엄지 손가락 자체의 위치도 파악할 수 있다. 이에 따라, 세 손가락 끝의 위치(810, 820, 850)의 위치를 비교하는 과정을 통해 웨어러블 디바이스(100)는 마우스 클릭 동작을 감지할 수도 있다. Alternatively, the wearable device 100 may detect a mouse click operation by comparing positions of the ends 810 and 820 of the two fingers with the position of the position of the thumb end 850. That is, as described with reference to FIG. 7, the wearable device 100 can also grasp the position of the thumb itself. Accordingly, the wearable device 100 may detect the mouse click operation by comparing the positions of the three fingertip positions 810, 820, and 850. FIG.

이어서, 웨어러블 디바이스(100)는 마우스 클릭 동작에 매칭되는 클릭 값을 생성한다. 클릭 값은 검지 손가락이 엄지 손가락에 닿는 마우스 클릭 동작에 매칭되는 좌클릭 값, 중지 손가락이 엄지 손가락에 닿는 마우스 클릭 동작에 매칭되는 우클릭 값을 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 두 손가락이 모두 엄지 손가락에 닿는 경우를 별도의 클릭 값으로 처리할 수도 있다.Then, the wearable device 100 generates a click value matching the mouse click operation. The click value may include a left click value that matches the mouse click operation in which the index finger touches the thumb, and a right click value that matches the mouse click operation in which the stop finger touches the thumb. In addition, the wearable device 100 may process the case where both fingers touch the thumb with a separate click value.

웨어러블 디바이스(100)는 생성된 클릭 값을 외부 디바이스나 서버로 전송한다. 마우스 클릭 동작은 마우스 입력 동작이 감지되는 도중에 감지된다는 점에서, 클릭 값은 마우스 입력 동작에 따른 커서 값과 함께 전송되게 된다. 이에 따라, 웨어러블 디바이스(100)는 외부 디바이스나 서버에서 마우스 커서를 이동시키면서 클릭을 할 수 있다. 즉, 웨어러블 디바이스(100)는 공간 상의 움직임으로 마우스를 제어하는 입력 수단인 ‘공간 마우스’의 역할을 수행할 수 있다.The wearable device 100 transmits the generated click value to an external device or a server. The mouse click operation is detected during the detection of the mouse input operation, so that the click value is transmitted together with the cursor value according to the mouse input operation. Accordingly, the wearable device 100 can click the mouse while moving the mouse cursor from an external device or a server. That is, the wearable device 100 can play a role of a 'space mouse' as an input means for controlling the mouse with movement in space.

도 9는 본 발명의 일 실시 예에 의한 웨어러블 디바이스의 동작 과정을 설명하는 도면이다. 도 9에서는 웨어러블 디바이스(100)가 외부로 영상을 출력하는 실시 예에 대해 구체적으로 설명한다. 9 is a view for explaining the operation of the wearable device according to an embodiment of the present invention. 9, an embodiment in which the wearable device 100 outputs images to the outside will be described in detail.

도 1에서 설명한 바와 같이 웨어러블 디바이스(100)는 영상 출력부(140)를 포함하며, 영상 출력부(140)는 외부에 고정된 위치와 크기로 영상을 출력할 수 있다. 도 9를 예로 들어 설명하면, 대상체(900)인 사용자의 손가락에 장착된 웨어러블 디바이스(100)는 외부로 영상(910)을 출력할 수 있으며, 영상(910)은 도시된 바와 같이 신체의 일부 또는 사물 등 여러 장소에 출력될 수 있다. 1, the wearable device 100 includes an image output unit 140, and the image output unit 140 can output an image at a fixed position and size. 9, the wearable device 100 mounted on the user's finger as the target body 900 may output the image 910 to the outside, and the image 910 may be a part of the body as shown in FIG. It can be output to various places such as objects.

한편, 웨어러블 디바이스(100)가 영상(910)을 출력함에 있어서, 혈관 정보를 분석하여 외부에 고정된 위치와 크기로 영상(910)을 출력할 수 있다. 즉, 웨어러블 디바이스(100)는 기저장된 3차원 모델의 혈관 패턴과 사용자의 움직임에 따라 감지되는 혈관의 정보를 비교하여, 영상(910)이 출력되는 대상체(900)와 웨어러블 디바이스(100) 자신 간의 거리 및 각도를 측정할 수 있다. 다시 말해서, 웨어러블 디바이스(100)는 영상(910)이 출력되는 외부 대상체(900)에 대한 자신의 상대적인 위치 관계를 계산함으로써, 출력되는 영상(910)이 대상체(900)에 어떠한 크기와 각도로 출력되는지 계산할 수 있다.Meanwhile, when the wearable device 100 outputs the image 910, the wearable device 100 may analyze the blood vessel information and output the image 910 in a position and size fixed externally. That is, the wearable device 100 compares the blood vessel pattern of the previously stored three-dimensional model with the information of blood vessels sensed according to the motion of the user, Distance and angle can be measured. In other words, the wearable device 100 calculates its relative positional relation with respect to the external object 900 to which the image 910 is output, so that the output image 910 is output to the object 900 in any size and angle Can be calculated.

이어서, 웨어러블 디바이스(100)는 사용자의 움직임을 지속적으로 감지하여, 영상(910)을 고정적인 위치와 크기로 출력한다. 즉, 사용자의 움직임에 따라 대상체(900)에서 감지되는 혈관의 배치와 분포가 달라지면, 웨어러블 디바이스(100)는 영상(910)이 대상체(900)에 투영되는 각도와 크기를 지속적으로 보정한다. 이에 따라, 웨어러블 디바이스(100)는 사용자의 움직임에 따라 대상체(900)와의 상대적인 위치 관계가 변화하더라도, 고정적인 위치와 크기로 영상(910)을 출력할 수 있다.Then, the wearable device 100 continuously detects the motion of the user and outputs the image 910 in a fixed position and size. That is, when the arrangement and distribution of the blood vessels detected by the object 900 are changed according to the movement of the user, the wearable device 100 continuously corrects the angle and size of the image 910 projected on the object 900. Accordingly, the wearable device 100 can output the image 910 at a fixed position and size even if the relative positional relationship with the target body 900 changes according to the movement of the user.

상술한 실시 예에서는 웨어러블 디바이스(100)가 기저장된 3차원 모델을 이용하여 영상(910)을 고정적으로 출력하는 과정을 설명하였다. 그러나, 이와는 달리 웨어러블 디바이스(100)는 3차원 모델을 생성하는 과정 없이도 영상(910)을 고정적으로 출력할 수 있다.In the above-described embodiment, a process of fixedly outputting the image 910 using the pre-stored three-dimensional model of the wearable device 100 has been described. However, the wearable device 100 can output the image 910 in a fixed manner without generating a three-dimensional model.

즉, 웨어러블 디바이스(100)는 기저장된 3차원 모델을 활용하지 않고, 감지되는 혈관의 패턴만을 2차원으로 분석할 수도 있다. 혈관의 패턴만을 분석하더라도 웨어러블 디바이스(100)는 기저장된 혈관의 패턴 정보와 비교함으로써 영상(910)을 고정적으로 출력할 수 있게 된다. 또한, 웨어러블 디바이스(100)는 자이로스코프 센서와 가속도 센서를 활용하여 자신의 공간 상에서의 위치를 파악할 수 있으며, 파악된 위치에 기초하여 영상을 고정시켜 출력할 수도 있다. That is, the wearable device 100 may analyze only the pattern of the blood vessel to be sensed in two dimensions without utilizing the previously stored three-dimensional model. Even if only the pattern of the blood vessel is analyzed, the wearable device 100 can output the image 910 by comparing it with the pattern information of the previously stored blood vessel. Further, the wearable device 100 can grasp the position of the wearable device 100 in its own space by utilizing the gyroscope sensor and the acceleration sensor, and can also output a fixed image based on the detected position.

한편, 웨어러블 디바이스(100)가 영상을 고정시켜 출력하는 과정에서 상술한 반사 광신호 감지 방법들이 활용될 수 있다. 즉, 웨어러블 디바이스(100)는 영상의 출력 중간 중간에 패턴이 있는 광신호를 송신하고 반사 광신호를 수신함으로써 외부 대상체와의 거리 및 각도를 측정할 수 있다. 이러한 과정에서, 영상의 출력 중에 송출되는 광신호는 영상의 파장과 동일한 파장(예를 들어, 가시광선)이거나 다른 파장일 수 있다. 영상과 다른 파장을 활용하는 경우에는 웨어러블 디바이스(100)가 쉽게 감지할 수 있으며, 영상과 동일한 파장을 활용하는 경우에는 웨어러블 디바이스(100)가 미리 알고 있는 광신호 출력 시점에 대한 정보를 이용하여 선택적으로 반사 광신호를 수신할 수 있다. Meanwhile, in the process of fixing and outputting images by the wearable device 100, the above-described reflected optical signal sensing methods can be utilized. That is, the wearable device 100 can measure the distance and the angle with respect to the external object by transmitting the optical signal having the pattern in the middle of the output of the image and receiving the reflected optical signal. In this process, the optical signal transmitted during the output of the image may be the same wavelength (for example, visible light) as the wavelength of the image or may be another wavelength. In the case where the wearable device 100 utilizes the same wavelength as the image, the wearable device 100 may use the information about the optical signal output time previously known by the wearable device 100, It is possible to receive the reflected optical signal.

또 다른 예를 들면, 웨어러블 디바이스(100)는 자신이 출력하는 영상(910)에 대한 정보를 미리 알고 있으므로, 이를 활용할 수도 있다. 즉, 웨어러블 디바이스(100)는 자신이 출력하는 영상(910)이 소정 거리에서 어떠한 크기와 각도로 투영되는지 계산할 수 있고, 대상체(900)에 실제로 투영되는 영상(910)을 가시광선 반사 광신호로써 감지하여 그 차이를 계산할 수 있다. 웨어러블 디바이스(100)는 이러한 차이 값을 보정함으로써 대상체(900)와 자신 간의 상대적인 위치 및 각도 관계를 알 수 있다.As another example, the wearable device 100 may know the information about the video 910 that it outputs, so that it can utilize it. That is, the wearable device 100 can calculate how much the image 910 outputted by the wearable device 100 is projected at a predetermined distance and at an angle, and can use the image 910 actually projected on the target 900 as a visible light reflection signal And can calculate the difference. The wearable device 100 can know the relative position and angle relationship between the object 900 and itself, by correcting the difference value.

또 다른 예를 들면, 웨어러블 디바이스(100)는 반사 광신호를 감지하는 대신 상술한 깊이 센서를 활용하여 영상을 고정적으로 출력할 수도 있다. 즉, 웨어러블 디바이스(100)는 깊이 센서를 이용하여 대상체를 감지하는 과정에서 패턴화된 광신호를 두가지 방식으로 활용할 수 있다. 구체적으로, 웨어러블 디바이스(100)는 패턴화된 광신호의 송출 시점과 주파수 대역에 대해 미리 알고 있어, 광신호의 수신 시점에 대해 미리 알고 있을 수도 있다. 이 경우, 웨어러블 디바이스(100)의 깊이 센서는 대상체와의 거리 및 각도를 기저장된 시점에 대한 정보와 주파수 대역에 대한 정보로부터 계산해낼 수 있다. 반대로, 웨어러블 디바이스(100)는 광신호에 대한 정보를 모르더라도, 패턴화된 광신호의 파장 대역을 선택적으로 감지하기 위한 수단을 활용하여 광신호를 수신할 수도 있다. As another example, the wearable device 100 may output the image fixedly using the depth sensor described above instead of sensing the reflected optical signal. That is, the wearable device 100 can utilize the patterned optical signal in two ways in the process of detecting the object using the depth sensor. Specifically, the wearable device 100 knows the timing and the frequency band of the patterned optical signal beforehand, and may be aware of the timing of receiving the optical signal in advance. In this case, the depth sensor of the wearable device 100 can calculate the distance and angle with respect to the object from the information on the previously stored viewpoint and information on the frequency band. Conversely, the wearable device 100 may receive the optical signal by utilizing means for selectively sensing the wavelength band of the patterned optical signal, without knowledge of the optical signal.

또 다른 예를 들면, 웨어러블 디바이스(100)는 도시된 바와 같이 영상(910)의 테두리에 기결정된 패턴(920)을 추가하여 출력할 수도 있다. 이러한 패턴(920)은 앞서 설명한 혈관의 패턴과는 다르며, 단순히 영상(910)의 주변에 추가되는 마커(marker) 또는 식별 가능한 표식을 의미한다. 웨어러블 디바이스(100)는 이러한 패턴(920)을 추가하여 전송함으로써, 패턴(920)이 대상체(900)에 투영되는 형태과 크기, 기울어진 정도 등을 분석하여 자신과 대상체(900) 간의 거리 및 각도, 위치 관계 등을 파악할 수도 있다. As another example, the wearable device 100 may output a predetermined pattern 920 to the border of the image 910 as shown in FIG. This pattern 920 is different from the pattern of blood vessels described above and simply means a marker or an identifiable marker added to the periphery of the image 910. [ The wearable device 100 analyzes the shape, size, and degree of inclination of the pattern 920 projected on the target object 900 by adding the pattern 920 and transmits the pattern 920 to the wearable device 100 so that the distance and angle between itself and the target object 900, Location relationships and so on.

도 10은 본 발명의 또 다른 실시 예에 의한 웨어러블 디바이스의 구현 형태를 도시하는 도면이다. 이상에서는 웨어러블 디바이스(100)가 링 형태로 구현되는 실시 예만을 설명하였으나, 설명한 바와 같이 웨어러블 디바이스(100)의 구현 형태는 이러한 예에 한정되지 않는다. 즉, 웨어러블 디바이스(100)는 사용자의 손바닥에 장착되는 장갑 형태, 도 10(a)와 같이 손목 또는 팔에 둘러지는 팔찌 형태, 도 10(b)와 같이 옷이나 넥타이 등의 사물에 장착되는 클립 형태, 또는 목걸이 형태 등 다양한 형태로 구현될 수 있다. 웨어러블 디바이스(100)는 그 구현 형태에 제한되지 않고 사용자의 키 입력 동작, 마우스 입력 동작, 마우스 클릭 동작 등을 감지할 수 있다. 즉, 도시되지는 않으나 웨어러블 디바이스(100)는 목걸이 형태 등으로 구현되더라도 다른 형태로 구현된 경우와 동일한 동작을 수행할 수 있다. 10 is a view showing an embodiment of a wearable device according to another embodiment of the present invention. Although the embodiments in which the wearable device 100 is implemented in a ring form have been described above, the embodiment of the wearable device 100 is not limited to this example as described above. That is, the wearable device 100 includes a glove shape mounted on the palm of the user, a bracelet shape surrounding the wrist or arm as shown in Fig. 10 (a), a clip (not shown) Shape, or necklace shape. The wearable device 100 is not limited to the embodiment, and can detect a key input operation, a mouse input operation, a mouse click operation, and the like of the user. That is, although not shown, the wearable device 100 may be implemented in the form of a necklace or the like, but may perform the same operations as those implemented in other forms.

도 10(a)의 실시 예에서, 웨어러블 디바이스(100)는 사용자의 손목을 두르는 팔찌 형태로 구현되며, 사용자의 키 입력 동작, 마우스 입력 동작, 마우스 클릭 동작 등을 감지한다. 본 실시 예에서, 웨어러블 디바이스(100)는 사용자의 손바닥, 손등이나 팔에 영상을 출력할 수 있다(1010, 1020). 10A, the wearable device 100 is implemented as a bracelet that wraps the user's wrist, and detects a user's key input operation, a mouse input operation, a mouse click operation, and the like. In this embodiment, the wearable device 100 may output images to the user's palm, hand, or arm (1010, 1020).

도 10(b)의 실시 예에서, 웨어러블 디바이스(100)는 옷 소매에 장착되는 클립 형태로 구현된다. 웨어러블 디바이스(100)는 사용자의 손바닥, 손등에 영상을 출력할 수 있으며(1030), 신체 일부가 아닌 사물(예를 들어, 옷)에도 영상을 출력할 수도 있다. 도시되지는 않았으나, 웨어러블 디바이스(100)는 넥타이나 옷깃 등에 장착될 수도 있다.In the embodiment of Fig. 10 (b), the wearable device 100 is implemented in the form of a clip mounted on a sleeves. The wearable device 100 may output the image to the palm of the user, the user's hand, or the like, and may output the image to an object (e.g., clothes) that is not a part of the user's body. Although not shown, the wearable device 100 may be mounted on a necktie, collar, or the like.

이와 같이, 웨어러블 디바이스(100)의 구현 형태에 관계 없이 웨어러블 디바이스(100)는 이상에서 설명한 실시 예들과 동일하거나 유사한 형태로 동작할 수 있다.As described above, regardless of the implementation of the wearable device 100, the wearable device 100 can operate in the same or similar form as the embodiments described above.

한편, 이상에서는 웨어러블 디바이스(100)가 자신이 장착된 신체의 일부(예를 들어, 장착된 손 등)를 감지하는 실시 예를 설명하였다. 그러나, 이에 더하여 웨어러블 디바이스(100)는 자신이 장착되지 않은 신체 일부(예를 들어, 장착되지 않은 반대쪽 손) 또한 감지할 수 있다. In the foregoing, the wearable device 100 has described an embodiment in which it senses a part of the body (for example, a mounted hand, etc.) on which the wearable device 100 is mounted. However, in addition, the wearable device 100 may also detect a portion of the body to which it is not attached (e.g., the opposite hand that is not mounted).

설명의 편의를 위해 링 형태의 웨어러블 디바이스(100)가 사용자의 왼쪽 손에 장착된 경우를 설명하면, 웨어러블 디바이스(100)는 자신이 장착되지 않은 반대쪽 손인 오른쪽 손 또한 감지할 수 있다. 즉, 웨어러블 디바이스(100)는 오른손의 키 입력 동작, 오른손의 공간 마우스 움직임을 감지할 수 있으며, 오른손에 영상을 투사할 수도 있다. For convenience of explanation, when the wearable device 100 in a ring shape is mounted on the left hand of the user, the wearable device 100 can also detect the right hand, which is the opposite hand to which the wearable device 100 is not attached. That is, the wearable device 100 can detect the key input operation of the right hand, the space mouse movement of the right hand, and project the image on the right hand.

다만, 웨어러블 디바이스(100)가 이와 같이 자신이 장착되지 않은 오른손을 감지하기 위해서는 오른손과의 거리 및 위치 관계에 대해서도 알 수 있어야 한다. 다시 말해서, 사용자가 왼손을 움직이는 경우에 웨어러블 디바이스(100)는 자신이 장착된 왼손이 이동한 것인지, 장착되지 않은 오른손이 이동한 것인지 정확히 알 수 없다.However, in order for the wearable device 100 to detect a right hand to which the wearable device 100 is not attached, it is necessary to know the distance and the positional relationship with the right hand. In other words, when the user moves the left hand, the wearable device 100 can not know precisely whether the left hand equipped with the wearable device 100 has moved or the right hand that has not been mounted has moved.

이러한 문제점을 해결하기 위한 여러 가지 방법이 있을 수 있다. 예를 들어, 웨어러블 디바이스(100)는 자신을 원점으로 한 3차원 상대 좌표계를 생성하고, 오른손을 하나의 사물로 인식할 수 있다. 이러한 경우, 왼손의 손가락들 또한 사물로 인식되어 웨어러블 디바이스(100) 중심의 좌표계에서 그 위치가 특정된다. There are several ways to solve this problem. For example, the wearable device 100 can generate a three-dimensional relative coordinate system with its own origin, and can recognize the right hand as a single object. In this case, the fingers of the left hand are also recognized as objects, and their positions are specified in a coordinate system centered on the wearable device 100. [

또 다른 예를 들면, 웨어러블 디바이스(100)는 가속도 센서나 자이로스코프 센서를 활용할 수도 있다. 자신이 장착되지 않은 오른손이 움직이는 경우에는 두 센서의 측정 값이 달라지지 않으므로, 웨어러블 디바이스(100)는 자신이 장착된 왼손이 움직이는 경우와 반대의 경우를 두 센서의 측정 값 변화를 통해 알 수 있다. As another example, the wearable device 100 may utilize an acceleration sensor or a gyroscope sensor. The measured values of the two sensors are not changed when the right hand without the self is mounted, so that the wearable device 100 can recognize the opposite case of the movement of the left hand equipped with the wearable device 100 by changing the measured values of the two sensors .

또 다른 예를 들면, 외부 센서가 존재하여 웨어러블 디바이스(100)의 움직임을 감지할 수도 있다. 즉, 외부 디바이스가 웨어러블 디바이스(100)의 3차원 공간 상의 위치를 측정하여 웨어러블 디바이스(100)로 전송하는 경우, 웨어러블 디바이스(100)는 자신이 장착된 왼손이 움직였는지 쉽게 파악할 수 있다.In another example, an external sensor may be present to sense the movement of the wearable device 100. That is, when the external device measures the position on the three-dimensional space of the wearable device 100 and transmits the measured position to the wearable device 100, the wearable device 100 can easily determine whether the left hand equipped with the wearable device 100 has moved.

어떠한 예를 들더라도, 웨어러블 디바이스(100)는 왼손과 오른손 사이의 상대적인 거리와 위치 관계는 쉽게 파악할 수 있으므로, 오른손 또한 왼손과 유사하게 지속적으로 감지하도록 동작할 수 있다.Regardless of the example, the wearable device 100 can easily grasp the relative distance and positional relationship between the left hand and the right hand, so that the right hand can also be operated to continuously detect it similarly to the left hand.

본원 발명의 실시 예 들과 관련된 기술 분야에서 통상의 지식을 가진 자는 상기 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로, 개시된 방법들은 한정적인 관점이 아닌 설명적 관점에서 고려되어야 한다. 본 발명의 범위는 발명의 상세한 설명이 아닌 특허청구 범위에 나타나며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed methods should be considered in an illustrative rather than a restrictive sense. It is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents.

Claims (15)

웨어러블(wearable) 디바이스에 있어서,
광신호를 송출하는 광신호 송출부;
상기 광신호가 대상체에 반사되어 생성되는 반사 광신호를 수신하는 광신호 감지부;
상기 수신된 반사 광신호를 처리하는 데이터 처리부; 및
상기 반사 광신호를 처리한 데이터에 기초하여 사용자의 키 입력 동작을 감지하고, 상기 키 입력 동작에 매칭되는 입력 값을 생성하는 키 결정부를 포함하되,
상기 광신호 송출부는 서로 다른 제 1 파장 및 제 2 파장을 갖는 제 1 광신호 및 제 2 광신호를 송출하고,
상기 광신호 감지부는 상기 제 1 광신호에 의한 제 1 반사 광신호 및 상기 제 2 광신호에 의한 제 2 반사 광신호를 수신하고,
상기 데이터 처리부는 상기 제 1 반사 광신호를 처리한 데이터에서 상기 제 2 반사 광신호를 처리한 데이터를 뺀 혈관 데이터를 획득하고, 상기 혈관 데이터를 이용하여 상기 혈관에 대한 패턴 정보를 생성하고,
상기 키 결정부는 상기 사용자의 키 입력 동작에 따라 변화하는 상기 혈관에 대한 정보를 상기 패턴 정보와 비교하여 상기 키 입력 동작을 감지하는 것인, 웨어러블 디바이스.
In a wearable device,
An optical signal transmitter for transmitting an optical signal;
An optical signal detection unit receiving the reflected optical signal generated by reflecting the optical signal to a target object;
A data processing unit for processing the received reflected optical signal; And
And a key determiner for detecting a key input operation of the user based on the processed data of the reflected optical signal and generating an input value matched with the key input operation,
Wherein the optical signal transmitting unit transmits a first optical signal and a second optical signal having different first wavelengths and second wavelengths,
Wherein the optical signal sensing unit receives the first reflected optical signal by the first optical signal and the second reflected optical signal by the second optical signal,
Wherein the data processing unit obtains the blood vessel data by subtracting data obtained by processing the second reflected light signal from the data processed by the first reflected light signal, generates pattern information on the blood vessel using the blood vessel data,
Wherein the key determining unit detects the key input operation by comparing information on the blood vessel that changes according to a key input operation of the user with the pattern information.
삭제delete 삭제delete 제 1 항에 있어서,
상기 웨어러블 디바이스는
상기 대상체를 3차원으로 감지하여 3차원 스캔 정보를 생성하는 깊이 센서; 및
상기 3차원 스캔 정보에 기초하여 상기 대상체에 대한 3차원 모델을 생성하고, 상기 패턴 정보에 기초하여 상기 혈관을 나타내는 패턴을 상기 3차원 모델에 추가하는 영상 처리부를 더 포함하는 것인, 웨어러블 디바이스.
The method according to claim 1,
The wearable device
A depth sensor for detecting the object in three dimensions and generating three-dimensional scan information; And
Further comprising a video processing unit for generating a three-dimensional model of the object based on the three-dimensional scan information, and adding a pattern representing the blood vessel to the three-dimensional model based on the pattern information.
제 4 항에 있어서,
상기 웨어러블 디바이스는
상기 키 입력 동작에 따라 변화하는 상기 혈관에 대한 정보를 상기 3차원 모델에 추가된 상기 패턴과 비교함으로써 상기 키 입력 동작을 감지하는 것인, 웨어러블 디바이스.
5. The method of claim 4,
The wearable device
Wherein the key input operation is detected by comparing information on the blood vessel that changes according to the key input operation to the pattern added to the three-dimensional model.
제 5 항에 있어서,
상기 혈관에 대한 정보는 상기 광신호 감지부가 상기 대상체에서 상기 혈관으로 인한 색상, 채도 및 명도 중 적어도 하나의 분포를 감지함으로써 획득하는 것인, 웨어러블 디바이스.
6. The method of claim 5,
Wherein the information about the blood vessel is obtained by detecting at least one distribution of hue, saturation, and brightness caused by the blood vessel in the object by the optical signal sensing unit.
제 1 항에 있어서,
상기 키 결정부는 상기 감지된 키 입력 동작에 기초하여, 상기 사용자 손바닥과 손가락의 첫 번째 마디를 연결하는 제 1 관절, 상기 손가락의 첫 번째 마디와 두 번째 마디를 연결하는 제 2 관절의 3차원 위치를 결정하고, 상기 제 1 관절 및 상기 제 2 관절의 3차원 위치에 기초하여 상기 입력 값을 생성하는 것인, 웨어러블 디바이스.
The method according to claim 1,
Wherein the key determiner comprises: a first joint that connects the first palm of the finger with the palm of the user based on the sensed key input operation; a third joint that connects the first palm of the finger with the second palm of the finger, And generates the input value based on the three-dimensional position of the first joint and the second joint.
제 7 항에 있어서,
상기 키 결정부는 상기 제 1 관절 및 상기 제 2 관절의 3차원 위치 및 상기 제 1 관절 및 상기 제 2 관절이 굽어진 각도를 결정하고, 상기 두 관절의 3차원 위치 및 상기 두 관절의 각도에 따라 상기 키 입력 동작이 감지된 손가락의 끝의 3차원 위치를 계산하는 것인, 웨어러블 디바이스.
8. The method of claim 7,
Wherein the key determiner determines a three-dimensional position of the first joint and the second joint and an angle at which the first joint and the second joint are bent, and determines a three-dimensional position of the first joint and the second joint according to an angle of the two joints Dimensional position of the end of the finger where the key input operation is sensed.
제 1 항에 있어서,
상기 광신호 감지부는 수신되는 반사 광신호를 파장에 따라 분리함으로써 상기 제 1 반사 광신호 및 상기 제 2 반사 광신호를 각각 감지하는 것인, 웨어러블 디바이스.
The method according to claim 1,
Wherein the optical signal sensing unit senses the first reflected optical signal and the second reflected optical signal, respectively, by separating the received reflected optical signal according to a wavelength.
제 1 항에 있어서,
상기 광신호 감지부는 시간 영역 또는 주파수 영역에서 구별되어 수신되는 상기 제 1 반사 광신호 및 상기 제 2 반사 광신호를 각각 감지하는 것인, 웨어러블 디바이스.
The method according to claim 1,
Wherein the optical signal sensing unit senses the first reflected optical signal and the second reflected optical signal separately received in a time domain or a frequency domain, respectively.
웨어러블(wearable) 디바이스에 있어서,
광신호를 송출하는 광신호 송출부;
상기 광신호가 대상체에 반사되어 생성되는 반사 광신호를 수신하는 광신호 감지부;
상기 수신된 반사 광신호를 처리하는 데이터 처리부;
상기 반사 광신호를 처리한 데이터에 기초하여 상기 대상체와의 거리 및 각도를 측정하는 위치 결정부; 및
외부로 영상을 출력하는 영상 출력부를 포함하되,
상기 광신호 송출부는 서로 다른 제 1 파장 및 제 2 파장을 갖는 제 1 광신호 및 제 2 광신호를 송출하고,
상기 광신호 감지부는 상기 제 1 광신호에 의한 제 1 반사 광신호 및 상기 제 2 광신호에 의한 제 2 반사 광신호를 수신하고,
상기 데이터 처리부는 상기 제 1 반사 광신호를 처리한 데이터에서 상기 제 2 반사 광신호를 처리한 데이터를 뺀 혈관 데이터를 획득하고, 상기 혈관 데이터를 이용하여 상기 혈관에 대한 패턴 정보를 생성하고,
상기 위치 결정부는 상기 패턴 정보를 기저장된 혈관 정보와 비교하여 상기 대상체와의 거리 및 각도를 측정하고,
상기 영상 출력부는 상기 거리 및 각도에 기초하여 상기 영상을 고정된 위치에 고정된 크기로 출력하는 것인, 웨어러블 디바이스.
In a wearable device,
An optical signal transmitter for transmitting an optical signal;
An optical signal detection unit receiving the reflected optical signal generated by reflecting the optical signal to a target object;
A data processing unit for processing the received reflected optical signal;
A position determiner for measuring a distance and an angle with respect to the object based on the data obtained by processing the reflected optical signal; And
And an image output unit for outputting an image to the outside,
Wherein the optical signal transmitting unit transmits a first optical signal and a second optical signal having different first wavelengths and second wavelengths,
Wherein the optical signal sensing unit receives the first reflected optical signal by the first optical signal and the second reflected optical signal by the second optical signal,
Wherein the data processing unit obtains the blood vessel data by subtracting data obtained by processing the second reflected light signal from the data processed by the first reflected light signal, generates pattern information on the blood vessel using the blood vessel data,
Wherein the positioning unit compares the pattern information with previously stored blood vessel information to measure a distance and an angle with the target object,
Wherein the image output unit outputs the image at a fixed size in a fixed position based on the distance and the angle.
삭제delete 삭제delete 제 11 항에 있어서,
상기 광신호 감지부는 수신되는 반사 광신호를 파장에 따라 분리함으로써 상기 제 1 반사 광신호 및 상기 제 2 반사 광신호를 각각 감지하는 것인, 웨어러블 디바이스.
12. The method of claim 11,
Wherein the optical signal sensing unit senses the first reflected optical signal and the second reflected optical signal, respectively, by separating the received reflected optical signal according to a wavelength.
제 11 항에 있어서,
상기 광신호 감지부는 시간 영역 또는 주파수 영역에서 구별되어 수신되는 상기 제 1 반사 광신호 및 상기 제 2 반사 광신호를 각각 감지하는 것인, 웨어러블 디바이스.
12. The method of claim 11,
Wherein the optical signal sensing unit senses the first reflected optical signal and the second reflected optical signal separately received in a time domain or a frequency domain, respectively.
KR1020140139081A 2014-10-15 2014-10-15 Wearable device KR101552134B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140139081A KR101552134B1 (en) 2014-10-15 2014-10-15 Wearable device
US15/517,923 US10474191B2 (en) 2014-10-15 2015-10-14 Wearable device
PCT/KR2015/010825 WO2016060461A1 (en) 2014-10-15 2015-10-14 Wearable device
US16/601,359 US10908642B2 (en) 2014-10-15 2019-10-14 Movement-based data input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140139081A KR101552134B1 (en) 2014-10-15 2014-10-15 Wearable device

Publications (1)

Publication Number Publication Date
KR101552134B1 true KR101552134B1 (en) 2015-09-11

Family

ID=54247949

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140139081A KR101552134B1 (en) 2014-10-15 2014-10-15 Wearable device

Country Status (1)

Country Link
KR (1) KR101552134B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431736A (en) * 2015-10-30 2018-08-21 奥斯坦多科技公司 The system and method for gesture interface and Projection Display on body
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128304A (en) * 2005-11-04 2007-05-24 Nikon Corp Information input device, method therefor and electronic equipment using it
KR101310464B1 (en) * 2012-05-24 2013-09-24 주식회사 에스원 Biometric surveillance system and biometric surveillance method using the same system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007128304A (en) * 2005-11-04 2007-05-24 Nikon Corp Information input device, method therefor and electronic equipment using it
KR101310464B1 (en) * 2012-05-24 2013-09-24 주식회사 에스원 Biometric surveillance system and biometric surveillance method using the same system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108431736A (en) * 2015-10-30 2018-08-21 奥斯坦多科技公司 The system and method for gesture interface and Projection Display on body
EP3368966A4 (en) * 2015-10-30 2019-10-23 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US11106273B2 (en) 2015-10-30 2021-08-31 Ostendo Technologies, Inc. System and methods for on-body gestural interfaces and projection displays
US10453431B2 (en) 2016-04-28 2019-10-22 Ostendo Technologies, Inc. Integrated near-far light field display systems
US11145276B2 (en) 2016-04-28 2021-10-12 Ostendo Technologies, Inc. Integrated near-far light field display systems
US10522106B2 (en) 2016-05-05 2019-12-31 Ostendo Technologies, Inc. Methods and apparatus for active transparency modulation

Similar Documents

Publication Publication Date Title
KR101524575B1 (en) Wearable device
US10908642B2 (en) Movement-based data input device
US10747260B2 (en) Methods, devices, and systems for processing blood vessel data
KR102472428B1 (en) Light-Emitting User Input Device
US20210011560A1 (en) Wearable Device
EP2904472B1 (en) Wearable sensor for tracking articulated body-parts
EP2984541B1 (en) Near-plane segmentation using pulsed light source
KR101235432B1 (en) Remote control apparatus and method using virtual touch of electronic device modeled in three dimension
KR102609766B1 (en) Skin care device
KR20180079399A (en) Method and device for determining the angle of rotation of a human face,
US11132057B2 (en) Use of light transmission through tissue to detect force
TWI596378B (en) Portable virtual reality system
KR101552134B1 (en) Wearable device
US20220249027A1 (en) Electronic device and method for correcting biometric data on basis of distance between electronic device and user, measured using at least one sensor
US20190339768A1 (en) Virtual reality interaction system and method
WO2022014445A1 (en) Detecting device, and detecting method
KR101524576B1 (en) Wearable device
KR20160129406A (en) Wearable device
Gonzalez et al. A 2-D infrared instrumentation for close-range finger position sensing
JP2016115310A (en) Electronic apparatus
KR20200120467A (en) Head mounted display apparatus and operating method thereof
WO2015160589A1 (en) Fingerprint based input device
KR20210111619A (en) Method, system and non-transitory computer-readable recording medium for estimating user's gesture from 2d images
KR20240020259A (en) Wearable device, method and computer readable medium for identifying gesture based on at least one of image, or electromyogram

Legal Events

Date Code Title Description
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180828

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190902

Year of fee payment: 5