KR20160015704A - System and method for recognition acquaintance by wearable glass device - Google Patents

System and method for recognition acquaintance by wearable glass device Download PDF

Info

Publication number
KR20160015704A
KR20160015704A KR1020140098307A KR20140098307A KR20160015704A KR 20160015704 A KR20160015704 A KR 20160015704A KR 1020140098307 A KR1020140098307 A KR 1020140098307A KR 20140098307 A KR20140098307 A KR 20140098307A KR 20160015704 A KR20160015704 A KR 20160015704A
Authority
KR
South Korea
Prior art keywords
acquaintance
face
user
image
unit
Prior art date
Application number
KR1020140098307A
Other languages
Korean (ko)
Other versions
KR102224985B1 (en
Inventor
한성철
엄정한
김진영
이경현
김대중
김석기
유철현
김주천
김주원
Original Assignee
넥시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥시스 주식회사 filed Critical 넥시스 주식회사
Priority to KR1020140098307A priority Critical patent/KR102224985B1/en
Priority to PCT/KR2015/007581 priority patent/WO2016013858A2/en
Publication of KR20160015704A publication Critical patent/KR20160015704A/en
Application granted granted Critical
Publication of KR102224985B1 publication Critical patent/KR102224985B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Abstract

The present invention relates to an acquaintance recognition system using a glass type wearable device and a recognition method thereof. The acquaintance recognition method using the glass type wearable device according to an embodiment of the present invention includes: a step (S100) of acquiring a video or an image including a face of an opponent; a step (S200) of extracting a face area from the video or the image; a step (S300) of extracting feature information from the extracted face area; a step (S400) of recognizing an acquaintance corresponding to the opponent, by judging by comparing the feature information of a stored acquaintance face with the extracted feature information; and a step (S500) of informing the acquaintance corresponding to the opponent of a user. According to the present invention, in case the user can not remember suddenly who a person acknowledging the user is, the method of the present invention can remove a situation that the user becomes sorry for not remembering the acquaintance by informing the user who the opponent is.

Description

글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법 {SYSTEM AND METHOD FOR RECOGNITION ACQUAINTANCE BY WEARABLE GLASS DEVICE}TECHNICAL FIELD [0001] The present invention relates to a recognition system and a recognition method using a wearable device of a glass type,

본 발명은 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법에 관한 것으로, 보다 자세하게는 상대방의 얼굴 영상 또는 이미지를 획득하여 사용자가 알고 있는 지인인지 인식하여 알려주는 시스템 및 방법에 관한 것이다.The present invention relates to a recognition system and a recognition method using a wearable device of a glass type. More particularly, the present invention relates to a system and a method for acquiring a facial image or an image of a partner to recognize whether the face image or image is known by the user.

최근 웨어러블 디바이스들이 등장하고 있다. 스마트폰과 연동되는 안경(Glass) 형태로 등장하고 있으며, 스마트폰 없이도 독립적으로 작동할 수 있는 형태도 등장하고 있다.Recently wearable devices are emerging. It has appeared in the form of glasses that are linked to smart phones, and some forms that can operate independently without a smartphone are also emerging.

사람들은 길에서 자신을 아는 척 하는 사람을 만나는 경우가 있다. 이 때, 본인이 상대방을 인지하지 못하면, 상대방에게 미안해지거나 난처한 상황이 발생할 수 있다. 또한, 상대방의 얼굴은 기억나는데, 상대방의 이름은 기억나지 않아 이름을 다시 물어봐야 하는 상황도 종종 발생한다.People sometimes meet people pretending to know themselves on the street. At this time, if you do not recognize the other person, you may get confused or embarrassed. Also, the face of the other person's memory is remembered, but the name of the other person can not be remembered.

본 발명의 목적은, 상대방의 얼굴 영상 또는 이미지를 획득하고, 상기 영상 또는 이미지 내의 얼굴과 저장된 지인의 얼굴을 비교하여 사용자가 알고 있는 지인인지 판단하여 누구인지 알려주는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법을 제공함에 있다.An object of the present invention is to provide a method and apparatus for acquiring a face image or an image using a wearable device of a glass type for acquiring a facial image or an image of a counterpart and comparing a face in the image or image with a face of a stored acquaintance, System and method of recognition.

상기 언급된 목적을 달성하기 위한, 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식방법은, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 단계; 상기 영상 또는 이미지에서 얼굴영역을 추출하는 단계; 상기 추출된 얼굴영역에서 특징정보를 추출하는 단계; 상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 인식하는 단계; 및 사용자에게 상기 상대방에 해당하는 지인을 알리는 단계;를 포함한다.According to another aspect of the present invention, there is provided a recognition method using a glass-like wearable device, comprising: acquiring an image or an image including a face of a partner; Extracting a face region from the image or image; Extracting feature information from the extracted face region; Comparing the extracted feature information with feature information of a face of a user and recognizing an acquaintance corresponding to the partner; And notifying a user of an acquaintance corresponding to the other party.

또한, 상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 파악하는 단계는, 상기 글라스형 웨어러블 디바이스의 제어부 또는 외부서버에서 수행되는 것을 특징으로 할 수 있다.In addition, the step of comparing the extracted feature information with the feature information of the stored face information and determining an acquaintance corresponding to the opponent may be performed by a control unit of the glass wearable device or an external server .

또한, 상기 사용자에게 상기 상대방에 해당하는 지인을 알리는 단계는, 상대방에 해당하는 지인의 사진 또는 이름을 디스플레이 상에 표시하는 방식, 음향출력으로 상대방에 해당하는 지인의 이름을 알리는 방식, 상기 글라스형 웨어러블 디바이스와 연동된 외부 디바이스의 디스플레이 상에 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 방식 중 적어도 하나 이상에 의해 수행될 수 있다.In addition, the step of informing the user of an acquaintance of the other party may include a method of displaying a photograph or name of an acquaintance corresponding to the opponent on a display, a method of announcing the name of an acquaintance corresponding to the opponent by acoustical output, A method of displaying a photograph or name of an acquaintance corresponding to the other party on the display of the external device interlocked with the wearable device.

또한, 상기 저장된 지인 얼굴의 특징정보는, 외부서버 또는 상기 글라스형 웨어러블 디바이스의 저장부에 저장된 지인의 사진에서 특징을 추출하여 저장해두는 것을 특징으로 하고, 상기 상대방에 해당하는 지인 인식은, 상기 외부서버 또는 상기 글라스형 웨어러블 디바이스에서 상기 추출된 상대방 얼굴사진의 특징정보와 동일한 특징정보를 포함하는 지인을 탐색하는 것을 특징으로 할 수 있다.In addition, the feature information of the stored face may be extracted from a photograph of an acquaintance stored in an external server or a storage unit of the glass-like wearable device, and the feature information may be stored in the external And searching for an acquaintance including the same feature information as the feature information of the face image of the opposite party extracted by the server or the glass-like wearable device.

또한, 상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 단계;를 포함할 수 있다.The method may further include the step of providing the user with information on an acquaintance corresponding to the other party.

본 발명의 다른 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템은, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하고, 상기 영상 또는 이미지 내의 상대방 얼굴에서 특징정보를 추출하여 외부서버로 전송하며, 외부서버로부터 상기 상대방에 해당하는 지인 데이터를 수신하여 사용자에게 알려주는 글라스형 웨어러블 디바이스; 및 상기 사용자의 지인 얼굴 사진을 저장하고, 수신된 상기 추출된 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하여 무선통신을 통해 상기 글라스형 웨어러블 디바이스로 제공하는 외부서버;를 포함한다.The acquaintance recognition system using the glass-like wearable device according to another embodiment of the present invention acquires a video or image including a face of the other party, extracts feature information from the face of the other party in the video or image, A wearable device of a glass type for receiving data related to the other party from an external server and notifying the user of the data; And an external server for storing a face image of the user and obtaining an acquaintance corresponding to the other party based on the extracted feature information and providing the acquaintance to the wearable device via wireless communication.

또한, 상기 글라스형 웨어러블 디바이스는, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 제1카메라; 상기 외부서버와 정보교환을 행하는 무선통신부; 상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 얼굴영역추출부, 및 추출된 얼굴영역에서 특징정보를 추출하는 특징추출부를 포함하는 제어부; 및 상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 출력부;를 포함할 수 있다.In addition, the glass-type wearable device may further include: a first camera that acquires a video or an image including a face of the other party; A wireless communication unit for exchanging information with the external server; A face region extracting unit for extracting a face region of the opposite side in the image or the image, and a feature extracting unit extracting the feature information from the extracted face region; And an output unit for informing the user of an acquaintance corresponding to the other party.

또한, 상기 출력부는, 상기 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 디스플레이부; 또는 상대방에 해당하는 지인의 이름을 알리는 음향출력부;를 포함할 수 있다.Also, the output unit may include a display unit for displaying a photograph or name of an acquaintance corresponding to the other party; Or an acoustic output unit for notifying the name of an acquaintance corresponding to the other party.

또한, 상기 외부서버는, 상기 사용자의 지인 얼굴 사진을 저장하는 저장부; 상기 글라스형 웨어러블 디바이스와 정보교환을 행하는 무선통신부; 및 수신된 상기 상대방 얼굴 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 얼굴인식부;를 포함할 수 있다.The external server may further include: a storage unit for storing a face image of the user; A wireless communication unit for exchanging information with the wearable device; And a face recognizing unit for recognizing an acquaintance corresponding to the other party based on the received facial feature information.

또한, 상기 저장부는, 사용자의 지인에 대한 정보를 저장하는 것을 특징으로 할 수 있다.In addition, the storage unit may store information on the acquaintance of the user.

본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템은, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 제1카메라; 상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 얼굴영역추출부, 추출된 얼굴영역에서 특징정보를 추출하는 특징추출부, 및 상기 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 얼굴인식부를 포함하는 제어부; 상기 사용자의 지인 얼굴 사진을 저장하는 저장부; 및 상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 출력부;를 포함한다.According to another aspect of the present invention, there is provided an acquaintance recognition system using a glass-like wearable device, comprising: a first camera for acquiring an image or an image including a face of the other party; A face region extracting unit for extracting a face region of the opposite side in the image or image, a feature extracting unit for extracting the feature information from the extracted face region, and a face recognizing unit for recognizing an acquaintance corresponding to the opposite side based on the feature information ; A storage unit for storing a face photograph of the user; And an output unit for informing the user of an acquaintance corresponding to the other party.

또한, 상기 출력부는, 상기 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 디스플레이부; 또는 상대방에 해당하는 지인의 이름을 알리는 음향출력부;를 포함할 수 있다.Also, the output unit may include a display unit for displaying a photograph or name of an acquaintance corresponding to the other party; Or an acoustic output unit for notifying the name of an acquaintance corresponding to the other party.

또한, 상기 저장부는, 사용자의 지인에 대한 정보를 저장하는 것을 특징으로 하고; 상기 출력부는, 상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 것을 특징으로 할 수 있다.The storage unit may store information on a user's acquaintance; And the output unit may provide the user with information on an acquaintance corresponding to the other party.

또한, 상기 지인에 대한 정보는, 직업, 학교, 나이, 지인을 알게 된 배경, 관심사, 공통으로 아는 지인 중 적어도 하나 이상을 포함할 수 있다.The information on the acquaintance may include at least one of a job, a school, an age, a background in acquaintance, interest, and common knowledge.

본 발명에 따르면, 갑자기 사용자를 아는 척하는 사람이 누구인지 기억나지 않는 경우, 본 발명이 사용자에게 상대방이 누구인지 알려주므로 지인을 기억하지 못해서 미안해지거나 난처해지는 상황을 없앨 수 있다. According to the present invention, when the user suddenly does not remember who pretends to know the user, the present invention can inform the user of who the other party is and can eliminate the situation of being sorry or embarrassed because they can not remember their acquaintances.

또한, 상대방의 얼굴은 기억나지만 이름이 기억나지 않는 경우에도 상대방의 이름 정보를 빠르게 제공받을 수 있어서, 이름을 기억하지 못해서 발생할 수 있는 문제를 예방할 수 있다.In addition, even if the face of the other party is remembered but the name is not remembered, the name information of the other party can be quickly provided, thereby preventing a problem that may occur due to the failure to memorize the name.

또한, 길거리에서 자신이 아는 사람인지 불명확하여 아는 척을 하지 못하는 경우가 종종 있다. 이 경우에도 상대방의 근거리에서 상기 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하기만 하면 사용자가 아는 지인인지 판단할 수 있다.Also, on the streets, it is often unclear whether you are a person you know and can not pretend to know. In this case, it is possible to judge whether the user knows only if the image or the image including the face of the other party is obtained in the vicinity of the other party.

즉, 상기 글라스형 웨어러블 디바이스의 저장부 또는 상기 외부서버의 저장부에 지인의 얼굴사진과 신상정보를 미리 저장해두기만 하면, 본 발명에 의해서 실시간으로 상대방이 누구인지 인식할 수 있다.That is, if a face photograph and personal information of an acquaintance are stored in advance in the storage unit of the glass-like wearable device or the storage unit of the external server, the present invention can recognize the other party in real time by the present invention.

도 1은 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스 시스템의 구성도
도 2은 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식방법에 대한 순서도
도 3는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 사시도
도 4은 디스플레이부를 통해 상대방에 해당하는 지인을 알려주는 예시도면
도 5는 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스 및 외부서버를 이용한 지인 인식시스템의 구성도
도 6는 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템의 구성도
1 is a configuration diagram of a glass-type wearable device system according to an embodiment of the present invention
2 is a flow chart of a recognition method using a wearable device of a glass type according to an embodiment of the present invention
3 is a perspective view of a wearable device of a glass type according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating an example of an acquaintance of a corresponding party through a display unit; FIG.
FIG. 5 is a diagram showing a configuration of a friend recognizing system using a glass-type wearable device and an external server according to an embodiment of the present invention
6 is a configuration diagram of a recognition system using a wearable device of a glass type according to an embodiment of the present invention

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

도 1은 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스 시스템의 구성도이고, 도 2는 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식방법에 대한 순서도이다. 도 3은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스의 사시도이고, 도 4는 디스플레이부를 통해 상대방에 해당하는 지인을 알려주는 예시도면이다. 도 5는 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스 및 외부서버를 이용한 지인 인식시스템의 구성도이고, 도 6은 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템의 구성도이다.FIG. 1 is a configuration diagram of a glass-type wearable device system according to an embodiment of the present invention, and FIG. 2 is a flowchart of a method of recognizing a friend using a glass-type wearable device according to an embodiment of the present invention. FIG. 3 is a perspective view of a wearable device of a glass type according to an exemplary embodiment of the present invention, and FIG. 4 is an exemplary view showing an acquaintance of a partner through a display unit. FIG. 5 is a configuration diagram of a recognition system using a glass-type wearable device and an external server according to an embodiment of the present invention, FIG. 6 is a diagram illustrating a configuration of a recognition system using a glass- .

도 1 내지 도 5에는 시스템(100), 사용자입력부(110), 어플리케이션(111), 키보드(112), 음성입력부(113), 터치패드(114), GPS신호부(115), 근거리통신(116), 카메라부(120), 제1카메라(121), 제2카메라(122), 제3카메라(123), 센싱부(130), 자이로센서(131), 가속도센서(132), 압력센서(133), 홍체인식센서(134), 심박검출센서(135), 근전도센서(136), 정보처리모듈(210), 음성인식부(220), 상황평가모듈(230), 음성-텍스트변환모듈(240), 무선통신부(250), 메모리(260), 인터페이스부(270), 출력부(300), 디스플레이부(310), 음향출력부(320), 알람부(330), 햅틱모듈(340)가 도시된다.1 to 5 show a system 100, a user input unit 110, an application 111, a keyboard 112, a voice input unit 113, a touch pad 114, a GPS signal unit 115, A camera 120, a first camera 121, a second camera 122, a third camera 123, a sensing unit 130, a gyro sensor 131, an acceleration sensor 132, a pressure sensor 133, an iris recognition sensor 134, a heartbeat detection sensor 135, an electromyogram sensor 136, an information processing module 210, a voice recognition unit 220, a situation evaluation module 230, An output unit 300, a display unit 310, an audio output unit 320, an alarm unit 330, a haptic module 340, Lt; / RTI >

본 발명의 일실시예에 따른 상기 글라스형 웨어러블 디바이스의 시스템(100)은 카메라부(120), 음성입력부(113), 사용자입력부(110), 센싱부(130), 출력부(300), 무선통신부(250), 메모리(260), 인터페이스부(270), 제어부(210), 상황평가모듈(230), 전원공급부, 및 음성인식부(220)를 포함할 수 있다.The system 100 of the wearable wearable device according to an embodiment of the present invention includes a camera unit 120, an audio input unit 113, a user input unit 110, a sensing unit 130, an output unit 300, A communication unit 250, a memory 260, an interface unit 270, a control unit 210, a situation evaluation module 230, a power supply unit, and a voice recognition unit 220.

카메라부(120)는 비디오 신호 또는 이미지 신호 입력을 위한 것으로, 디바이스의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 카메라부(120)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(310)에 표시될 수 있다. 또한, 카메라부(120)에서 처리된 화상 프레임은 메모리(260)에 저장되거나 무선통신부(250)를 통하여 외부로 전송될 수 있다. 또한, 이미지 신호 또는 비디오 신호가 정보처리를 위한 입력으로 쓰이는 경우, 제어부(210)로 이미지 신호 및 비디오 신호를 전달한다.The camera unit 120 is for inputting video signals or image signals, and may be provided in accordance with a configuration of the device. The camera unit 120 processes an image frame such as a still image or a moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 310. [ The image frame processed by the camera unit 120 may be stored in the memory 260 or transmitted to the outside through the wireless communication unit 250. [ When an image signal or a video signal is used as an input for information processing, the image signal and the video signal are transmitted to the control unit 210.

음성입력부(113)는 음성신호의 입력을 위한 것으로 마이크 등이 포함될 수 있다. 마이크는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고 처리된 음성 데이터는 통화 모드인 경우 이동통신부를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크 는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.The voice input unit 113 is for inputting voice signals and may include a microphone and the like. The microphone receives an external acoustic signal by a microphone in a communication mode, a recording mode, a voice recognition mode, and the like and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication unit and output when the voice data is in the call mode. A variety of noise canceling algorithms may be used to remove the noise generated by the microphone in receiving an external acoustic signal.

사용자입력부(110)는 사용자가 디바이스의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자입력부(110)는 키패드(key pad), 키보드, 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(310)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 110 generates key input data that the user inputs for controlling the operation of the device. The user input unit 110 may include a key pad, a keyboard, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and a finger mouse. Particularly, when the touch pad has a mutual layer structure with the display unit 310 described later, it can be called a touch screen.

센싱부(130)는 디바이스의 개폐 상태, 디바이스의 위치, 사용자 접촉 유무 등과 같이 디바이스의 현 상태를 감지하여 디바이스의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 센싱부(130)는 디바이스의 정보처리를 위한 입력신호를 받는 입력부의 기능을 담당할 수 있으며, 외부 기기 연결 여부 인식 등의 다양한 센싱 기능을 담당할 수 있다.The sensing unit 130 senses the current state of the device such as the open / close state of the device, the position of the device, the presence or absence of the user, and generates a sensing signal for controlling the operation of the device. In addition, the sensing unit 130 may function as an input unit for receiving an input signal for information processing of a device, and may perform various sensing functions such as recognition of connection to an external device.

센싱부(130)는 근접센서(Proximity Sensor), 압력센서(133), 모션 센서, 지문인식센서, 홍체인식센서(134), 심박검출센서(135), 피부온도센서, 피부저항센서 및 심전도센서 등을 포함할 수 있다. The sensing unit 130 may include a proximity sensor, a pressure sensor 133, a motion sensor, a fingerprint recognition sensor, an iris recognition sensor 134, a heartbeat detection sensor 135, a skin temperature sensor, And the like.

근접센서는 접근하는 물체나, 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서는 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 근접센서는 구성 태양에 따라 2개 이상이 구비될 수 있다.The proximity sensor makes it possible to detect the presence of an object to be approached or nearby, without mechanical contact. The proximity sensor can detect a nearby object by using the change of the alternating magnetic field or the change of the static magnetic field, or by using the change rate of the capacitance. The proximity sensor may be equipped with two or more sensors according to the configuration.

압력센서(133)는 디바이스에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 압력센서(133)는 사용환경에 따라 디바이스에서 압력의 검출이 필요한 부위에 설치될 수 있다. 만일, 압력센서(133)가 디스플레이부(310)에 설치되는 경우, 압력센서(133)에서 출력되는 신호에 따라, 디스플레이부(310)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. 또한, 압력센서(133)에서 출력되는 신호에 따라, 압력터치 입력시 디스플레이부(310)에 가해지는 압력의 크기도 알 수 있다.The pressure sensor 133 can detect whether or not pressure is applied to the device, the magnitude of the pressure, and the like. The pressure sensor 133 may be installed in a part of the device where the pressure needs to be detected depending on the use environment. When the pressure sensor 133 is installed on the display unit 310, a touch input through the display unit 310 and a pressure applied by the touch input The pressure touch input can be identified. Also, according to the signal output from the pressure sensor 133, the magnitude of the pressure applied to the display unit 310 at the time of pressure touch input can be known.

모션 센서는 가속도센서(132), 자이로센서(131), 지자기센서 등의 센서 중에서 하나 이상을 포함하며, 이를 이용하여 디바이스의 위치나 움직임 등을 감지한다. 모션 센서에 사용될 수 있는 가속도센서(132)는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. 가속도센서(132)는 중력가속도의 변화를 인식하는 중력센서를 포함한다. 또한, 자이로센서(131)는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다. The motion sensor includes at least one of an acceleration sensor 132, a gyro sensor 131, and a geomagnetic sensor, and detects the position and movement of the device using the sensor. The acceleration sensor 132, which can be used for a motion sensor, is a device that converts an acceleration change in one direction into an electric signal and is widely used along with the development of MEMS (micro-electromechanical systems) technology. The acceleration sensor 132 includes a gravity sensor that recognizes a change in gravitational acceleration. Further, the gyro sensor 131 is a sensor for measuring the angular velocity, and can sense the direction of rotation with respect to the reference direction.

심박검출센서(135)는 감성신호를 수집하기 위해 심장 박동에 의한 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정한다. 피부 온도 센서는 온도 변화에 반응하여 저항값이 변화하는 것에 따라 피부 온도를 측정한다. 피부 저항 센서는 피부의 전기 저항을 측정한다.The heartbeat detection sensor 135 measures changes in the optical blood flow due to changes in the thickness of the blood vessel caused by the heartbeat in order to collect emotion signals. The skin temperature sensor measures the skin temperature as the resistance value changes in response to the temperature change. The skin resistance sensor measures the skin's electrical resistance.

홍체인식센서(134)는 사람마다 고유한 특성을 가진 안구의 홍채 정보를 이용해 사람을 인식하는 기능을 수행한다. 사람의 홍채는 생후 18개월 이후 완성된 뒤, 홍채의 내측연 가까이에 융기되어 있는 원형의 홍채 패턴은 한번 정해지면 거의 변하지 않고, 또 사람마다 모양이 모두 다르다. 따라서 홍채인식은 사람마다 각기 다른 홍채의 특성을 정보화해 이를 보안용 인증기술로 응용한 것이다. 즉, 홍채의 모양과 색깔, 망막 모세혈관의 형태소 등을 분석해 사람을 식별하기 위한 수단으로 개발한 인증방식이다.The iris recognition sensor 134 performs a function of recognizing a person using iris information of an eye having a characteristic unique to each person. The human iris is completed after 18 months of age, and the circular iris pattern, which is raised near the medial side of the iris, is almost unchanged once determined, and the shape of each person is different. Therefore, iris recognition is the application of information technology to security for information of different iris characteristics. That is, it is an authentication method developed to identify people by analyzing the shape and color of iris and the morphology of retinal capillaries.

홍체인식센서(134)는 홍채의 패턴을 코드화해 이를 영상신호로 바꾸어 비교?판단하는데, 일반적인 작동 원리는 다음과 같다. 먼저 일정한 거리에서 홍채인식기 중앙에 있는 거울에 사용자의 눈이 맞춰지면, 적외선을 이용한 카메라가 줌렌즈를 통해 초점을 조절한다. 이어 홍채 카메라가 사용자의 홍채를 사진으로 이미지화한 뒤, 홍채 인식 알고리즘이 홍채의 명암 패턴을 영역별로 분석해 개인 고유의 홍채 코드를 생성한다. 마지막으로 홍채 코드가 데이터베이스에 등록되는 것과 동시에 비교 검색이 이루어진다.The iris recognition sensor 134 encodes a pattern of iris and converts it into a video signal to compare and judge. The general operation principle is as follows. First, when the user's eye is aligned with the mirror located at the center of the iris recognizer at a certain distance, the infrared camera adjusts the focus through the zoom lens. After the iris camera images the user's iris as a photo, the iris recognition algorithm analyzes the iris pattern of the iris region to generate iris codes unique to the user. Finally, a comparison search is performed at the same time that the iris code is registered in the database.

출력부(300)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(300)에는 디스플레이부(310), 음향출력 모듈, 알람부(330), 및 햅틱 모듈(340) 등이 포함될 수 있다.The output unit 300 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 300 may include a display unit 310, an audio output module, an alarm unit 330, a haptic module 340, and the like.

디스플레이부(310)는 디바이스에서 처리되는 정보를 표시 출력한다. 예를 들어 디바이스가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 디바이스가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. The display unit 310 displays and outputs information processed in the device. For example, when the device is in the call mode, a UI (User Interface) or GUI (Graphic User Interface) associated with the call is displayed. When the device is in the video communication mode or the photographing mode, the captured or received image can be displayed individually or simultaneously, and the UI and the GUI are displayed.

한편, 전술한 바와 같이, 디스플레이부(310)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(310)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 만일, 디스플레이부(310)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다. Meanwhile, as described above, when the display unit 310 and the touch pad have a mutual layer structure to constitute a touch screen, the display unit 310 can be used as an input device in addition to the output device. If the display unit 310 is configured as a touch screen, it may include a touch screen panel, a touch screen panel controller, and the like.

이외에도 디스플레이부(310)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 디바이스의 구현 형태에 따라 디스플레이부(310)가 2개 이상 존재할 수도 있다. 예를 들어, 디바이스에 외부 디스플레이부(310)와 내부 디스플레이부(310)가 동시에 구비될 수 있다.In addition, the display unit 310 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display (3D display). There may be two or more display units 310 depending on the implementation type of the device. For example, the device may include an external display unit 310 and an internal display unit 310 at the same time.

디스플레이부(310)는 HUD(Head up Display), HMD(Head mounted Display) 등으로 구현될 수 있다. HMD(Head mounted Display)란 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시장치다. HUD(Head up Display)는 사용자의 가시영역 내의 유리에 가상 화상(virtual image)을 투영시키는 영상표시장치이다.The display unit 310 may be implemented as a head up display (HUD), a head mounted display (HMD), or the like. HMD (Head Mounted Display) is an image display device that allows you to enjoy large images on your head like glasses. A Head Up Display (HUD) is a video display device that projects a virtual image onto a glass in a visible region of a user.

음향출력 모듈(320)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(320)은 디바이스에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(320)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 320 outputs audio data received from the wireless communication unit or stored in the memory 260 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. Also, the sound output module 320 outputs sound signals related to functions performed in the device, for example, call signal reception tones, message reception tones, and the like. The sound output module 320 may include a speaker, a buzzer, and the like.

알람부(330)는 디바이스의 이벤트 발생을 알리기 위한 신호를 출력한다. 디바이스에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(330)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동알람부를 포함하여, 진동 형태로 신호를 출력할 수 있다. 알람부(330)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. 또한. 알람부(330)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(330)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 디바이스에서 이벤트 발생 알림을 위한 신호는 디스플레이부(310)나 음향출력 모듈를 통해서도 출력될 수 있다.The alarm unit 330 outputs a signal for notifying the occurrence of an event of the device. Examples of events that occur in a device include receiving a call signal, receiving a message, and inputting a key signal. The alarm unit 330 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, it is possible to output a signal in a vibration mode including a vibration alarm unit. The alarm unit 330 may output a signal to notify when a call signal is received or a message is received. Also. When the key signal is input, the alarm unit 330 can output a signal as a feedback signal to the key signal input. The user can recognize the occurrence of an event through the signal output by the alarm unit 330. A signal for notifying the occurrence of an event in the device may also be output through the display unit 310 or the sound output module.

햅틱 모듈(haptic module)(340)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(340)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(340)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(340)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 340 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 340 is a vibration effect. When the haptic module 340 generates vibration with a haptic effect, the intensity and pattern of the vibration generated by the haptic module 340 can be converted, and the different vibrations may be synthesized and output or sequentially output.

무선통신부(250)는 방송수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈,및 GPS 모듈 등을 포함할 수 있다.The wireless communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless Internet module, a short distance communication module, and a GPS module.

방송수신 모듈은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.The broadcast receiving module receives at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. At this time, the broadcast channel may include a satellite channel, a terrestrial channel, and the like. The broadcast management server may refer to a server for generating and transmitting at least one of a broadcast signal and broadcast related information and a server for receiving at least one of the generated broadcast signal and broadcast related information and transmitting the broadcast signal to the terminal.

방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다. The broadcast-related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information can also be provided through a mobile communication network, in which case it can be received by the mobile communication module. Broadcast-related information can exist in various forms.

방송수신 모듈은, 각종 방송 시스템을 이용하여 방송 신호를 수신하며, 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈을 통해 수신된 방송신호 및/또는 방송 관련 정보는 메모리(260)에 저장될 수 있다.The broadcast receiving module receives a broadcast signal using various broadcast systems, and can receive a digital broadcast signal using a digital broadcast system. In addition, the broadcast receiving module may be configured to be suitable for all broadcasting systems that provide broadcast signals as well as the digital broadcasting system. The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the memory 260.

이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(long term evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and the wireless Internet module can be embedded in a device or externally. Wireless Internet technologies include WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution-Advanced) or the like can be used.

근거리 통신 모듈(116)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 비콘(Beacon), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. The short-range communication module 116 is a module for short-range communication. Beacon, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee and the like can be used as a short distance communication technology.

비콘(Beacon)은 무선통신 장치로써 블루투스 4. 0 (BLE-Bluetooth Low Energy) 기반의 프로토콜을 사용해 매우 작은 주파수 시그널을 그들 주위에 전달한다. 블루투스 4. 0은 장치가 대략 5m~70m내의 디바이스들과 통신을 할 수 있으며, 배터리 수명에 거의 영향을 끼치지 않는 저전력이어서 전력 낭비를 최소화하여 블루투스를 항상 켤 수 있다.Beacon is a wireless communication device that transmits very small frequency signals around them using a protocol based on Bluetooth 4.0 (BLE-Bluetooth Low Energy). Bluetooth 4.0 allows devices to communicate with devices within approximately 5m to 70m, and is low power with minimal impact on battery life, so you can always turn on Bluetooth with minimal power wastage.

GPS(Global Position System) 모듈(115)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다. The GPS (Global Position System) module 115 receives position information from a plurality of GPS satellites.

메모리(260)는 제어부(210)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 260 may store a program for processing and controlling the control unit 210 and may perform a function for temporarily storing input or output data (e.g., a message, a still image, a moving image, etc.) It is possible.

메모리(260)는 플래시 메모리(260) 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(260)(예를 들어 SD 또는 XD 메모리(260) 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스는 인터넷(internet) 상에서 메모리(260)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 260 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory 260 XD memory 260, etc.), RAM, ROM, and the like. The device may also operate web storage to perform storage functions of memory 260 on the Internet.

메모리(260)는 이하 저장부(260)로 표현될 수 있다.The memory 260 may be represented by a storage unit 260 as follows.

인터페이스부(270)는 디바이스에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 디바이스에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리(260) 카드(Memory card), SIM(Subscriber Identification Module)이나 UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(270)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 디바이스 내부의 각 구성 요소에 전달할 수 있고, 디바이스 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 270 serves as an interface with all external devices connected to the device. Examples of external devices connected to the device include a wired / wireless headset, an external charger, a wired / wireless data port, a memory 260 card, a Subscriber Identification Module (SIM) or a User Identity Module A card socket, an audio I / O (input / output) terminal, a video I / O (input / output) terminal, and an earphone. The interface unit 270 may receive data from the external device or supply power to the respective components in the device, and may transmit data in the device to the external device.

제어부(210)는 통상적으로 상기 각부의 동작을 제어하여 디바이스의 전반적인 동작을 제어하는 기능을 수행한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(210)는 멀티미디어 재생을 위해 데이터를 처리하는 기능을 수행한다. 또한, 입력부 또는 센싱부(130)로부터 입력받은 데이터를 처리하는 기능을 수행한다.The control unit 210 typically controls the operation of each unit to control the overall operation of the device. For example, voice communication, data communication, video communication, and the like. In addition, the control unit 210 performs a function of processing data for multimedia reproduction. In addition, it performs a function of processing data input from the input unit or the sensing unit 130.

제어부(210)는 이하 정보처리모듈(210)로 표현될 수 있다.The control unit 210 may be expressed as an information processing module 210 hereinafter.

상황평가모듈(230)은 메모리(260)에 저장된 기준이나 사용자로부터 입력받은 기준을 바탕으로, 사용자가 상기 글라스형 웨어러블 디바이스를 사용하는 상황을 결정하는 기능을 수행한다. 즉, 여러 가지 기준을 바탕으로 사용자의 상기 디바이스 이용상황을 결정하여, 상기 디바이스의 시스템 설정을 하거나 입력받아야 할 신호를 결정하는 등의 기능을 수행한다.The situation evaluation module 230 determines a situation in which the user uses the wearable wearable device based on the criteria stored in the memory 260 or the criteria received from the user. That is, the device usage status of the user is determined based on various criteria, and the system configuration of the device or the signal to be received is determined.

전원 공급부는 제어부(210)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit receives external power and internal power under the control of the controller 210, and supplies power necessary for operation of the respective components.

음성인식부(220)는 자동적 수단에 의하여 음성으로부터 언어적 의미 내용을 식별하는 기능을 수행한다. 구체적으로 음성파형을 입력하여 단어나 단어열을 식별하고 의미를 추출하는 처리 과정이며, 크게 음성 분석, 음소 인식, 단어 인식, 문장 해석, 의미 추출의 5가지로 분류된다. 음성인식부(220)는 저장된 음성과 입력된 음성이 동일한지 비교하는 음성평가모듈을 더 포함할 수 있다. 또한, 음성인식부(220)는 입력된 음성을 텍스트로 변환하거나, 텍스트를 음성으로 변환하는 음성-텍스트변환모듈(240)도 더 포함할 수 있다.The speech recognition unit 220 performs a function of recognizing verbally meaningful contents from the speech by automatic means. Specifically, a speech waveform is input to identify a word or a word sequence, and a meaning is extracted. The process is largely divided into voice analysis, phoneme recognition, word recognition, sentence analysis, and semantic extraction. The voice recognition unit 220 may further include a voice evaluation module that compares the stored voice with the input voice. The voice recognition unit 220 may further include a voice-to-text conversion module 240 that converts the input voice to text or converts the voice to voice.

이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템 및 인식방법에 대해 설명하기로 한다.Hereinafter, an acquaintance recognition system and a recognition method using a glass-like wearable device according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인인식방법에 대한 순서도이다.FIG. 1 is a flowchart of a recognition method using a wearable device of a glass type according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식방법은, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 단계(S100); 상기 영상 또는 이미지에서 얼굴영역을 추출하는 단계(S200); 상기 추출된 얼굴영역에서 특징정보를 추출하는 단계(S300); 상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 인식하는 단계(S400); 및 사용자에게 상기 상대방에 해당하는 지인을 알리는 단계(S500);를 포함한다. 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식방법을 순서대로 설명한다.Referring to FIG. 1, an acquaintance recognition method using a glass-like wearable device according to a preferred embodiment of the present invention includes acquiring an image or an image including a face of the other party (S100); Extracting a face region from the image or image (S200); Extracting feature information from the extracted face region (S300); Comparing the extracted feature information with the feature information of the face of the user and recognizing an acquaintance corresponding to the partner (S400); And informing the user of the name of the other party (S500). A recognition method using a glass-like wearable device according to an embodiment of the present invention will be described in order.

상대방의 얼굴이 포함된 영상 또는 이미지를 획득한다(S100). 상기 글라스형 웨어러블 디바이스의 전면부 일측에 구비되어 사용자의 정면의 영상 또는 이미지를 획득하는 제1카메라(121)가, 도 3에서와 같이, 사용자가 주시하는 방향의 상대방의 얼굴을 포함한 영상 또는 이미지를 획득한다.The image or the image including the face of the other party is obtained (S100). The first camera 121 provided at one side of the front portion of the glass-like wearable device to acquire an image or an image of the front of the user may be an image or image including a face of the other side in a direction viewed by the user, .

상기 제1카메라(121)는, 사용자의 음성입력, 터치명령, 눈깜박임, 제스처 중 적어도 하나 이상에 의해 조작할 수 있다. 상기 사용자의 음성입력에 의한 조작은, 음성입력부(113)에 의해 사용자의 음성이 입력되고, 음성인식부(220)가 입력된 사용자 음성의 의미를 인식하여 상기 제1카메라(121)에게 명령하는 방식이다. 상기 사용자의 터치명령에 의한 조작은, 사용자가 상기 글라스형 웨어러블 디바이스의 일측에 구비된 상기 터치부(114)를 터치조작하여, 상기 터치조작에 해당하는 명령을 상기 제1카메라(121)에 전달하여 구동하도록 하는 방식이다. 상기 사용자의 눈깜박임에 의한 조작은, 상기 글라스형 웨어러블 디바이스의 일측에 구비되어 사용자 동공방향의 영상 또는 이미지를 획득하는 제2카메라(122)가 사용자의 눈깜박임을 인식하고, 상기 눈깜박임에 해당하는 명령을 상기 제1카메라(121)에 전달하여 구동하도록 하는 방식이다. 상기 사용자의 제스처에 의한 조작은, 상기 글라스형 웨어러블 디바이스에 구비된 상기 모션센서에 의한 사용자의 고개움직임을 인식하거나, 상기 제1카메라(121)가 사용자의 특정 손 제스처를 인식하여, 인식한 제스처에 해당하는 명령을 상기 제1카메라(121)에 전달하여 상기 영상 또는 이미지를 입력받도록 하는 방식이다.The first camera 121 can be operated by at least one of a voice input of a user, a touch command, a blink of an eye, and a gesture. The operation by the user's voice input is performed by inputting the user's voice by the voice input unit 113 and recognizing the meaning of the user voice inputted by the voice recognition unit 220 and instructing the first camera 121 Method. The operation by the user's touch command is performed by a user touching the touch unit 114 provided at one side of the glass-like wearable device and transmitting a command corresponding to the touch operation to the first camera 121 . The operation by the blinking of the user is performed by the second camera 122, which is provided at one side of the glass-type wearable device and acquires the image or the image of the user's pupil direction, recognizes the blink of the user's eye, And transmits the command to the first camera 121 to drive the camera. The operation by the gesture of the user may be performed by recognizing movement of the user's head by the motion sensor provided in the glass-like wearable device or by recognizing the user's specific hand gesture by the first camera 121, To the first camera 121 to receive the image or the image.

상기 영상 또는 이미지에서 얼굴영역을 추출한다(S200). 얼굴 추출(또는 검출)이란, 주어진 임의의 영상 또는 이미지에서 인간의 얼굴이 존재하는지 판단하고 만약 존재한다면 각각의 사람이 존재하고 있는 위치와 범위를 결정하는 것을 말한다. 얼굴 추출방법에는, 인간에 대한 사전지식으로부터 유추된 사람 요소간의 규칙을 이용하여 사람을 검출하는 지식 기반 방법 (Knowledge-based method), 인간의 포즈, 관찰시점이나 조명의 변화에도 무관한 사람 형태의 구조적인 특징치(Facial Features, Texture, Skin, Multiple Features 등)를 사전에 추출하고 입력영상에 존재하는 특징치를 검색 및 분류하여 작업을 통해 얼굴을 검출하는 불변 특징 접근법(Feature invariant approach), 사람을 형성하는 표준 패턴을 기술한 후 입력 영상과의 상관관계를 추출하여 이용한 템플릿 정합법(템플레이트 매칭 기법; Template matching method), 및 여러 개의 사람 형태의 학습 영상으로부터 얼굴 형태의 표현 방식을 추출하여 이용한 외형기반 얼굴인식방법(Appearance-based method) 등과 같이 다양한 기법들이 존재하고 있다. 이러한 다양한 기법들이 적용되어 얼굴영역 추출을 수행할 수 있다. 다만, 얼굴영역 추출방법은 기 제시된 방법에 한정되지 않고, 이외의 다양한 기법 및 여러 기법 간 상호 보완에 의해 구현될 수 있다.A face region is extracted from the image or image (S200). Face extraction (or detection) refers to determining whether a human face exists in a given arbitrary image or image, and, if so, determining the position and range in which each person exists. The face extraction method includes a knowledge-based method for detecting a person using rules between human factors derived from a prior knowledge of human, a human pose, a person-type Feature invariant approach that extracts structural features (Facial Features, Texture, Skin, Multiple Features, etc.) in advance and detects faces by searching and classifying characteristic values in input image, (Template matching method) that extracts the correlation with the input image after describing the standard pattern to be formed and extracts the expression form of the face form from several human type learning images, Based face recognition method (Appearance-based method). These various techniques can be applied to perform facial region extraction. However, the face region extraction method is not limited to the proposed method, but can be implemented by mutually complementing various other techniques and various techniques.

상기 추출된 얼굴영역에서 얼굴인식을 위해 특징정보를 추출한다(S300).Feature information is extracted for face recognition in the extracted face area (S300).

상기 얼굴인식은 상기 추출된 얼굴영역으로부터 얼굴 영상 또는 이미지에 대한 특징정보를 추출하여 누구의 얼굴인지 감별하는 과정으로, 다양한 얼굴인식 알고리즘이 발달해왔다. 여기서, 상기 특징정보는 얼굴의 영상 또는 이미지에 포함된 소정 얼굴에 대한 고유한 특성을 나타내는 정보를 말한다. 예를 들어, 특징정보 추출에는 주성분분석법(Principal Component Analysis; PCA), Linear Discriminate Analysis(LDA) 등이 선택되어 사용될 수 있다. 다른 예로서, 2차원의 영상 행렬을 기반으로 얼굴영상의 특징정보를 추출할 수 있는 2-Dimensional Principal Component Analysis(2D-PCA) 기법을 이용할 수 있다. 2D-PCA 기법은 일반적인 PCA 기법에 비하여 프로젝션 행렬의 크기가 작아지므로, 이로 인하여 연산량 및 필요 메모리를 상대적으로 낮출 수 있기에 휴대용 장치, 저사양의 임베디드 시스템 등에 용이하게 적용될 수 있다. 따라서, 짧은 시간 내에 얼굴 인식이 가능하여 실시간으로 얼굴 인식이 이루어질 수 있다. 다만, 얼굴영상의 특징정보를 추출하는 방법은 이에 한정되지 않고, 다양한 특징정보 추출방법이 적용될 수 있다.The face recognition is a process of extracting feature information of a face image or an image from the extracted face region to discriminate the face of the person. Various face recognition algorithms have been developed. Here, the feature information refers to information indicating a unique characteristic of a predetermined face included in a face image or an image. For example, Principal Component Analysis (PCA) and Linear Discriminate Analysis (LDA) can be selected and used for feature information extraction. As another example, a 2-Dimensional Principal Component Analysis (2D-PCA) technique capable of extracting feature information of a facial image based on a two-dimensional image matrix can be used. Since the 2D-PCA technique has a smaller size of the projection matrix than the conventional PCA technique, it can be easily applied to a portable device and a low-end embedded system because the computation amount and required memory can be relatively lowered. Therefore, face recognition can be performed in a short time, and face recognition can be performed in real time. However, the method of extracting the feature information of the face image is not limited to this, and various feature information extraction methods can be applied.

상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 인식한다(S400). 상기 추출된 특징정보와 상기 글라스형 웨어러블 디바이스 또는 외부서버(400) 내에 저장된 지인의 얼굴 이미지의 특징정보를 비교하여 상기 입력 영상 또는 이미지에 포함된 얼굴이 누구인지 인식한다. 추출된 특징정보와 상기 디바이스에 저장된 지인의 얼굴이미지의 특징정보 사이에서의 거리차가 임계치 내인 경우에 상기 추출된 얼굴영역과 상기 상기 디바이스에 저장된 지인의 얼굴을 동일인의 얼굴로 인식할 수 있다. The extracted feature information is compared with the stored feature information of the face of the acquaintance, and an acquaintance corresponding to the opponent is recognized (S400). The extracted feature information is compared with the feature information of the face image of the acquaintance stored in the glass-like wearable device or the external server 400 to recognize the face included in the input image or the image. If the distance difference between the extracted feature information and the feature information of the face image of the acquaintance stored in the device is within the threshold value, the extracted face region and the face of the acquaintance stored in the device can be recognized as the same face.

상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 파악하는 단계는, 상기 글라스형 웨어러블 디바이스의 제어부(210) 또는 외부서버(400)에서 수행될 수 있다. 즉, 상기 외부서버(400)에서 상기 상대방에 해당하는 지인을 파악하는 경우, 상기 글라스형 웨어러블 디바이스로부터 상기 추출된 특징정보를 무선통신을 통해 외부서버(400)가 전송받고, 상기 추출된 특징정보를 바탕으로 상기 외부서버(400)에 저장된 지인의 얼굴 이미지 중 상대방에 해당하는 얼굴 이미지를 탐색한다.The step of comparing the extracted feature information with the feature information of the stored face information and determining an acquaintance of the other party can be performed by the control unit 210 or the external server 400 of the glass-like wearable device . That is, when the external server 400 grasps an acquaintance corresponding to the other party, the external server 400 receives the extracted feature information from the wearable device via wireless communication, A face image corresponding to the other of the face images of the acquaintances stored in the external server 400 is searched.

또한, 상기 저장된 지인 얼굴의 특징정보는, 외부서버(400) 또는 상기 글라스형 웨어러블 디바이스의 저장부(260)에 저장된 지인의 사진에서 특징을 추출하여 저장해두고, 상기 상대방에 해당하는 지인 인식은, 상기 외부서버(400) 또는 상기 글라스형 웨어러블 디바이스에서 상기 추출된 상대방 얼굴사진의 특징정보와 동일한 특징정보를 포함하는 지인을 탐색할 수 있다.In addition, the feature information of the stored face is extracted and stored in the photograph of the acquaintance stored in the external server 400 or the storage unit 260 of the glass-like wearable device, It is possible to search for an acquaintance including the same feature information as the feature information of the extracted face image of the other party in the external server 400 or the glass type wearable device.

사용자에게 상기 상대방에 해당하는 지인을 알려준다(S500). 상기 사용자에게 상기 상대방에 해당하는 지인을 알리는 단계는, 상대방에 해당하는 지인의 사진 또는 이름을 디스플레이 상에 표시하는 방식, 음향출력으로 상대방에 해당하는 지인의 이름을 알리는 방식, 상기 글라스형 웨어러블 디바이스와 연동된 외부 디바이스의 디스플레이 상에 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 방식 중 적어도 하나 이상에 의해 수행될 수 있다.And informs the user of the corresponding party (S500). The step of informing the user of an acquaintance corresponding to the other party may include a method of displaying a photograph or name of an acquaintance corresponding to the other party on the display, a method of announcing the name of an acquaintance corresponding to the other party through sound output, And a method of displaying a photograph or name of an acquaintance corresponding to the other party on the display of the external device interlocked with the external device.

또한, 본 발명의 일실시예는 상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 단계;를 포함할 수 있다. 상기 지인에 대한 정보는, 직업, 학교, 나이, 지인을 알게 된 배경, 관심사, 공통으로 아는 지인 등을 포함할 수 있다. 도 4에서 상대방에 해당하는 지인의 정보를 표시한 도면을 도시한다.Also, an embodiment of the present invention may include the step of providing the user with information on an acquaintance corresponding to the other party. The information on the acquaintance may include a job, a school, an age, a background in acquaintance, interest, common knowledge, and the like. FIG. 4 shows a diagram showing information of an acquaintance corresponding to the other party.

도 5는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스 및 외부서버(400)를 이용한 지인 인식시스템의 구성도이다. 다만, 도 5에 있어서, 기 설명한 구성에 대한 구체적인 설명은 생략하기로 한다.5 is a configuration diagram of a recognition system using a glass-like wearable device and an external server 400 according to an embodiment of the present invention. In FIG. 5, a detailed description of the configuration described above will be omitted.

도 5를 참조하면, 본 발명의 다른 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템은, 글라스형 웨어러블 디바이스; 및 외부서버(400);로 구성된다. 상기 글라스형 웨어러블 디바이스는 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하고, 상기 영상 또는 이미지 내의 상대방 얼굴에서 특징정보를 추출하여 외부서버(400)로 전송하며, 외부서버(400)로부터 상기 상대방에 해당하는 지인 데이터를 수신하여 사용자에게 알려준다. 상기 외부서버(400)는 상기 사용자의 지인 얼굴 사진을 저장하고, 수신된 상기 추출된 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하여 무선통신을 통해 상기 글라스형 웨어러블 디바이스로 제공한다.Referring to FIG. 5, a recognition system using a glass-type wearable device according to another embodiment of the present invention includes a glass-type wearable device; And an external server 400. The glass-type wearable device acquires an image or an image including a face of the other party, extracts feature information from the face of the other face in the image or image, transmits the extracted feature information to the external server 400, And notifies the user of the corresponding data. The external server 400 stores a photograph of a face of the user, identifies an acquaintance corresponding to the other party based on the extracted feature information, and provides the acquired information to the wearable device via wireless communication.

상기 글라스형 웨어러블 디바이스는, 제1카메라(121); 무선통신부(250); 제어부(210); 및 출력부(300);를 포함한다. The wearable type wearable device includes a first camera (121); A wireless communication unit 250; A control unit 210; And an output unit 300.

상기 제1카메라(121)는 상기 글라스형 웨어러블 디바이스의 전면부 일측에 구비되어 사용자의 정면의 영상 또는 이미지를 획득하는 카메라로, 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 기능을 수행한다. The first camera 121 is provided at one side of the front portion of the glass-type wearable device, and acquires a video or an image of a face of the user.

상기 무선통신부(250)는 상기 외부서버(400)와 정보교환을 행하는 기능을 수행한다. 즉, 상기 무선통신부(250)는 상기 영상 또는 이미지 내에서 추출된 상대방 얼굴의 특징정보를 상기 외부서버(400)로 전송하는 기능을 수행한다. 또한, 사용자에게 출력할 상대방에 해당하는 지인의 사진 또는 성명 등의 정보를 상기 외부서버(400)로부터 수신하는 기능을 수행한다.The wireless communication unit 250 performs a function of exchanging information with the external server 400. That is, the wireless communication unit 250 transmits the feature information of the face of the other party extracted in the image or image to the external server 400. In addition, it performs a function of receiving, from the external server 400, information such as a photograph or name of an acquaintance corresponding to the other party to be output to the user.

상기 제어부(210)는 얼굴영역추출부(211); 및 특징추출부(211);를 포함한다. 상기 얼굴영역추출부(211)는 상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 기능을 수행한다. 상기 특징추출부(211)는 추출된 상대방의 얼굴영역에서 특징정보를 추출하는 기능을 수행한다. The control unit 210 includes a face area extracting unit 211; And a feature extraction unit 211. The face region extracting unit 211 extracts a face region of the opposite face in the image or image. The feature extraction unit 211 extracts feature information from the extracted face region of the other party.

상기 출력부(300)는 상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 기능을 수행한다. 상기 출력부(300)는 디스플레이부(310) 또는 음향출력부(320)를 포함할 수 있다. 상기 디스플레이부(310)는 상기 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 기능을 수행한다. 상기 음향출력부(320)는 상대방에 해당하는 지인의 이름을 알리는 기능을 수행한다.The output unit 300 functions to inform the user of an acquaintance corresponding to the other party. The output unit 300 may include a display unit 310 or an audio output unit 320. The display unit 310 displays a picture or name of an acquaintance corresponding to the other party. The sound output unit 320 performs a function of notifying the name of an acquaintance corresponding to the other party.

또한, 상기 글라스형 웨어러블 디바이스는 음성입력부(113); 및 음성인식부(220);를 더 포함할 수 있다. 상기 음성입력부(113)는 상기 제1카메라(121)의 조작을 위해 음성명령을 입력받는 기능을 수행한다. 상기 음성인식부(220)는 상기 음성입력부(113)에 의해 입력된 사용자 음성명령의 의미를 파악하는 기능을 수행한다. 예를 들어, 사용자는 상대방을 아는 척하는 일반적인 멘트를 하고, 상기 멘트가 제1카메라(121)가 영상 또는 이미지를 획득하도록 하는 음성명령이 되도록 할 수 있다. 이에 따라 상기 멘트를 상기 음성입력부(113)가 입력받고, 상기 멘트의 의미를 상기 음성인식부(220)가 파악하여 상기 제1카메라(121) 작동을 명령하는 음성명령임을 인식할 수 있다.The wearable wearable device includes an audio input unit 113; And a speech recognition unit 220. The voice input unit 113 receives a voice command for the operation of the first camera 121. The voice recognition unit 220 recognizes the meaning of the user voice command input by the voice input unit 113. [ For example, the user may make a general statement pretending to know the other party, and the reminder may be a voice command that causes the first camera 121 to acquire images or images. Accordingly, it is possible to recognize that the voice is input to the voice input unit 113, and the voice recognition unit 220 grasps the meaning of the voice, and commands the operation of the first camera 121.

또한, 상기 글라스형 웨어러블 디바이스는, 상기 제1카메라(121)의 조작을 위해, 터치부(114); 또는 제2카메라(122);를 더 포함할 수 있다. 상기 터치부(114)는 사용자의 터치명령을 입력받기 위한 조작 인터페이스를 제공하는 기능을 수행한다. 상기 제2카메라(122)는 상기 글라스형 웨어러블 디바이스의 일측에 구비되어 사용자의 동공방향의 영상 또는 이미지를 획득하는 카메라로, 사용자의 눈깜박임에 의한 조작명령을 입력받는 기능을 수행한다. 예를 들어, 사용자는 상기 글라스형 웨어러블 디바이스의 일측에 구비된 터치부(114)를 세 번 터치하면, 상기 제1카메라(121)를 통해 상기 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하여, 지인을 탐색하도록 할 수 있다. 또한, 사용자가 눈을 다섯 번 연속으로 깜박이면, 이를 상기 제2카메라(122)가 인식하여 상기 제1카메라(121)가 상기 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하도록 할 수 있다. The wearable wearable device may further include a touch unit 114 for operating the first camera 121; Or a second camera 122, as shown in FIG. The touch unit 114 functions to provide an operation interface for receiving a touch command of a user. The second camera 122 is provided at one side of the glass-type wearable device and acquires images or images in the pupil direction of the user. The second camera 122 functions to receive an operation command by blinking the user's eyes. For example, when the user touches the touch part 114 provided on one side of the glass-type wearable device three times, the user acquires the image or the image including the face of the other party through the first camera 121, It is possible to search for an acquaintance. In addition, if the user blinks five consecutive times, the second camera 122 recognizes the blinking of the eyes, and the first camera 121 can acquire an image or an image including the face of the other party.

또한, 본 발명의 일실시예의 상기 외부서버(400)는, 저장부(410); 무선통신부(420); 얼굴인식부(430);를 포함할 수 있다.In addition, the external server 400 of the embodiment of the present invention includes a storage unit 410; A wireless communication unit 420; And a face recognition unit 430. [

상기 저장부(410)는 상기 사용자의 지인 얼굴 사진을 저장하는 기능을 수행한다. 또한, 상기 저장부(410)는 사용자의 지인에 대한 정보를 저장할 수 있다. 상기 지인에 대한 정보는, 직업, 학교, 나이, 지인을 알게 된 배경, 관심사, 공통으로 아는 지인 등을 포함할 수 있다. 즉, 사용자가 상기 외부서버(400)의 저장부(410)에 미리 지인의 얼굴사진, 이름 및 그 외의 신상정보를 입력해둘 수 있다. 상기 사용자는 이를 제공받아서 상기 지인을 기억하지 못하지 못했던 것을 숨길 수 있는 효과가 있다.The storage unit 410 stores a face image of the user. In addition, the storage unit 410 may store information on a user's acquaintance. The information on the acquaintance may include a job, a school, an age, a background in acquaintance, interest, common knowledge, and the like. That is, the user can input the face image, name, and other personal information of the acquaintance in advance in the storage unit 410 of the external server 400. The user is provided with the effect of hiding what he did not memorize the acquaintance.

상기 무선통신부(420)는 상기 글라스형 웨어러블 디바이스와 정보교환을 행하는 기능을 수행한다. 즉, 상기 글라스형 웨어러블 디바이스로부터 상기 얼굴의 특징정보를 수신하고, 수신한 상기 수신정보를 바탕으로 파악한 지인의 성명 또는 사진을 상기 글라스형 웨어러블 디바이스로 전송한다.The wireless communication unit 420 performs a function of exchanging information with the glass-type wearable device. That is, the face type feature information is received from the wearable device, and a name or a photograph of an acquaintance grasped based on the received information is transmitted to the wearable device.

상기 얼굴인식부(430)는 수신된 상기 상대방 얼굴 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 기능을 수행한다. 즉, 상기 글라스형 웨어러블 디바이스로부터 무선통신을 통해 수신한 상기 특징정보와 상기 저장부(410)에 저장된 지인의 얼굴사진에서 추출된 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 탐색한다. The face recognizing unit 430 recognizes an acquaintance corresponding to the other party based on the received facial feature information. That is, the feature information received through the wireless communication from the glass-like wearable device is compared with the feature information extracted from the face photograph of the acquaintance stored in the storage unit 410 to search for an acquaintance corresponding to the other party.

도 6은 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템의 구성도이다. 다만, 도 6에 있어서, 기 설명한 구성에 대한 구체적인 설명은 생략하기로 한다.6 is a configuration diagram of a recognition system using a wearable device of a glass type according to an embodiment of the present invention. In FIG. 6, a detailed description of the configuration described above will be omitted.

도 6을 참조하면, 본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템은, 제1카메라(121); 제어부(210); 저장부(260); 및 출력부(300);를 포함한다.Referring to FIG. 6, a recognition system using a glass-like wearable device according to another embodiment of the present invention includes a first camera 121; A control unit 210; A storage unit 260; And an output unit 300.

상기 제1카메라(121)는 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 기능을 수행한다.The first camera 121 performs a function of acquiring an image or an image including a face of the other party.

상기 제어부(210)는 얼굴영역추출부(211); 특징추출부(211); 얼굴인식부(213);를 포함한다.The control unit 210 includes a face area extracting unit 211; A feature extraction unit 211; And a face recognition unit 213.

상기 얼굴영역추출부(211)는 상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 기능을 수행한다. 상기 얼굴영역추출부(211)는 각각의 입력 영상 또는 이미지로부터 대략적인 얼굴을 검출한 후에 얼굴 내의 특정 구성요소인 눈, 코, 입 등을 추출하고, 이를 바탕으로 소정의 얼굴 영역을 추출할 수 있다.The face region extracting unit 211 extracts a face region of the opposite face in the image or image. The facial region extracting unit 211 extracts a specific facial component such as eyes, nose, mouth, and the like from each input image or image and then extracts a predetermined facial region have.

예를 들어, 두 눈의 위치가 검출되었다면, 두 눈의 거리를 구할 수 있다. 상기 얼굴영역추출부(211)는 두 눈 사이의 거리에 기초하여 입력 영상 또는 이미지에서 얼굴 영역을 얼굴영상으로 추출할 수도 있으며, 이로써 입력 영상 또는 이미지의 배경 혹은 사람의 머리 스타일의 변화 등에 대한 영향을 줄일 수 있다.For example, if the position of two eyes is detected, the distance between the two eyes can be obtained. The face region extraction unit 211 may extract the face region from the input image or image based on the distance between the two eyes as a face image, .

다만, 상기 얼굴영역추출부(211)의 얼굴영역을 추출하는 방법은 이에 한정되지 않고, 기 제시된 템플레이트 매칭기법, 지식기반 방법, 외형기반 얼굴인식방법 등 다양한 방법이 적용될 수 있다.However, the method of extracting the face region of the face region extraction unit 211 is not limited to this, and various methods such as the template matching method, the knowledge based method, and the outline based face recognition method may be applied.

상기 특징추출부(211)는 추출된 얼굴영역에서 특징정보를 추출하는 기능을 수행한다. 상기 얼굴인식부(213)는 상기 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 기능을 수행한다.The feature extraction unit 211 extracts feature information from the extracted face region. The face recognition unit 213 performs a function of recognizing an acquaintance corresponding to the other party based on the feature information.

상기 저장부(260)는 상기 사용자의 지인 얼굴 사진을 저장하는 기능을 수행한다. The storage unit 260 stores a face image of the user.

상기 출력부(300)는 상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 기능을 수행한다. 상기 출력부(300)는, 디스플레이부(310); 또는 음향출력부(320);를 포함할 수 있다.The output unit 300 functions to inform the user of an acquaintance corresponding to the other party. The output unit 300 includes a display unit 310; Or an audio output unit 320. [0033] FIG.

또한, 상기 저장부(260)는, 사용자의 지인에 대한 정보를 저장하는 것을 특징으로 하고; 상기 출력부(300)는, 상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 것을 특징으로 할 수 있다. 또한, 상기 지인에 대한 정보는, 직업, 학교, 나이, 지인을 알게 된 배경, 관심사, 공통으로 아는 지인 등을 포함할 수 있다.
In addition, the storage unit 260 may store information on the acquaintance of the user. The output unit 300 may provide the user with information about the acquaintance corresponding to the other party. The information on the acquaintances may include a job, a school, an age, a background where acquaintances are known, interests, common knowledge, and the like.

본 발명에 따르면, 갑자기 사용자를 아는 척하는 사람이 누구인지 기억나지 않는 경우, 본 발명이 사용자에게 상대방이 누구인지 알려주므로 지인을 기억하지 못해서 미안해지거나 난처해지는 상황을 없앨 수 있다.According to the present invention, when the user suddenly does not remember who pretends to know the user, the present invention can inform the user of who the other party is and can eliminate the situation of being sorry or embarrassed because they can not remember their acquaintances.

또한, 상대방의 얼굴은 기억나지만 이름이 기억나지 않는 경우에도 상대방의 이름 정보를 빠르게 제공받을 수 있어서, 이름을 기억하지 못해서 발생할 수 있는 문제를 예방할 수 있다.In addition, even if the face of the other party is remembered but the name is not remembered, the name information of the other party can be quickly provided, thereby preventing a problem that may occur due to the failure to memorize the name.

또한, 길거리에서 자신이 아는 사람인지 불명확하여 아는 척을 하지 못하는 경우가 종종 있다. 이 경우에도 상대방의 근거리에서 상기 상대방의 얼굴이 포함된 영상 또는 이미지를 획득하기만 하면 사용자가 아는 지인인지 판단할 수 있다.Also, on the streets, it is often unclear whether you are a person you know and can not pretend to know. In this case, it is possible to judge whether the user knows only if the image or the image including the face of the other party is obtained in the vicinity of the other party.

즉, 상기 글라스형 웨어러블 디바이스의 저장부 또는 상기 외부서버의 저장부에 지인의 얼굴사진과 신상정보를 미리 저장해두기만 하면, 본 발명에 의해서 실시간으로 상대방이 누구인지 인식할 수 있다.
That is, if a face photograph and personal information of an acquaintance are stored in advance in the storage unit of the glass-like wearable device or the storage unit of the external server, the present invention can recognize the other party in real time by the present invention.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100 : 시스템 110 : 사용자입력부
111 : 어플리케이션 112 : 키보드
113 : 음성입력부 114 : 터치패드
115 : GPS신호부 116 : 근거리통신
120 : 카메라부 121 : 제1카메라
122 : 제2카메라 123 : 제3카메라
130 : 센싱부 131 : 자이로센서
132 : 가속도센서 133 : 압력센서
134 : 홍체인식센서 135 : 심박검출센서
136 : 근전도센서
210 : 제어부 211 : 얼굴영역추출부
212 : 특징추출부 213 : 얼굴인식부
220 : 음성인식부
230 : 상황평가모듈 240 : 음성-텍스트변환모듈
250 : 무선통신부 260 : 메모리
270 : 인터페이스부
300 : 출력부 310 : 디스플레이부
320 : 음향출력부 330 : 알람부
340 : 햅틱모듈
400 : 외부서버 410 : 저장부
420 : 무선통신부 430 : 얼굴인식부
100: system 110: user input
111: Application 112: Keyboard
113: voice input unit 114: touch pad
115: GPS signal unit 116: Local area communication
120: camera unit 121: first camera
122: second camera 123: third camera
130: sensing unit 131: gyro sensor
132: acceleration sensor 133: pressure sensor
134: iris recognition sensor 135: heart rate detection sensor
136: EMG sensor
210: control unit 211: face region extracting unit
212: Feature extraction unit 213: Face recognition unit
220: voice recognition unit
230: situation evaluation module 240: voice-to-text conversion module
250: wireless communication unit 260: memory
270:
300: output unit 310: display unit
320: Acoustic output unit 330:
340: Haptic module
400: external server 410: storage unit
420: wireless communication unit 430: face recognition unit

Claims (14)

상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 단계;
상기 영상 또는 이미지에서 얼굴영역을 추출하는 단계;
상기 추출된 얼굴영역에서 특징정보를 추출하는 단계;
상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 인식하는 단계; 및
사용자에게 상기 상대방에 해당하는 지인을 알리는 단계;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식방법.
Obtaining an image or an image including a face of the other party;
Extracting a face region from the image or image;
Extracting feature information from the extracted face region;
Comparing the extracted feature information with feature information of a face of a user and recognizing an acquaintance corresponding to the partner; And
And informing the user of an acquaintance corresponding to the other party.
제1항에 있어서,
상기 추출된 특징정보와 저장된 지인 얼굴의 특징정보를 비교 판단하여, 상기 상대방에 해당하는 지인을 파악하는 단계는,
상기 글라스형 웨어러블 디바이스의 제어부 또는 외부서버에서 수행되는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 지인 인식방법.
The method according to claim 1,
Comparing the extracted feature information with feature information of a face of a user and determining an acquaintance corresponding to the partner,
Wherein the recognition is performed by a controller of the glass-type wearable device or an external server.
제1항에 있어서,
상기 사용자에게 상기 상대방에 해당하는 지인을 알리는 단계는,
상대방에 해당하는 지인의 사진 또는 이름을 디스플레이 상에 표시하는 방식, 음향출력으로 상대방에 해당하는 지인의 이름을 알리는 방식, 상기 글라스형 웨어러블 디바이스와 연동된 외부 디바이스의 디스플레이 상에 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 방식 중 적어도 하나 이상에 의해 수행되는 글라스형 웨어러블 디바이스를 이용한 지인 인식방법.
The method according to claim 1,
The step of informing the user of an acquaintance corresponding to the other party,
A method of displaying a photograph or name of an acquaintance corresponding to the opponent on a display, a method of announcing the name of an acquaintance corresponding to the opponent with an acoustic output, a method of acquiring an acquaintance And a method of displaying a photograph or a name of the wearable device.
제1항에 있어서,
상기 저장된 지인 얼굴의 특징정보는,
외부서버 또는 상기 글라스형 웨어러블 디바이스의 저장부에 저장된 지인의 사진에서 특징을 추출하여 저장해두는 것을 특징으로 하고,
상기 상대방에 해당하는 지인 인식은,
상기 외부서버 또는 상기 글라스형 웨어러블 디바이스에서 상기 추출된 상대방 얼굴사진의 특징정보와 동일한 특징정보를 포함하는 지인을 탐색하는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 지인 인식방법.
The method according to claim 1,
The feature information of the face,
Characterized in that the feature is extracted from a photograph of an acquaintance stored in an external server or a storage unit of the glass-like wearable device,
The recognition of an acquaintance corresponding to the other party,
Wherein the acquaintance searching unit searches for an acquaintance including the same feature information as the feature information of the extracted facial face photograph in the external server or the glass wearable device.
제1항에 있어서,
상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 단계;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식방법.
The method according to claim 1,
And providing information on an acquaintance corresponding to the other party to a user.
상대방의 얼굴이 포함된 영상 또는 이미지를 획득하고, 상기 영상 또는 이미지 내의 상대방 얼굴에서 특징정보를 추출하여 외부서버로 전송하며, 외부서버로부터 상기 상대방에 해당하는 지인 데이터를 수신하여 사용자에게 알려주는 글라스형 웨어러블 디바이스; 및
상기 사용자의 지인 얼굴 사진을 저장하고, 수신된 상기 추출된 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하여 무선통신을 통해 상기 글라스형 웨어러블 디바이스로 제공하는 외부서버;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
And transmits the extracted feature information to the external server. The external information is received from the external server, and the received information is displayed on a glass Wearable device; And
And an external server that stores a face image of the user and acquires an acquaintance corresponding to the partner on the basis of the extracted feature information and provides the acquaintance to the wearable device through wireless communication, Identification system using device.
제6항에 있어서,
상기 글라스형 웨어러블 디바이스는,
상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 제1카메라;
상기 외부서버와 정보교환을 행하는 무선통신부;
상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 얼굴영역추출부, 및 추출된 얼굴영역에서 특징정보를 추출하는 특징추출부를 포함하는 제어부; 및
상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 출력부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
The method according to claim 6,
The wearable wearable device of claim 1,
A first camera for acquiring an image or an image including a face of the other party;
A wireless communication unit for exchanging information with the external server;
A face region extracting unit for extracting a face region of the opposite side in the image or the image, and a feature extracting unit extracting the feature information from the extracted face region; And
And an output unit for informing the user of an acquaintance corresponding to the other party.
제7항에 있어서,
상기 출력부는,
상기 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 디스플레이부; 또는 상대방에 해당하는 지인의 이름을 알리는 음향출력부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
8. The method of claim 7,
The output unit includes:
A display unit for displaying a picture or name of an acquaintance corresponding to the other party; And a sound output unit for notifying a name of an acquaintance corresponding to the other party.
제6항에 있어서,
상기 외부서버는,
상기 사용자의 지인 얼굴 사진을 저장하는 저장부;
상기 글라스형 웨어러블 디바이스와 정보교환을 행하는 무선통신부; 및
수신된 상기 상대방 얼굴 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 얼굴인식부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
The method according to claim 6,
The external server comprises:
A storage unit for storing a face photograph of the user;
A wireless communication unit for exchanging information with the wearable device; And
And a face recognizing unit for recognizing an acquaintance corresponding to the other party on the basis of the received facial feature information.
제6항에 있어서,
상기 저장부는,
사용자의 지인에 대한 정보를 저장하는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
The method according to claim 6,
Wherein,
And the information about the acquaintance of the user is stored.
상대방의 얼굴이 포함된 영상 또는 이미지를 획득하는 제1카메라;
상기 영상 또는 이미지 내의 상대방 얼굴영역을 추출하는 얼굴영역추출부, 추출된 얼굴영역에서 특징정보를 추출하는 특징추출부, 및 상기 특징정보를 바탕으로 상기 상대방에 해당하는 지인을 파악하는 얼굴인식부를 포함하는 제어부;
상기 사용자의 지인 얼굴 사진을 저장하는 저장부; 및
상기 사용자에게 상기 상대방에 해당하는 지인을 알려주는 출력부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
A first camera for acquiring an image or an image including a face of the other party;
A face region extracting unit for extracting a face region of the opposite side in the image or image, a feature extracting unit for extracting the feature information from the extracted face region, and a face recognizing unit for recognizing an acquaintance corresponding to the opposite side based on the feature information ;
A storage unit for storing a face photograph of the user; And
And an output unit for informing the user of an acquaintance corresponding to the other party.
제11항에 있어서,
상기 출력부는,
상기 상대방에 해당하는 지인의 사진 또는 이름을 표시하는 디스플레이부; 또는 상대방에 해당하는 지인의 이름을 알리는 음향출력부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
12. The method of claim 11,
The output unit includes:
A display unit for displaying a picture or name of an acquaintance corresponding to the other party; And a sound output unit for notifying a name of an acquaintance corresponding to the other party.
제11항에 있어서,
상기 저장부는,
사용자의 지인에 대한 정보를 저장하는 것을 특징으로 하고;
상기 출력부는,
상기 상대방에 해당하는 지인에 대한 정보를 사용자에게 제공하는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
12. The method of claim 11,
Wherein,
And stores information on the acquaintance of the user;
The output unit includes:
And provides the user with information on an acquaintance corresponding to the other party to the user.
제13항에 있어서,
상기 지인에 대한 정보는,
직업, 학교, 나이, 지인을 알게 된 배경, 관심사, 공통으로 아는 지인 중 적어도 하나 이상을 포함하는 글라스형 웨어러블 디바이스를 이용한 지인 인식시스템.
14. The method of claim 13,
The information on the acquaintance may be,
A wearable recognition system using a wearable wearable device including at least one of a job, a school, an age, an acquaintance's background, interests, and common knowledge.
KR1020140098307A 2014-07-21 2014-07-31 System and method for recognition acquaintance by wearable glass device KR102224985B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140098307A KR102224985B1 (en) 2014-07-31 2014-07-31 System and method for recognition acquaintance by wearable glass device
PCT/KR2015/007581 WO2016013858A2 (en) 2014-07-21 2015-07-21 System and method for processing information using wearable device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140098307A KR102224985B1 (en) 2014-07-31 2014-07-31 System and method for recognition acquaintance by wearable glass device

Publications (2)

Publication Number Publication Date
KR20160015704A true KR20160015704A (en) 2016-02-15
KR102224985B1 KR102224985B1 (en) 2021-03-10

Family

ID=55356600

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140098307A KR102224985B1 (en) 2014-07-21 2014-07-31 System and method for recognition acquaintance by wearable glass device

Country Status (1)

Country Link
KR (1) KR102224985B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022033135A (en) * 2016-10-07 2022-02-28 ソニーグループ株式会社 Server, client terminal, control method and program
KR20230019569A (en) * 2021-08-02 2023-02-09 이일국 Safety helmet for pedestrian with perimeter recognition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100840021B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing face of person included in digital data by using feature data
KR20080085731A (en) * 2007-03-19 2008-09-24 소니 가부시끼 가이샤 Image processing apparatus and image processing method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080085731A (en) * 2007-03-19 2008-09-24 소니 가부시끼 가이샤 Image processing apparatus and image processing method
KR100840021B1 (en) * 2007-11-05 2008-06-20 (주)올라웍스 Method and system for recognizing face of person included in digital data by using feature data

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022033135A (en) * 2016-10-07 2022-02-28 ソニーグループ株式会社 Server, client terminal, control method and program
US11825012B2 (en) 2016-10-07 2023-11-21 Sony Group Corporation Server, client terminal, control method, and storage medium
KR20230019569A (en) * 2021-08-02 2023-02-09 이일국 Safety helmet for pedestrian with perimeter recognition

Also Published As

Publication number Publication date
KR102224985B1 (en) 2021-03-10

Similar Documents

Publication Publication Date Title
US10462568B2 (en) Terminal and vehicle control method of mobile terminal using machine learning
US10593322B2 (en) Electronic device and method for controlling the same
KR101777807B1 (en) Sign language translator, system and method
KR101684264B1 (en) Method and program for the alarm of bus arriving by wearable glass device
KR101835235B1 (en) Apparatus and method for supporting the blind
KR101661555B1 (en) Method and program for restricting photography of built-in camera of wearable glass device
CN109831549A (en) Mobile terminal
KR20160017593A (en) Method and program for notifying emergency exit by beacon and wearable glass device
KR20160015142A (en) Method and program for emergency reporting by wearable glass device
KR20160011302A (en) System and method for digital image processing by wearable glass device
KR101728707B1 (en) Method and program for controlling electronic device by wearable glass device
US11734400B2 (en) Electronic device and control method therefor
KR20160053391A (en) System, method and application for confirmation of identity by wearable glass device
KR102224985B1 (en) System and method for recognition acquaintance by wearable glass device
KR20160024140A (en) System and method for identifying shop information by wearable glass device
KR101629758B1 (en) Method and program with the unlock system of wearable glass device
KR20160025150A (en) System and method for social dating service by wearable glass device
Megalingam et al. Trinetra App: A Companion for the Blind
KR20160023226A (en) System and method for exploring external terminal linked with wearable glass device by wearable glass device
KR102308970B1 (en) System and method for inputting touch signal by wearable glass device
KR20160016216A (en) System and method for real-time forward-looking by wearable glass device
KR101653339B1 (en) System and method for recognizing signal switch by wearable glass device
KR20160053472A (en) System, method and application for confirmation of identity by wearable glass device
KR101661556B1 (en) Method and program for confirmation of identity by wearable glass device
KR101572807B1 (en) Method, apparatus and system for transmitting image signal by wearable device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant