KR20160016149A - System and method for preventing drowsiness by wearable glass device - Google Patents

System and method for preventing drowsiness by wearable glass device Download PDF

Info

Publication number
KR20160016149A
KR20160016149A KR1020140099695A KR20140099695A KR20160016149A KR 20160016149 A KR20160016149 A KR 20160016149A KR 1020140099695 A KR1020140099695 A KR 1020140099695A KR 20140099695 A KR20140099695 A KR 20140099695A KR 20160016149 A KR20160016149 A KR 20160016149A
Authority
KR
South Korea
Prior art keywords
user
alarm
exposure
eyeball
eye
Prior art date
Application number
KR1020140099695A
Other languages
Korean (ko)
Inventor
한성철
엄정한
김진영
이경현
김대중
김석기
유철현
Original Assignee
넥시스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 넥시스 주식회사 filed Critical 넥시스 주식회사
Priority to KR1020140099695A priority Critical patent/KR20160016149A/en
Publication of KR20160016149A publication Critical patent/KR20160016149A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1103Detecting eye twinkling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Dentistry (AREA)
  • Physiology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

The present invention relates to a system and a method for checking taxi riding information using a glasses type wearable device. The method comprises: a step (S100) for obtaining consecutive images of specific time intervals or images around eyes of a user by a second camera (122) of the glasses type wearable device; a step (S200) of measuring an eye exposure range and eye nonexposure time through the obtained images; a step (S300) for determining the state of the user based on the measured eye exposure range and eye nonexposure time; and a step (S400) for generating an alarm for the user when the user is determined that the user is drowsy. According to the present invention, it is possible to wake up the user with various ways of alarms by checking if the user is drowsy or not using the glasses type wearable device. In addition, the system can be used in various situations such as learning and driving by using the glasses type wearable device which the user is always able to wear. Anyone is able to use the system according to his or her eye sizes by setting standards of the eye exposure range and the eye nonexposure time by photographing a picture of eyes in the daily life of the user.

Description

글라스형 웨어러블 디바이스를 이용한 졸음방지시스템 및 졸음방지방법 {SYSTEM AND METHOD FOR PREVENTING DROWSINESS BY WEARABLE GLASS DEVICE}TECHNICAL FIELD [0001] The present invention relates to a sleeping prevention system and a sleepiness prevention method using a wearable device of a glass type,

본 발명은 글라스형 웨어러블 디바이스를 이용한 졸음방지시스템 및 졸음방지방법에 관한 것으로, 보다 자세하게는 글라스형 웨어러블 디바이스로 사용자가 졸고 있는 상태인지 확인하여, 졸고 있는 상태이면 사용자를 깨우는 시스템 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a sleeping prevention system and a sleeping prevention method using a glass-type wearable device, and more particularly, to a system and a method for awakening a user when a user is sleeping, .

최근 웨어러블 디바이스들이 등장하고 있다. 스마트폰과 연동되는 안경(Glass)형태로 등장하고 있으며, 스마트폰 없이도 독립적으로 작동할 수 있는 형태도 등장하고 있다.Recently wearable devices are emerging. It has appeared in the form of glasses that are linked to smart phones, and some forms that can operate independently without a smartphone are also emerging.

한편, 종래의 기술들 중 특허문헌 1(공개특허공보 제10-2010-0047429호)에는 압전 소자를 이용한 졸음 운전 방지 장치가 개시되어 있다. 특허문헌 1은 핸들 및 시트에 위치한 압전 소자로부터 사용자의 압력 변화를 측정하여 압력의 변화가 비정상일 때 경보가 울리는 장치를 소개하고 있다. 그러나 선행기술 1에 따르면, 압전 소자의 위치에 따라 압력 정보가 불확실하고, 차량 내에 설치해야 하기 때문에 그 비용이 비싸다는 문제점이 있다. 또한, 운전 시에만 졸음방지가 가능하다는 문제점이 있다.On the other hand, Patent Document 1 (Japanese Patent Application Laid-Open No. 10-2010-0047429) discloses a drowsiness driving prevention device using a piezoelectric element. Patent Document 1 discloses a device in which a change in pressure of a user is measured from a piezoelectric element placed on a handle and a seat, and an alarm sounds when the change in pressure is abnormal. However, according to the prior art 1, there is a problem that the pressure information is uncertain depending on the position of the piezoelectric element, and the cost is high because the pressure information is required to be installed in the vehicle. Further, there is a problem that drowsiness can be prevented only at the time of operation.

또한, 사용자가 졸면서 고개를 숙일 때 경보가 울리는 졸음방지 귀걸이가 상용화되어 있다. 그러나 이에 따르면, 간접측정상의 문제를 가지고 있어, 졸더라도 고개를 숙이지 않으면 경보가 울리지 않고, 졸지 않더라도 고개를 숙이면 경보가 발생한다는 문제점이 있다.In addition, a drowsiness-free earring that sounds an alarm when the user slumped his or her head while sleeping is commercially available. However, according to this, there is a problem of indirect measurement, and an alarm does not sound if the user does not bow his head even if he sleeps, and an alarm is generated when his / her head is leaned.

본 발명의 목적은, 글라스형 웨어러블 디바이스로 사용자의 동공노출범위 및 동공노출시간을 확인하여 상기 사용자가 졸고 있는 상태인지 파악하고, 졸고 있는 상태이면 상기 사용자를 깨우는 알람을 발생시키는 글라스형 웨어러블 디바이스를 이용한 졸음방지시스템 및 졸음방지방법을 제공함에 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a wearable wearable device for a wearable wearable wearable device which is capable of detecting a pupil exposure range and a pupil exposure time of a wearer with a glass wearable device to determine whether the wearer is sleeping, And a method of preventing drowsiness.

상기 언급된 목적을 달성하기 위한, 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법은, 글라스형 웨어러블 디바이스의 제2카메라에 의해 사용자 눈 주변의 영상 또는 특정시간 간격의 연속된 이미지를 획득하는 단계; 획득된 상기 영상 또는 이미지를 통해 안구노출범위 및 안구미노출시간을 측정하는 단계; 상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단하는 단계; 및 사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시키는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of preventing drowsiness in a wearable wearable device using a glass wearable device, the method comprising: Acquiring an image; Measuring an eyeball exposure range and an eyeball exposure time through the acquired image or image; Determining a state of the user on the basis of the measured eye exposure range and the angular exposure time; And generating an alarm to the user when the user is determined to be in a sleeping state.

또한, 상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단하는 단계는, 상기 측정된 안구노출기준시간 및 안구노출기준범위과 저장된 안구노출기준시간 및 안구노출기준범위를 비교하는 것을 특징으로 할 수 있다.In addition, the step of determining the user's condition based on the measured ocular exposure range and the ocular exposure time may include comparing the measured ocular exposure reference time, the ocular exposure reference range, the stored ocular exposure reference time, and the ocular exposure reference range . ≪ / RTI >

또한, 상기 사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시키는 단계는, 상기 글라스형 웨어러블 디바이스의 진동발생에 의한 알람방식, 상기 글라스형 웨어러블 디바이스의 음향출력에 의한 알람방식, 상기 글라스형 웨어러블 디바이스가 뇌 자극하는 뇌파동조신호를 전달하는 알람방식, 외부 디바이스의 음향출력에 의한 알람방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 할 수 있다.When the user is determined to be in a sleepy state, the step of generating an alarm to the user may include an alarm method by vibration generation of the glass type wearable device, an alarm method by sound output of the glass type wearable device, Type wearable device transmits an electroencephalogram tuning signal to be stimulated by a brain, and an alarm method by an acoustic output of an external device.

또한, 상기 안구노출기준범위는, 평상시 안구노출범위의 일정비율 이하 범위 또는 사용자의 평상시 안구노출범위를 수집하는 과정에서 측정된 안구노출범위 중 사용자가 졸고 있는 상태로 지정한 범위인 것을 특징으로 할 수 있다.The eyeball exposure reference range may be a range that is less than a predetermined ratio of the normal eyeball exposure range or a range designated by the user in a sleeping state of the eyeball exposure range measured during the process of collecting the normal eyeball exposure range of the user have.

본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템은, 사용자 눈 주변의 실시간 영상 또는 특정시간 간격으로 연속된 이미지를 획득하는 제2카메라; 상기 영상 또는 이미지에서 안구노출범위를 측정하는 안구노출범위측정부, 상기 영상 또는 이미지를 분석하여 안구미노출시간을 측정하는 안구미노출시간측정부, 및 상기 측정된 안구노출범위와 안구미노출시간을 바탕으로 알람여부를 결정하는 알람통제부를 포함하는 제어부; 및 사용자의 졸음을 깨우기 위한 알람을 제공하는 알람부;를 포함한다.According to another embodiment of the present invention, there is provided a sleepiness prevention system using a wearable device of a glass type, comprising: a second camera for acquiring a real-time image around a user's eye or a continuous image at a specific time interval; An eyeball exposure range measuring unit for measuring an eyeball exposure range in the image or the image, an eyeball exposure time measuring unit for measuring the eyeball exposure time by analyzing the image or the image, and the eyeball exposure range and the eyeball exposure time And an alarm control unit for determining whether or not an alarm is generated based on the alarm signal. And an alarm unit for providing an alarm for awakening the user ' s drowsiness.

또한, 상기 알람부는, 진동을 발생시키는 진동알람부, 알람음을 출력하는 음향출력부, 뇌파동조 신호를 제공하여 뇌 자극하는 뇌파동조신호발생부 중 적어도 하나 이상을 포함할 수 있다.The alarm unit may include at least one of a vibration alarm unit for generating vibration, an acoustic output unit for outputting an alarm sound, and an EEG tuning signal generator for providing a brain wave tuning signal to stimulate the brain.

또한, 평상시 상기 사용자의 안구노출범위 또는 안구미노출시간에 대한 데이터를 수집하여 분석하는 안구노출학습부;를 포함할 수 있다.The apparatus may further include an eyeball exposure learning unit for collecting and analyzing data on the eyeball exposure range or the eyeball exposure time of the user at normal times.

또한, 상기 제어부는, 사용자에게 알람을 제공하는 안구노출범위 또는 안구미노출시간의 기준을 설정하는 알람기준설정부;를 더 포함할 수 있다.The control unit may further include an alarm criterion setting unit for setting a criterion of an eyeball exposure range or an eyeglass exposure time for providing an alarm to a user.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 글라스형 웨어러블 디바이스를 통해 사용자가 졸고 있는 상태인지 확인하여 여러가지 알람 방식으로 사용자를 깨울 수 있다. First, it is possible to awaken the user by various alarm methods by checking whether the user is sleeping through the wearable device of the glass type.

둘째, 항상 사용자가 입고 있을 수 있는 글라스형 웨어러블 디바이스를 이용함에 따라 운전 중 뿐만아니라 학습하는 중 등 다양한 상황에서 사용할 수 있다. Secondly, by using a wearable wearable device which can be worn by the user at all times, it can be used in various situations such as not only during driving but also during learning.

셋째, 사용자의 일상생활 중에 안구사진을 촬영하여 안구노출범위 및 안구미노출시간의 기준을 설정할 수 있어서, 누구든지 자신의 눈 크기 기준에 맞게 사용할 수 있다. Third, the user can set the criteria of the eyeball exposure range and the eyeball exposure time by photographing the eyeball during daily life, so that anyone can use it according to his / her eye size standard.

도 1은 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지방법에 대한 순서도
도 2은 글라스형 웨어러블 디바이스에 의해 측정되는 안구영역의 최대 세로길이 예시도면
도 3a는 사용자가 눈을 뜨고 있을 때 글라스형 웨어러블 디바이스에 의해 획득되는 안구 영역 영상 또는 이미지 예시도면
도 3b는 사용자가 눈을 뜨고 있을 때 글라스형 웨어러블 디바이스에 의해 획득되는 안구 영역 영상 또는 이미지 예시도면
도 4는 글라스형 웨어러블 디바이스를 이용한 졸음방지시스템의 내부구성도
1 is a flow chart of a drowsiness prevention method using a glass-type wearable device according to a preferred embodiment of the present invention
2 is an example of a maximum vertical length of an eye region measured by a glass-type wearable device
3A shows an eye region image or an image obtained by a glass-like wearable device when a user is opening his eyes.
FIG. 3B shows an eye region image or image obtained by a glass-like wearable device when the user is opening his eyes.
Fig. 4 is an internal configuration diagram of a drowsiness prevention system using a glass-type wearable device

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. The terms " comprises "and / or" comprising "used in the specification do not exclude the presence or addition of one or more other elements in addition to the stated element.

도 1은 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지방법에 대한 순서도이고, 도 2은 글라스형 웨어러블 디바이스에 의해 측정되는 안구영역의 최대 세로길이 예시도면이다. 도 3a는 사용자가 눈을 뜨고 있을 때 글라스형 웨어러블 디바이스에 의해 획득되는 안구 영역 영상 또는 이미지 예시도면이고, 도 3b는 사용자가 눈을 뜨고 있을 때 글라스형 웨어러블 디바이스에 의해 획득되는 안구 영역 영상 또는 이미지 예시도면이며, 도 4는 글라스형 웨어러블 디바이스를 이용한 졸음방지시스템의 내부구성도이다.FIG. 1 is a flowchart illustrating a method of preventing drowsiness using a wearable wearable device according to a preferred embodiment of the present invention, and FIG. 2 is a diagram illustrating a maximum length of an eye area measured by a wearable wearable device. FIG. 3A is an eye area image or an image exemplified by a wearable wearable device when the user is winking, FIG. 3B is an eye area image or image obtained by a wearable wearable device when the user is winking, Fig. 4 is an internal configuration diagram of a drowsiness prevention system using a glass-type wearable device.

도 1 내지 도 4에는 시스템(100), 사용자입력부(110), 어플리케이션(111), 키보드(112), 음성입력부(113), 터치패드(114), GPS신호부(115), 근거리통신(116), 카메라부(120), 제1카메라(121), 제2카메라(122), 제3카메라(123), 센싱부(130), 자이로센서(131), 가속도센서(132), 압력센서(133), 홍체인식센서(134), 심박검출센서(135), 근전도센서(136), 정보처리부(210), 음성인식부(220), 상황평가모듈(230), 음성-텍스트변환모듈(240), 무선통신부(250), 메모리(260), 인터페이스부(270), 출력부(300), 디스플레이부(310), 음향출력부(320), 알람부(330), 햅틱모듈(340)가 도시된다.1 to 4 show a system 100, a user input unit 110, an application 111, a keyboard 112, a voice input unit 113, a touch pad 114, a GPS signal unit 115, A camera 120, a first camera 121, a second camera 122, a third camera 123, a sensing unit 130, a gyro sensor 131, an acceleration sensor 132, a pressure sensor 133, an iris recognition sensor 134, a heartbeat detection sensor 135, an electromyogram sensor 136, an information processing unit 210, a voice recognition unit 220, a situation evaluation module 230, a voice- A wireless communication unit 250, a memory 260, an interface unit 270, an output unit 300, a display unit 310, an acoustic output unit 320, an alarm unit 330, and a haptic module 340 Respectively.

본 발명의 시스템(100)은 카메라부(120), 음성입력부(113), 사용자입력부(110), 센싱부(130), 출력부(300), 무선통신부(250), 메모리(260), 인터페이스부(270), 제어부(210), 전원공급부, 및 음성인식부(220) 등을 포함할 수 있다.The system 100 of the present invention includes a camera unit 120, a voice input unit 113, a user input unit 110, a sensing unit 130, an output unit 300, a wireless communication unit 250, a memory 260, A controller 270, a controller 210, a power supply unit, and a voice recognition unit 220.

카메라부(120)는 비디오 신호 또는 이미지 신호 입력을 위한 것으로, 디바이스의 구성 태양에 따라 2개 이상이 구비될 수도 있다. 카메라부(120)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 그리고 처리된 화상 프레임은 디스플레이부(310)에 표시될 수 있다. 또한, 카메라부(120)에서 처리된 화상 프레임은 메모리(260)에 저장되거나 무선통신부(250)를 통하여 외부로 전송될 수 있다. 또한, 이미지 신호 또는 비디오 신호가 정보처리를 위한 입력으로 쓰이는 경우, 제어부(210)로 이미지 신호 및 비디오 신호를 전달한다.The camera unit 120 is for inputting video signals or image signals, and may be provided in accordance with a configuration of the device. The camera unit 120 processes an image frame such as a still image or a moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 310. [ The image frame processed by the camera unit 120 may be stored in the memory 260 or transmitted to the outside through the wireless communication unit 250. [ When an image signal or a video signal is used as an input for information processing, the image signal and the video signal are transmitted to the control unit 210.

음성입력부(113)는 음성신호의 입력을 위한 것으로 마이크 등이 포함될 수 있다. 마이크는 통화모드 또는 녹음모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 그리고 처리된 음성 데이터는 통화 모드인 경우 이동통신부를 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크 는 외부의 음향 신호를 입력받는 과정에서 발생하는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘이 사용될 수 있다.The voice input unit 113 is for inputting voice signals and may include a microphone and the like. The microphone receives an external acoustic signal by a microphone in a communication mode, a recording mode, a voice recognition mode, and the like and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication unit and output when the voice data is in the call mode. A variety of noise canceling algorithms may be used to remove the noise generated by the microphone in receiving an external acoustic signal.

사용자입력부(110)는 사용자가 디바이스의 동작 제어를 위하여 입력하는 키 입력 데이터를 발생시킨다. 사용자입력부(110)는 키패드(key pad), 키보드, 돔 스위치(dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 핑거 마우스 등으로 구성될 수 있다. 특히, 터치 패드가 후술하는 디스플레이부(310)와 상호 레이어 구조를 이룰 경우, 이를 터치스크린(touch screen)이라 부를 수 있다.The user input unit 110 generates key input data that the user inputs for controlling the operation of the device. The user input unit 110 may include a key pad, a keyboard, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and a finger mouse. Particularly, when the touch pad has a mutual layer structure with the display unit 310 described later, it can be called a touch screen.

센싱부(130)는 디바이스의 개폐 상태, 디바이스의 위치, 사용자 접촉 유무 등과 같이 디바이스의 현 상태를 감지하여 디바이스의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 또한, 센싱부(130)는 디바이스의 정보처리를 위한 입력신호를 받는 입력부의 기능을 담당할 수 있으며, 외부 기기 연결 여부 인식 등의 다양한 센싱 기능을 담당할 수 있다.The sensing unit 130 senses the current state of the device such as the open / close state of the device, the position of the device, the presence or absence of the user, and generates a sensing signal for controlling the operation of the device. In addition, the sensing unit 130 may function as an input unit for receiving an input signal for information processing of a device, and may perform various sensing functions such as recognition of connection to an external device.

센싱부(130)는 근접센서(Proximity Sensor), 압력센서(133), 모션 센서, 지문인식센서, 홍체인식센서(134), 심박검출센서(135), 피부온도센서, 피부저항센서, 심전도센서, 거리센서 및 도플러레이더 등을 포함할 수 있다. The sensing unit 130 may include a proximity sensor, a pressure sensor 133, a motion sensor, a fingerprint recognition sensor, an iris recognition sensor 134, a heartbeat detection sensor 135, a skin temperature sensor, , A distance sensor, a Doppler radar, and the like.

근접센서는 접근하는 물체나, 근방에 존재하는 물체의 유무 등을 기계적 접촉이 없이 검출할 수 있도록 한다. 근접센서는 교류자계의 변화나 정자계의 변화를 이용하거나, 혹은 정전용량의 변화율 등을 이용하여 근접물체를 검출할 수 있다. 근접센서는 구성 태양에 따라 2개 이상이 구비될 수 있다.The proximity sensor makes it possible to detect the presence of an object to be approached or nearby, without mechanical contact. The proximity sensor can detect a nearby object by using the change of the alternating magnetic field or the change of the static magnetic field, or by using the change rate of the capacitance. The proximity sensor may be equipped with two or more sensors according to the configuration.

압력센서(133)는 디바이스에 압력이 가해지는지 여부와, 그 압력의 크기 등을 검출할 수 있다. 압력센서(133)는 사용환경에 따라 디바이스에서 압력의 검출이 필요한 부위에 설치될 수 있다. 만일, 압력센서(133)가 디스플레이부(310)에 설치되는 경우, 압력센서(133)에서 출력되는 신호에 따라, 디스플레이부(310)를 통한 터치 입력과, 터치 입력보다 더 큰 압력이 가해지는 압력터치 입력을 식별할 수 있다. 또한, 압력센서(133)에서 출력되는 신호에 따라, 압력터치 입력시 디스플레이부(310)에 가해지는 압력의 크기도 알 수 있다.The pressure sensor 133 can detect whether or not pressure is applied to the device, the magnitude of the pressure, and the like. The pressure sensor 133 may be installed in a part of the device where the pressure needs to be detected depending on the use environment. When the pressure sensor 133 is installed on the display unit 310, a touch input through the display unit 310 and a pressure applied by the touch input The pressure touch input can be identified. Also, according to the signal output from the pressure sensor 133, the magnitude of the pressure applied to the display unit 310 at the time of pressure touch input can be known.

모션 센서는 가속도센서(132), 자이로센서(131), 지자기센서 등의 센서 중에서 하나 이상을 포함하며, 이를 이용하여 디바이스의 위치나 움직임 등을 감지한다. 모션 센서에 사용될 수 있는 가속도센서(132)는 어느 한 방향의 가속도 변화에 대해서 이를 전기 신호로 바꾸어 주는 소자로서, MEMS(micro-electromechanical systems) 기술의 발달과 더불어 널리 사용되고 있다. 가속도센서(132)는 중력가속도의 변화를 인식하는 중력센서를 포함한다. 또한, 자이로센서(131)는 각속도를 측정하는 센서로서, 기준 방향에 대해 돌아간 방향을 감지할 수 있다. The motion sensor includes at least one of an acceleration sensor 132, a gyro sensor 131, and a geomagnetic sensor, and detects the position and movement of the device using the sensor. The acceleration sensor 132, which can be used for a motion sensor, is a device that converts an acceleration change in one direction into an electric signal and is widely used along with the development of MEMS (micro-electromechanical systems) technology. The acceleration sensor 132 includes a gravity sensor that recognizes a change in gravitational acceleration. Further, the gyro sensor 131 is a sensor for measuring the angular velocity, and can sense the direction of rotation with respect to the reference direction.

심박검출센서(135)는 감성신호를 수집하기 위해 심장 박동에 의한 혈관 굵기의 변화에 따른 광혈류량의 변화를 측정한다. 피부 온도 센서는 온도 변화에 반응하여 저항값이 변화하는 것에 따라 피부 온도를 측정한다. 피부 저항 센서는 피부의 전기 저항을 측정한다.The heartbeat detection sensor 135 measures changes in the optical blood flow due to changes in the thickness of the blood vessel caused by the heartbeat in order to collect emotion signals. The skin temperature sensor measures the skin temperature as the resistance value changes in response to the temperature change. The skin resistance sensor measures the skin's electrical resistance.

홍체인식센서(134)는 사람마다 고유한 특성을 가진 안구의 홍채 정보를 이용해 사람을 인식하는 기능을 수행한다. 사람의 홍채는 생후 18개월 이후 완성된 뒤, 홍채의 내측연 가까이에 융기되어 있는 원형의 홍채 패턴은 한번 정해지면 거의 변하지 않고, 또 사람마다 모양이 모두 다르다. 따라서 홍채인식은 사람마다 각기 다른 홍채의 특성을 정보화해 이를 보안용 인증기술로 응용한 것이다. 즉, 홍채의 모양과 색깔, 망막 모세혈관의 형태소 등을 분석해 사람을 식별하기 위한 수단으로 개발한 인증방식이다.The iris recognition sensor 134 performs a function of recognizing a person using iris information of an eye having a characteristic unique to each person. The human iris is completed after 18 months of age, and the circular iris pattern, which is raised near the medial side of the iris, is almost unchanged once determined, and the shape of each person is different. Therefore, iris recognition is the application of information technology to security for information of different iris characteristics. That is, it is an authentication method developed to identify people by analyzing the shape and color of iris and the morphology of retinal capillaries.

홍체인식센서(134)는 홍채의 패턴을 코드화해 이를 영상신호로 바꾸어 비교?판단하는데, 일반적인 작동 원리는 다음과 같다. 먼저 일정한 거리에서 홍채인식기 중앙에 있는 거울에 사용자의 눈이 맞춰지면, 적외선을 이용한 카메라가 줌렌즈를 통해 초점을 조절한다. 이어 홍채 카메라가 사용자의 홍채를 사진으로 이미지화한 뒤, 홍채 인식 알고리즘이 홍채의 명암 패턴을 영역별로 분석해 개인 고유의 홍채 코드를 생성한다. 마지막으로 홍채 코드가 데이터베이스에 등록되는 것과 동시에 비교 검색이 이루어진다.The iris recognition sensor 134 encodes a pattern of iris and converts it into a video signal to compare and judge. The general operation principle is as follows. First, when the user's eye is aligned with the mirror located at the center of the iris recognizer at a certain distance, the infrared camera adjusts the focus through the zoom lens. After the iris camera images the user's iris as a photo, the iris recognition algorithm analyzes the iris pattern of the iris region to generate iris codes unique to the user. Finally, a comparison search is performed at the same time that the iris code is registered in the database.

거리센서는 2점간 거리 측정방식, 3각 측량방식(적외선 이용식, 자연광 이용식), 초음파 방식 등이 있다. 종래의 3각측량의 원리와 같이, 2개의 경로에서 온 피측정물을 직각 프리즘으로 반사시켜 2개의 이미지 센서에 입사시켜 상대적 위치가 합치했을 때, 2점간의 거리가 표시된다. 이 경우, 자연광으로 하는 방법(수동식)과 적외선을 발사하여 행하는 방법이 있다. 초음파방식은 피측정물에 지향성이 날카로운 초음파를 송신하여 피측정물로부터의 반사파를 수신하기까지의 시간을 측정하여 거리를 아는 방식인데, 수신센서는 압전소자가 사용된다.Distance sensors include two-point distance measurement, triangulation (infrared, natural light) and ultrasonic. As in the conventional triangulation principle, when the object to be measured from two paths is reflected by a rectangular prism and incident on two image sensors, the distance between two points is displayed when the relative positions are matched. In this case, there is a method of making natural light (manual type) and a method of emitting infrared rays. The ultrasonic method is a method of transmitting ultrasonic waves having sharp direction to the object to be measured and measuring the time until the reflected wave from the object is received to find the distance. A piezoelectric element is used as the receiving sensor.

상기 도플러레이더는 레이더의 한 방식으로, 반사파의 위상변화 즉, 파의 도플러 효과를 이용한 레이더이다. 상기 도플러레이더는 펄스 변조되지 않는 사인파를 송ㆍ수신하는 연속파 레이더와 전자파 신호파형으로서 방형파에 펄스 변조된 전파를 사용하는 펄스 레이더가 있다.The Doppler radar is a radar that uses a Doppler effect of a wave, that is, a phase change of a reflected wave. The Doppler radar includes a continuous wave radar that transmits and receives a sinusoidal wave that is not pulse-modulated, and a pulse radar that uses a pulse-modulated wave to a square wave as an electromagnetic wave signal waveform.

연속파 레이더에서는 도플러 주파수 필터의 성능을 얻기 쉽게 하기 위해서 변조주파수를 비교적 높게 취하기 때문에 원거리를 대상으로 한 레이더에는 부적당하나, 도플러 주파수를 가청주파수대로 택함으로써 인체나 차량 등의 움직임을 안정감 있는 소리로서 재생할 수 있는 특징이 있다. 펄스 레이더는 펄스 송신에서 반사 에코 수신까지의 시간에 의해 목표까지의 거리를 계측한다. 송신 펄스폭 내에서 주파수 변조나 위상 변조를 가하는 펄스 압축 레이더라 일컬어지는 방식이 있다. In the continuous wave radar, the modulation frequency is relatively high in order to obtain the performance of the Doppler frequency filter. Therefore, it is inappropriate for the radar for the long distance, but the motion of the human body and the vehicle is reproduced as a stable sound by adopting the Doppler frequency as the audible frequency band. There is a feature that can be. The pulse radar measures the distance to the target by the time from the pulse transmission to the reflection echo reception. There is a method referred to as a pulse compression laser that performs frequency modulation or phase modulation within the transmission pulse width.

출력부(300)는 오디오 신호 또는 비디오 신호 또는 알람(alarm) 신호의 출력을 위한 것이다. 출력부(300)에는 디스플레이부(310), 음향출력 모듈, 알람부(330), 및 햅틱 모듈(340) 등이 포함될 수 있다.The output unit 300 is for outputting an audio signal, a video signal, or an alarm signal. The output unit 300 may include a display unit 310, an audio output module, an alarm unit 330, a haptic module 340, and the like.

디스플레이부(310)는 디바이스에서 처리되는 정보를 표시 출력한다. 예를 들어 디바이스가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 그리고 디바이스가 화상 통화 모드 또는 촬영 모드인 경우, 촬영되거나 수신된 영상을 각각 혹은 동시에 표시할 수 있으며, UI, GUI를 표시한다. The display unit 310 displays and outputs information processed in the device. For example, when the device is in the call mode, a UI (User Interface) or GUI (Graphic User Interface) associated with the call is displayed. When the device is in the video communication mode or the photographing mode, the captured or received image can be displayed individually or simultaneously, and the UI and the GUI are displayed.

한편, 전술한 바와 같이, 디스플레이부(310)와 터치패드가 상호 레이어 구조를 이루어 터치스크린으로 구성되는 경우, 디스플레이부(310)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 만일, 디스플레이부(310)가 터치스크린으로 구성되는 경우, 터치스크린 패널, 터치스크린 패널 제어기 등을 포함할 수 있다. Meanwhile, as described above, when the display unit 310 and the touch pad have a mutual layer structure to constitute a touch screen, the display unit 310 can be used as an input device in addition to the output device. If the display unit 310 is configured as a touch screen, it may include a touch screen panel, a touch screen panel controller, and the like.

이외에도 디스플레이부(310)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수도 있다. 그리고, 디바이스의 구현 형태에 따라 디스플레이부(310)가 2개 이상 존재할 수도 있다. 예를 들어, 디바이스에 외부 디스플레이부(310)와 내부 디스플레이부(310)가 동시에 구비될 수 있다.In addition, the display unit 310 may be a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, a three-dimensional display (3D display). There may be two or more display units 310 depending on the implementation type of the device. For example, the device may include an external display unit 310 and an internal display unit 310 at the same time.

디스플레이부(310)는 HUD(Head up Display), HMD(Head mounted Display) 등으로 구현될 수 있다. HMD(Head mounted Display)란 안경처럼 머리에 쓰고 대형 영상을 즐길 수 있는 영상표시장치다. HUD(Head up Display)는 사용자의 가시영역 내의 유리에 가상 화상(virtual image)을 투영시키는 영상표시장치이다.The display unit 310 may be implemented as a head up display (HUD), a head mounted display (HMD), or the like. HMD (Head Mounted Display) is an image display device that allows you to enjoy large images on your head like glasses. A Head Up Display (HUD) is a video display device that projects a virtual image onto a glass in a visible region of a user.

음향출력 모듈(320)은 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부로부터 수신되거나 메모리(260)에 저장된 오디오 데이터를 출력한다. 또한, 음향출력 모듈(320)은 디바이스에서 수행되는 기능, 예를 들어, 호신호 수신음, 메시지 수신음 등과 관련된 음향 신호를 출력한다. 이러한 음향출력 모듈(320)에는 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The sound output module 320 outputs audio data received from the wireless communication unit or stored in the memory 260 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. Also, the sound output module 320 outputs sound signals related to functions performed in the device, for example, call signal reception tones, message reception tones, and the like. The sound output module 320 may include a speaker, a buzzer, and the like.

알람부(330)는 디바이스의 이벤트 발생을 알리기 위한 신호를 출력한다. 디바이스에서 발생하는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력 등이 있다. 알람부(330)는 오디오 신호나 비디오 신호 이외에 다른 형태로 이벤트 발생을 알리기 위한 신호를 출력한다. 예를 들면, 진동 형태로 신호를 출력할 수 있다. 알람부(330)는 호 신호가 수신되거나 메시지가 수신된 경우, 이를 알리기 위해 신호를 출력할 수 있다. 또한. 알람부(330)는 키 신호가 입력된 경우, 키 신호 입력에 대한 피드백으로 신호를 출력할 수 있다. 이러한 알람부(330)가 출력하는 신호를 통해 사용자는 이벤트 발생을 인지할 수 있다. 디바이스에서 이벤트 발생 알림을 위한 신호는 디스플레이부(310)나 음향출력 모듈를 통해서도 출력될 수 있다.The alarm unit 330 outputs a signal for notifying the occurrence of an event of the device. Examples of events that occur in a device include receiving a call signal, receiving a message, and inputting a key signal. The alarm unit 330 outputs a signal for notifying the occurrence of an event in a form other than an audio signal or a video signal. For example, it is possible to output a signal in a vibration mode. The alarm unit 330 may output a signal to notify when a call signal is received or a message is received. Also. When the key signal is input, the alarm unit 330 can output a signal as a feedback signal to the key signal input. The user can recognize the occurrence of an event through the signal output by the alarm unit 330. A signal for notifying the occurrence of an event in the device may also be output through the display unit 310 or the sound output module.

햅틱 모듈(haptic module)(340)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(340)이 발생시키는 촉각 효과의 대표적인 예로는 진동 효과가 있다. 햅틱 모듈(340)이 촉각 효과로 진동을 발생시키는 경우, 햅택 모듈(340)이 발생하는 진동의 세기와 패턴 등은 변환가능하며, 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다. The haptic module 340 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 340 is a vibration effect. When the haptic module 340 generates vibration with a haptic effect, the intensity and pattern of the vibration generated by the haptic module 340 can be converted, and the different vibrations may be synthesized and output or sequentially output.

무선통신부(250)는 방송수신 모듈, 이동통신 모듈, 무선 인터넷 모듈, 근거리 통신 모듈,및 GPS 모듈 등을 포함할 수 있다.The wireless communication unit 250 may include a broadcast receiving module, a mobile communication module, a wireless Internet module, a short distance communication module, and a GPS module.

방송수신 모듈은 방송 채널을 통하여 외부의 방송관리 서버로부터 방송 신호 및 방송관련 정보 중 적어도 하나를 수신한다. 이때, 방송 채널은 위성 채널, 지상파 채널 등을 포함할 수 있다. 방송관리 서버는, 방송신호 및 방송 관련 정보 중 적어도 하나를 생성하여 송신하는 서버나, 기 생성된 방송 신호 및 방송관련 정보 중 적어도 하나를 제공받아 단말기에 송신하는 서버를 의미할 수 있다.The broadcast receiving module receives at least one of a broadcast signal and broadcast related information from an external broadcast management server through a broadcast channel. At this time, the broadcast channel may include a satellite channel, a terrestrial channel, and the like. The broadcast management server may refer to a server for generating and transmitting at least one of a broadcast signal and broadcast related information and a server for receiving at least one of the generated broadcast signal and broadcast related information and transmitting the broadcast signal to the terminal.

방송관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 방송관련 정보는, 이동통신망을 통하여도 제공될 수 있으며, 이 경우에는 이동통신 모듈에 의해 수신될 수 있다. 방송관련 정보는 다양한 형태로 존재할 수 있다. The broadcast-related information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast-related information can also be provided through a mobile communication network, in which case it can be received by the mobile communication module. Broadcast-related information can exist in various forms.

방송수신 모듈은, 각종 방송 시스템을 이용하여 방송 신호를 수신하며, 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 또한, 방송수신 모듈은, 이와 같은 디지털 방송 시스템뿐만 아니라 방송 신호를 제공하는 모든 방송 시스템에 적합하도록 구성될 수 있다. 방송수신 모듈을 통해 수신된 방송신호 및/또는 방송 관련 정보는 메모리(260)에 저장될 수 있다.The broadcast receiving module receives a broadcast signal using various broadcast systems, and can receive a digital broadcast signal using a digital broadcast system. In addition, the broadcast receiving module may be configured to be suitable for all broadcasting systems that provide broadcast signals as well as the digital broadcasting system. The broadcast signal and / or broadcast related information received through the broadcast receiving module may be stored in the memory 260.

이동통신 모듈은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호, 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module transmits and receives radio signals to and from at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to a voice call signal, a video call signal, or a text / multimedia message transmission / reception.

무선 인터넷 모듈은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 무선 인터넷 모듈은 디바이스에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), LTE(long term evolution), LTE-A(Long Term Evolution-Advanced) 등이 이용될 수 있다. The wireless Internet module refers to a module for wireless Internet access, and the wireless Internet module can be embedded in a device or externally. Wireless Internet technologies include WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access), LTE (Long Term Evolution-Advanced) or the like can be used.

근거리 통신 모듈(116)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 비콘(Beacon), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee) 등이 이용될 수 있다. The short-range communication module 116 is a module for short-range communication. Beacon, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee and the like can be used as a short distance communication technology.

비콘(Beacon)은 무선통신 장치로써 블루투스 4. 0 (BLE-Bluetooth Low Energy) 기반의 프로토콜을 사용해 매우 작은 주파수 시그널을 그들 주위에 전달한다. 블루투스 4. 0은 장치가 대략 5m~70m내의 디바이스들과 통신을 할 수 있으며, 배터리 수명에 거의 영향을 끼치지 않는 저전력이어서 전력 낭비를 최소화하여 블루투스를 항상 켤 수 있다.Beacon is a wireless communication device that transmits very small frequency signals around them using a protocol based on Bluetooth 4.0 (BLE-Bluetooth Low Energy). Bluetooth 4.0 allows devices to communicate with devices within approximately 5m to 70m, and is low power with minimal impact on battery life, so you can always turn on Bluetooth with minimal power wastage.

GPS(Global Position System) 모듈(115)은 복수 개의 GPS 인공위성으로부터 위치 정보를 수신한다. The GPS (Global Position System) module 115 receives position information from a plurality of GPS satellites.

메모리(260)는 제어부(210)의 처리 및 제어를 위한 프로그램이 저장될 수도 있고, 입력되거나 출력되는 데이터들(예를 들어, 메시지, 정지영상, 동영상 등)의 임시 저장을 위한 기능을 수행할 수도 있다. The memory 260 may store a program for processing and controlling the control unit 210 and may perform a function for temporarily storing input or output data (e.g., a message, a still image, a moving image, etc.) It is possible.

메모리(260)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 디바이스는 인터넷(internet) 상에서 메모리의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영할 수도 있다.The memory 260 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (e.g., SD or XD memory), a RAM , And a ROM. ≪ / RTI > The device may also operate a web storage that performs storage functions of the memory on the Internet.

메모리(260)는 이하 저장부(260) 또는 안구노출학습부(260)로 표현될 수 있다.The memory 260 may be represented by a storage unit 260 or an eye-opening-learning unit 260. [

인터페이스부(270)는 디바이스에 연결되는 모든 외부기기와의 인터페이스 역할을 수행한다. 디바이스에 연결되는 외부기기의 예로는, 유/무선 헤드셋, 외부 충전기, 유/무선 데이터 포트, 메모리(260) 카드(Memory card), SIM(Subscriber Identification Module)이나 UIM(User Identity Module) 카드 등과 같은 카드 소켓, 오디오 I/O(Input/Output) 단자, 비디오 I/O(Input/Output) 단자, 이어폰 등이 있다. 인터페이스부(270)는 이러한 외부 기기로부터 데이터를 전송받거나 전원을 공급받아 디바이스 내부의 각 구성 요소에 전달할 수 있고, 디바이스 내부의 데이터가 외부 기기로 전송되도록 할 수 있다.The interface unit 270 serves as an interface with all external devices connected to the device. Examples of external devices connected to the device include a wired / wireless headset, an external charger, a wired / wireless data port, a memory 260 card, a Subscriber Identification Module (SIM) or a User Identity Module A card socket, an audio I / O (input / output) terminal, a video I / O (input / output) terminal, and an earphone. The interface unit 270 may receive data from the external device or supply power to the respective components in the device, and may transmit data in the device to the external device.

제어부(210)는 통상적으로 상기 각부의 동작을 제어하여 디바이스의 전반적인 동작을 제어하는 기능을 수행한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등을 위한 관련된 제어 및 처리를 수행한다. 또한, 제어부(210)는 멀티미디어 재생을 위해 데이터를 처리하는 기능을 수행한다. 또한, 입력부 또는 센싱부(130)로부터 입력받은 데이터를 처리하는 기능을 수행한다.The control unit 210 typically controls the operation of each unit to control the overall operation of the device. For example, voice communication, data communication, video communication, and the like. In addition, the control unit 210 performs a function of processing data for multimedia reproduction. In addition, it performs a function of processing data input from the input unit or the sensing unit 130.

전원 공급부는 제어부(210)의 제어에 의해 외부의 전원, 내부의 전원을 인가받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit receives external power and internal power under the control of the controller 210, and supplies power necessary for operation of the respective components.

음성인식부(220)는 자동적 수단에 의하여 음성으로부터 언어적 의미 내용을 식별하는 기능을 수행한다. 구체적으로 음성파형을 입력하여 단어나 단어열을 식별하고 의미를 추출하는 처리 과정이며, 크게 음성 분석, 음소 인식, 단어 인식, 문장 해석, 의미 추출의 5가지로 분류된다. 음성인식부(220)는 저장된 음성과 입력된 음성이 동일한지 비교하는 음성평가모듈을 더 포함할 수 있다. 또한, 음성인식부(220)는 입력된 음성을 텍스트로 변환하거나, 텍스트를 음성으로 변환하는 음성-텍스트변환모듈(240)도 더 포함할 수 있다.The speech recognition unit 220 performs a function of recognizing verbally meaningful contents from the speech by automatic means. Specifically, a speech waveform is input to identify a word or a word sequence, and a meaning is extracted. The process is largely divided into voice analysis, phoneme recognition, word recognition, sentence analysis, and semantic extraction. The voice recognition unit 220 may further include a voice evaluation module that compares the stored voice with the input voice. The voice recognition unit 220 may further include a voice-to-text conversion module 240 that converts the input voice to text or converts the voice to voice.

뇌파동조신호발생부는 인간의 뇌파를 동조시키기 위한 주파수와 파형을 갖는 뇌파동조신호를 발생시킨다. 즉, 뇌파동조신호발생부는 뇌파 주파수의 진동을 두개골에 전달하여 뇌파를 동조하는 기능을 수행한다. 뇌파란 뇌신경 신호가 전달될 때 생기는 전기의 흐름을 말한다. 이러한 뇌파는 잠잘 때 아주 느린 뇌파인 델타파가, 활동할 때는 빠른 뇌파인 베타파가, 명상을 할 때는 중간 정도 속도의 알파파 등이 증가된다. 따라서 뇌파동조신호발생부는 알파파와 세타파를 유도함으로써 학습보조 및 정신집중의 효과를 발휘하도록 할 수 있다.The EEG signal generator generates an EEG synchronized signal having a frequency and a waveform for synchronizing human brain waves. That is, the EEG coherent signal generator performs the function of synchronizing the EEG by transmitting the vibration of the EEG frequency to the skull. Electroencephalogram (EEG) refers to the flow of electricity that occurs when a cranial nerve signal is transmitted. These brain waves are very slow when sleeping Delta wave EEG, when the action is a fast EEG betapa, meditation when the middle rate of the alpha waves are increased. Therefore, the EEG signal generation part can induce the alpha wave and the seta wave, so that the effect of learning assistance and mental concentration can be demonstrated.

이하, 도면을 참조하여 본 발명의 실시예들에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템 및 방법에 대해 설명하기로 한다.Hereinafter, a drowsiness prevention system and method using a glass-type wearable device according to embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 바람직한 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법에 대한 순서도이다.1 is a flowchart illustrating a method of preventing drowsiness using a wearable device of a glass type according to a preferred embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법은, 글라스형 웨어러블 디바이스의 제2카메라(122)에 의해 사용자 눈 주변의 영상 또는 특정시간 간격의 연속된 이미지를 획득하는 단계(S100); 획득된 상기 영상 또는 이미지를 통해 안구노출범위 및 안구미노출시간을 측정하는 단계(S200); 상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단하는 단계(S300); 및 사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시키는 단계(S400);를 포함한다. 본 발명의 일 실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법을 순서대로 설명한다.Referring to FIG. 1, a method of preventing drowsiness using a wearable device of a glass type according to an embodiment of the present invention includes: Acquiring an image (SlOO); Measuring an ocular exposure range and an ocular exposure time through the obtained image or image (S200); Determining a state of the user on the basis of the measured eye exposure range and the eyelashes exposure time (S300); And generating an alarm to the user (S400) when it is determined that the user is in a sleeping state. A sleeping prevention method using a glass-type wearable device according to an embodiment of the present invention will be described in order.

글라스형 웨어러블 디바이스의 제2카메라(122)에 의해 사용자 눈 주변의 영상 또는 특정시간 간격의 연속된 이미지를 획득한다(S100). 상기 제2카메라(122)는 글라스형 웨어러블 디바이스의 일측에 부착되어 안구영역의 영상 또는 이미지를 획득하는 카메라이다. 상기 안구영역은 윗 속눈썹과 아랫 속눈썹 사이의 영역으로 정의될 수 있다. 상기 제2카메라(122)가 이미지 하나만 획득하여서는 안구미노출시간을 측정할 수 없으며, 상기 이미지가 사용자가 눈을 깜박일 때 획득되는 경우 안구노출범위 측정에 오차가 크게 발생할 수 있다. 따라서 상기 제2카메라(122)는 영상이나 일정간격의 연속된 이미지를 획득한다. 상기 획득한 영상 또는 이미지는 영상처리를 하여, 흑백 영상으로 변환함으로써, 상기 영상 또는 이미지에서 눈과 동공을 보다 명확하게 감지할 수 있게 한다.The second camera 122 of the glass-like wearable device acquires images around the user's eyes or continuous images at specific time intervals (S100). The second camera 122 is attached to one side of the glass-like wearable device to acquire an image or an image of an eyeball region. The eye area can be defined as the area between the upper and lower eyelashes. If the second camera 122 acquires only one image, it can not measure the angular exposure time, and if the image is obtained when the user blinks the eye, an error may occur in the measurement of the eye exposure range. Accordingly, the second camera 122 acquires images or continuous images at regular intervals. The acquired image or image is subjected to image processing and converted into a monochrome image, thereby making it possible to more clearly detect the eyes and the pupil in the image or the image.

획득된 상기 영상 또는 이미지를 통해 안구노출범위 및 안구미노출시간을 측정한다(S200). 상기 안구노출범위는 상기 사용자의 동공이 보이는 범위를 말한다. 상기 안구노출범위 측정은 상기 영상 또는 이미지에 나타난 안구영역의 넓이로 측정하거나, 도 2에서와 같이, 사용자 눈의 최대 세로길이(h)로 측정할 수 있다. 다만, 안구노출범위를 측정하는 방법은 이에 한정되지 아니하고, 사용자가 눈 뜬 정도를 측정할 수 있는 다양한 방법이 적용될 수 있다.The eyeball exposure range and the anterior / posterior exposure time are measured through the acquired image or image (S200). The eyeball exposure range refers to the range in which the pupil of the user is visible. The eyeball exposure range measurement may be measured by the width of the eyeball region shown in the image or the image, or may be measured by the maximum height h of the user eye as shown in FIG. However, the method of measuring the range of eyeball exposure is not limited thereto, and various methods of measuring the degree of eye blinking can be applied.

상기 안구미노출시간은 영상 또는 연속적으로 획득된 이미지에서 안구가 안구노출기준범위 이하의 범위에서 유지되는 시간을 의미한다. 상기 안구미노출시간 측정은 상기 안구노출기준범위 이하의 범위가 된 시점부터 상기 안구노출기준범위 이상이 되는 시점까지 경과시간을 계산한다. 다만, 안구미노출시간를 측정하는 방법은 이에 한정되지 아니하고, 사용자가 눈을 얼마나 오래 감고 있는 지 측정할 수 있는 다양한 방법이 적용될 수 있다.The angular exposure time refers to the time during which the eyeball is maintained in the range of the eyeball exposure reference range in the image or the continuously acquired image. The angular exposure time measurement calculates the elapsed time from the time when the range of the eyeball exposure reference range falls below the eyeball exposure reference range to the time when the eyeball exposure reference range becomes equal to or greater than the eyeball exposure reference range. However, the method of measuring the exposure time is not limited to this, and various methods of measuring how long the user is eyes can be applied.

상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단한다(S300). 즉, 상기 측정된 안구노출기준시간 및 안구노출기준범위과 저장된 안구노출기준시간 및 안구노출기준범위를 비교하여, 사용자의 눈이 상기 안구노출기준범위 이내의 상태를 안구노출기준시간 이상 유지하고 있으면 사용자가 졸고 있는 상태로 판단한다. 예를 들어, 사람들은 졸음이 오게 되면 눈이 자연적으로 감기게 되는데, 도 3에서와 같이, 이 때는 평상시 눈의 세로 길이(h)보다 길이가 짧아지게 되고, 잠시 눈을 깜박이는 것과 다르게 지속적으로 눈이 어느 정도 감긴 상태를 유지하기 때문에, 상기 제어부(210)에서는 정상 상태의 세로 길이(h)보다 일정 이상 짧아진 상태로 일정 시간 이상을 지속하게 되면 졸음 상태로 판단하게 되는 것이다. The state of the user is determined on the basis of the measured range of the eyeball exposure and the eyeball exposure time (S300). That is, if the measured eyeball exposure reference time, the eyeball exposure reference range, the stored eyeball exposure reference time, and the eyeball exposure reference range are compared with each other and the state in which the eye of the user is within the eyeball exposure reference range is maintained for more than the eyeball exposure reference time, It is determined that the user is sleeping. For example, when a person drowsy, his or her eyes naturally wind down. As shown in FIG. 3, the length of the eye is usually shorter than the vertical length (h) of the eye at that time. The controller 210 determines that the user is in a drowsy state if the user keeps the eye for a certain period of time longer than the vertical length h of the normal state.

또한, 안구노출범위 및 안구미노출시간 측정을 통해, 눈 깜빡임의 빈도 및 눈 깜빡임의 듀티비(duty ratio) 즉, 눈을 감은 시간과 눈을 뜬 시간의 듀티비를 파악하여 사용자의 졸음 상태를 결정할 수 있다. 예를 들어, 평상 시에는 눈을 뜬 시간과 눈을 감은 시간과의 비율이 현저하게 차이가 난다. 반면, 피로도가 증가하거나 졸음 상태인 경우에는 눈을 깜빡이는 빈도나 눈을 감은 시간이 증가하게 되며, 이에 따라서 눈을 감은 시간에 대한 듀티비가 증가하게 된다. 따라서, 상기 제어부(210)는 눈 깜빡임의 빈도 및/또는 듀티비를 이용하여서 사용자의 졸음 상태를 인식할 수 있다.In addition, by measuring the exposure range of the eyeball and the exposure time of the eyeball, it is possible to determine the frequency of eye blinking and the duty ratio of eye blinking, that is, You can decide. For example, in normal times, the ratio between the time of eye opening and the time of eye closing is significantly different. On the other hand, when fatigue is increased or in the drowsy state, the frequency of flickering of the eyes or the time of closing the eyes is increased, thereby increasing the duty ratio with respect to the time of closing the eyes. Accordingly, the controller 210 can recognize the drowsiness state of the user by using the frequency and / or the duty ratio of the eye flicker.

다만, 측정된 안구노출기준시간 및 안구노출기준범위를 이용하여 사용자가 졸고 있는 상태인지 판단하는 방식은 이에 한정되지 않고, 사용자가 조는 형태에 따라 다양한 알고리즘이 적용될 수 있다.However, the method of determining whether the user is sleeping by using the measured time of eye exposure standard and the range of eye exposure standard is not limited to this, and various algorithms may be applied according to the type of the user.

상기 안구노출기준범위는 평상시 안구노출범위의 일정비율 이하 범위로 설정할 수 있다. 예를 들어, 사용자 눈의 세로 길이(h)를 측정하게 되고, 이렇게 측정된 수치는 일정시간 평균치를 계산하여 상기 안구노출학습부(260)에 저장하게 된다. 이렇게 측정된 평균치는 졸음 상태가 아닌 정상 상태의 수치로서, 사람마다 눈의 크기가 모두 다르기 때문에, 사용자 별로 각각 눈의 세로 길이(h)를 측정하여, 졸음 상태를 판단하기 위한 기준 수치로 사용하게 된다. 또한, 상기 안구노출기준범위는 사용자의 평상시 안구노출범위를 수집하는 과정에서 측정된 안구노출범위 중 사용자가 졸고 있는 상태로 지정한 범위로 설정할 수 있다. 예를 들어, 하루종일 사용자의 안구영역 이미지 를 획득하여 상기 안구노출학습부(260)에 저장하고, 사용자가 졸았던 시점을 선택하여 상기 안구영역 이미지 중에서 졸음 상태의 안구영역 이미지를 추출한다. 상기 추출된 이미지의 안구영역 최대 세로높이 또는 안구영역 넓이를 측정하여 안구노출기준범위로 설정한다.The eyeball exposure reference range may be set to a range lower than a predetermined ratio of the normal eyeball exposure range. For example, the vertical length (h) of the user's eyes is measured, and the measured values are calculated and stored in the eye-on-eye learning unit 260. The measured average value is a steady state value, not a drowsy state. Since the eye size is different for each person, the vertical length (h) of each eye is measured for each user and used as a reference value for determining the drowsiness state do. In addition, the eyeball exposure reference range may be set to a range designated by the user as a sleeping state of the eyeball exposure range measured during the process of collecting the normal eyeball exposure range. For example, the eyeball region image of the user is acquired all day, stored in the eyeball exposure learning unit 260, and the eyeball region image of the drowsy state is extracted from the eyeball region image by selecting the point at which the user has slept. The maximum vertical height of the eye area or the width of the eye area of the extracted image is measured to set the eye exposure standard range.

상기 안구노출기준시간은, 사용자가 눈을 깜박이는 주기 또는 눈을 감은 후 다시 뜨는 데 걸리는 시간 등을 일정시간 평균치로 계산하여 기준으로 설정할 수 있고, 특정시간을 기준으로 설정할 수 있다. The eyeball exposure reference time can be set as a reference and can be set based on a specific time by calculating a period of time during which the user blinks the eyes or a time taken for the user to wake up after the eyes are closed.

다만, 상기 안구노출기준범위 및 안구노출기준시간의 설정은 이에 한정되지 않고, 사용자가 졸고 있는 지 판단할 수 있는 다양한 기준으로 설정될 수 있다.However, the setting of the eyeball exposure reference range and the eyeball exposure reference time is not limited to this, and may be set to various criteria for determining whether the user is sleeping.

사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시킨다(S400). 상기 사용자에게 알람을 발생시키는 방식은, 상기 글라스형 웨어러블 디바이스의 진동알람부가 진동을 발생시키는 알람방식, 상기 글라스형 웨어러블 디바이스의 음향출력부(320)가 알람음을 출력하는 알람방식, 상기 글라스형 웨어러블 디바이스의 뇌파동조신호발생부가 뇌파동조 신호를 제공하여 뇌 자극하는 알람방식, 외부 디바이스의 음향출력에 의한 알람방식 등이 적용될 수 있다.If it is determined that the user is sleeping, an alarm is generated to the user (S400). The method of generating an alarm to the user may include an alarm system in which the vibration alarm unit of the glass wearable device generates vibration, an alarm system in which the sound output unit 320 of the glass wearable device outputs an alarm sound, The wearable device's brain wave tuning signal generator may provide an EEG tuning signal to stimulate the brain, and an alarm system based on the sound output of the external device.

도 6는 본 발명의 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템의 구성도이다. 다만, 도 6에 있어서, 기 설명한 구성에 대한 구체적인 설명은 생략하기로 한다.6 is a configuration diagram of a drowsiness prevention system using a glass-type wearable device according to an embodiment of the present invention. In FIG. 6, a detailed description of the configuration described above will be omitted.

도 6을 참조하면, 본 발명의 또 다른 일실시예에 따른 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템은, 제2카메라(122); 제어부(210); 및 알람부(330);를 포함한다.Referring to FIG. 6, a sleeping prevention system using a glass-type wearable device according to another embodiment of the present invention includes a second camera 122; A control unit 210; And an alarm unit 330.

상기 제2카메라(122)는 상기 글라스형 웨어러블 디바이스의 일측에 구비되어 사용자의 사용자 눈 주변의 실시간 영상 또는 특정시간 간격으로 연속된 이미지를 획득하는 기능을 수행한다.The second camera 122 is provided on one side of the glass-type wearable device to acquire a real-time image around the user's eyes or a continuous image at a specific time interval.

상기 제어부(210)는 안구노출범위측정부; 안구미노출시간측정부; 및 알람통제부를 포함한다.The control unit 210 includes an eyeball exposure range measuring unit; Angumi Exposure Time Measurement Unit; And an alarm control unit.

상기 안구노출범위측정부는 상기 영상 또는 이미지에서 안구노출범위를 측정하는 기능을 수행한다. 상기 안구노출범위는 상기 영상 또는 이미지에 나타난 안구영역의 넓이로 측정하거나, 도 2에서와 같이, 사용자 눈의 최대 세로길이(h)로 측정할 수 있다.The eyeball exposure range measuring unit performs a function of measuring an eyeball exposure range in the image or the image. The eyeball exposure range may be measured as the width of the eyeball region shown in the image or the image, or may be measured as the maximum height h of the user eye as shown in FIG.

상기 안구미노출시간측정부는 상기 영상 또는 이미지를 분석하여 안구미노출시간을 측정하는 기능을 수행한다. 상기 안구미노출시간은 사용자가 눈을 깜박이는 주기 또는 눈을 감은 후 다시 뜨는 데 걸리는 시간으로 측정될 수 있다.The angular exposure time measuring unit measures the angular exposure time by analyzing the image or the image. The angular exposure time can be measured by the user's eye-blinking period or the time taken for the eye to re-rise after closing the eyes.

상기 알람통제부는 상기 측정된 안구노출범위와 안구미노출시간을 바탕으로 알람여부를 결정하는 기능을 수행한다. 상기 알람통제부는 상기 측정된 안구노출기준시간 및 안구노출기준범위과 저장된 안구노출기준시간 및 안구노출기준범위를 비교하여, 사용자의 눈이 상기 안구노출기준범위 이내의 상태를 안구노출기준시간 이상 유지하고 있으면 사용자가 졸고 있는 상태로 판단한다. The alarm control unit determines whether or not an alarm is generated based on the measured eye exposure range and the angular exposure time. The alarm control unit compares the measured eyeball exposure reference time and eyeball exposure reference range with the stored eyeball exposure reference time and eyeball exposure reference range and maintains the state of the user's eye within the eyeball exposure reference range for at least the eyeball exposure reference time The user is determined to be in a state of being sleepy.

상기 알람부(330)는 사용자의 졸음을 깨우기 위한 알람을 제공하는 기능을 수행한다. 상기 알람부(330)는, 진동을 발생시키는 진동알람부, 알람음을 출력하는 음향출력부(320), 뇌파동조 신호를 제공하여 뇌 자극하는 뇌파동조신호발생부 등을 포함할 수 있다.The alarm unit 330 provides an alarm for waking up the user. The alarm unit 330 may include a vibration alarm unit for generating vibration, an acoustic output unit 320 for outputting an alarm sound, and an EEG tuning signal generator for stimulating the brain by providing an EEG tuning signal.

또한, 안구노출학습부(260);를 포함할 수 있다. 상기 안구노출학습부(260)는 평상시 상기 사용자의 안구노출범위 또는 안구미노출시간에 대한 데이터를 수집하여 분석하는 기능을 수행한다. 즉, 일정시간 동안 사용자 눈의 세로 길이(h)를 측정하여 평균치를 계산하고, 사용자가 눈을 깜박이는 주기 또는 눈을 감은 후 다시 뜨는 데 걸리는 시간 등을 일정시간 평균치로 계산한다. 이를 통해 안구노출기준범위 또는 안구노출기준시간을 설정할 수 있다.In addition, the eyeball exposure learning unit 260 may be included. The eye-on-eye learning unit 260 performs a function of collecting and analyzing data on the eye-exposure range or the eye-gaze exposure time of the user. That is, the vertical length (h) of the user's eye is measured for a predetermined time, and the average value is calculated. The average time for the user to blink the eye or the time for the user to wake up after the eye is closed is calculated. This allows you to set the range of eye exposure thresholds or the time of eye exposure thresholds.

또한, 상기 제어부(210)는, 알람기준설정부;를 더 포함할 수 있다. 상기 알람기준설정부는 사용자에게 알람을 제공하는 안구노출범위 또는 안구미노출시간의 기준을 설정하는 기능을 수행한다.
In addition, the control unit 210 may further include an alarm reference setting unit. The alarm criterion setting unit performs a function of setting a criterion of an eye exposure range or a fog exposure time for providing an alarm to a user.

상기와 같은 본 발명에 따르면, 아래와 같은 다양한 효과들을 가진다.According to the present invention as described above, the following various effects are obtained.

첫째, 글라스형 웨어러블 디바이스를 통해 사용자가 졸고 있는 상태인지 확인하여 여러가지 알람 방식으로 사용자를 깨울 수 있다. First, it is possible to awaken the user by various alarm methods by checking whether the user is sleeping through the wearable device of the glass type.

둘째, 항상 사용자가 입고 있을 수 있는 글라스형 웨어러블 디바이스를 이용함에 따라 운전 중 뿐만아니라 학습하는 중 등 다양한 상황에서 사용할 수 있다. Secondly, by using a wearable wearable device which can be worn by the user at all times, it can be used in various situations such as not only during driving but also during learning.

셋째, 사용자의 일상생활 중에 안구사진을 촬영하여 안구노출범위 및 안구미노출시간의 기준을 설정할 수 있어서, 누구든지 자신의 눈 크기 기준에 맞게 사용할 수 있다.
Third, the user can set the criteria of the eyeball exposure range and the eyeball exposure time by photographing the eyeball during daily life, so that anyone can use it according to his / her eye size standard.

이상 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

100 : 시스템 110 : 사용자입력부
111 : 어플리케이션 112 : 키보드
113 : 음성입력부 114 : 터치패드
115 : GPS신호부 116 : 근거리통신
120 : 카메라부 121 : 제1카메라
122 : 제2카메라 123 : 제3카메라
130 : 센싱부 131 : 자이로센서
132 : 가속도센서 133 : 압력센서
134 : 홍체인식센서 135 : 심박검출센서
136 : 근전도센서
210 : 정보처리부 220 : 음성인식부
230 : 상황평가모듈 240 : 음성-텍스트변환모듈
250 : 무선통신부 260 : 메모리
270 : 인터페이스부
300 : 출력부 310 : 디스플레이부
320 : 음향출력부 330 : 알람부
340 : 햅틱모듈
100: system 110: user input
111: Application 112: Keyboard
113: voice input unit 114: touch pad
115: GPS signal unit 116: Local area communication
120: camera unit 121: first camera
122: second camera 123: third camera
130: sensing unit 131: gyro sensor
132: acceleration sensor 133: pressure sensor
134: iris recognition sensor 135: heart rate detection sensor
136: EMG sensor
210: information processing unit 220:
230: situation evaluation module 240: voice-to-text conversion module
250: wireless communication unit 260: memory
270:
300: output unit 310: display unit
320: Acoustic output unit 330:
340: Haptic module

Claims (8)

글라스형 웨어러블 디바이스의 제2카메라에 의해 사용자 눈 주변의 영상 또는 특정시간 간격의 연속된 이미지를 획득하는 단계;
획득된 상기 영상 또는 이미지를 통해 안구노출범위 및 안구미노출시간을 측정하는 단계;
상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단하는 단계; 및
사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시키는 단계;를 포함하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법.
Acquiring an image around a user's eye or a continuous image at a specific time interval by a second camera of the glass-like wearable device;
Measuring an eyeball exposure range and an eyeball exposure time through the acquired image or image;
Determining a state of the user on the basis of the measured eye exposure range and the angular exposure time; And
And generating an alarm to the user when the user is determined to be in a sleeping state.
제1항에 있어서,
상기 측정된 안구노출범위 및 안구미노출시간을 바탕으로 사용자의 상태를 판단하는 단계는,
상기 측정된 안구노출기준시간 및 안구노출기준범위과 저장된 안구노출기준시간 및 안구노출기준범위를 비교하는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법.
The method according to claim 1,
Wherein the step of determining the user's condition based on the measured ocular exposure range and the ocular exposure time comprises:
And comparing the measured eyeball exposure reference time and eyeball exposure reference range with the stored eyeball exposure reference time and eyeball exposure reference range.
제1항에 있어서,
상기 사용자가 졸고 있는 상태로 판단되는 경우, 사용자에게 알람을 발생시키는 단계는,
상기 글라스형 웨어러블 디바이스의 진동발생에 의한 알람방식, 상기 글라스형 웨어러블 디바이스의 음향출력에 의한 알람방식, 상기 글라스형 웨어러블 디바이스가 뇌파동조신호를 제공하여 뇌 자극하는 알람방식, 외부 디바이스의 음향출력에 의한 알람방식 중 적어도 하나 이상에 의해 수행되는 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법.
The method according to claim 1,
Wherein when the user is determined to be in a sleeping state,
An alarm system by the vibration output of the glass wearable device, an alarm system by the sound output of the glass wearable device, an alarm system by the brain wearable device providing a brain wave tuning signal to stimulate the brain, The method of claim 1, wherein the at least one of the at least one of the at least one of the at least two of the at least one of the at least one of the at least one of the at least two of the at least two glasses.
제1항에 있어서,
상기 안구노출기준범위는,
평상시 안구노출범위의 일정비율 이하 범위 또는 사용자의 평상시 안구노출범위를 수집하는 과정에서 측정된 안구노출범위 중 사용자가 졸고 있는 상태로 지정한 범위인 것을 특징으로 하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 방법.
The method according to claim 1,
The eye-
Wherein the user is in a sleeping state of the eye exposure range measured in the process of collecting the normal eye exposure range or a range of the normal eye exposure range or less.
사용자 눈 주변의 실시간 영상 또는 특정시간 간격으로 연속된 이미지를 획득하는 제2카메라;
상기 영상 또는 이미지에서 안구노출범위를 측정하는 안구노출범위측정부, 상기 영상 또는 이미지를 분석하여 안구미노출시간을 측정하는 안구미노출시간측정부, 및 상기 측정된 안구노출범위와 안구미노출시간을 바탕으로 알람여부를 결정하는 알람통제부를 포함하는 제어부; 및
사용자의 졸음을 깨우기 위한 알람을 제공하는 알람부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템.
A second camera for acquiring a real-time image around the user's eye or a continuous image at a specific time interval;
An eyeball exposure range measuring unit for measuring an eyeball exposure range in the image or the image, an eyeball exposure time measuring unit for measuring the eyeball exposure time by analyzing the image or the image, and the eyeball exposure range and the eyeball exposure time And an alarm control unit for determining whether or not an alarm is generated based on the alarm signal. And
And an alarm unit for providing an alarm for waking up the user's sleepiness.
제5항에 있어서,
상기 알람부는,
진동을 발생시키는 진동알람부, 알람음을 출력하는 음향출력부, 뇌파동조 신호를 제공하여 뇌 자극하는 뇌파동조신호발생부 중 적어도 하나 이상을 포함하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템.
6. The method of claim 5,
The alarm unit includes:
A wearable system using a glass wearable device comprising at least one of a vibration alarm unit for generating vibration, an acoustic output unit for outputting an alarm sound, and an EEG coherent signal generating unit for stimulating the brain by providing an EEG synchronization signal.
제5항에 있어서,
평상시 상기 사용자의 안구노출범위 또는 안구미노출시간에 대한 데이터를 수집하여 분석하는 안구노출학습부;를 포함하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템.
6. The method of claim 5,
And an eyeball exposure learning unit for collecting and analyzing data on the eyeball exposure range or the eyeball exposure time of the user at normal times.
제5항에 있어서,
상기 제어부는,
사용자에게 알람을 제공하는 안구노출범위 또는 안구미노출시간의 기준을 설정하는 알람기준설정부;를 더 포함하는 글라스형 웨어러블 디바이스를 이용한 졸음방지 시스템.
6. The method of claim 5,
Wherein,
And an alarm reference setting unit for setting a reference of an eyeball exposure range or an eyeglass exposure time for providing an alarm to the user.
KR1020140099695A 2014-08-04 2014-08-04 System and method for preventing drowsiness by wearable glass device KR20160016149A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140099695A KR20160016149A (en) 2014-08-04 2014-08-04 System and method for preventing drowsiness by wearable glass device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140099695A KR20160016149A (en) 2014-08-04 2014-08-04 System and method for preventing drowsiness by wearable glass device

Publications (1)

Publication Number Publication Date
KR20160016149A true KR20160016149A (en) 2016-02-15

Family

ID=55356943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140099695A KR20160016149A (en) 2014-08-04 2014-08-04 System and method for preventing drowsiness by wearable glass device

Country Status (1)

Country Link
KR (1) KR20160016149A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108919517A (en) * 2018-09-25 2018-11-30 吉林大学 A kind of car steering anti-fatigue eyeglasses and fatigue state recognition method
KR20190133533A (en) * 2018-05-23 2019-12-03 한민홍 drowsiness detection apparatus and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190133533A (en) * 2018-05-23 2019-12-03 한민홍 drowsiness detection apparatus and method
CN108919517A (en) * 2018-09-25 2018-11-30 吉林大学 A kind of car steering anti-fatigue eyeglasses and fatigue state recognition method

Similar Documents

Publication Publication Date Title
US10571715B2 (en) Adaptive visual assistive device
CN106471419B (en) Management information is shown
JP5490535B2 (en) Support system and support method for visually handicapped person
US20140267648A1 (en) Apparatus and method for providing failed-attempt feedback using a camera on glasses
KR101684264B1 (en) Method and program for the alarm of bus arriving by wearable glass device
KR101661555B1 (en) Method and program for restricting photography of built-in camera of wearable glass device
CN113454710A (en) System for evaluating sound presentation
KR20160017593A (en) Method and program for notifying emergency exit by beacon and wearable glass device
KR20200104758A (en) Method and apparatus for determining a dangerous situation and managing the safety of the user
KR20160015142A (en) Method and program for emergency reporting by wearable glass device
KR101728707B1 (en) Method and program for controlling electronic device by wearable glass device
US20240105177A1 (en) Local artificial intelligence assistant system with ear-wearable device
KR20160026310A (en) System and method for curling coaching by wearable glass device
WO2017016941A1 (en) Wearable device, method and computer program product
KR102251710B1 (en) System, method and computer readable medium for managing content of external device using wearable glass device
KR20160016149A (en) System and method for preventing drowsiness by wearable glass device
KR20160011302A (en) System and method for digital image processing by wearable glass device
KR101629758B1 (en) Method and program with the unlock system of wearable glass device
WO2020070839A1 (en) Head-mount display and head-mount display system
KR20160024140A (en) System and method for identifying shop information by wearable glass device
KR20160025150A (en) System and method for social dating service by wearable glass device
KR20160023226A (en) System and method for exploring external terminal linked with wearable glass device by wearable glass device
KR20160016216A (en) System and method for real-time forward-looking by wearable glass device
KR20160025203A (en) System and method for billiard coaching by wearable glass device
KR20160029575A (en) System and method for providing record by wearable glass device

Legal Events

Date Code Title Description
N231 Notification of change of applicant
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid