KR101575051B1 - 웨어러블 디바이스 및 그 제어방법 - Google Patents

웨어러블 디바이스 및 그 제어방법 Download PDF

Info

Publication number
KR101575051B1
KR101575051B1 KR1020140072233A KR20140072233A KR101575051B1 KR 101575051 B1 KR101575051 B1 KR 101575051B1 KR 1020140072233 A KR1020140072233 A KR 1020140072233A KR 20140072233 A KR20140072233 A KR 20140072233A KR 101575051 B1 KR101575051 B1 KR 101575051B1
Authority
KR
South Korea
Prior art keywords
user
time
information
alarm
output
Prior art date
Application number
KR1020140072233A
Other languages
English (en)
Inventor
이현철
이기호
이재희
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140072233A priority Critical patent/KR101575051B1/ko
Priority to US14/690,716 priority patent/US9789878B2/en
Priority to EP15001196.3A priority patent/EP2945133B1/en
Priority to CN201510201512.9A priority patent/CN105015552B/zh
Application granted granted Critical
Publication of KR101575051B1 publication Critical patent/KR101575051B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • B60K35/22
    • B60K35/28
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • B60R16/0231Circuits relating to the driving or the functioning of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02438Detecting, measuring or recording pulse rate or heart rate with portable devices, e.g. worn by the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4806Sleep evaluation
    • A61B5/4812Detecting sleep stages or cycles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • B60K2360/178
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • B60W2050/0057Frequency analysis, spectral techniques or transforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/26Incapacity
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle for navigation systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Psychology (AREA)
  • Medical Informatics (AREA)
  • Hospice & Palliative Care (AREA)
  • Social Psychology (AREA)
  • Educational Technology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Developmental Disabilities (AREA)
  • Child & Adolescent Psychology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

본 발명은 사용자의 각종 신체 상태를 감지할 수 있는 웨어러블 디바이스 및 그 제어 방법에 관한 것으로, 화상 정보를 출력하는 디스플레이부,량을 운전하는 사용자의 생체 정보를 감지하는 감지부, 및, 상기 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하고, 상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력하는 제어부를 포함하며, 상기 제어부는, 사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하고, 현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요시간에 근거하여 결정되는 시간이 경과하면 알람을 출력하는 것을 특징으로 한다.

Description

웨어러블 디바이스 및 그 제어방법{WEARABLE DEVICE AND METHOD FOR CONTROLLING THE SAME}
본 발명은 사용자의 각종 신체 상태를 감지할 수 있는 웨어러블 디바이스 및 그 제어 방법에 관한 것이다.
웨어러블 디바이스(Wearable device)는 사용자가 신체 또는 의류에 착용할 수 있는 각종 전자기기를 모두 포함한다. 이러한 웨어러블 디바이스는 예를 들어 스마트 와치(Smart Watch), 웨어러블 컴퓨터(Wearable Computer), 구글 글래스(google glass), 블루투스 헤드셋(Bluetooth Headset), 스마트 웨어(Smart wear) 등일 수 있다.
이러한 웨어러블 디바이스는 상술한 바와 같이 사용자의 신체 또는 의류에 착용가능하다. 이에 따라 상기 웨어러블 디바이스를 이용하면 사용자의 신체와 관련된 각종 상태를 측정할 수 있다. 그리고 현재 이러한 웨어러블 디바이스의 장점을 보다 폭넓게 활용할 수 있도록 하는 연구가 활발하게 진행 중에 있다.
본 발명의 일 목적은, 사용자의 졸음 운전으로 인한 사고를 사전에 방지할 수 있도록 하는 웨어러블 디바이스 및 그 제어 방법을 제공하는 것이다.
본 발명의 다른 목적은, 사용자가 졸음 운전 상태에 있는 경우 사용자가 휴식을 취하도록 사용자를 유도할 수 있는 웨어러블 디바이스 및 그 제어 방법을 제공하는 것이다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따르면, 본 발명의 실시 예에 따른 웨어러블 디바이스는, 화상 정보를 출력하는 디스플레이부,량을 운전하는 사용자의 생체 정보를 감지하는 감지부, 및, 상기 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하고, 상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력하는 제어부를 포함하며, 상기 제어부는, 사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하고, 현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요시간에 근거하여 결정되는 시간이 경과하면 알람을 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 사용자가 수면 상태에 있는 경우, 기 설정된 시간을 주기로 교통 상황에 대한 정보를 수집하고, 수집된 교통 상황에 근거하여 상기 결정된 알람 출력 시간을 변경하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 수집된 교통 상황을 분석한 결과, 교통 상황이 일정 수준 이상 개선된 것으로 판단되면, 상기 알람이 출력되도록 하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 수집된 교통 상황을 분석한 결과, 교통 상황이 일정 수준 이상 개선된 것으로 판단되면, 사용자의 생체 정보를 재감지하며, 상기 재감지된 사용자의 생체 정보에 근거하여 상기 알람이 출력될 시간을 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 알람이 출력되면, 사용자의 생체 정보를 재감지하고, 상기 사용자의 신체 정보를 재감지한 결과에 근거하여, 수면을 권고하기 위한 화상 정보를 다시 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 화상 정보는, 상기 재감지된 사용자의 생체 정보에 근거하여 판단되는 사용자의 신체 상태와 관련된 정보를 더 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 생체 신호는, 사용자의 심박 스펙트럼이며, 상기 제어부는, 상기 심박 스펙트럼을 분석한 결과에 근거하여 사용자의 수면 상태를 복수의 수면 단계들 중 어느 하나로 구분하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 구분된 어느 하나의 수면 단계에 근거하여 상기 알람이 출력될 시간을 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 사용자가 수면 상태에 있는 경우, 기 설정된 차량 환경 설정 정보에 따라 차량 내부의 환경을 변경하며, 상기 기 설정된 차량 환경 설정 정보는, 상기 사용자의 숙면을 유도하기 위한 것으로 미리 설정된 것으로, 차량 내부의 조명, 방향(aroma), 환기 상태 중 적어도 어느 하나와 관련된 것임을 특징으로 한다.
일 실시 예에 있어서, 상기 화상 정보는, 현재 교통 상황에 근거하여 추정된 상기 목적지까지의 운행 소요시간과, 교통 상황이 일정 수준 이상 개선된 상태에서 추정된 상기 목적지까지의 운행 소요시간을 비교한 정보를 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 화상 정보는, 상기 알람이 출력될 시간까지 사용자가 수면을 취하는 경우에 상기 목적지까지의 운행 소요시간을 추정한 정보를 더 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 웨어러블 디바이스는, 상기 차량과 상호 연동되며, 상기 화상 정보는, 상기 디스플레이부 또는 상기 차량에 구비된 화상 정보 출력 장치 중 적어도 하나에 출력되는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 화상 정보, 음향 정보, 및, 기 설정된 패턴의 진동 중 적어도 하나의 형태로 상기 알람을 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 웨어러블 디바이스는, 상기 차량과 상호 연동되며, 상기 알람은, 상기 차량에 구비된 진동 모듈, 디스플레이부, 및 음향 출력부 중 적어도 하나로부터 출력되는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 현재 교통 상황을 분석한 결과, 교통 체증이 발생한 것으로 판단되는 경우, 현재 교통 상황에 따라 추정된 상기 목적지까지의 운행 소요시간과, 체증이 발생하지 않은 교통 상황에서의 상기 목적지까지의 운행 소요시간의 차이에 근거하여 상기 알람이 출력될 시간을 결정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 목적지까지의 차량 운행에 관련된 각 시간별 교통 상황 정보를 수집하고, 수집된 정보에 근거하여 교통 체증이 발생하지 않은 교통 상황에서 상기 목적지까지의 운행 소요 시간을 추정하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 사용자가 수면 상태에 있는 경우, 기 설정된 스케줄에 지정된 시각과 상기 목적지까지의 운행 소요시간에 근거하여 상기 알람이 출력될 시각을 결정하는 것을 특징으로 한다 .
일 실시 예에 있어서, 상기 제어부는, 사용자가 수면 상태에 있는 경우, 상기 알람이 출력될 시각에 근거한 교통 상황에 따라 상기 사용자가 상기 스케줄에 지정된 시각에 상기 목적지에 도착할 수 있을지 여부를 판단하고, 상기 판단 결과에 따라 상기 스케줄과 관련된 연락 정보를 확인 및, 상기 연락 정보를 이용하여 기 설정된 메시지를 전송하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 기 설정된 최적 간이 수면 시간을 근거로 상기 알람이 출력될 시간을 결정하는 것을 특징으로 한다.
또한 본 발명의 실시 예에 따른 웨어러블 디바이스의 제어 방법은, 차량을 운전하는 사용자의 생체 정보를 감지하고, 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하는 단계와, 상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력하는 단계와, 사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하는 단계와, 현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요 시간에 근거하여 알람을 출력할 시간을 결정하는 단계, 및, 상기 알람 출력 시간의 경과 여부에 따라 상기 알람을 출력하는 단계를 포함하는 것을 특징으로 한다.
본 발명에 따른 웨어러블 디바이스 및 그 제어 방법의 효과에 대해 설명하면 다음과 같다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 사용자가 졸음 운전 상태에 있는 경우, 현재의 교통 상황에 근거한 적절한 휴식 시간을 제시함으로써 사용자가 휴식을 취할 수 있도록 유도할 수 있다는 장점이 있다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 본 발명은 목적지까지의 교통 상황을 고려하여 알람을 출력할 시간을 결정함으로써, 사용자가 보다 적절한 휴식 시간을 제공받을 수 있도록 하는 장점이 있다.
도 1은 본 발명과 관련된 웨어러블 디바이스를 설명하기 위한 블록도이다.
도 2는 본 발명과 관련된 와치(watch) 타입의 웨어러블 디바이스의 일 예를 보인 사시도이다.
도 3은 본 발명과 관련된 스마트 와치가 교통 정보를 수집하는 예를 도시한 개념도이다.
도 4는 본 발명과 관련된 스마트 와치의 동작 과정을 도시한 흐름도이다.
도 5는 본 발명과 관련된 스마트 와치에서, 사용자의 수면 상태를 감지한 결과에 따라 알람 시각을 결정하는 동작 과정을 도시한 흐름도이다.
도 6은 본 발명과 관련된 스마트 와치에서, 기 저장된 사용자의 스케줄에 근거하여 양해 메시지를 전송하는 동작 과정을 도시한 흐름도이다.
도 7은 본 발명의 실시 예에 따라 현재의 교통 상황에 근거하여 사용자에게 휴식을 유도하기 위한 화상 정보의 예시도이다.
도 8a 및 도 8b는 본 발명과 관련된 스마트 와치에서 알람 정보가 출력되는 예들을 보이고 있는 예시도이다.
도 9는 본 발명과 관련된 스마트 와치에서, 기 설정된 스케쥴에 근거하여 특정인에게 전송되는 양해 메시지의 예를 보이고 있는 예시도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 동일하거나 유사한 구성요소에는 동일, 유사한 도면 부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명과 관련된 웨어러블 디바이스를 설명하기 위한 블록도이다.
상기 웨어러블 디바이스(100)는 무선 통신부(110), 입력부(120), 감지부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 웨어러블 디바이스를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 웨어러블 디바이스는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 웨어러블 디바이스(100)와 무선 통신 시스템 사이, 웨어러블 디바이스(100)와 다른 웨어러블 디바이스(100) 사이, 또는 웨어러블 디바이스(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 웨어러블 디바이스(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 웨어러블 디바이스 내 정보, 웨어러블 디바이스를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 웨어러블 디바이스(100)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 웨어러블 디바이스(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 웨어러블 디바이스(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 웨어러블 디바이스(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 웨어러블 디바이스(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 웨어러블 디바이스(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 웨어러블 디바이스(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 웨어러블 디바이스(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 웨어러블 디바이스(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 웨어러블 디바이스(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 웨어러블 디바이스(100) 상에 설치되어, 제어부(180)에 의하여 상기 웨어러블 디바이스의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 웨어러블 디바이스(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 웨어러블 디바이스(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 웨어러블 디바이스(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 웨어러블 디바이스의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 웨어러블 디바이스의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 웨어러블 디바이스 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 웨어러블 디바이스(100)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 1를 참조하여 보다 구체적으로 살펴본다.
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 웨어러블 디바이스(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
무선 인터넷 기술로는, 예를 들어WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 웨어러블 디바이스(100)와 무선 통신 시스템 사이, 웨어러블 디바이스(100)와 다른 웨어러블 디바이스(100) 사이, 또는 웨어러블 디바이스(100)와 다른 웨어러블 디바이스(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.
여기에서, 다른 웨어러블 디바이스(100)는 본 발명에 따른 웨어러블 디바이스(100)와 데이터를 상호 교환하는 것이 가능한(또는 연동 가능한) 웨어러블 디바이스(wearable device, 예를 들어, 스마트와치(smartwatch), 스마트 글래스(smart glass), HMD(head mounted display))가 될 수 있다. 근거리 통신 모듈(114)은, 웨어러블 디바이스(100) 주변에, 상기 웨어러블 디바이스(100)와 통신 가능한 웨어러블 디바이스를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 상기 감지된 웨어러블 디바이스가 본 발명에 따른 웨어러블 디바이스(100)와 통신하도록 인증된 디바이스인 경우, 웨어러블 디바이스(100)에서 처리되는 데이터의 적어도 일부를, 상기 근거리 통신 모듈(114)을 통해 웨어러블 디바이스로 전송할 수 있다. 따라서, 웨어러블 디바이스의 사용자는, 웨어러블 디바이스(100)에서 처리되는 데이터를, 웨어러블 디바이스를 통해 이용할 수 있다. 예를 들어, 이에 따르면 사용자는, 웨어러블 디바이스(100)에 전화가 수신된 경우, 웨어러블 디바이스를 통해 전화 통화를 수행하거나, 웨어러블 디바이스(100)에 메시지가 수신된 경우, 웨어러블 디바이스를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
위치정보 모듈(115)은 웨어러블 디바이스의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 웨어러블 디바이스는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 웨어러블 디바이스의 위치를 획득할 수 있다. 다른 예로서, 웨어러블 디바이스는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 웨어러블 디바이스의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 웨어러블 디바이스의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 웨어러블 디바이스의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 웨어러블 디바이스의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
다음으로, 입력부(120)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 영상 정보의 입력을 위하여, 웨어러블 디바이스(100) 는 하나 또는 복수의 카메라(121)를 구비할 수 있다. 카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 웨어러블 디바이스(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 웨어러블 디바이스(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 웨어러블 디바이스(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록웨어러블 디바이스(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 웨어러블 디바이스(100)의 전ㅇ후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
한편, 센싱부(140)는 웨어러블 디바이스 내 정보, 웨어러블 디바이스를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 웨어러블 디바이스(100)의 구동 또는 동작을 제어하거나, 웨어러블 디바이스(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 센싱부(140)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(141)는 위에서 살펴본 터치스크린에 의해 감싸지는 웨어러블 디바이스의 내부 영역 또는 상기 터치스크린의 근처에 근접 센서(141)가 배치될 수 있다.
근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치스크린이 정전식인 경우에, 근접 센서(141)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(180)는 위와 같이, 근접 센서(141)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치스크린 상에 출력시킬 수 있다. 나아가, 제어부(180)는, 터치스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 웨어러블 디바이스(100)를 제어할 수 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러가지 터치방식 중 적어도 하나를 이용하여 터치스크린(또는 디스플레이부(151))에 가해지는 터치(또는 터치입력)을 감지한다.
일 예로서, 터치 센서는, 터치스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(180)와 별도의 구성요소일 수 있고, 제어부(180) 자체일 수 있다.
한편, 제어부(180)는, 터치스크린(또는 터치스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 웨어러블 디바이스(100)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(180)는 광 센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광 센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 입력부(120)의 구성으로 살펴본, 카메라(121)는 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함한다.
카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(151)는 웨어러블 디바이스(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 웨어러블 디바이스(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부로서 구성될 수 있다.
상기 입체 디스플레이부에는 스테레오스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다.
음향 출력부(152)는 호 신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 웨어러블 디바이스(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(153)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(153)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(153)은 웨어러블 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
광출력부(154)는 웨어러블 디바이스(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 웨어러블 디바이스(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
광출력부(154)가 출력하는 신호는 웨어러블 디바이스가 전면이나 후면으로 단색이나 복수색의 빛을 발광함에 따라 구현된다. 상기 신호 출력은 웨어러블 디바이스가 사용자의 이벤트 확인을 감지함에 의하여 종료될 수 있다.
인터페이스부(160)는 웨어러블 디바이스(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(160)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 웨어러블 디바이스(100) 내부의 각 구성요소에 전달하거나, 웨어러블 디바이스(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트(port), 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(160)에 포함될 수 있다.
한편, 식별 모듈은 웨어러블 디바이스(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(160)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(160)는 웨어러블 디바이스(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 웨어러블 디바이스(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 웨어러블 디바이스(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 웨어러블 디바이스(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
메모리(170)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰 북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(170)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(170)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 웨어러블 디바이스(100)는 인터넷(internet)상에서 상기 메모리(170)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 앞서 살펴본 것과 같이, 제어부(180)는 응용 프로그램과 관련된 동작과, 통상적으로 웨어러블 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(180)는 상기 웨어러블 디바이스의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행하거나, 해제할 수 있다.
또한, 제어부(180)는 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행하거나, 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(180)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 웨어러블 디바이스(100) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
전원공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원공급부(190)는 배터리를 포함하며, 배터리는 충전 가능하도록 이루어지는 내장형 배터리가 될 수 있으며, 충전 등을 위하여 단말기 바디에 착탈 가능하게 결합될 수 있다.
또한, 전원공급부(190)는 연결포트를 구비할 수 있으며, 연결포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
다른 예로서, 전원공급부(190)는 상기 연결포트를 이용하지 않고 무선방식으로 배터리를 충전하도록 이루어질 수 있다. 이 경우에, 전원공급부(190)는 외부의 무선 전력 전송장치로부터 자기 유도 현상에 기초한 유도 결합(Inductive Coupling) 방식이나 전자기적 공진 현상에 기초한 공진 결합(Magnetic Resonance Coupling) 방식 중 하나 이상을 이용하여 전력을 전달받을 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
한편, 웨어러블 디바이스(100)에는 스마트 와치(smart watch), 스마트 글래스(smart glass), HMD(head mounted display) 등이 있을 수 있다. 이하, 이러한 웨어러블 디바이스(100)의 예들에 대하여 설명하기로 한다.
예를 들어 이동 단말기는 웨어러블 디바이스(100)와 데이터를 상호 교환(또는 연동) 가능하게 이루어질 수 있다. 근거리 통신 모듈(114)은, 주변에 통신 가능한 이동 단말기를 감지(또는 인식)할 수 있다. 나아가, 제어부(180)는 감지된 이동 단말기가 웨어러블 디바이스(100)와 통신하도록 인증된 디바이스인 경우, 이동 단말기에서 처리되는 데이터의 적어도 일부를, 근거리 통신 모듈(114)을 통하여 웨어러블 디바이스(100)로 수신할 수 있다. 따라서 사용자는 이동 단말기에서 처리되는 데이터를 다른 웨어러블 디바이스(100)를 통하여 이용할 수 있다. 예를 들어, 이동 단말기에 전화가 수신된 경우 사용자는 웨어러블 디바이스(100)를 통해 전화 통화를 수행하거나, 이동 단말기에 메시지가 수신된 경우 웨어러블 디바이스(100)를 통해 상기 수신된 메시지를 확인하는 것이 가능하다.
도 2는 본 발명의 일 실시 예와 관련된 와치(watch) 타입의 웨어러블 디바이스(100)의 일 예를 보인 사시도이다.
도 2를 참조하면, 와치 타입의 웨어러블 디바이스, 즉 스마트 와치는 디스플레이부(251)를 구비하는 본체(201) 및 본체(201)에 연결되어 손목에 착용 가능하도록 구성되는 밴드(202)를 포함한다. 일반적으로 상기 와치 타입의 웨어러블 디바이스는 도 1의 웨어러블 디바이스(100)의 특징 또는 그와 유사한 특징을 포함할 수 있다.
본체(201)는 외관을 형성하는 케이스를 포함한다. 도시된 바와 같이, 케이스는 각종 전자부품들을 수용하는 내부 공간을 마련하는 제1케이스(201a) 및 제2케이스(201b)를 포함할 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니고, 하나의 케이스가 상기 내부 공간을 마련하도록 구성되어 유니 바디의 웨어러블 디바이스(200)가 구현될 수도 있다.
와치 타입의 웨어러블 디바이스(200)는 무선 통신이 가능하도록 구성되며, 본체(201)에는 상기 무선 통신을 위한 안테나가 설치될 수 있다. 한편, 안테나는 케이스를 이용하여 그 성능을 확장시킬 수 있다. 예를 들어, 도전성 재질을 포함하는 케이스가 안테나와 전기적으로 연결되어 그라운드 영역 또는 방사 영역을 확장시키도록 구성될 수 있다.
본체(201)의 전면에는 디스플레이부(251)가 배치되어 정보를 출력할 수 있으며, 디스플레이부(251)에는 터치센서가 구비되어 터치스크린으로 구현될 수 있다. 도시된 바와 같이, 디스플레이부(251)의 윈도우(251a)는 제1 케이스(201a)에 장착되어 제1 케이스(201a)와 함께 단말기 바디의 전면을 형성할 수 있다.
본체(201)에는 음향 출력부(252), 카메라(221), 마이크로폰(222), 사용자 입력부(223) 등이 구비될 수 있다. 디스플레이부(251)가 터치스크린으로 구현되는 경우, 사용자 입력부(223)로 기능할 수 있으며, 이에 따라 본체(201)에 별도의 키가 구비되지 않을 수 있다.
밴드(202)는 손목에 착용되어 손목을 감싸도록 이루어지며, 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 그러한 예로서, 밴드(202)는가죽, 고무, 실리콘, 합성수지 재질 등으로 형성될 수 있다. 또한, 밴드(202)는 본체(201)에 착탈 가능하게 구성되어, 사용자가 취향에 따라 다양한 형태의 밴드로 교체 가능하게 구성될 수 있다.
한편, 밴드(202)는 안테나의 성능을 확장시키는 데에 이용될 수 있다. 예를 들어, 밴드에는 안테나와 전기적으로 연결되어 그라운드 영역을 확장시키는 그라운드 확장부(미도시)가 내장될 수 있다.
밴드(202)에는 파스너(fastener; 202a)가 구비될 수 있다. 파스너(202a)는 버클(buckle), 스냅핏(snap-fit)이 가능한 후크(hook) 구조, 또는 벨크로(velcro; 상표명) 등에 의하여 구현될 수 있으며, 신축성이 있는 구간 또는 재질을 포함할 수 있다. 본 도면에서는, 파스너(202a)가 버클 형태로 구현된 예를 제시하고 있다.
한편 본 발명의 실시 예에 따른 웨어러블 디바이스(200)는, 차량 제어부(도시되지 않음)와 유선 또는 무선으로 연결되어 차량 제어부에 특정 기능이 실행되도록 요청할 수 있다. 이처럼 웨어러블 디바이스(200)에 접속되어 상기 차량이 상호 연동된 상태를 이하에서는 '커넥티드 카(Connected Car)'로 명명하기로 한다.
이와 같이, '커넥티드 카' 상태가 되면, 상기 웨어러블 디바이스(200)는 소정의 인터페이스를 통해서 웨어러블 디바이스(200)에서 출력되는 화상 정보 및/또는 음향 정보 등을 차량에 구비된 A/V(Audio/Video) 출력 장치로 송신해줄 수 있다. 그리고 이처럼 상기 차량의 출력 장치로 송신된 화상 정보 및/또는 음향 정보 등은, 차량에 구비된 디스플레이부 및/또는 오디오 시스템을 통해 출력될 수 있다. 이때, 화상 정보 및/또는 음향 정보의 전송을 위한 인터페이스의 수단으로는, 예를 들어, WiFi(Wireless Fidelity) 송수신기, 블루투스(bluetooth) 송수신기와 같은 무선 통신을 지원하는 수단이거나, 또는 USB(Universal Serial Bus) 단자 등과 같이 유선 통신을 지원하는 수단일 수 있다.
한편 이와 같은 '커넥티드 카' 상태가 되면, 웨어러블 디바이스(200)는 차량에서 실행 가능한 기능들 중 적어도 하나가 실행되도록 할 수 있다. 예를 들어 웨어러블 디바이스(200)는 디스플레이부(251)에서 출력되는 화상 정보가 차량에 구비된 텔레매틱스 단말기의 디스플레이부 또는 차량의 윈도 쉴드 글래스(Wind Shield Glass)를 통해 HUD(Head Up Display) 방식으로 표시되도록 할 수도 있다. 또는 웨어러블 디바이스(200)의 제어에 따라 차량 시트에 구비된 진동 모듈에서 알람 진동이 발생되도록 하거나 또는 오디오 출력부를 통한 알람 음향이 출력되도록 할 수도 있다.
도 3은 본 명세서에 개시된 실시 예에 따른 웨어러블 디바이스가 교통정보를 수집하는 예를 나타낸 블록도이다.
도 3에 도시한 바와 같이, 웨어러블 디바이스(200)는, 교통 정보 및 각종 데이터(예를 들면, 프로그램, 실행 파일 등)를 제공하는 정보 제공 센터(300)와, 원거리 무선 통신망(310) 및/또는 근거리 무선 통신망을 통해 교통 정보를 수신하고, 인공위성(320)을 통해 수신된 GPS 신호 및 상기 교통 정보를 근거로 길 안내 서비스를 제공할 수 있다. 여기서, 상기 통신망은 LAN(Local Area Network), WAN(Wide Area Network)과 같은 유무선 통신 네트워크를 더 포함할 수도 있다.
상기 통신망을 통해서는 신호등 정보를 비롯한 각종 교통정보(예컨대, 도로 교통 정보 또는 관심지역 정보)가 수집되며, 수집된 정보는 웨어러블 디바이스(200)로 전송될 수 있다. 상기 교통정보는 신호등 정보를 포함하며, 그 밖에 사고, 도로 상황, 교통 혼잡, 도로 건설, 도로 폐쇄, 공공 교통망 지연, 항공 운항 지연과 같은 도로, 해양, 항공 운항을 위해 필요한 각종 교통 조건에 대한 정보를 포함할 수 있다.
한편 상기 교통 정보는, 정보 제공 센터(300)(예컨대, 서버)에서 TPEG(Transport Protocol Expert Group) 규격에 따라 처리되어 방송국으로 전송될 수도 있다. 이에 따라 방송국에서는 신호등 정보를 포함하는 교통정보를 방송신호에 삽입하여 상기 차량의 텔레메틱스 단말기(도시되지 않음)로 방송할 수 있다. 여기서, 상기 신호등 정보는 차량이 신호등에 인접할 때 신호등에 설치된 서버(도시하지 않음)로부터 수신될 수도 있다.
상기 서버는 통신망에 연결된 여러 가지 경로, 예를 들어 운영자 입력, 유무선 인터넷, TDC(Transparent Data Channel), MOC(Multimedia Object Transport)와 같은 디지털 방송 서비스, 타 서버 또는 검증 카(probe car)로부터 수집되는 각종 교통정보를, 예를 들면 교통정보 서비스를 위한 규격인 TPEG(Transport Protocol Expert Group) 규격에 따른 포맷과 같은 교통정보 포맷으로 재구성하여 방송국으로 전송할 수도 있다. 여기서 상기 서버는 신호등 정보를 포함하는 TPEG 규격의 교통정보 포맷을 생성하여 방송국으로 전송할 수도 있다.
방송국은 교통정보 수신 단말기 역할을 수행하는 차량 등에 탑재된 텔레매틱스 단말기, 예를 들어 네비게이션 장치가 수신할 수 있도록 서버로부터 수신한 신호등 정보를 포함하는 교통 정보를 방송신호에 실어 무선으로 전송한다. 그러면 상기 텔레매틱스 단말기는 상기 방송신호와 함께 교통 정보를 수신할 수 있다. 그리고 본 발명의 실시 예에 따른 웨어러블 디바이스(200)는 상기 텔레매틱스 단말기로부터 상기 교통 정보를 제공받을 수도 있다.
이하에서는 이와 같이 구성된 웨어러블 디바이스에서 구현될 수 있는 제어 방법과 관련된 실시 예들에 대해 첨부된 도면을 참조하여 살펴보겠다. 본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다. 또한 이하의 설명에서는 편의상 상기 웨어러블 디바이스(200)의 예로 스마트 와치인 경우를 가정하여 설명하기로 한다. 그러나 본 발명이 이에 한정되는 것이 아님은 물론이다.
도 4는 이처럼 본 발명과 관련된 스마트 와치의 동작 과정을 도시한 흐름도이다.
도4를 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 사용자가 차량을 운전하고 있는지 여부를 판단할 수 있다. 그리고 제어부(180)는 사용자가 운전을 하고 있는 것으로 판단되는 경우 사용자의 생체 정보를 감지하여 사용자가 졸음 운전 상태인지 여부를 판단한다(S400).
예를 들어 제어부(180)는 사용자가 미리 지정된 차량 안에 탑승하는 경우 또는 사용자가 착석한 시트가 차량의 운전석인 경우에 상기 차량이 구동되면, 상기 사용자가 차량을 운전하고 있는 것으로 판단할 수 있다. 그리고 이러한 상태에서 제어부(180)는 다양한 방식으로 사용자의 졸음 운전 상태를 판단할 수 있다. 예를 들어 제어부(180)는 사용자의 심박수를 체크한 결과를 이용하거나 또는 사용자의 체온 변화 또는 사용자의 근육 이완 정도 등을 감지한 결과를 적어도 하나 이용하여 사용자가 졸음 운전을 하고 있는 상태인지를 판단할 수 있으며, 비록 사용자가 졸음 운전을 하고 있지 않은 상태라도 졸음 운전의 위험성이 있는지 여부를 판단할 수 있다.
그리고 상기 S400 단계에서 사용자가 졸음 운전을 하고 있는 것으로 판단되는 경우 또는 사용자의 졸음 운전 가능성이 기 설정된 수준 이상인 경우, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 사용자에게 휴식을 권고하기 위한 화상 정보 또는 음향 정보를 출력할 수 있다(S402).
상기 S402 단계에서 출력되는 화상 정보 및/또는 음향 정보는 사용자에게 휴식을 권고하기 위한 내용을 포함할 수 있다. 예를 들어 상기 화상 정보 및/또는 음향 정보에는 상기 제어부(180)가 수집한 현재의 교통 상황에 대한 정보가 포함될 수 있다. 즉, 상기 화상 정보 및/또는 음향 정보에는, 현재의 교통 상황에 근거하여 산출된 기 설정된 목적지까지의 주행 소요시간 및 예상 도착 시각과, 통상적인 경우에 상기 목적지까지의 주행에 소요되는 시간 및 이에 따른 예상 도착 시각에 대한 정보가 포함될 수 있다.
따라서 만약 현재 기 설정된 목적지까지의 경로 상에 교통 체증(traffic jam 또는 traffic congestion)이 발생하는 경우, 제어부(180)는 상기 교통 체증이 반영된 도착 예상 시각에 대한 정보와 상기 교통 체증이 발생하지 않은 상태에서 상기 목적지까지의 도착 예상 시각을 비교한 결과를 사용자에게 알릴 수 있다.
뿐만 아니라 제어부(180)는 상기 목적지까지의 각 시간별 교통 상황에 대한 통계 정보를 수집하여, 상기 목적지까지의 교통 체증 상황이 일정 수준 이상 개선되는 시점을 미리 추정할 수도 있다. 그리고 제어부(180)는 추정된 시각에서 사용자가 차량을 운행하는 경우에 추정되는 예상 주행 시간에 근거하여 상기 목적지까지의 예상 도달 시각을 산출할 수 있다.
이러한 경우 제어부(180)는 계속 차량을 운행하는 경우와, 잠시의 휴식을 취한 후에 상기 추정된 시점에 상기 교통 체증 상황을 피해서 차량을 운행하는 경우의 예상 도달 시각들을 비교한 결과를 사용자에게 제공할 수 있다. 따라서 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는, 사용자가 졸음 운전을 하거나, 졸음 운전 가능성이 높은 경우, 수집된 교통 상황에 대한 정보를 이용하여 추정된 결과를 사용자에게 제공함으로써, 사용자가, 차량의 구동을 정지하고 사용자가 휴식을 취하도록 유도할 수 있다. 이하 이처럼 사용자에게 휴식을 권고하기 위해 출력되는 화상 정보의 예를 하기 도 7을 참조하여 보다 자세하게 살펴보도록 한다.
한편, 상기 S402 단계에서 출력되는 화상 정보 및/또는 음향 정보는 본 발명의 실시 예에 따른 스마트 와치(100) 뿐만 아니라, 상기 스마트 와치(100)와 상호 연동하는 차량의 A/V(Audio/Video) 출력부를 통해 출력될 수도 있음은 물론이다. 즉, 상술한 바와 같이 '커넥티드 카'상태가 되면, 스마트 와치(100)의 제어부(180)는 차량의 제어부(180)에 상기 화상 정보 및/또는 음향 정보의 출력을 요청할 수 있으며, 이러한 요청에 대한 응답으로, 상기 차량의 제어부는 상기 화상 정보 및/또는 음향 정보를 기 설정된 화상 정보 출력 수단 및/또는 음향 정보 출력 수단을 통해 출력할 수 있다. 여기서 상기 차량에 구비된 화상 정보 출력 수단은, 차량 내부에 구비된 텔레매틱스 기기(예를 들어 네비게이션)의 디스플레이부(151)일 수도 있으며, 또는 차량의 윈드 쉴드 글래스(Wind Shield Glass)의 적어도 일부일 수도 있음은 물론이다.
한편, 사용자에게 수면을 권고하는 화상 정보 및/또는 음향 정보를 출력하면, 제어부(180)는 지속적으로 사용자의 신체 상태를 감지하여, 사용자가 졸음 운전을 하는 상태인지 또는 사용자의 졸음 운전 상태가 더 심각해졌는지를 판단할 수 있다. 그리고 제어부(180)는 상기 판단 결과에 근거하여 사용자가 휴식, 즉 사용자가 수면을 취하는지 여부를 확인할 수 있다(S404).
상기 S404 단계에서 제어부(180)는, 사용자가 졸음 운전 상태에서 수면에 빠진 것인지, 아니면 사용자가 상기 S402 단계에서 출력된 권고에 따라 휴식을 취하는 것인지 여부를 판단할 수 있다. 예를 들어 제어부(180)는 차량이 현재 구동중인 경우라면 사용자가 졸음 운전 상태에서 수면에 빠진 것으로 판단할 수 있고, 상기 차량이 일정 시간 이상 정지된 상태라면 사용자가 휴식을 취하고 있는 것으로 판단할 수 있다. 이러한 경우, 사용자가 졸음 운전 상태에서 수면에 빠진 것으로 판단되는 경우, 제어부(180)는 사용자를 깨울수 있는 기 설정된 음향 정보 또는 진동 등을 바로 출력할 수도 있음은 물론이다.
그러나 상기 S404 단계에서, 사용자가 수면 중이 아닌 상태라면, 제어부(180)는 다시 S400 단계로 진행하여 사용자의 생체 정보를 감지하고, 사용자가 졸음 운전을 하고 있는 상태인지 또는 사용자의 졸음 운전 가능성이 기 설정된 수준 이상인지를 판단한다. 그리고 제어부(180)는 상기 S400 단계의 판단 결과에 근거하여, S402 단계에서 다시 사용자에게 휴식을 권하는 화상 정보 및/또는 음향 정보를 출력할 수 있다. 그리고 만약 상기 S400 단계에서 감지되는 사용자의 상태가 변경되는 경우, 상기 S402 단계에서 출력되는 화상 정보 및/또는 음향 정보는, 그 내용이 상기 변경된 사용자의 상태에 근거하여 변경될 수 있다. 즉, 사용자가 보다 심각하게 졸고 있는 상태인 경우 제어부(180)는 진동이나, 보다 큰 볼륨의 음향 정보 또는 보다 밝은 휘도의 화상 정보 중 적어도 하나를 통해, 보다 강력하게 사용자에게 휴식을 취할 것을 권고할 수 있다.
한편 상기 S404 단계의 판단 결과, 사용자가 차량을 정지하고 수면을 취하는 경우라면, 제어부(180)는 알람을 출력할 시각, 즉 사용자를 깨울 시각을 결정할 수 있다(S406). 예를 들어 제어부(180)는 상기 알람 출력 시각을 기 설정된 최적 간이 수면 시간에 근거하여 설정할 수 있다. 여기서 상기 최적 간이 수면 시간은, 사용자가 졸음 운전 상태에서 벗어나기 위해 어느 정도의 간이 수면 시간이 가장 효과적인지를 알기 위한 실험 등에 의해 미리 정해진 시간일 수 있다.
뿐만 아니라, 제어부(180)는 상기 목적지까지의 교통 상황에 대한 정보를 수집하고, 상기 수집된 정보를 상기 알람 시각을 결정하기 위해 이용할 수도 있다. 즉, 제어부(180)는 실시간으로 또는 일정 주기마다 상기 목적지까지의 교통 상황에 대한 정보를 수집하고, 상기 교통 상황이 일정 수준이상 개선된 것으로 판단되면 사용자에게 알람이 출력되도록 할 수도 있다.
여기서 제어부(180)는, 상기 수집된 교통 상황에 대한 정보를 분석한 결과, 상기 목적지까지의 경로 상에 차량들의 정체가 발생한 지점이 없거나, 또는 상기 차량들의 정체가 일정 수준 이하로 발생한 경우 교통 상황이 일정 수준 이상 개선된 것으로 판단할 수 있다. 또는 현재의 교통 상황에 근거하여 추정된 상기 목적지까지의 예상 도달 시간이, 기 설정된 허용 시간 내 인 경우 제어부(180)는 현재 교통 상황이 일정 수준 이상 개선된 것으로 판단할 수 있다. 여기서 상기 기 설정된 허용 시간은, 교통 체증이 발생하지 않은 경우에 추정된 상기 목적지까지의 예상 도달 시간을 기준으로 결정될 수 있다.
또한 제어부(180)는 현재 수집된 교통 상황에 대한 정보를 분석한 결과, 기 설정된 목적지까지의 경로 상에 교통 체증이 발생한 것으로 판단되는 경우라면, 현재 교통 체증이 발생한 상태에서 상기 목적지까지의 차량 운행 소요 시간과, 체증이 발생하지 않은 상태에서 상기 목적지까지의 차량 운행 소요 시간의 차이에 근거하여 상기 알람 시각을 결정할 수도 있다.
한편 제어부(180)는 상기 알람 시각을 결정하기 위해 현재의 교통 상황과 관련된 정보 및 상기 목적지까지의 수집된 각 시간별 교통 상황 정보를 이용할 수도 있다. 즉, 제어부(180)는 상기 목적지까지의 각 시간별 교통 상황에 대한 통계 정보를 수집하고, 상기 목적지까지의 교통 체증 상황이 일정 수준 이상 개선되는 시점을 미리 추정 및 상기 미리 추정된 시점을 근거로 상기 알람을 출력할 시각을 결정할 수도 있다.
뿐만 아니라 제어부(180)는, 상기 S406 단계에서 결정되는 알람 시각에, 상기 사용자의 수면 상태를 더 고려할 수도 있다. 예를 들어 제어부(180)는 상기 사용자의 심박수를 감지하여, 사용자의 심박수 스펙트럼(spectrum)을 분석한 결과에 근거하여, 렘(REM) 수면과 같은 수면 상태에 있는지 여부 등을 판단할 수 있다. 이러한 경우 제어부(180)는, 상기 사용자의 수면 상태를 판단한 결과, 사용자가 깊은 수면(deep sleep) 상태에 있는 경우라면, 이를 반영하여 상기 S406 단계에서 결정된 알람 시각보다 이른 시각으로 상기 알람이 출력될 시각을 결정할 수 있다. 이와 반대로, 만약 사용자가 얕은 수면(light sleep) 상태에 있는 경우라면, 이를 반영하여 상기 S406 단계에서 결정된 알람 시각보다 늦은 시각에 상기 알람이 출력될 시각을 결정할 수도 있다.
한편 상기 S404 단계의 판단 결과, 사용자가 차량을 정지시키고 수면을 취하는 경우라면, 사용자의 수면 상태에 따라 차량의 내부 환경이 변경되도록 할 수도 있음은 물론이다. 즉, 제어부(180)는 상호 연동되는 차량의 제어부(180)에 사용자의 수면 상태에 따른 차량 내부 환경의 변화를 요청할 수 있으며, 이러한 경우 차량의 제어부는 스마트 와치(100) 제어부(180)의 제어에 따라 각종 차량의 환경 설정이 변경되도록 할 수 있다. 여기서 변경되는 차량의 환경 설정은, 사용자의 숙면을 유도하기 위해 미리 설정된 것으로, 차량 내부의 조명, 방향(aroma), 환기 상태(공조 : air conditioning) 중 적어도 하나와 관련된 것일 수 있다.
한편 상기 S406 단계에서 알람을 출력할 시각이 결정되면, 제어부(180)는 현재 시각을 체크하여 상기 결정된 알람 시각이 경과되었는지를 판단한다(S408). 그리고 상기 S408 단계의 판단 결과 알람 시각이 경과된 경우라면 알람 정보를 출력한다(S410). 여기서 제어부(180)는 상기 알람 정보로서 기 설정된 진동 또는 음향 정보를 화상 정보와 함께 출력할 수 있으며, 스마트 와치(100)와 상호 연동되는 차량의 진동 모듈 및 화상 정보 및 음향 정보 출력부를 통해 상기 알람 정보가 출력되도록 할 수도 있다.
한편 상기 S408 단계의 판단 결과, 상기 알람 시각이 경과되지 않은 경우라면, 제어부(180)는 다시 S406 단계로 진행하여 다시 알람 시각을 결정할 수 있다. 이러한 경우 제어부(180)는 교통 상황에 대한 정보를 다시 수집하고 수집된 정보에 근거하여 다시 알람 시각을 결정할 수 있다. 따라서 알람 시각은 변경될 수 있으며, 이러한 경우 제어부(180)는 상기 S410 단계에서 변경된 알람 시각을 현재 시각과 비교하여, 현재 시각이 알람 시각을 경과한 시각인지를 판단할 수 있다. 그리고 상기 S410 단계의 판단 결과 현재 시각이 상기 새로 결정된 알람 시각을 경과한 시각인 경우라면, 제어부(180)는 S410 단계로 진행하여 상기 알람 정보를 출력할 수 있다.
따라서 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 현재 결정된 알람 시각이 경과되지 않은 경우, 다시 교통 정보를 수집 및 이에 따라 알람이 출력될 수 있도록 한다. 따라서 본 발명에서는, 교통 상황에 대한 정보를 실시간 또는 일정 시간을 주기로 수집 및 이를 반영하여 사용자의 휴식 시간을 조절할 수 있다.
또한, 제어부(180)는 사용자가 처음 수면 상태에 진입한 시각을 고려하여, 최소 휴식 시간이 보장되도록 할 수도 있음은 물론이다. 즉, 제어부(180)는 알람 시각을 결정하는데 있어, 기 설정된 최소 휴식 시간이 경과된 시점 이후의 시각으로 상기 알람이 출력될 시각이 결정되도록 할 수도 있다.
한편, 상기 알람이 출력되면, 제어부(180)는 다시 사용자의 신체 상태를 재감지하여, 사용자가 휴식이 더 필요한지 여부를 판단할 수도 있음은 물론이다. 이러한 경우 제어부(180)는 화상 정보 등을 통해 상기 사용자의 신체 상태를 감지한 결과를 표시 및, 휴식이 더 필요한 상태임을 알리고, 사용자에게 휴식을 권고하기 위한 화상 정보 및/또는 음향 정보가 다시 출력되도록 할 수도 있다.
이러한 경우 제어부(180)는, 상기 목적지까지의 교통 상황에 대한 정보를 다시 수집하고, 이를 상기 휴식을 권고하기 위한 화상 정보 및/또는 음향 정보에 포함시킬 수 있다. 따라서 상기 화상 정보 및/또는 음향 정보에는, 상기 S402 단계에서 설명한 바와 같이, 현재의 교통 상황에 따라 산출된 기 설정된 목적지까지의 도달 예상 시각 및, 상기 목적지까지의 시간별 교통 상황 통계 정보에 근거하여 산출된 사용자가 일정 시간 휴식을 취한 이후의 상기 목적지까지의 도달 예상 시각을 비교한 결과가 포함될 수 있다.
한편, 본 발명의 실시 예에 따른 제어부(180)는 상기 S604 단계의 판단 결과, 사용자가 휴식(예를 들어 수면) 중인 경우, 상기 휴식으로 인해 영향을 받는 기 저장된 스케쥴이 있는지를 검색할 수 있다. 여기서 제어부(180)는 상기 S406단계에서 결정된 알람 시각에 근거하여, 사용자가 상기 알람 시각에 출발하는 경우에 기 설정된 목적지까지의 도달 예상 시각을 추정할 수 있다. 그리고 상기 추정된 시각에 근거하여 상기 사용자의 휴식에 의해 상기 스케쥴이 영향을 받는지 여부를 판단할 수 있다. 그리고 만약 상기 사용자의 휴식에 의해 영향을 받는 스케쥴이 있는 경우, 제어부(180)는 상기 스케쥴에 관련된 사람에게 양해 메시지를 전송할 수도 있다. 이러한 경우의 본 발명의 실시 예에 따른 스마트 와치(100)의 동작 과정 및 상기 양해 메시지가 전송되는 경우의 예를 하기 도 6 및 도 9를 참조하여 보다 자세하게 살펴보기로 한다.
한편 상술한 설명에 따르면, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 사용자의 수면 상태에 근거하여 상기 S406 단계에서 결정된 알람 시각을 변경할 수 있음을 언급한 바 있다.
도 5는 이러한 경우에 본 발명과 관련된 스마트 와치에서, 사용자의 수면 상태를 감지한 결과에 따라 알람 시각을 결정하는 동작 과정을 보다 자세하게 도시한 것이다.
도 5를 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 상기 S406 단계에서 알람 시각이 결정되면, 사용자의 수면 상태를 더 판단할 수 있다(S500). 예를 들어 제어부(180)는 사용자의 신체 상태를 감지한 결과에 근거하여 사용자가 렘(REM) 수면과 같은 깊은 수면(deep sleep) 상태에 있는지, 또는 얕은 수면(light sleep) 상태에 있는지를 판단할 수 있다. 그리고 제어부(180)는 이러한 사용자의 수면 상태에 근거하여 사용자가 상기 알람이 출력될 시각을 변경할 수 있다.
예를 들어 제어부(180)는 사용자가 깊은 수면 상태에 있는 경우, 사용자가 보다 짧은 시간 내에 충분한 휴식을 취할 수 있는 것으로 판단할 수 있다. 그러나 이와 반대로 사용자가 얕은 수면 상태에 있는 경우, 사용자가 현재 설정된 시간 내에 충분한 휴식을 취할 수 없는 것으로 판단할 수도 있다. 따라서 제어부(180)는 상기 S500 단계의 판단 결과에 근거하여 상기 S406 단계에서 결정된 알람 출력 시각이 변경되도록 할 수 있다. 즉, 제어부(180)는 사용자가 깊은 수면을 취하고 있는 경우라면, 상기 알람 시각을 현재 결정된 시각 보다 앞선 시각으로 변경할 수 있다. 그러나 제어부(180)는 사용자가 얕은 수면을 취하고 있는 경우라면, 상기 알람 시각을 현재 결정된 시각보다 늦은 시각으로 변경할 수도 있다.
한편, 제어부(180)는 사용자의 수면 상태에 근거하여 사용자가 충분한 수면을 취하였는지를 판단할 수도 있다(S502). 예를 들어 제어부(180)는 사용자가 깊은 수면을 취하고 있는 경우, 사용자가 수면 상태에 진입한 시각 이후에 경과된 시각과 사용자의 수면 상태를 고려하여, 상기 사용자의 수면 시간이 미리 설정된 최적 간이 시간에 도달하는 경우 사용자가 충분한 수면을 취한 것으로 판단할 수 있다. 이러한 경우 제어부(180)는 더 이상 사용자가 수면을 취할 필요가 없다고 판단하고, 비록 현재 시각이 상기 S406 단계에서 결정된 알람 시각에 도달하지 않은 경우라도, 바로 상기 S408 단계로 진행하여 알람이 출력되도록 할 수도 있다.
한편, 이와는 반대로 상기 S502 단계의 판단 결과, 사용자가 충분한 수면을 취하지 못한 경우라고 판단되는 경우, 제어부(180)는 사용자의 수면 상태를 반영하여 상기 S406 단계에서 결정된 알람 시각을 변경할 수도 있다(S504). 이러한 경우 변경된 알람 시각은, 상기 S406 단계에서 결정된 알람 시각보다 늦은 시각일 수 있다. 그리고 제어부(180)는 상기 S408 단계로 진행하여 변경된 알람 시각과 현재 시각을 비교하여 알람의 출력 여부를 결정할 수 있다.
한편 상술한 설명에 의하면, 상기 S408 단계에서 현재 시각이, 상기 결정 또는 변경된 알람 시각을 경과하였는지 여부를 판단하고, 상기 판단 결과, 알람 시각이 경과되지 않은 경우 다시 S406 단계로 진행하여 알람 시각을 결정하는 것을 언급한 바 있다. 이러한 경우 제어부(180)는 다시 S406 단계로 진행하여 알람 시각을 결정한 후, 상기 도 5에서 보인 과정에 근거하여 결정된 알람 시각을 다시 변경할 수도 있음은 물론이다.
한편 상술한 도 5의 설명에서, 제어부(180)는 사용자의 신체 정보로서, 사용자의 심박 변동 스펙트럼(spectrum)을 이용할 수도 있다. 이러한 경우 제어부(180)는 사용자의 심전도와 맥파 신호의 심박 변동에 따른 파동의 진폭 및 위상 특성을 분석하고, 분석한 결과를 이용하여 사용자의 수면 상태를 판단할 수 있다. 여기서 제어부(180)는 미리 설정된 복수의 수면 단계들 중 어느 하나의 수면 단계로 사용자의 수면 상태를 구분할 수 있으며, 이에 따라 사용자가 깊은 수면 상태에 있는지 또는 얕은 수면 상태에 있는지 여부를 구분할 수 있다.
또한 이러한 경우, 제어부(180)는 상기 S504 단계에서 사용자의 수면 상태를 반영하여 알람 시각을 변경하는 데 있어, 상기 구분된 사용자의 수면 단계에 근거할 수도 있음은 물론이다. 예를 들어 상기 수면 단계들은 각각 서로 다르게 상기 알람 시각이 연장되는 시간 또는 단축되는 시간이 미리 지정되어 있을 수 있다. 이에 따라 제어부(180)는 사용자의 수면 상태에 따라 구분된 수면 단계에 대응되는 연장 시간 또는 단축 시간에 근거하여 상기 S406 단계에서 결정된 알람 시각이 변경되도록 할 수도 있다.
한편 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 상기 S406 단계에서 알람이 출력될 시각을 결정하는데 있어, 기 설정된 스케줄이 있는지 여부에 근거할 수도 있다. 예를 들어, 제어부(180)는 현재 설정된 목적지와 관련된 스케줄이 미리 저장되어 있는 경우, 상기 스케줄에 지정된 시각을 고려하여 상기 알람이 출력될 시각을 결정할 수도 있다. 즉, 제어부(180)는 상기 목적지까지의 예상 소요시간을 추정하고, 상기 스케줄에 지정된 시각과 상기 추정된 예상 소요시간을 이용하여 상기 알람이 출력될 시각을 결정할 수도 있다. 이러한 경우, 상기 예상 추정 시각은, 상기 목적지까지의 각 시간별 교통 상황을 수집한 정보에 근거하여, 상기 스케줄에 지정된 시각에 대응되는 시간의 상기 목적지까지의 교통 상황에 따라 추정될 수도 있다.
한편 이처럼 기 저장된 스케줄에 근거하여 알람 시각을 결정하는 것과는 달리, 상기 스케줄에 관련된 사람에게 사용자가 교통 체증으로 인하여 약속된 시각에 조금 늦을 수 있다는 양해 메시지가 전송되도록 할 수도 있다.
도 6은 이러한 경우에, 본 발명과 관련된 스마트 와치에서, 기 저장된 사용자의 스케줄에 근거하여 상기 양해 메시지를 전송하는 동작 과정을 도시한 것이다.
도 6을 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는 상기 S406 단계에서 알람 시각이 결정되면, 현재 설정된 목적지와 관련된 사용자의 스케줄이 있는지를 확인한다(S600). 예를 들어 제어부(180)는 사용자에 의해 미리 설정된 스케줄이 있는지를 검색할 수 있다. 그리고 제어부(180)는 상기 검색된 스케줄이 특정 장소에 대한 정보를 포함하고 있는 경우, 상기 장소와 현재 설정된 목적지를 비교하여, 상기 스케줄이 현재 목적지와 관련된 것인지를 판단할 수 있다. 여기서 제어부(180)는, 상기 스케줄에 포함된 장소가 현재 설정된 목적지로부터 일정 거리 내에 위치하고 있는 경우, 상기 스케줄이 현재 설정된 목적지에 관련된 것으로 판단할 수도 있다.
그리고 상기 S600 단계의 판단 결과, 현재 설정된 목적지와 관련된 스케줄이 있는 경우, 제어부(180)는 현재 결정된 알람 시각에 근거하여 현재 목적지까지의 예상 도착 시각을 추정한다(S602). 여기서 상기 예상 도착 시각은, 현재 수면을 취하고 있는 사용자가, 상기 S406 단계에서 결정 또는 변경된 알람 시각에 출발하는 경우에 상기 목적지에 사용자가 도착할 수 있는 예상 추정 시각을 의미할 수 있다.
그리고 상기 S602 단계에서 예상 도착 시각이 추정되면, 제어부(180)는 상기 S600 단계에서 검색된 스케줄, 즉, 현재 설정된 목적지와 관련된 스케줄에 포함된 시각을 참조하여, 사용자가 상기 스케줄에 지정된 시각 내에 도착할 수 있는지 여부를 판단할 수 있다(S604). 예를 들어 제어부(180)는, 상기 S602 단계에서 추정된 예상 도착 시각이, 상기 스케줄에 포함된 시각을 전후한 일정 시간 내에 포함되는 경우라면 상기 사용자가 상기 스케줄에 지정된 시각 내에 도착할 수 있는 것으로 판단할 수 있고, 그렇지 않은 경우 사용자가 상기 스케줄에 지정된 시각 내에 도착할 수 없는 것으로 판단할 수 있다.
이러한 경우, 만약 사용자가 상기 스케줄에 지정된 시각 내에 도착할 수 있는 것으로 판단되는 경우라면, 제어부(180)는 바로 S408 단계로 진행하여 현재 설정된 알람 시각이 경과되었는지를 판단하고, 판단 결과에 따라 알람이 출력되도록 할 수 있다. 이는 스케줄에 지정된 시각에 사용자가 도착할 수 있는 경우 양해 메시지를 전송할 필요가 없기 때문이다.
그러나 만약 사용자가 상기 스케줄에 지정된 시각 내에 도착할 수 없는 것으로 판단되는 경우라면, 제어부(180)는 상기 스케줄의 상대방에게 사용자가 교통 체증으로 인해 스케줄에 지정된 시각보다 늦게 도착할 수 있다는 양해 메시지가 전송되도록 할 수 있다. 여기서 상기 양해 메시지는, 사용자가 미리 작성한 내용일 수 있으며, 또는 제어부(180)가 현재 사용자가 교통 체증으로 인해 조금 늦어질 수 있다는 내용을 포함시켜 작성한 메시지일 수도 있다.
이러한 양해 메시지의 전송을 위해 제어부(180)는, 상기 S600 단계에서 검색된 스케줄로부터, 상기 스케줄과 관련된 인물에 대한 연락처가 있는지를 확인할 수 있다(S606). 그리고 S606 단계의 확인 결과, 스케줄에 관련된 인물의 연락처와 관련된 정보, 즉 전화번호 등이 있는 경우라면, 제어부(180)는 상기 양해 메시지가 상기 연락처로 전송되도록 할 수 있다(S608). 이러한 양해 메시지는 SMS(Short Messaging Service), MMS(Multimedia Messaging Service), 또는 음성 메시지의 형태로 전송될 수 있으며, 상기 스케줄에 관련된 인물의 연락처의 종류(예를 들어 이동 단말기와 일반 전화)에 따라 서로 다른 형태로 전송될 수도 있다.
한편 상술한 설명에 의하면, 상기 S408 단계에서 현재 시각이, 상기 결정 또는 변경된 알람 시각을 경과하였는지 여부를 판단하고, 상기 판단 결과, 알람 시각이 경과되지 않은 경우 다시 S406 단계로 진행하여 알람 시각을 결정하는 것을 언급한 바 있다. 이러한 경우 제어부(180)는 다시 S406 단계로 진행하여 알람 시각을 결정한 후, 상기 도 6에서 보인 과정에 근거하여 미리 저장된 스케줄이 있는지 여부 및, 사용자가 상기 스케줄에 지정된 시각 내에 상기 목적지에 도착할 수 있는지를 판단할 수 있다.
그리고 만약 사용자가 상기 목적지에 도착할 수 없는 경우라면, 제어부(180)는 상기 스케줄에 관련된 인물의 연락처를 다시 확인할 수 있다. 이 경우 제어부(180)는 상기 스케줄에 관련된 인물에게 상기 양해 메시지가 이미 전송되었는지 여부를 체크하고, 양해 메시지를 다시 전송하지 않을 수도 있음은 물론이다.
이상의 설명에서는, 본 발명의 실시 예에 따라 사용자의 신체 상태에 따라 사용자가 졸음 운전을 하는 경우 또는 졸음 운전의 가능성이 일정 수준 이상인 경우, 휴식, 즉 수면을 권고하며, 이에 따라 사용자가 수면을 취하는 경우, 교통 상황 정보를 수집 및 이를 반영하여 알람 시각을 결정함으로써, 실시간으로 변화하는 교통 상황이 반영하여 사용자의 수면 시간을 결정하는 제어부(180)의 동작에 대해서 자세히 살펴보았다.
이하의 설명에서는, 이러한 본 발명의 실시 예에 따른 스마트 와치(100)에서 상기 수면을 권고하기 위한 화상 정보 및 상기 알람이 출력되는 예, 그리고 상기 양해 메시지가 전송되는 예를 예시도를 참조하여 보다 자세하게 살펴보기로 한다.
우선 도 7은 본 발명의 실시 예에 따라 현재의 교통 상황에 근거하여 사용자에게 휴식을 유도하기 위한 화상 정보의 예를 보이고 있는 것이다.
도 7을 참조하여 살펴보면, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는, 스마트 와치(100)에 구비된 디스플레이부(151) 뿐만 아니라, 상호 연동되는 차량의 텔레메틱스 기기(예를 들어 네비게이션) 등에 구비된 디스플레이부(151) 또는 차량의 윈드 쉴드 글래스(Wind Shield Glass)에 HUD(Head Up Display) 방식으로 상기 화상 정보를 표시할 수 있다.
우선 도 7의 (a)를 살펴보면, 도 7의 (a)는 차량의 네비게이션에 구비된 디스플레이부에서 사용자에게 휴식을 권고하기 위한 화상 정보가 표시되는 예를 보이고 있는 것이다.
도 7의 (a)에서 보이고 있는 것처럼, 본 발명의 실시 예에 따라 사용자에게 휴식을 권고하기 위해 표시되는 화상 정보(700)에는, 현재 시각(702) 및 현재 설정된 목적지에 관한 정보(704)가 표시될 수 있으며, 현재의 교통 상황에 대한 정보(706)가 포함되어 있을 수 있다. 뿐만 아니라 상기 화상 정보(700)에는 현재의 교통 상황에 근거하여 상기 설정된 목적지(704)까지 예상되는 예상 도착 시각(708)에 대한 정보가 포함될 수 있다. 이에 따라 사용자는 상기 설정된 목적지까지 교통 체증이 발생하였음을 인지할 수 있으며, 이에 따라 지연되는 예상 도착 시각을 미리 확인할 수 있다.
한편, 제어부(180)는, 사용자의 휴식을 유도하기 위해, 현재 발생한 교통 체증이 일정 수준 이상 개선되거나 또는 해소될 것으로 추정되는 시각에 대한 정보(710)를 더 표시할 수도 있다. 여기서 상기 교통 체증이 일정 수준 이상 개선되거나 또는 해소될 것으로 추정되는 시각에 대한 정보(710)는, 정보 제공 센터(300)로부터 수집된, 상기 목적지까지의 경로에 대한 각 시간별 교통 상황에 대한 통계 정보로부터 얻어질 수도 있음은 물론이다.
또한 제어부(180)는 상기 화상 정보(700)에, 교통 체증이 해소되는 시각에 출발하는 경우에 추정되는 상기 목적지까지 예상 도착 시간(712)을 표시할 수 있다. 이에 따라 본 발명에서는, 사용자가 교통 체증이 심한 지금 계속 차량을 운행하는 경우와, 교통 체증이 해소된 후에 차량을 운행하는 경우를 서로 비교할 수 있도록 한다.
따라서 본 발명에서는, 단순히 사용자의 신체 상태를 감지한 결과를 표시하는 것이 아니라, 현재의 교통 상황에 따른 도착 예상 시각과, 사용자가 일정 시간동안 휴식을 취한 이후에 상기 목적지에 도착 가능한 예상 시각을 서로 비교함으로써, 사용자가 휴식을 취하도록 유도할 수 있다.
뿐만 아니라 제어부(180)는 도 7의 (a)에서 보이고 있는 것처럼, 사용자에게 최적의 휴식 시간(714)을 산출하여 이를 표시할 수도 있다. 여기서 산출된 휴식 시간은, 상기 기 설정된 최적 간이 시간에 근거하여 결정될 수도 있으며, 또는 현재의 교통 상황에 따라 추정된 예상 도착 시간과, 교통 체증이 발생하지 않은 상태에서 추정된 목적지까지의 예상 도착 시간의 차이에 근거하여 결정된 것일 수 있다. 또는 상기 휴식 시간은, 현재의 시각 및 상기 교통 체증이 해소될 것으로 추정되는 시각에 근거하여 산출될 수도 있다. 그리고 제어부(180)는, 사용자의 선택에 따라 상기 산출된 휴식 시각(714)이나, 교통 상황의 변경 상태 및/또는 사용자의 수면 상태에 근거하여 알람이 출력되도록 할 수도 있다.
한편 이러한 화상 정보(700)는, 스마트 와치(100)의 디스플레이부(151)를 통하여도 표시될 수 있다. 도 7의 (b)는 이러한 예를 보이고 있는 것이다.
도 7의 (b)를 참조하여 살펴보면, 제어부(180)는 스마트 와치(100)의 한정된 디스플레이부(151) 영역을 고려하여, 상기 도 7의 (a)에서 보이고 있는 정보를 간추려서 표시할 수도 있다. 예를 들어 스마트 와치(100)의 디스플레이부(151)에서 표시되는 화상 정보(756)에는, 사용자가 비교할 수 있도록, 현재의 교통 상황에 근거하여 추정된 예상 도착 시각에 대한 정보(750) 및, 교통 정체가 해소된 경우에 추정되는 예상 도착 시각에 대한 정보(752)가 표시될 수 있다.
그리고 비록 도 7의 (b)에서 도시하지는 않았으나, 스마트 와치(100)에서 표시되는 화상 정보(756)는, 도 7의 (a)에서 보이고 있는 것과 같이 현재 시각에 대한 정보와, 현재 시각에서 상기 목적지까지의 교통 상황에 대한 정보 및, 상기 교통 체증이 해소될 것으로 추정되는 시각에 대한 정보를 더 포함할 수도 있다. 뿐만 아니라 상기 화상 정보(756)에는, 현재의 시각 및 상기 교통 체증이 해소될 것으로 추정되는 시각에 근거하여 산출될 수 있는 휴식 시간에 대한 정보(754)가 더 표시될 수도 있다.
한편 도 8a 및 도 8b는 본 발명과 관련된 스마트 와치에서 알람 정보가 출력되는 예들을 보이고 있는 예시도들이다.
여기서 도 8a는 본 발명의 실시 예에 따른 스마트 와치(100)에서 결정된 알람 시각에 따라 알람이 출력되는 예를 보이고 있는 것이며, 도 8b는 상기 알람이 출력되는 경우 디스플레이부(151)에서 포시될 수 있는 화면들의 예를 보이고 있는 것이다.
우선 도 8a의 (a)를 참조하여 살펴보면, 제어부(180)는 디스플레이부(151) 상에 상기 S406 단계에서 결정된 알람 출력 시각까지 현재 남아있는 시간 및 해당 시간을 시각적으로 표시할 수 있는 그래픽 객체(800)를 표시할 수 있다. 이러한 상태에서, 제어부(180)는 시간의 경과를 상기 그래픽 객체(800)를 통해 표시할 수 있다. 또한 상술한 바와 같이, 상기 S406 단계에서 결정된 알람 출력 시각이 변경되는 경우, 상기 그래픽 객체(800)는 상기 변경된 알람 출력 시각에 근거하여 변경될 수 있음은 물론이다. 또한 상기 디스플레이부(151)에는 상기 알람 출력의 취소를 사용자로부터 선택받을 수 있는 그래픽 객체(802)가 더 표시될 수도 있다.
한편 도 8a의 (b)는 현재 설정된 알람 출력 시각이 경과된 예를 보이고 있는 것이다. 이러한 경우 제어부(180)는 사용자의 휴식 시간이 만기되었음을 표시하는 그래픽 객체(810)를 표시할 수 있으며, 이러한 그래픽 객체에는 현재까지의 사용자의 휴식 시간에 대한 정보(814)가 표시될 수도 있다. 또한 제어부(180)는 도 8a의 (b)에서 보이고 있는 것과 같이 알람의 출력과 동시에 진동이 출력되도록 할 수도 있으며, 상기 진동의 출력과 함께 기 설정된 음향 정보가 더 출력될 수도 있음은 물론이다. 이러한 경우 상기 진동 및 음향 정보를 포함하는 알람의 출력 중지를 사용자로부터 선택받을 수 있는 그래픽 객체(812)가 상기 디스플레이부(151)에 더 표시될 수 있다.
한편 이처럼 알람 정보가 출력된 후에는 사용자의 선택에 따라 다양한 정보들이 디스플레이부(151) 상에 표시될 수 있다. 예를 들어 제어부(180)는 상기 알람이 출력되고, 사용자로부터 알람의 출력 중지가 사용자로부터 선택되면, 현재 설정된 목적지까지의 경로에 관련된 교통 상황에 대한 정보를 다시 수집할 수 있다. 그리고 제어부(180)는 수집된 정보에 따라 현재 교통 상황에 대한 정보를 디스플레이부(151) 상에 표시할 수도 있다. 이러한 경우 현재의 교통 상황에 대한 정보, 즉 교통 체증이 발생하였는지 그렇지 않은지 여부에 대한 정보(850) 및 현재 시각에서 상기 목적지까지의 도착 예상 시각에 대한 정보(852)가 상기 디스플레이부(151) 상에 표시될 수 있다. 도 8b의 (a)는 이러한 예를 보이고 있는 것이다.
한편, 본 발명의 실시 예에 따른 스마트 와치(100)의 제어부(180)는, 상기 알람이 출력되면 사용자의 신체 정보를 다시 한번 감지할 수도 있다. 그리고 감지된 사용자의 신체 정보에 근거하여, 사용자가 휴식이 필요한 상태인지 여부를 판단할 수 있다.
예를 들어 제어부(180)는, 상기 알람이 출력되고, 사용자로부터 알람의 출력 중지가 사용자로부터 선택되면, 사용자의 심박 스펙트럼을 비롯한 사용자의 다양한 신체 정보를 감지할 수 있다. 그리고 감지된 정보에 근거하여 판단되는 사용자의 신체 상태를 디스플레이부(151)에 화상 정보로 표시할 수 있다. 도 8b의 (b)는 이러한 예를 보이고 있는 것이다.
도 8b의 (b)를 참조하여 살펴보면, 도 8b의 (b)는 사용자의 신체 상태가 정상인 상태임을 보이고 있는 것이다. 그러나 이와 반대로, 사용자의 신체 정보를 감지한 결과, 사용자가 휴식이 필요한 상태, 즉 사용자가 졸음 운전을 하고 있는 상태거나, 사용자의 졸음 운전 가능성이 기 설정된 수준 이상인 경우, 또는 사용자가 충분한 휴식을 취하지 못한 상태인 경우에는 제어부(180)는 사용자에게 다시 휴식을 권고하기 위한 화상 정보를 출력할 수도 있다. 이러한 경우 제어부(180)는 다시 도 7의 (b)에서 보이고 있는 것과 같은 화상 정보를 출력하여, 사용자에게 휴식을 유도할 수 있다.
한편 상술한 설명에 의하면 본 발명의 실시 예에 따른 스마트 와치(100)에서는, 기 설정된 스케줄이 있는지 여부를 검색하고, 상기 교통 체증으로 인해 사용자가 스케줄에 지정된 시각에 목적지에 도착하지 못하는 경우, 상기 스케줄과 관련된 사람에게 양해 메시지를 전송할 수 있다.
도 9는 이러한 경우에 본 발명과 관련된 스마트 와치에서, 기 설정된 스케쥴에 근거하여 특정인에게 전송되는 양해 메시지의 예를 보이고 있는 것이다.
예를 들어 사용자가 본 발명의 실시 예에 따른 스마트 와치(100)에서 출력되는 휴식 권고에 근거하여 수면을 취하는 경우, 제어부(180)는 이러한 사용자의 신체 상태 변화를 감지하여 사용자가 현재 수면 중인 상태라고 판단할 수 있다. 도 9의 (a)는 이러한 경우에 디스플레이부(151)에서 표시되는 화상 정보(900)의 예를 보이고 있는 것이다.
이러한 경우, 제어부(180)는, 상술한 바와 같이, 상기 S406 단계에서 결정된 알람 출력 시각에 사용자가 출발하는 경우에 목적지에 도착하는 도착 예정 시각과, 상기 기 설정된 스케줄에 지정된 시각을 비교하여 사용자가 지정된 시각 내에 도착할 수 있는지 여부를 판단할 수 있다. 그리고 상기 판단 결과 사용자가 상기 스케줄에 지정된 시각 내에 목적지까지 도착하지 못할 것으로 판단되는 경우, 도 9의 (b)에서 보이고 있는 것처럼, 상기 기 설정된 스케줄(902)로부터, 상기 스케줄(902)에 관련된 사람의 연락처를 검색 및 검색된 연락처로 양해 메시지(Execuse message)를 전송할 수 있다.
도 9의 (c)는 이처럼 양해 메시지가 전송된 경우, 상기 양해 메시지를 수신한 상대방의 이동 단말기(910)에서 상기 양해 메시지가 표시되는 예를 보이고 있는 것이다. 이러한 양해 메시지는, 이러한 상황에 대비하여 미리 작성한 것일 수도 있고, 또는 현재 사용자가 교통 체증으로 늦어진다는 내용을 포함하여 제어부(180)가 작성한 것일 수도 있다.
한편 이러한 양해 메시지는, 사용자의 설정 또는 상기 스케줄에 지정된 시각과 사용자의 도착 예상 시각의 차이에 근거하여 적어도 한번 전송될 수 있다. 즉, 제어부(180)는, 상기 S406 단계에서 알람 출력 시각이 다시 결정되거나 변경되는 경우에, 일단 양해 메시지를 전송한 상대방에 대해서는 다시 양해 메시지를 전송하지 않을 수 있다. 또는 제어부(180)는 상기 S406 단계에서 새로 결정되거나 변경된 알람 출력 시각이, 새로 결정 또는 변경되기 전의 알람 출력 시각과 일정 수준 이상 크게 차이가 나는 경우에 한하여 상기 양해 메시지가 다시 전송되도록 할 수도 있다. 또는 제어부(180)는 알람 정보를 출력한 이후, 사용자가 충분한 수면을 취하지 못한 상태이거나 또는 사용자가 여전히 졸음 운전 가능성이 높은 상태임을 이유로, 사용자가 다시 휴식을 취하는 경우에 상기 양해 메시지가 동일한 상대방에게 다시 전송되도록 할 수도 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (21)

  1. 화상 정보를 출력하는 디스플레이부;
    차량을 운전하는 사용자의 생체 정보를 감지하는 감지부; 및,
    상기 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하고, 상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력 및, 사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하고, 현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요시간에 근거하여 결정되는 시간이 경과하면 알람을 출력하는 제어부를 포함하며,
    상기 제어부는,
    상기 사용자가 수면 상태에 있는 경우, 기 설정된 시간을 주기로 교통 상황에 대한 정보를 수집하고, 수집된 교통 상황을 분석한 결과, 교통 상황이 일정 수준 이상 개선된 것으로 판단되면, 사용자의 생체 정보를 재감지한 결과에 근거하여 상기 결정된 알람 출력 시간을 변경하는 것을 특징으로 하는 웨어러블 디바이스.
  2. 삭제
  3. 제1항에 있어서, 상기 제어부는,
    상기 수집된 교통 상황을 분석한 결과, 교통 상황이 일정 수준 이상 개선된 것으로 판단되면, 상기 알람이 출력되도록 하는 것을 특징으로 하는 웨어러블 디바이스.
  4. 삭제
  5. 제1항에 있어서, 상기 제어부는,
    상기 알람이 출력되면, 사용자의 생체 정보를 재감지하고,
    상기 사용자의 신체 정보를 재감지한 결과에 근거하여, 수면을 권고하기 위한 화상 정보를 다시 출력하는 것을 특징으로 하는 웨어러블 디바이스.
  6. 제5항에 있어서, 상기 화상 정보는,
    상기 재감지된 사용자의 생체 정보에 근거하여 판단되는 사용자의 신체 상태와 관련된 정보를 더 포함하는 것을 특징으로 하는 웨어러블 디바이스.
  7. 제1항에 있어서,
    상기 생체 정보는,
    사용자의 심박 스펙트럼이며,
    상기 제어부는,
    상기 심박 스펙트럼을 분석한 결과에 근거하여 사용자의 수면 상태를 복수의 수면 단계들 중 어느 하나로 구분하는 것을 특징으로 하는 웨어러블 디바이스.
  8. 제7항에 있어서, 상기 제어부는,
    상기 구분된 어느 하나의 수면 단계에 근거하여 상기 알람이 출력될 시간을 결정하는 것을 특징으로 하는 웨어러블 디바이스.
  9. 제1항에 있어서, 상기 제어부는,
    상기 사용자가 수면 상태에 있는 경우, 기 설정된 차량 환경 설정 정보에 따라 차량 내부의 환경을 변경하며,
    상기 기 설정된 차량 환경 설정 정보는,
    상기 사용자의 숙면을 유도하기 위한 것으로 미리 설정된 것으로, 차량 내부의 조명, 방향(aroma), 환기 상태 중 적어도 어느 하나와 관련된 것임을 특징으로 하는 웨어러블 디바이스.
  10. 제1항에 있어서, 상기 화상 정보는,
    현재 교통 상황에 근거하여 추정된 상기 목적지까지의 운행 소요시간과, 교통 상황이 일정 수준 이상 개선된 상태에서 추정된 상기 목적지까지의 운행 소요시간을 비교한 정보를 포함하는 것을 특징으로 하는 웨어러블 디바이스.
  11. 제10항에 있어서, 상기 화상 정보는,
    상기 알람이 출력될 시간까지 사용자가 수면을 취하는 경우에 상기 목적지까지의 운행 소요시간을 추정한 정보를 더 포함하는 것을 특징으로 하는 웨어러블 디바이스.
  12. 제1항에 있어서,
    상기 웨어러블 디바이스는,
    상기 차량과 상호 연동되며,
    상기 화상 정보는,
    상기 디스플레이부 또는 상기 차량에 구비된 화상 정보 출력 장치 중 적어도 하나에 출력되는 것을 특징으로 하는 웨어러블 디바이스.
  13. 제1항에 있어서, 상기 제어부는,
    화상 정보, 음향 정보, 및, 기 설정된 패턴의 진동 중 적어도 하나의 형태로 상기 알람을 출력하는 것을 특징으로 하는 웨어러블 디바이스.
  14. 제13항에 있어서,
    상기 웨어러블 디바이스는,
    상기 차량과 상호 연동되며,
    상기 알람은,
    상기 차량에 구비된 진동 모듈, 디스플레이부, 및 음향 출력부 중 적어도 하나로부터 출력되는 것을 특징으로 하는 웨어러블 디바이스.
  15. 제1항에 있어서, 상기 제어부는,
    현재 교통 상황을 분석한 결과, 교통 체증이 발생한 것으로 판단되는 경우, 현재 교통 상황에 따라 추정된 상기 목적지까지의 운행 소요시간과, 체증이 발생하지 않은 교통 상황에서의 상기 목적지까지의 운행 소요시간의 차이에 근거하여 상기 알람이 출력될 시간을 결정하는 것을 특징으로 하는 웨어러블 디바이스.
  16. 제15항에 있어서, 상기 제어부는,
    상기 목적지까지의 차량 운행에 관련된 각 시간별 교통 상황 정보를 수집하고, 수집된 정보에 근거하여 교통 체증이 발생하지 않은 교통 상황에서 상기 목적지까지의 운행 소요 시간을 추정하는 것을 특징으로 하는 웨어러블 디바이스.
  17. 제1항에 있어서, 상기 제어부는,
    사용자가 수면 상태에 있는 경우, 기 설정된 스케줄에 지정된 시각과 상기 목적지까지의 운행 소요시간에 근거하여 상기 알람이 출력될 시각을 결정하는 것을 특징으로 하는 웨어러블 디바이스.
  18. 제17항에 있어서, 상기 제어부는,
    사용자가 수면 상태에 있는 경우, 상기 알람이 출력될 시각에 근거한 교통 상황에 따라 상기 사용자가 상기 스케줄에 지정된 시각에 상기 목적지에 도착할 수 있을지 여부를 판단하고, 상기 판단 결과에 따라 상기 스케줄과 관련된 연락 정보를 확인 및, 상기 연락 정보를 이용하여 기 설정된 메시지를 전송하는 것을 특징으로 하는 웨어러블 디바이스.
  19. 제1항에 있어서, 상기 제어부는,
    기 설정된 최적 간이 수면 시간을 근거로 상기 알람이 출력될 시간을 결정하는 것을 특징으로 하는 웨어러블 디바이스.
  20. 웨어러블 디바이스의 제어 방법에 있어서,
    차량을 운전하는 사용자의 생체 정보를 감지하고, 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하는 단계;
    상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력하는 단계;
    사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하는 단계;
    현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요 시간에 근거하여 알람을 출력할 시간을 결정하는 단계; 및,
    상기 알람 출력 시간의 경과 여부에 따라 상기 알람을 출력하는 단계를 포함하며,
    상기 알람을 출력할 시간을 결정하는 단계는,
    상기 사용자의 수면 상태를 판단 결과, 사용자가 수면 상태에 있는 경우 기 설정된 시간을 주기로 교통 상황에 대한 정보를 수집하는 단계;
    수집된 교통 상황을 분석하여 교통 상황이 일정 수준 이상 개선되었는지 여부를 판단하는 단계;
    상기 교통 상황의 개선 여부 판단 결과에 따라 사용자의 생체 정보를 재감지하는 단계; 및,
    상기 재감지 결과에 따라 상기 결정된 알람 출력 시간을 변경하는 단계를 더 포함하는 것을 특징으로 하는 웨어러블 디바이스의 제어 방법.
  21. 화상 정보를 출력하는 디스플레이부;
    차량을 운전하는 사용자의 생체 정보를 감지하는 감지부; 및,
    상기 감지된 생체 정보에 근거하여 사용자의 졸음 운전 여부를 판단하고, 상기 판단 결과에 근거하여 수면을 권고하기 위한 화상 정보를 출력 및, 사용자의 생체 정보를 이용하여 사용자의 수면 상태를 판단하고, 현재의 교통 상황에 따라 추정되는 기 설정된 목적지까지의 운행 소요시간에 근거하여 결정되는 시간이 경과하면 알람을 출력하는 제어부를 포함하며,
    상기 제어부는,
    사용자가 수면 상태에 있는 경우, 상기 알람이 출력될 시각에 근거한 교통 상황에 따라 상기 사용자가 기 설정된 스케줄에 지정된 시각에 상기 목적지에 도착할 수 있을지 여부를 판단하고, 상기 판단 결과에 따라 상기 스케줄과 관련된 연락 정보를 확인 및, 상기 연락 정보를 이용하여 기 설정된 메시지를 전송하는 것을 특징으로 하는 웨어러블 디바이스.
KR1020140072233A 2014-04-24 2014-06-13 웨어러블 디바이스 및 그 제어방법 KR101575051B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140072233A KR101575051B1 (ko) 2014-06-13 2014-06-13 웨어러블 디바이스 및 그 제어방법
US14/690,716 US9789878B2 (en) 2014-04-24 2015-04-20 Driver rest recommendation
EP15001196.3A EP2945133B1 (en) 2014-04-24 2015-04-22 Driver rest recommendation
CN201510201512.9A CN105015552B (zh) 2014-04-24 2015-04-24 驾驶员状态监测系统及其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140072233A KR101575051B1 (ko) 2014-06-13 2014-06-13 웨어러블 디바이스 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR101575051B1 true KR101575051B1 (ko) 2015-12-21

Family

ID=53016434

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140072233A KR101575051B1 (ko) 2014-04-24 2014-06-13 웨어러블 디바이스 및 그 제어방법

Country Status (4)

Country Link
US (1) US9789878B2 (ko)
EP (1) EP2945133B1 (ko)
KR (1) KR101575051B1 (ko)
CN (1) CN105015552B (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10112621B2 (en) 2016-06-23 2018-10-30 Hyundai Motor Company Wearable device, vehicle for communicating with the wearable device
KR20190004546A (ko) * 2017-07-04 2019-01-14 현대자동차주식회사 무선통신시스템, 차량, 스마트 장치 및 무선통신시스템의 제어방법
KR20190027657A (ko) * 2017-09-07 2019-03-15 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
CN114007928A (zh) * 2019-05-06 2022-02-01 大众汽车股份公司 通过基于摄像机确定的相对于机动车的距离用于实施机动车的调动过程的方法和调动辅助系统

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102343269B1 (ko) * 2014-08-28 2021-12-27 삼성전자주식회사 웨어러블 전자 장치
US20210272207A1 (en) 2015-08-28 2021-09-02 State Farm Mutual Automobile Insurance Company Vehicular driver profiles and discounts
KR101642697B1 (ko) * 2015-12-03 2016-08-10 양선종 차량 운전자 생체정보신호 측정 시스템 및 방법
WO2017100167A1 (en) * 2015-12-06 2017-06-15 Voicebox Technologies Corporation System and method of conversational adjustment based on user's cognitive state and/or situational state
DE102016224428A1 (de) * 2015-12-18 2017-06-22 Ford Global Technologies, Llc System und Verfahren zum Anpassen einer Fahrzeugkomponente eines Fahrzeugs unter Verwendung eines aktiven Materials
CN107430009A (zh) * 2016-01-29 2017-12-01 松下电器(美国)知识产权公司 导航终端、导航系统、可穿戴终端、导航方法及程序
WO2017136352A1 (en) * 2016-02-01 2017-08-10 Verily Life Sciences Llc Machine learnt model to detect rem sleep periods using a spectral analysis of heart rate and motion
ITUA20161326A1 (it) * 2016-03-03 2017-09-03 Claudio Rosin Apparato e metodo di rilevazione dello stato psicofisico di una persona
CN107200022B (zh) * 2016-03-15 2019-11-12 奥迪股份公司 驾驶辅助系统和方法
CN105966409A (zh) * 2016-06-08 2016-09-28 捷开通讯(深圳)有限公司 一种安全驾驶方法和系统
JP6544305B2 (ja) * 2016-06-24 2019-07-17 トヨタ自動車株式会社 車両走行制御装置
NL2017292B1 (en) * 2016-08-05 2018-02-14 Eit Digital Ivzw Method and system for controlling and assisting a driver setting out on an itinerary
US10334899B2 (en) * 2016-09-30 2019-07-02 Intel Corporation Wearable adaptive electroactive polymer fabric
FR3057516B1 (fr) * 2016-10-14 2020-03-13 Valeo Comfort And Driving Assistance Dispositif de prevention des situations dangereuses pour un conducteur d'un vehicule de transport et procede associe
FR3057517B1 (fr) * 2016-10-14 2020-03-13 Valeo Comfort And Driving Assistance Dispositif de prevention des situations dangereuses pour un conducteur d'un vehicule de transport et procede associe
US10089880B2 (en) 2016-11-08 2018-10-02 International Business Machines Corporation Warning driver of intent of others
US20180134215A1 (en) * 2016-11-16 2018-05-17 Samsung Electronics Co., Ltd. Method and device for generating driving assistance information
EP3334198B1 (en) 2016-12-12 2021-01-27 AO Kaspersky Lab Secure control of automotive systems using mobile devices
DE102016225788A1 (de) * 2016-12-21 2018-06-21 Audi Ag Verfahren zum Konfigurieren eines Fahrzeugs
CN106652356B (zh) * 2016-12-22 2019-03-05 深圳市元征科技股份有限公司 驾驶员疲劳判断方法以及装置
KR102463705B1 (ko) * 2017-03-13 2022-11-07 현대자동차주식회사 차량의 수면 보조 장치, 그를 포함한 시스템 및 그 방법
CN106960545A (zh) * 2017-04-28 2017-07-18 威立达数码科技(深圳)有限公司 防疲劳矫正仪
US10297131B2 (en) 2017-06-19 2019-05-21 Toyota Motor Engineering & Manufacturing North America, Inc. Providing safe mobility while detecting drowsiness
FR3067685B1 (fr) * 2017-06-19 2019-06-28 Peugeot Citroen Automobiles Sa Dispositif d’assistance d’un conducteur d’un vehicule pour effectuer des exercices physiques connecte a un serveur distant
CN109249931A (zh) * 2017-07-06 2019-01-22 新华网股份有限公司 用于车辆驾驶的控制方法和装置
DE102017212111A1 (de) * 2017-07-14 2019-01-17 Volkswagen Aktiengesellschaft Fahrerassistenzsystem, Fortbewegungsmittel und Verfahren zum schlafphasenspezifischen Betreiben eines Fortbewegungsmittels
CN107316436B (zh) * 2017-07-31 2021-06-18 努比亚技术有限公司 危险驾驶状态处理方法、电子设备及存储介质
CN107554528B (zh) * 2017-08-17 2021-08-17 上海擎感智能科技有限公司 驾乘人员的疲劳等级检测方法及装置、存储介质、终端
CN107550128A (zh) * 2017-08-28 2018-01-09 京东方科技集团股份有限公司 一种智能座椅及其控制方法
CN107704836B (zh) * 2017-10-17 2021-10-08 电子科技大学 基于物体检测的疲劳驾驶检测方法
JP6387173B1 (ja) * 2017-10-30 2018-09-05 ダイキン工業株式会社 眠気推定装置
JP2019124977A (ja) * 2018-01-11 2019-07-25 トヨタ自動車株式会社 車載音声出力装置、音声出力制御方法、及び音声出力制御プログラム
EP3527424B1 (en) * 2018-02-20 2020-10-21 Alpine Electronics, Inc. Vehicle control system coupleable with at least one muscular stimulation device and massage device
DE102018205068A1 (de) * 2018-04-04 2019-10-10 Audi Ag Verfahren zum Simulieren eines konstanten Fahrbetriebs eines Kraftfahrzeugs und Kraftfahrzeug
CN108847023A (zh) * 2018-06-13 2018-11-20 新华网股份有限公司 推送告警信息的方法、装置及终端设备
CN108819661B (zh) * 2018-06-28 2020-06-09 奇瑞汽车股份有限公司 车辆控制方法、装置及存储介质
WO2020007877A1 (en) 2018-07-02 2020-01-09 Dassi Limited Movable items and wearable items worn by users of the same, and systems and methods for monitoring or controlling operation of movable items
CN109109624A (zh) * 2018-07-12 2019-01-01 吉利汽车研究院(宁波)有限公司 一种智能控制气体发生装置的系统
US10802598B2 (en) * 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
CN109224294A (zh) * 2018-09-05 2019-01-18 深圳曼瑞德科技有限公司 一种疲劳监测和预防装置
JP7243101B2 (ja) * 2018-09-25 2023-03-22 トヨタ自動車株式会社 サーバ、車両および充電器案内方法
CN112771557A (zh) * 2018-10-02 2021-05-07 松下电器(美国)知识产权公司 信息提供方法
EP3650960A1 (fr) 2018-11-07 2020-05-13 Tissot S.A. Procede de diffusion d'un message par une montre
EP3650959A1 (fr) * 2018-11-07 2020-05-13 Tissot S.A. Procede de diffusion d'une alerte descriptive d'un message de notification
US11422551B2 (en) * 2018-12-27 2022-08-23 Intel Corporation Technologies for providing a cognitive capacity test for autonomous driving
KR20200085969A (ko) * 2019-01-07 2020-07-16 현대자동차주식회사 차량 및 그 제어 방법
TW202332607A (zh) * 2019-04-03 2023-08-16 財團法人工業技術研究院 駕駛輔助方法
TWI722500B (zh) * 2019-07-23 2021-03-21 林器弘 駕駛員狀態監測預警系統
US11308737B1 (en) 2019-10-02 2022-04-19 BlueOwl, LLC Systems and methods for analyzing wireless telematics data of a vehicle engaged in an extended period of travel
BR102019021331A2 (pt) * 2019-10-10 2021-04-20 Cemsa Centro Multidisciplinar Em Sonolencia E Acidente Ltda equipamento para avaliar e medir o equilíbrio, fadiga e sonolência
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
JP7354942B2 (ja) * 2020-07-01 2023-10-03 トヨタ自動車株式会社 運転支援装置及び運転支援方法
CN114162131A (zh) * 2020-09-10 2022-03-11 华为技术有限公司 一种驾驶行为监测方法及装置
CN112078520B (zh) * 2020-09-11 2022-07-08 广州小鹏汽车科技有限公司 一种车辆控制的方法和装置
KR20220055209A (ko) * 2020-10-26 2022-05-03 현대자동차주식회사 차량 및 그 제어방법
CN113509150B (zh) * 2021-08-09 2023-07-14 恒大恒驰新能源汽车研究院(上海)有限公司 一种车内睡眠监控方法、装置及电子设备
CN113835230A (zh) * 2021-10-12 2021-12-24 上海仙塔智能科技有限公司 车辆hud的显示处理方法、装置、电子设备与介质
US20230329612A1 (en) * 2022-04-14 2023-10-19 Micron Technology, Inc. Determining driver capability
DE102022110158A1 (de) 2022-04-27 2023-11-02 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Betreiben eines Schlafassistenten während eines Ladevorgangs eines Fahrzeugs, computerlesbares Medium, System, und Fahrzeug
EP4296987A1 (en) * 2022-06-20 2023-12-27 Harman Becker Automotive Systems GmbH Driver attention system
CN115195756A (zh) * 2022-06-29 2022-10-18 江苏大学 一种基于多模态刺激的疲劳驾驶情景下驾驶员意识唤醒系统
CN115346340B (zh) * 2022-07-21 2023-11-17 浙江极氪智能科技有限公司 改善驾驶疲劳的装置及方法
CN115489534B (zh) * 2022-11-08 2023-09-22 张家界南方信息科技有限公司 基于数据处理的智慧交通疲劳驾驶监控系统及监控方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0812750B2 (ja) * 1991-05-24 1996-02-07 三菱電機株式会社 記録担体の再生装置
JP2009213711A (ja) * 2008-03-11 2009-09-24 Toyota Motor Corp 睡眠装置
JP2010082377A (ja) * 2008-10-02 2010-04-15 Hiroshima Univ 睡眠制御装置
JP4812750B2 (ja) * 2005-03-15 2011-11-09 パイオニア株式会社 休憩支援装置、休憩支援方法、休憩支援プログラム、およびコンピュータに読み取り可能な記録媒体
JP2011248850A (ja) * 2010-04-28 2011-12-08 Imasen Electric Ind Co Ltd 居眠り防止装置

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1708151A3 (en) * 1995-08-09 2007-01-24 Toyota Jidosha Kabushiki Kaisha Travel plan preparing device
US6265978B1 (en) * 1996-07-14 2001-07-24 Atlas Researches, Ltd. Method and apparatus for monitoring states of consciousness, drowsiness, distress, and performance
KR100382154B1 (ko) * 2000-02-22 2003-05-01 박원희 운전자 상태 감시장치
DE60039412D1 (de) * 2000-05-04 2008-08-21 Continental Automotive Gmbh Navigationsroutenplanungssystem
US20020053153A1 (en) * 2000-05-16 2002-05-09 Nesbitt Bryce C. Electronic display system for use in publicly accessible locations for receiving data from a remote location
US7565230B2 (en) * 2000-10-14 2009-07-21 Temic Automotive Of North America, Inc. Method and apparatus for improving vehicle operator performance
JP4514372B2 (ja) 2001-08-28 2010-07-28 パイオニア株式会社 情報提供システム、情報提供方法、情報提供プログラム、情報提供システムにおけるサーバ装置および、情報提供システムにおける端末装置
JP2003252130A (ja) * 2002-03-01 2003-09-10 Denso Corp 車両エージェントシステム,ecu
JP2003344196A (ja) * 2002-05-24 2003-12-03 Denso Corp 乗員状態検知方法及び装置
US6791462B2 (en) * 2002-09-18 2004-09-14 Sang J. Choi Sleepy alarm system activated by heart pulse meter
US7202792B2 (en) * 2002-11-11 2007-04-10 Delphi Technologies, Inc. Drowsiness detection system and method
JP4026543B2 (ja) * 2003-05-26 2007-12-26 日産自動車株式会社 車両用情報提供方法および車両用情報提供装置
US20050114014A1 (en) * 2003-11-24 2005-05-26 Isaac Emad S. System and method to notify a person of a traveler's estimated time of arrival
AU2003296243A1 (en) * 2003-11-30 2005-06-17 Volvo Technology Corporation Method and system for recognizing driver impairment
US7349782B2 (en) * 2004-02-29 2008-03-25 International Business Machines Corporation Driver safety manager
DE102004048011A1 (de) 2004-10-01 2006-04-06 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerunterstützung
US9165280B2 (en) * 2005-02-22 2015-10-20 International Business Machines Corporation Predictive user modeling in user interface design
US7481779B2 (en) * 2005-07-21 2009-01-27 William Thomas Large Method of managing and preventing the onset of computer and sedentary work related fatigue
JP4739407B2 (ja) * 2006-03-24 2011-08-03 パイオニア株式会社 運転者の精神状態検出装置
US7468673B2 (en) * 2006-06-23 2008-12-23 Delphi Technologies, Inc. System and method for determining whether a vehicle operator has an impaired cognitive state
US20080228400A1 (en) * 2007-03-15 2008-09-18 Wheeler Jeffrey D Highway safety system and method
US7982620B2 (en) * 2007-05-23 2011-07-19 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for reducing boredom while driving
JP4947420B2 (ja) 2007-05-30 2012-06-06 いすゞ自動車株式会社 休憩終了報知システム
US8427326B2 (en) * 2009-07-30 2013-04-23 Meir Ben David Method and system for detecting the physiological onset of operator fatigue, drowsiness, or performance decrement
JP2011052979A (ja) * 2009-08-31 2011-03-17 Sanyo Electric Co Ltd ナビゲーション装置
US9292471B2 (en) * 2011-02-18 2016-03-22 Honda Motor Co., Ltd. Coordinated vehicle response system and method for driver behavior
US20120306637A1 (en) * 2011-06-01 2012-12-06 Johnson Controls Technology Company System and method for selectively altering content of a vehicle interface
KR101405679B1 (ko) * 2011-10-11 2014-06-13 현대자동차주식회사 차량 위치 정보 기반 비정상 운전 판정 및 경보 시스템
KR20130050113A (ko) * 2011-11-07 2013-05-15 현대자동차주식회사 위험단계별 경고기능을 갖는 차량 운행보조 시스템 및 그 방법
US10282959B2 (en) 2011-12-17 2019-05-07 Tata Consultancy Services Limited Fatigue time determination for an activity
US20140350830A1 (en) * 2011-12-19 2014-11-27 Michel David Traffic control system and method
JP2013152679A (ja) * 2012-01-26 2013-08-08 Denso Corp 運転支援装置
US20130218971A1 (en) * 2012-02-09 2013-08-22 Samsung Electronics, Co., Ltd. Cloud platform notification
US8954135B2 (en) * 2012-06-22 2015-02-10 Fitbit, Inc. Portable biometric monitoring devices and methods of operating same
US9047752B2 (en) * 2012-09-19 2015-06-02 Eduardo Pedro Bichara Alarm device to prevent drowsiness in drivers
JP2014071628A (ja) * 2012-09-28 2014-04-21 Aisin Aw Co Ltd 運転支援システム、運転支援プログラム、運転支援方法
WO2014102722A1 (en) * 2012-12-26 2014-07-03 Sia Technology Ltd. Device, system, and method of controlling electronic devices via thought
US20140270243A1 (en) * 2013-03-15 2014-09-18 Commercial Vehicle Group, Inc. Mobile device to vehicle integration
EP2892020A1 (en) * 2014-01-06 2015-07-08 Harman International Industries, Incorporated Continuous identity monitoring for classifying driving data for driving performance analysis
US9135803B1 (en) * 2014-04-17 2015-09-15 State Farm Mutual Automobile Insurance Company Advanced vehicle operator intelligence system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0812750B2 (ja) * 1991-05-24 1996-02-07 三菱電機株式会社 記録担体の再生装置
JP4812750B2 (ja) * 2005-03-15 2011-11-09 パイオニア株式会社 休憩支援装置、休憩支援方法、休憩支援プログラム、およびコンピュータに読み取り可能な記録媒体
JP2009213711A (ja) * 2008-03-11 2009-09-24 Toyota Motor Corp 睡眠装置
JP2010082377A (ja) * 2008-10-02 2010-04-15 Hiroshima Univ 睡眠制御装置
JP2011248850A (ja) * 2010-04-28 2011-12-08 Imasen Electric Ind Co Ltd 居眠り防止装置

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10112621B2 (en) 2016-06-23 2018-10-30 Hyundai Motor Company Wearable device, vehicle for communicating with the wearable device
KR20190004546A (ko) * 2017-07-04 2019-01-14 현대자동차주식회사 무선통신시스템, 차량, 스마트 장치 및 무선통신시스템의 제어방법
KR102395293B1 (ko) * 2017-07-04 2022-05-09 현대자동차주식회사 무선통신시스템, 차량, 스마트 장치 및 무선통신시스템의 제어방법
KR20190027657A (ko) * 2017-09-07 2019-03-15 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
KR102452636B1 (ko) 2017-09-07 2022-10-11 삼성전자주식회사 차량의 주행을 보조하는 장치 및 방법
CN114007928A (zh) * 2019-05-06 2022-02-01 大众汽车股份公司 通过基于摄像机确定的相对于机动车的距离用于实施机动车的调动过程的方法和调动辅助系统
CN114007928B (zh) * 2019-05-06 2023-09-05 大众汽车股份公司 通过基于摄像机确定的相对于机动车的距离用于实施机动车的调动过程的方法和调动辅助系统

Also Published As

Publication number Publication date
EP2945133A1 (en) 2015-11-18
US9789878B2 (en) 2017-10-17
US20160046294A1 (en) 2016-02-18
CN105015552A (zh) 2015-11-04
CN105015552B (zh) 2017-11-14
EP2945133B1 (en) 2019-10-02

Similar Documents

Publication Publication Date Title
KR101575051B1 (ko) 웨어러블 디바이스 및 그 제어방법
KR101570432B1 (ko) 웨어러블 디바이스 및 그 제어 방법
EP2953106B1 (en) Handling vehicle accidents using a mobile terminal
CN105898089B (zh) 移动终端、移动终端的控制方法、车辆的控制系统及车辆
US9800717B2 (en) Mobile terminal and method for controlling the same
KR101677642B1 (ko) 스마트 밴드 및 이를 이용한 위험 상황 모니터링 방법
US20180014182A1 (en) Mobile terminal
KR20150138727A (ko) 웨어러블 디바이스 및 그 제어 방법
KR20160066951A (ko) 이동 단말기 및 그 제어 방법
KR20160080473A (ko) 와치형 이동 단말기 및 이의 제어방법
KR20170006859A (ko) 이동단말기, 차량 및 그 제어방법
KR20180029770A (ko) 이동 단말기 및 그 제어방법
KR20170064342A (ko) 워치 타입의 이동 단말기 및 그 제어 방법
KR20150133047A (ko) 와치 타입 이동 단말기 및 그것의 제어방법
KR101741074B1 (ko) 차량 사고 녹화 장치 및 그것의 방법
KR101667733B1 (ko) 이동단말기 및 그 제어방법
US20160320839A1 (en) Wearable terminal and system including same
US20180260064A1 (en) Wearable device and control method therefor
KR101695697B1 (ko) 이동 단말기 및 이의 제어방법
KR20170127144A (ko) 이동 단말기 및 그 제어방법
KR20160024538A (ko) 사용자 맞춤형으로 추천 목적지를 제공하는 텔레매틱스 단말기 및 그 제어 방법
KR20160011518A (ko) 손목 스탭 검출 장치 및 그 방법
KR101700765B1 (ko) 이동 단말기 및 이의 제어방법
KR20170027190A (ko) 이동 단말기 결합형 주행 로봇 및 그 로봇의 제어 방법
KR101661970B1 (ko) 이동단말기 및 이동 단말기의 제어방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant