KR101659027B1 - 이동 단말기 및 차량 제어 장치 - Google Patents

이동 단말기 및 차량 제어 장치 Download PDF

Info

Publication number
KR101659027B1
KR101659027B1 KR1020140058583A KR20140058583A KR101659027B1 KR 101659027 B1 KR101659027 B1 KR 101659027B1 KR 1020140058583 A KR1020140058583 A KR 1020140058583A KR 20140058583 A KR20140058583 A KR 20140058583A KR 101659027 B1 KR101659027 B1 KR 101659027B1
Authority
KR
South Korea
Prior art keywords
information
vehicle
user
unit
mobile terminal
Prior art date
Application number
KR1020140058583A
Other languages
English (en)
Other versions
KR20150131634A (ko
Inventor
김성현
홍성욱
김주민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140058583A priority Critical patent/KR101659027B1/ko
Priority to US14/672,520 priority patent/US9682622B2/en
Priority to EP15001394.4A priority patent/EP2952403B1/en
Priority to CN201510239153.6A priority patent/CN105894733B/zh
Publication of KR20150131634A publication Critical patent/KR20150131634A/ko
Application granted granted Critical
Publication of KR101659027B1 publication Critical patent/KR101659027B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/06Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • B60K28/06Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
    • B60K28/066Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/389Electromyography [EMG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B1/00Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
    • H04B1/38Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
    • H04B1/3822Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving specially adapted for use in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/026Measuring blood flow
    • A61B5/0261Measuring blood flow using optical means, e.g. infrared light
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/053Measuring electrical impedance or conductance of a portion of the body
    • A61B5/0531Measuring skin impedance
    • A61B5/0533Measuring galvanic skin response
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/6803Head-worn items, e.g. helmets, masks, headphones or goggles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0062Adapting control system settings
    • B60W2050/0075Automatic parameter input, automatic initialising or calibrating means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/043Identity of occupants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data

Abstract

본 명세서에서 개시된 기술적 과제는, 이동 단말기가 획득한 차량 운전자의 생체 정보와 운전자에 대한 영상 정보를 근거로 운전자의 부주의 종류 및 부주의 정도를 정확하게 판단하기 위한 이동 단말기 및 차량 제어 장치에 관한 발명을 제공하는 데 있다.
본 명세서에 개시된 일 실시예는, 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기에 있어서, 상기 특정 신체 부위에 착용 가능하도록 형성된 본체, 차량에 구비된 영상획득장치로부터 상기 사용자에 대한 영상 정보를 수신하는 통신부, 상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부 및 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부를 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.

Description

이동 단말기 및 차량 제어 장치 {MOBILE TERMINAL AND APPARATUS FOR CONTROLLING A VEHICLE}
본 명세서에 개시된 기술은, 이동 단말기에 관한 것으로서, 좀 더 구체적으로는 차량 운전자의 부주의를 판단하는 이동 단말기 및 차량 제어 장치에 관한 것이다.
단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시, 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.
이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.
또한, 최근 사용자 편의성을 고려하여 다양한 형태의 이동 단말기가 개발되고 있다. 이 중 웨어러블 디바이스(Wearable device)는 사용자가 신체 또는 의류에 착용할 수 있는 각종 전자기기를 모두 포함한다. 이러한 웨어러블 디바이스는 예를 들어 스마트 워치(Smart Watch, 시계형 이동 단말기), 웨어러블 컴퓨터(Wearable Computer), 구글 글래스(google glass), 블루투스 헤드셋(Bluetooth Headset), 스마트 웨어(Smart wear) 등일 수 있다.
이와 같은 웨어러블 디바이스는 그 다양한 기능에 따라 복합적인 기능을 갖춘 멀티미디어 기기 형태로 구현되고 있다. 예를 들어 스마트 워치의 경우 시계로서 제공되는 기본 기능 외에도, 구비된 카메라를 통해 정지 화상을 촬영하거나, 동영상을 녹화하는 기능 또는 본체에 형성된 디스플레이부를 통해 멀티미디어 컨텐츠를 재생할 수도 있다. 또는 다양한 이메일 플러그인등을 이용하여 무선 인터넷을 통한 메시지를 확인하거나 소셜 네트워크(Social Network)에 접속하도록 할 수도 있다.
이러한 이동 단말기 또는 웨어러블 디바이스(이하, 본 명세서에서는 "이동 단말기"로 통칭하기로 하나, 본 명세서에서 개시된 기술이 적용되는 장치를 한정하고자 하는 의도는 아니다)의 다양한 기능을 활용하여 사용자에게 더욱 편의를 제공할 수 있도록 하기 위한 연구가 활발하게 진행되고 있는 실정이다.
이와 관련하여, 최근에는 상기 이동 단말기를 착용한 운전자가 차량에 탑승한 경우에, 상기 이동 단말기가 획득한 차량 운전자의 각종 생체 정보를 이용하여, 차량 운전자의 부주의(졸음(drowsiness), 시선 분산(distraction), 스트레스(stress) 등)를 판단하는 기술에 대한 필요성이 대두되고 있다.
본 명세서에서 개시된 기술적 과제는, 이동 단말기가 획득한 차량 운전자의 생체 정보와 운전자에 대한 영상 정보를 근거로 운전자의 부주의 종류 및 부주의 정도를 정확하게 판단하기 위한 이동 단말기 및 차량 제어 장치에 관한 발명을 제공하는 데 있다.
본 명세서에 개시된 일 실시예는, 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기에 있어서, 상기 특정 신체 부위에 착용 가능하도록 형성된 본체, 차량에 구비된 영상획득장치로부터 상기 사용자에 대한 영상 정보를 수신하는 통신부, 상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부 및 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부를 포함하는 것을 특징으로 하는 이동 단말기를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 결정된 어느 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여 상기 위험 레벨 정보를 생성하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 가중치는, 상기 위험 운전 상태가 상기 졸음 운전 상태, 상기 시선 분산 운전 상태 및 상기 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용되는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 제어부는, 기 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하거나, 차량에 구비된 차량 제어 장치로 상기 위험 레벨 정보를 전송하여, 상기 차량 제어 장치 또는 상기 차량에 설치된 차량 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 외부로 출력되는 상기 위험 레벨 정보는, 상기 위험 레벨 정보가 변화함에 따라 출력 강도가 변화되는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 이동 단말기의 출력부는, 상기 위험 레벨 정보를 상기 본체의 진동 또는 음성의 형태로 외부로 출력하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 이동 단말기의 출력부는, 상기 진동의 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기, 상기 음성의 크기, 상기 음성의 내용 및 상기 음성의 출력 주기 중 적어도 하나를 변경함에 의해 상기 출력 강도를 변화시키는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 차량 제어 장치는, 상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하고, 상기 차량 출력부는, 상기 차량의 비상등, 상기 차량의 계기판에 설치된 LED, 상기 차량의 진동 시트 및 상기 차량의 진동 가능한 조향 장치 중 적어도 하나인 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 차량 출력부는, 상기 비상등의 출력 주기, 상기 LED의 색깔, 상기 LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기 중 적어도 하나를 변경함에 의해 상기 출력 강도를 변화시키는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 생체 정보는, 상기 차량의 탑승 전 상기 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 포함하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 위험 운전 상태는, 상기 졸음 운전 상태이고, 상기 제어부는, 상기 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 근거로 시간에 따른 상기 사용자에 대한 졸음 추세선을 산출하고, 상기 졸음 추세선 및 상기 영상 정보를 근거로 상기 위험 운전 상태를 검출하는 것인 이동 단말기를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 사용자에 대한 과거 영상 정보 및 과거 생체 정보를 근거로 위험 운전 상태를 판별하기 위한 운전 상태 학습 모델을 생성하고, 상기 영상 정보, 상기 생체 정보 및 상기 운전 상태 학습 모델을 근거로 상기 위험 운전 상태를 검출하는 것인 이동 단말기를 개시한다.
또한, 본 명세서에 개시된 일 실시예는, 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기와 통신을 수행하는 통신부, 차량에 구비된 영상획득장치로부터 상기 사용자에 대한 영상 정보를 획득하는 영상 정보 획득부 및 상기 특정 신체 부위로부터 획득된 상기 사용자에 대한 생체 정보를 수신하도록 상기 통신부를 제어하고, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부를 포함하는 것을 특징으로 하는 차량에 설치되는 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하고, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 결정된 어느 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성하는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여 상기 위험 레벨 정보를 생성하는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 가중치는, 상기 위험 운전 상태가 상기 졸음 운전 상태, 상기 시선 분산 운전 상태 및 상기 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용되는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 차량 제어 장치의 출력부 또는 상기 차량에 설치된 차량 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하거나, 상기 이동 단말기로 상기 위험 레벨 정보를 전송하여, 상기 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 외부로 출력되는 상기 위험 레벨 정보는, 상기 위험 레벨 정보가 변화함에 따라 출력 강도가 변화되는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 차량 제어 장치는, 상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하고, 상기 차량 출력부는, 상기 차량의 비상등, 상기 차량의 계기판에 설치된 LED, 상기 차량의 진동 시트 및 상기 차량의 진동 가능한 조향 장치 중 적어도 하나인 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 차량 출력부는, 상기 비상등의 출력 주기, 상기 LED의 색깔, 상기 LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기 중 적어도 하나를 변경함에 의해 상기 출력 강도를 변화시키는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 이동 단말기는, 상기 위험 레벨 정보를 상기 이동 단말기 본체의 진동 또는 음성의 형태로 외부로 출력하되, 상기 진동의 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기, 상기 음성의 크기, 상기 음성의 내용 및 상기 음성의 출력 주기 중 적어도 하나를 변경함에 의해 상기 출력 강도를 변화시키는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 생체 정보는, 상기 차량의 탑승 전 상기 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 포함하는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 위험 운전 상태는, 상기 졸음 운전 상태이고, 상기 제어부는, 상기 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 근거로 시간에 따른 상기 사용자에 대한 졸음 추세선을 산출하고, 상기 졸음 추세선 및 상기 영상 정보를 근거로 상기 위험 운전 상태를 검출하는 것인 차량 제어 장치를 개시한다.
일 실시예에 따라, 상기 제어부는, 상기 사용자에 대한 과거 영상 정보 및 과거 생체 정보를 근거로 위험 운전 상태를 판별하기 위한 운전 상태 학습 모델을 생성하고, 상기 영상 정보, 상기 생체 정보 및 상기 운전 상태 학습 모델을 근거로 상기 위험 운전 상태를 검출하는 것인 차량 제어 장치를 개시한다.
본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 운전자의 부주의 종류 및 부주의 정도를 정확하게 판단할 수 있다.
또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 사용자의 졸음 레벨을 예측하고, 미리 사용자에게 각종 수단을 통해 경각심을 불러 일으키도록 함으로써, 졸음에 의해 발생할 수 있는 사고를 미연에 방지할 수 있다.
또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 운전자의 부주의에 대한 판단시, 영상 정보 및 생체 정보 중 적어도 하나를 근거로 판단하기 때문에, 상기 영상 정보를 획득하는 영상획득장치와 상기 생체 정보를 획득하는 생체 정보 획득부 중 어느 하나에 이상이 발생하더라도 운전자의 부주의를 판단할 수 있다.
도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기를 나타내는 블록도이다.
도 2a는 본 명세서에 따른 이동 단말기가 동작 가능한 통신 시스템의 개념도이다.
도 2b는 본 명세서에 따른 이동 단말기의 위치 측위 방법을 설명하기 위한 참고도이다.
도 3a는 본 발명서에 개시된 일 실시 예에 따른 스마트 워치의 전면을 도시한 도면이다.
도 3b는 본 발명서에 개시된 일 실시 예에 따른 스마트 워치의 후면을 도시한 도면이다.
도 4a는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다.
도 4b는 도 4a의 안경형 단말기를 다른 방향에서 바라본 도면이다.
도 5a는 본 명세서에 개시된 이동 단말기의 일 예를 전면에서 바라본 사시도이다.
도 5b는 본 명세서에 개시된 이동 단말기의 일 예를 후면에서 바라본 사시도이다.
도 6a는 본 명세서에 개시된 차량 제어 장치를 설명하기 위한 블록도이다.
도 6b는 본 발명에 개시된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.
도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.
도 8a는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8b는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8c는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.
도 9a는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 예시도이다.
도 9b는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 또 다른 예시도이다.
도 10은 본 명세서에 개시된 일 실시예에 따라 사용자에 대한 졸음 추이 예측선을 나타낸 도면이다.
도 11a는 본 명세서에 개시된 일 실시예에 따라 사용자의 시선 분산 상태에 대한 예시도이다.
도 11b는 본 명세서에 개시된 일 실시예에 따라 사용자의 시선 분산 상태에 대한 또 다른 예시도이다.
도 12는 본 명세서에 개시된 일 실시예에 따른 위험 레벨 정보에 대한 다양한 출력 방식을 나타내는 예시도이다.
도 13은 본 명세서에 개시된 일 실시예에 따른 졸음 운전 상태 또는 졸음 레벨을 결정하기 위한 과정을 나타내는 블록도이다.
도 14는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.
본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.
본 명세서에서 설명되는 차량 제어 장치는, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기, 텔레비전(Television), 3D 텔레비전, A/V(Audio/Video) 시스템, 정보 제공 센터, 콜 센터(call center) 등과 같은 다양한 기기 또는 장치에 적용될 수 있다.
또한, 본 명세서에서 설명되는 차량 제어 장치는, 상기 차량에 유선 또는 무선으로 연결되는 이동 단말기의 형태로도 이루어질 수 있다. 이 경우, 상기 차량 제어 장치에는, 전술된 이동 단말기와 마찬가지로 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
이동 단말기
이하에서는 도 1 내지 도 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 구성 내지 형태에 대해 상술한다.
도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기(100)를 나타내는 블록도이다.
상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 감지부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.
이하, 상기 구성요소들에 대해 차례로 살펴본다.
무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다.
상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다.
상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.
상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.
방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.
이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.
상기 이동통신 모듈(112)은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다.
근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.
위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.
도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 여기에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라는(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부 기기로 전송될 수 있다. 또한, 카메라(121)에서 획득되는 화상 프레임으로부터 사용자의 위치 정보 등이 산출될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.
마이크(122)는 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.
사용자 입력부(130)는 사용자로부터 인가되는 이동 단말기(100)의 동작을 제어하기 위한 제어명령에 따른 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.
감지부(또는 센싱부, 140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 감지 신호 (또는 센싱 신호)를 발생시킨다. 예를 들어 감지부(140)는 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 감지할 수 있다. 또한, 감지부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 감지할 수도 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(153), 알람부(154) 및 햅틱 모듈(155) 등이 포함될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(151)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.
이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부(152)로서 구성될 수 있다.
여기서, 입체영상은 3차원 입체영상(3-dimensional stereoscopic image)을 나타내며, 3차원 입체 영상(3-dimensional stereoscopic image)은 모니터나 스크린 상에서 사물이 위치한 점진적 깊이(depth)와 실체(reality)를 현실 공간과 동일하게 느낄 수 있도록 한 영상이다. 3차원 입체 영상은 양안시차(binocular disparity)를 이용하여 구현된다. 양안시차란 떨어져 있는 두 눈의 위치에 의하여 이루어지는 시차를 의미하는 것으로, 두 눈이 서로 다른 2차원 화상을 보고 그 화상들이 망막을 통하여 뇌로 전달되어 융합되면 입체 영상의 깊이 및 실제감을 느낄 수 있게 된다.
상기 입체 디스플레이부(152)에는 스테레 스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. 가정용 텔레비전 수신기 등에 많이 이용되는 스테레오스코픽 방식에는 휘스톤 스테레오스코프 방식 등이 있다.
상기 오토 스테레오스코픽 방식의 예로서, 패럴렉스 배리어(parallex barrier) 방식, 렌티큘러(lenticular) 방식, 집적영상(integral imaging) 방식, 스위츠블 렌즈(switchable lens) 등이 있다. 프로젝션 방식에는 반사형 홀로그래픽 방식, 투과형 홀로그래픽 방식 등이 있다.
일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.
또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이를 합쳐서 하나의 3차원 썸네일 영상을 생성할 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.
3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부(미도시)에 의하여 입체 디스플레이부(152)에 표시될 수 있다. 입체 처리부는 3D 영상을 입력받아 이로부터 좌 영상과 우 영상을 추출하거나, 2D 영상을 입력받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.
한편, 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.
터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.
도 1을 참조하면, 상기 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 근접 센서(141)는 상기 센싱부(140)의 일 예로서 구비될 수 있다. 상기 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.
상기 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 전도성을 갖는 물체(이하, 포인터라 함)의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.
이하에서는 설명의 편의를 위해, 상기 터치 스크린상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치 스크린상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치 스크린상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치 될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.
상기 근접센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다.
입체 디스플레이부(152)와 터치 센서가 상호 레이어 구조를 이루는 경우(이하, '입체 터치스크린'이라 함)나, 입체 디스플레이부(152)와 터치 동작을 감지하는 3차원 센서가 서로 조합되는 경우에는 상기 입체 디스플레이부(152)는 3차원의 입력 장치로도 사용될 수 있다.
상기 3차원 센서의 예로서, 상기 센싱부(140)는 근접 센서(141), 입체 터치 센싱부(142), 초음파 센싱부(143), 카메라 센싱부(144), 생체 정보 획득부(145)를 포함할 수 있다.
근접센서(141)는 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 터치를 가하는 감지대상(예를 들어, 사용자의 손가락이나 스타일러스 펜)와 검출면과의 거리를 측정한다. 단말기는 이러한 거리를 이용하여 입체영상의 어느 부분이 터치되었는지를 인식하게 된다. 특히, 터치스크린이 정전식인 경우에는 상기 감지대상의 근접에 따른 전계의 변화로 상기 감지대상의 근접 정도를 검출하고, 이러한 근접 정도를 이용하여 3차원 상의 터치를 인식하도록 구성된다.
입체 터치 센싱부(142)는 터치 스크린상에 가해지는 터치의 세기나 지속시간을 감지하도록 이루어진다. 예를 들어, 입체 터치 센싱부(142)는 터치를 가하는 압력을 감지하고, 가압력이 강하면 이를 단말기의 내부를 향하여 터치 스크린과 보다 멀리 위치한 객체에 대한 터치로 인식한다.
초음파 센싱부(143)는 초음파를 이용하여, 감지대상의 위치정보를 인식하도록 이루어진다.
초음파 센싱부(143)는, 예를 들어 광 센서와 복수의 초음파 센서로 이루어질 수 있다. 광 센서는 광을 감지하도록 형성되며, 초음파 센서는 초음파를 감지하도록 형성된다. 광이 초음파보다 매우 빠르기 때문에, 광이 광 센서에 도달하는 시간은 초음파가 초음파 센서에 도달하는 시간보다 매우 빠르다. 따라서, 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치를 산출할 수 있게 된다.
카메라 센싱부(144)는 카메라(121), 포토 센서, 레이저 센서 중 적어도 하나를 포함한다.
예를 들어, 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지한다. 카메라에 의하여 촬영된 2차원 영상에 레이저 센서에 의하여 감지된 거리정보가 더해지면, 3차원 정보가 획득될 수 있다.
또 다른 예로서, 포토 센서가 디스플레이 소자에 적층될 수 있다. 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보를 획득하게 된다.
생체 정보 획득부(145)는 사용자의 특정 신체 부위를 통해 생체 정보를 획득한다.
일 실시예에 따라, 생체 정보 획득부(145)는 인체의 생리학적 전위차에 의하여 발생되는 생체 신호를 측정할 수 있다.
일 예로, 생체 정보 획득부(145)는 PPG(Pulse Plethyamo Graphy), ECG(Electro-CardioGram), GSR(Galvanic Skin Reflex), EEG(Electro-EncephaloGram), EMG(Electro-MyoGram) 및 EOG(Electro-OculoGraphy) 센서 중 적어도 하나를 포함할 수 있다. 이와 같은 센서는, 펄스 혈류량, 심전도, 전기성 피부 반사, 뇌파, 근전도 및 안구 운동에 대한 생체 신호를 측정할 수 있다.
음향 출력 모듈(153)은 호신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(153)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(153)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
알람부(154)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(154)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동을 이용하여, 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(153)을 통해서도 출력될 수 있어서, 디스플레이부(151) 및 음향 출력 모듈(153)은 알람부(154)의 일부로 분류될 수도 있다.
햅틱 모듈(haptic module)(155)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(155)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(155)이 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(155)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(155)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(155)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(155)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(170)에 포함될 수 있다.
한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(170)를 통하여 단말기(100)와 연결될 수 있다.
또한, 상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.
제어부(controller, 180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.
또한, 상기 제어부(180)는 상기 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다.
또한, 상기 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(151)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.
전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.
여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들은 제어부(180) 자체로 구현될 수 있다.
소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.
소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.
다음으로, 본 발명에 따른 이동 단말기(100)를 통해 실시 가능한 통신 시스템에 대하여 살펴본다.
도 2A 및 도 2B는 본 발명에 따른 이동 단말기(100)가 동작 가능한 통신 시스템의 개념도이다.
먼저, 도 2A를 살펴보면, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.
이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.
도 2A에 도시된 바와 같이, CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS)(270), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs)(275), 이동 스위칭 센터(Mobile Switching Center, MSC)(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network, PSTN)(290) 및 BSCs(275)와 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 2A에 도시된 시스템에 포함될 수 있다.
복수의 BS(270) 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.
섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은 는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴수 있다. 이러한 경우, 하나의 BSC(275) 및 적어도 하나의 BS(270)를 합하여 “기지국”이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.
도 2A에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter, BT)(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 1에 도시된 방송 수신 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다.
뿐만 아니라, 도 2A에서는, 위성 위치 확인 시스템(Global Positioning System, GPS)의 위성(300)을 도시한다. 상기 위성(300)은, 이동 단말기(100)의 위치를 파악하는 것을 돕는다. 도 2A에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 1에 도시된 위치정보 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 도 2A에 도시된 위성(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 이동 단말기(100)의 위치가 추적될 수 있다. 또한, GPS 위성(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.
무선 통신 시스템의 전형적인 동작 중, BS(270)는, 이동 단말기(100)로부터 역 링크 신호를 수신한다. 이때, 이동 단말기(100)는, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행하고 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSCs(275)는, 상기 수신된 데이터를 MSC(280)로 송신하고, MSC(280)는, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 또한, 이와 유사하게 PSTN(290)은 MSC(280)와 연결되고, MSC(280)는 BSCs(275)와 연결되고, BSCs(275)는 이동 단말기(100)로 순 링크 신호가 전송되도록 BS(270)를 제어할 수 있다.
다음으로, 도 2B에서는 와이파이 위치추적 시스템(WPS: WiFi(Wireless Fidelity) Positioning System)을 이용하여, 이동 단말기의 위치정보를 획득하는 방법에 대하여 살펴본다.
와이파이 위치추적 시스템(WPS: WiFi Positioning System, 300)은 이동 단말기(100)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point, 320)를 이용하여, 이동 단말기(100)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다.
와이파이 위치추적 시스템(300)은 와이파이 위치 측위 서버(310), 이동 단말기(100), 상기 이동 단말기(100)와 접속된 무선 AP(330), 임의의 무선 AP정보가 저장된 데이터 베이스(330)를 포함할 수 있다.
와이파이 위치 측위 서버(310)는 이동 단말기(100)의 위치정보 요청 메시지(또는 신호)에 근거하여, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 추출한다. 상기 이동 단말기(100)와 접속된 무선 AP(320)의 정보는 이동 단말기(100)를 통해 상기 와이파이 위치 측위 서버(310)로 전송되거나, 무선 AP(320)에서 와이파이 위치 측위 서버(310)로 전송될 수 있다.
상기 이동 단말기(100)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.
와이파이 위치 측위 서버(310)는 위와 같이, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 수신하여, 미리 구축된 데이터베이스(330)에 포함된 정보와 상기 수신된 무선 AP(320) 정보를 비교하여, 상기 이동 단말기(100)의 위치정보를 추출(또는 분석)한다.
한편, 도 2B에서는 일 예로서, 이동 단말기(100)와 접속되어 있는 무선 AP를 제1, 제2 및 제3 무선 AP(320)로 도시하였다. 그러나, 이동 단말기(100)와 접속되는 무선 AP의 수는 이동 단말기(100)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다. 와이파이 위치추척 시스템(300)은 이동 단말기(100)가 적어도 하나의 무선 AP와 접속되는 경우, 이동 단말기(100)의 위치를 추적하는 것이 가능하다.
다음으로, 임의의 무선 AP정보가 저장되어 있는 데이터 베이스(330)에 대하여 보다 구체적으로 살펴보면, 상기 데이터 베이스(330)에는 서로 다른 위치에 배치된 임의의 무선 AP들의 다양한 정보가 저장될 수 있다.
상기 데이터 베이스(300)에 저장되는 임의의 무선 AP들의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다.
이와 같이, 상기 데이터베이스(330)에는 임의의 무선 AP정보 및 상기 임의의 무선 AP에 대응되는 위치정보가 함께 저장되어 있으므로, 와이파이 위치 측위 서버(310)는 상기 데이터베이스(330)에서 이동 단말기(100)에 접속된 무선 AP(320)의 정보와 대응되는 무선 AP정보를 검색하고, 검색된 무선 AP정보에 매칭된 위치정보 추출함으로써, 이동 단말기(100)의 위치정보를 추출할 수 있다.
그리고, 이렇게 추출된 이동 단말기(100)의 위치정보는 상기 와이파이 위치 측위 서버(310)를 통해 이동 단말기(100)로 전송됨으로써, 이동 단말기(100)는 위치정보를 획득할 수 있다.
이하에서는 도 3A 내지 도 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 다양한 이동 단말기의 구현 형태에 대해 살펴본다.
도 3A 및 도 3B는 본 발명의 일 실시 예에 따른 스마트 워치의 전면 및 후면을 도시한 도면이다.
즉, 도 3A 및 도 3B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 시계형 이동 단말기인 스마트 워치 형태를 구비한 경우를 나타낸다.
개시된 스마트 워치(Smart Watch : 200)는 사각형 형태의 구조를 가지고 있다. 다만, 본 발명은 여기에 한정되지 않고, 다양한 구조, 즉 원형이나 삼각형과 같은 다양한 형태의 다각형 구조를 가지는 스마트 워치에도 적용이 가능함은 물론이다.
일 실시예에 따르면, 스마트 워치(200)는 밴드(230)와 본체(220)를 포함하여 구성된다. 본체(220)의 외관을 이루는 케이스는 프론트 케이스(210)와 리어 케이스(250)로 구분될 수 있다. 프론트 케이스(210)와 리어 케이스(250)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(210)와 리어 케이스(250) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다. 케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다.
도 3A를 참조하면, 프론트 케이스(210)에는 디스플레이부(151), 카메라(121), 마이크(122)등이 배치될 수 있다.
디스플레이부(151)는 프론트 케이스(210)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부에는 카메라(121) 및 마이크(122)가 배치될 수 있다.
한편, 디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다.
이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다.
디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다.
또한 스마트 워치(200)의 본체(220)의 일 측면에는 유/무선 헤드셋 포트(미도시)과 유/무선 데이터 포트(미도시)가 배치될 수 있다. 상기 포트들은 인터페이스(170, 도 1 참조)의 일 예로서 구성된다.
도 3B를 참조하면, 본체(220)의 후면, 다시 말해서 리어 케이스(250)에는 제1 센서(145a)가 배치될 수 있다. 제1 센서(145a)는 사용자의 피부 상태 또는 사용자의 생체 신호를 감지하기 위한 센서일 수 있다. 또한 실제 사용자의 손목 뒷부분의 피부와 접촉되는 밴드(230)의 적어도 일 영역에서는 사용자의 근육 움직임 등을 감지할 수 있는 제2 센서(145b)가 배치될 수 있다.
본체(220)의 측면에는 방송신호 수신용 안테나가 추가적으로 배치될 수 있다. 방송 수신 모듈(111, 도 1 참조)의 일부를 이루는 안테나는 본체(220)에서 인출 가능하게 설치될 수 있다.
그리고 스마트 워치(200)의 본체(220)에는 음향 출력 모듈(미도시), 인터페이스등이 구비될 수 있다. 또한 프론트 케이스(210) 및 리어 케이스(250)의 측면에는 사용자 입력부(340)와 연결 포트 등이 배치될 수 있다.
사용자 입력부(240)는 스마트 위치(200)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 적어도 하나의 조작 유닛들(240a, 240b, 240c, 240d)을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각적인 느낌을 가하면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.
복수의 조작 유닛들에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 시작, 종료, 스크롤 등과 같은 명령의 입력, 음향 출력부(152)에서 출력되는 음향의 크기 조절, 또는 디스플레이부(151)의 터치 인식 모드의 전환 등과 같은 명령을 입력받도록 형성될 수 있다.
연결 포트는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 워치(200) 내부의 각 구성 요소에 전달하거나, 스마트 워치(200) 내부의 데이터가 외부 기기로 전송되도록 한다. 연결 포트는, 인터페이스(170, 도 1 참조)의 일 예로서 구성될 수 있다.
스마트 워치(200)의 본체(220)에는 스마트 워치(200)에 전원을 공급하기 위한 전원 공급부(미도시)가 구비된다. 전원공급부는 본체(220)에 내장되는 형태로 구성될 수 있다.
도 4A 및 도 4B는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다.
즉, 도 4A 및 도 4B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 안경형 이동 단말기인 스마트 안경 형태를 구비한 경우를 나타낸다.
도 4A을 참조하면, 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 본체(100'), 디스플레이부(151) 및 제어부(180)를 포함한다.
또한 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 사용자 입력부, 음성 인식부, 동작 감지부를 더 포함할 수 있다.
본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 두부 장착형 디스플레이(head mounted display, HMD)로 구현될 수 있다. 구체적인 실시 예로, 스마트 안경(smart glasses)으로 구현될 수 있다.
본체(100')는 두부에 장착가능 하도록 형성된다. 예를 들면, 스마트 안경에서의 프레임과 다리 부분으로 구현될 수 있다.
디스플레이부(151)는 본체(100')와 결합하여 양안에 대응되는 위치에 배치될 수 있다. 또한 상기 디스플레이부(151)는 광투과성을 가지며, 시각 정보를 출력할 수 있다.
상기 시각 정보는 착용 가능한 안경형 단말기(200')에서 생성하거나 또는 외부 기기로부터 입력받은 가상의 객체를 의미한다. 예를 들면, 상기 가상의 객체는 어플리케이션이나 이에 대응하는 아이콘, 콘텐츠, 통화모드의 UI 등을 의미할 수 있다. 이는 제어부(180)에 의해 생성되거나 스마트 폰과 같은 이동 단말기로부터 입력받을 수 있다. 이때, 디스플레이부(151)는 광투과성을 갖기 때문에, 사용자는 상기 디스플레이부(151)를 통하여 외부 환경을 볼 수 있다.
또한, 일 실시 예로, 디스플레이부(151)는 외부 환경이 보이는 동시에 상기 외부 환경을 구성하는 임의의 외부 물체에 대한 정보가 출력될 수 있다. 예를 들어, 외부 물체는 명함, 사람 또는 상호 통신이 가능한 외부기기일 수 있다.
앞서 설명한 바와 같이, 제어부(180)는 착용 가능한 안경형 단말기(200')를 제어할 수 있다. 구체적으로, 제어부(180)는 디스플레이부(151)에 무선통신부(110)에서 감지한 외부기기의 정보를 출력시킬 수 있다.
예를 들어, 제어부(180)는 상기 감지된 외부기기의 위치를 식별할 수 있다. 이때, 상기 제어부(180)는 상기 감지된 외부기기가 사용자의 시야 내에 위치하는지 여부를 판단하고, 상기 판단 결과에 따라 상기 감지된 외부기기의 정보를 출력시킬지 여부를 결정할 수 있다.
또한, 제어부(180)는 착용 가능한 안경형 단말기(200')의 본체(100')에 장착되거나, 본체(100')와 일체로 형성될 수 있다. 또 다른 실시 예로, 본체(100')와 떨어져 배치될 수 있다.
카메라(121)는 좌안 및 우안 디스플레이부(151) 중 적어도 하나의 전면에 배치될 수 있다. 또는, 프레임(100') 한쪽 또는 양쪽에 배치되어 착용자의 시야 이외의 공간도 촬영할 수 있다.
사용자 입력부(130)는 프레임(110') 한쪽 또는 양쪽에 별도의 터치 패널로 구현될 수 있다. 또는, 물리적인 키로 구현될 수 있다. 예를 들면, 전원의 ON/OFF 스위치가 프레임(110')의 한쪽에 구현될 수 있다.
또 다른 실시 예로, 본체(100')와 연결된 별도의 외부 기기 장치로 구현될 수 있다. 이에 따라, 사용자는 별도의 외부 기기 장치에 특정 명령을 입력할 수 있다. 또는, 디스플레이부(151)가 터치 스크린으로 구현되어 사용자로부터의 제어 명령을 직접 입력받을 수 있다.
또 다른 실시 예로, 사용자의 음성 명령을 인식하는 모듈로 구현될 수 있다. 이를 통해, 사용자는 음성을 통하여 본체(100')에 특정 명령을 입력할 수 있다.
한편, 착용 가능한 안경형 단말기의 일 실시 예로서, 스마트 안경(smart glasses)이 출시되고 있다. 착용 가능한 장치(Wearable device)로 구현된 스마트 안경은 기존의 이동 단말기에서 실행되던 기능을 간편하게 실행할 수 있다.
상기 스마트 안경의 디스플레이부(151)는 디스플레이부(151)를 통해 보이는 외부 환경과 출력된 시각 정보를 함께 표시(Augmented Reality)할 수 있다. 이를 통해 사용자는 외부 환경을 구성하는 임의의 객체에 대한 정보를 보다 쉽게 파악할 수 있다.
또한 상기 스마트 안경은 스마트 안경들끼리 혹은, 스마트 안경과 통신이 가능한 외부 기기와 무선 통신을 수행할 수 있다. 이때, 상기 외부기기와 관련된 정보가 디스플레이부(151)에 출력될 수 있다.
도 4B는 본 명세서에 개시된 일 실시예에 따른 눈 근접 디스플레이가 장착될 수 있는 웨어러블 디바이스를 나타낸다.
도 4B를 참조하면, 도시된 웨어러블 디바이스는 글래스형 단말기(200'')로, 글래스형 단말기(200'')는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(201'')과 제2 프레임(202'')을 포함하는 것을 예시하고 있다.
프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도시된 바와 같이, 프레임부에는 제어 모듈(280''), 음향 출력 모듈(252'') 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 디스플레이부(251'')가 착탈 가능하게 장착될 수 있다.
제어 모듈(280'')은 글래스형 단말기(200'')에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어 모듈(280'')은 앞서 설명한 제어부(180, 도 1 참조)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어 모듈(280'')이 일측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(280'')의 위치는 이에 한정되지 않는다.
디스플레이부(251'')는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스형 단말기(200)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(251)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다.
디스플레이부(251'')는 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 디스플레이부(251)는 투광성으로 형성될 수 있다.
이처럼, 디스플레이부(251'')를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 이동 단말기(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.
카메라(221'')는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(221'')가 눈에 인접하여 위치하므로, 카메라(221'')는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.
본 도면에서는, 카메라(221'')가 제어 모듈(280'')에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(221'')는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.
글래스형 단말기(200'')는 제어명령을 입력 받기 위하여 조작되는 사용자 입력부(223a'', 223b'')를 구비할 수 있다. 사용자 입력부(223a'', 223b'')는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는, 프레임부와 제어 모듈(280'')에 각각 푸시 및 터치 입력 방식의 사용자 입력부(223a'', 223b'')가 구비된 것을 예시하고 있다.
또한, 글래스 타입의 이동 단말기(200'')에는 사운드를 입력받아 전기적인 음성 데이터로 처리하는 마이크(미도시) 및 음향을 출력하는 음향 출력 모듈(252'')이 구비될 수 있다. 음향 출력 모듈(252)은 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력 모듈(252'')이 골전도 방식으로 구현되는 경우, 사용자가 글래스형 단말기(200'')를 착용시, 음향 출력 모듈(252'')은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.
이하, 도 5A 및 도 5B를 참조하여, 상기 도 1에서 살펴본 본 명세서에 개시된 일 실시 예에 따른 이동 단말기 또는 이동 단말기의 구성요소들이 배치된 이동 단말기 또는 이동 단말기의 구조를 살펴본다.
도 5A는 본 발명과 관련된 이동 단말기(100)의 일 예를 전면에서 바라본 사시도이다.
개시된 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 와치 타입, 클립 타입, 안경 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다.
바디는 외관을 이루는 케이스(프레임, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수 있으며, 배터리(191)를 덮는 배터리 커버(103)가 리어 케이스(102)에 착탈 가능하게 구성될 수도 있다.
케이스들은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.
단말기 바디의 전면에는 디스플레이부(151), 제1 음향출력모듈(153a), 제1 카메라(121a), 제1 조작유닛(131) 등이 배치되며, 측면에는 마이크(122), 인터페이스부(170), 제2 조작유닛(132) 등이 구비될 수 있다.
디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)하도록 이루어진다. 디스플레이부(151)는 정보를 시각적으로 표현하는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
상기 디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있게 터치감지수단을 포함할 수 있다. 디스플레이부(151) 상의 어느 한 곳에 대하여 터치가 이루어지면 터치감지수단은 이를 감지하고 그 터치된 위치에 대응하는 내용이 입력되게 구성될 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
터치감지수단은 디스플레이부(151)에서 출력되는 시각 정보가 보일 수 있도록 투광성으로 형성되며, 밝은 곳에서 터치스크린의 시인성(visibility)을 높이기 위한 구조가 포함될 수 있다. 도 5A에 의하면, 디스플레이부(151)는 프론트 케이스(101)의 전면(front surface)의 대부분을 차지한다.
디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 제1 음향출력모듈(153a)과 제1 카메라(121a)가 배치되고, 다른 단부에 인접한 영역에는 제1 조작유닛(131)과 마이크(122)가 배치된다. 제2 조작유닛(132, 도 5B 참조), 인터페이스부(170) 등은 단말기 바디의 측면에 배치될 수 있다.
제1 음향출력모듈(153a)은 통화음을 사용자의 귀에 전달시키는 리시버(receiver) 또는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.
제1 음향출력모듈(153a)로부터 발생되는 사운드는 구조물 간의 조립틈을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나, 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니며, 상기 사운드의 방출을 위한 홀이 윈도우에 형성될 수 있다.
제1 카메라(121a)는 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.
사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 제1 및 제2 조작유닛(131, 132)을 포함할 수 있다. 제1 및 제2 조작유닛(131, 132)은 조작부(manipulating portion)로도 통칭될 수 있으며, 터치, 푸쉬, 스크롤 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.
본 도면에서는 제1 조작유닛(131)이 터치키(touch key)인 것을 기준으로 예시하나, 본 발명은 이에 한정되는 것은 아니다. 예를 들어 제1 조작유닛(131)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.
제1 및/또는 제2 조작유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(131)은 메뉴, 홈키, 취소, 검색 등과 같은 명령을 입력 받고, 제2 조작유닛(132)은 제1 음향출력모듈(153a)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다.
마이크(122)는 사용자의 음성, 기타 소리 등을 입력받도록 형성된다. 마이크(122)는 복수의 개소에 구비되어 스테레오 음향을 입력받도록 구성될 수 있다.
인터페이스부(170)는 이동 단말기(100)가 외부기기와 데이터 교환 등을 할 수 있게 하는 통로가 된다. 예를 들어, 인터페이스부(170)는 유선 또는 무선으로 이어폰과 연결하기 위한 접속단자, 근거리 통신을 위한 포트{예를 들어 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등}, 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급 단자들 중 적어도 하나일 수 있다. 이러한 인터페이스부(170)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수 있다.
도 5B는 도 5A에 도시된 이동 단말기(100)의 후면 사시도이다.
도 5B를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 제2 카메라(121b)가 추가로 장착될 수 있다. 제2 카메라(121b)는 제1 카메라(121a, 도 5A 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라(121a)와 서로 다른 화소를 가지는 카메라일 수 있다.
예를 들어, 제1 카메라(121a)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 제2 카메라(121b)는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 제1 및 제2 카메라(121a, 121b)는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.
제2 카메라(121b)에 인접하게는 플래시(123)와 거울(124)이 추가로 배치된다. 플래시(123)는 제2 카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 제2 카메라(121b)를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.
단말기 바디의 후면에는 제2 음향출력모듈(153b)이 추가로 배치될 수도 있다. 제2 음향출력모듈(153b)은 제1 음향출력모듈(153a, 도 5A 참조)과 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.
단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(미도시)가 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 설치될 수 있다.
단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190, 도 1 참조)가 구비된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다. 본 도면에서는 배터리 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하는 것을 예시하고 있다.
본 명세서에 개시된 이동 단말기 또는 웨어러블 디바이스에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
차량 제어 장치
이하에서는 도 6A 내지 도 8C를 참조하여 본 명세서에 개시된 차량 제어 장치에 대해 상술한다.
도 6A는 본 발명과 관련된 차량 제어 장치를 설명하기 위한 블록도이다.
도 6B는 본 발명과 관련된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.
도 6A 및 도 6B를 참조하면, 도 6A는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치를 설명하기 위한 블록도이고, 도 6B는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치와 연결 가능한 외부 기기들의 예를 보이고 있는 예시도이다.
우선, 도 6A에서 도시한 바와 같이 본 명세서에 개시된 일 실시 예에 따른 차량 제어 장치(400)는, 제어부(410), 및 제어부(410)와 연결되는 감지부(430), 차량 구동부(420), 메모리(440)를 포함하여 구성될 수 있으며, 출력부(450)를 더 포함할 수 있다. 그리고 상기 차량 제어 장치(400)는, 차량의 외관을 이루는 외부 프레임과 윈도우 및 사용자가 탑승 가능하도록 형성되는 내부 프레임을 포함하는 차량의 바디(body)부에 형성될 수 있다. 여기서, 도 6A에 도시된 구성요소들은 본 발명과 관련된 차량 제어 장치(400)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 차량 제어 장치(400)는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
감지부(430)는 차량 제어 장치(400) 내 정보, 차량 제어 장치(400)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 감지부(430)는 근접센서(432, proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 차량 제어 장치(400)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
한편, 감지부(430)는 근거리 통신 모듈(431)을 더 포함할 수 있다. 근거리 통신 모듈(431)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(431)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 차량 제어 장치(400)와 외부 기기(170, 도 6B 참조) 사이의 무선 통신을 지원할 수 있다.
상기 외부 기기는 전술된 이동 단말기(100)일 수 있다. 특히, 상기 외부 기기는 전술된 이동 단말기의 일 형태인 웨어러블 디바이스(200, 200') 형태일 수 있다.
차량 구동부(420)는 차량의 잠금 상태를 해제하거나 또는 차량의 상태를 잠금 상태로 전환할 수 있다. 여기서 차량의 잠금 상태라는 것은, 차량의 기능이 전체 또는 일부의 기능이 제한되거나 또는 시동이 걸리지 않거나 도어가 열리지 않도록 하는 상태일 수 있다. 이와 반대로, 상기 잠금 상태가 해제되는 상태라는 것은, 차량의 운전석 또는 보조석의 도어(door)나, 뒷좌석의 도어들 중 적어도 하나 또는 트렁크(trunk)가 열리도록 하거나, 상기 차량의 모든 기능, 즉 시동이 걸릴 수 있도록 하거나 네비게이션 기능이나 환기 기능 등의 다양한 기능들이 사용가능한 상태가 되도록 하는 것을 의미할 수 있다.
또한 차량 구동부(420)는 차량의 각종 설정을 변경하거나 기능이 자동으로 수행되도록 할 수 있다. 예를 들어 차량 구동부(420)는, 차량의 각 구성부, 예를 들어 앞좌석의 운전석이나 보조석의 윈도우(Window)가 열린 정도, 또는 사이드 미러(Side Mirror)의 각도 등을 상기 제어부(410)의 제어에 따라 제어할 수 있으며, 운전석 또는 보조석 및 뒷자석들 중 적어도 하나의 시트 높이 또는 시트의 수평 위치(예를 들어 시트 사이의 간격)가 조정되도록 할 수 있다. 뿐만 아니라 차량 구동부(120)는 운전석의 핸들의 설정, 즉 핸들의 높이나 핸들의 감도등이 제어부(410)의 제어에 따라 설정되도록 할 수도 있다. 또한 차량 구동부(420)는, 제어부(410)의 제어에 따라 차량의 기어(gear)가 자동 변속 모드 또는 수동 변속 모드로 동작하도록 할 수도 있으며, 하이브리드(hybrid) 차량의 경우, 내연 기관 엔진을 사용하는 모드 또는 전기 모터를 사용하는 모드 중 어느 하나의 모드가 우선적으로 선택되도록 할 수도 있다.
또한 차량 구동부(420)는 이러한 차량의 물리적인 설정 상태뿐만 아니라 소프트웨어적인 설정 역시 상기 제어부(410)의 제어에 따라 변경되도록 할 수도 있다. 예를 들어 차량 구동부(420)는 제어부(410)의 제어에 따라 기 설정된 음악 리스트가 표시되도록 하거나, 또는 상기 기 설정된 리스트 상의 음악 중 어느 하나가 자동으로 재생되도록 할 수도 있다. 또는 차량 구동부(420)는 기 설정된 특정 목적지를 자동으로 설정하고, 구비된 네비게이션(navigation)을 통해 상기 특정 목적지까지의 경로가 자동으로 표시되도록 할 수도 있다. 또는 차량 구동부(420)는 차량의 크루즈 컨트롤(Cruise control) 시에, 상기 제어부(410)의 제어에 따라 차량간 거리 또는 차량 속도가 자동으로 설정되도록 할 수도 있다.
이를 위해 차량 구동부(420)는, 적어도 하나의 서로 다른 하부 구동부들을 가질 수 있으며, 이러한 하부 구동부들은 각각 차량의 물리적인 설정 상태 또는 소프트웨어적인 설정 상태를 변경할 수 있다. 이하 차량의 물리적인 설정 상태를 변경하는 하부 구동부를 제1 구동부(421)라고 칭하기로 하고, 차량의 소프트웨어적인 설정 상태를 변경하는 하부 구동부를 제2 구동부(422)라고 칭하기로 한다.
여기서 상기 제1 구동부(421)는 차량의 물리적인 설정을 변경하기 위하여, 차량의 외부 프레임이나 내부 프레임을 변경할 수 있는 다른 구성요소들을 포함할 수 있다. 예를 들어 상기 제1 구동부(421)는 시트의 높이나 등받이의 각도를 조정하기 위한 물리적인 구동부 등을 더 포함할 수 있으며, 핸들의 높이를 높이거나 낮추기 위한 코일이나 스프링 등의 탄성 부재나 압력 부재를 포함하는 핸들 높이 조정부 등을 더 포함할 수 있다.
한편 상기 제2 구동부(422)는 적어도 하나 이상의 응용 프로그램이나 애플리케이션 등으로 구현될 수 있다. 예를 들어 상기 제2 구동부(122)는 네비게이션을 구동하기 위한 응용 프로그램 중 어느 하나 또는 기 저장된 미디어 데이터(예를 들어 MP3 등)등을 재생하기 위한 응용 프로그램을 포함하는 형태로 구현될 수 있으며, 이러한 응용 프로그램 또는 애플리케이션들은 차량의 구동 제어를 위한 것들 중 어느 하나가 될 수도 있다.
출력부(450)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(451), 음향 출력부(452), 햅팁 모듈(453), 광 출력부(454) 중 적어도 하나를 포함할 수 있다. 각종 화상 정보를 표시하는 디스플레이부(451)는, 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 차량 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(423)로써 기능함과 동시에, 차량 제어 장치(400)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
이러한 터치스크린은, 차량의 다양한 부분에 구현될 수 있다. 예를 들어 상기 터치스크린은, 차량의 윈드 쉴드 글래스(Wind Shield Glass)의 전체 또는 일부에 구현될 수 있으며, 외부면(차량의 외부에 노출되는 면) 또는 내부면(차량의 내부를 향하는 면) 중 어디에서라도 구현될 수 있다. 또한 상기 터치스크린은 운전석 옆면의 윈도우나 보조석 옆면의 윈도우 또는 차량 뒷좌석의 윈도우의 외부면 또는 내부면에 구현될 수도 있다. 또는 상기 터치스크린은 차량의 사이드 미러나, 차량의 선루프(sunroof)에도 구현될 수 있다.
또한 이러한 터치스크린은 차량의 윈도우나 선루프와 같은 글래스(galss) 부분뿐만 아니라, 차량의 외부 프레임 또는 내부 프레임에도 구현될 수 있다. 예를 들어 상기 터치스크린은 A-필라(Pillar), B-필라, C-필라와 같이, 윈드 쉴드 글래스와 윈도우 사이, 또는 윈도우나 윈도우 사이와 같은 차량의 외부 프레임의 표면에 구현될 수도 있다. 또는 차량 도어의 외부 표면의 적어도 일부(예를 들어 차량 도어의 손잡이 부분 근처)에 구현될 수도 있다. 뿐만 아니라 상기 터치스크린은 차량 내부의 기어(Gear) 박스(box) 덮개 표면이나, 콘솔(Console) 박스의 덮개 부분에 형성될 수도 있다. 또한 상기 터치스크린은, 적어도 하나 이상, 차량의 서로 다른 부분에 복수개가 형성될 수도 있음은 물론이다.
메모리(440)는 차량 제어 장치(400)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(440)는 차량 제어 장치(400)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 차량 제어 장치(400)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 차량 제어 장치(400)의 기본적인 기능(예를 들어, 시동 기능, 네비게이션 기능, 차량 잠금 및 잠금 해제 기능)을 위하여 출고 당시부터 차량 제어 장치(400)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(440)에 저장되고, 차량 제어 장치(400) 상에 설치되어, 제어부(410)에 의하여 상기 차량 제어 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.
일 실시예에 따르면, 상기 응용 프로그램은 네비게이션 기능을 수행하는 네비게이션 프로그램일 수 있다.
뿐만 아니라 메모리(440)는 적어도 한 명 이상의 사용자에 관련된 정보들을 저장할 수 있다. 여기서 사용자 관련 정보라는 것은, 해당 사용자의 인증 정보 및 해당 사용자가 직접 설정하거나 또는 사용자의 생체 정보에 근거하여 적합하게 설정된 각종 차량의 설정 상태에 대한 정보일 수 있다. 예를 들어 특정 사용자가 직접 설정한 차량의 내부 온도나 습도, 또는 사용자의 운전 습관에 따른 설정 정보 등이 될 수 있다. 또는 해당 사용자의 주행 경로 기록 등이 이러한 정보가 될 수도 있다. 또한 인증 정보는, 사용자가 미리 설정한 패스워드(password)나, 패턴(pattern)에 관한 정보일 수도 있으며, 또는 지문이나 홍채 인식 정보와 같은 사용자의 생체 정보에 근거한 정보일 수도 있다. 또는 상기 인증 정보는 사용자의 제스처(gesture)에 관련된 정보일 수도 있다.
일 실시예에 따르면, 상기 사용자의 생체 정보는 상기 이동 단말기(100)(또는 상기 웨어러블 디바이스(200, 200'))에 의해 획득되는 것일 수 있다.
이 경우, 상기 웨어러블 디바이스는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 통신부 및 상기 특정 신체 부위(예를 들어, 손목 부위)로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부를 더 포함할 수 있다.
여기서, 상기 통신부는 상기 획득된 사용자의 생체 정보를 상기 차량 제어 장치(400)로 전송할 수 있고, 상기 저장부(440)는 상기 사용자의 생체 정보를 저장할 수 있다.
상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.
또한, 메모리(440)는 제어부(410)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 사용자 인증 정보, 운전 환경 설정 정보)을 임시 저장할 수도 있다. 상기 메모리(440)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.
이러한 메모리(440)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광 디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량 제어 장치(400)는 인터넷(internet)상에서 상기 메모리(440)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.
한편, 제어부(410)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 차량 제어 장치(400)의 전반적인 동작을 제어한다. 제어부(410)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(440)에 저장된 응용 프로그램을 구동함으로써, 차량의 구동을 제어할 수 있다. 또한, 제어부(410)는 메모리(440)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(410)는 상기 응용 프로그램의 구동을 위하여, 차량 제어 장치(400)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
한편, 제어부(410)는 사용자로부터 인증 정보를 입력받을 수 있으며, 입력된 인증 정보에 근거하여 상기 사용자가 인증된 사용자인지 여부를 판단할 수 있다. 여기서 상기 인증 정보는, 사용자의 지문이나, 기 설정된 패턴의 인식 정보일 수 있다. 또는 상기 인증 정보는, 사용자의 홍채 인식 정보 또는 사용자의 특정한 제스처와 관련된 정보일 수 있다. 예를 들어 제어부(410)는 사용자에 의해 차량의 외부 또는 내부의 표면 일부분에 가해지는 복수의 두드림(예를 들어 탭(Tab) 또는 노크(Knock))의 패턴을 인식한 정보, 또는 차량의 외부 또는 내부의 일부분의 표면, 운전석 또는 보조석의 윈도우 및 윈드 쉴드 글래스 등에 형성된 터치스크린 영역을 통해 입력될 수 있는 지문 인식 정보를 상기 인증 정보로서 입력받을 수 있다. 또는 제어부(410)는 감지부(430)에 구비된 포토 센서나 카메라 등을 이용하여 차량의 내부 또는 외부에서 이루어지는 사용자의 제스처를 인식하거나, 또는 사용자의 홍채 정보를 인식할 수도 있다.
그리고 제어부(410)는, 인증된 사용자에 한하여 차량의 잠금 상태가 해제되도록 할 수 있다. 따라서 상기 차량 제어 장치(400)는. 사용자가 키를 사용하지 않고서도, 차량의 도어를 오픈하거나, 트렁크 등을 열수 있도록 할 수 있다. 또는 기 설정된 사용자의 인증 정보를 이용하여 차량의 시동이 걸리도록 할 수도 있다. 또는 이와 반대로 차량의 상태를 잠금 상태로 전환되도록 할 수도 있다. 즉, 제어부(410)는 인증된 사용자의 선택에 근거하여 인증된 사용자의 인증 정보가 다시 입력될 때까지 차량의 잠금 상태가 유지되도록 할 수도 있다. 한편 제어부(410)는 차량의 잠금이 해제된 상태에서 차량의 외부를 통해 사용자의 인증 정보가 입력되면, 이에 근거하여 차량의 상태를 잠금 상태로 전환할 수 있다. 그리고 차량이 잠금 상태로 전환된 상태에서 다시 한번 동일한 인증 정보가 입력되면 차량을 다시 잠금 해제 상태로 전환되도록 할 수도 있다.
제어부(410)는 이러한 사용자의 인증 정보를 입력받기 위해 차량의 일부에 터치스크린이 형성되도록 할 수 있다. 제어부(410)는 상기 형성된 터치스크린을 통해 사용자의 지문 정보를 입력받거나 패턴 정보를 입력받을 수 있으며, 또는 기 설정된 패스워드를 입력받을 수도 있다. 이를 위해 제어부(410)는 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(410)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 차량 제어 장치(400) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.
또한 제어부(410)는, 상기 차량의 일부분에 형성된 터치스크린에서 각종 화상 정보가 표시되도록 할 수도 있다. 예를 들어 제어부(410)는 사용자의 인증을 위한 지문 입력 영역 또는 패턴 입력을 위한 그래픽 객체들이 상기 터치스크린 상에 표시되도록 할 수 있으며, 사용자의 인증 결과 또는 현재 인증된 사용자와 관련된 정보 등이 표시되도록 할 수도 있다.
그리고, 제어부(410)는 인증된 사용자의 경우, 해당 사용자에 대응되는 사용자 관련 정보를 이용하여 차량의 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 제1 구동부(421)를 제어하여, 상기 인증된 사용자의 정보에 근거하여 운전석 등의 시트 높이나 등받이의 각도 등을 조절할 수 있으며, 차량 내부의 온도나 습도를 조절할 수도 있다. 또는 제어부(410)는 상기 인증된 사용자에 대응되는 정보에 근거하여 운전석 및 보조석 윈도우의 열림 정도, 또는 사이드 미러의 각도 등을 조절할 수 있으며, 또는 핸들의 높이 등을 조절할 수도 있다.
뿐만 아니라, 제어부(410)는 차량의 각종 동작 모드가 인증된 사용자에 따라 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 핸들의 파워 스티어링(Power steering) 장치의 동작 모드를 변경하여 인증된 사용자가 선호하는 어느 하나의 동작 모드(예를 들어 노말(normal) 모드 또는 스포츠(sports) 모드)가 선택되도록 할 수도 있다. 또는 제어부(110)는 기어의 변속 방식에 있어서 수동 변속 방식 또는 자동 변속 방식 중 사용자가 선호하는 어느 하나의 방식으로 기어 변속 방식이 설정되도록 할 수도 있다.
또한 제어부(410)는 이러한 물리적인 설정 변경뿐만 아니라 소프트웨어적인 설정 변경을 수행할 수도 있다. 예를 들어 제어부(410)는, 인증된 사용자가 차량에 탑승한 경우, 해당 사용자가 선호하는 음악 또는 현재 인증된 사용자가 청취하던 음악 리스트를 자동으로 선택할 수 있다. 또는 제어부(410)는 현재 인증된 사용자가 주로 청취하는 라디오 방송국의 채널이 자동으로 선택되도록 할 수도 있다.
또한 제어부(410)는 인증된 사용자가 차량에 탑승한 시각에 근거하여 다양한 차량의 설정이 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 인증된 사용자가 차량에 탑승한, 즉 사용자가 인증된 시각 및 인증된 사용자의 주행 기록에 근거하여, 해당 사용자가 해당 시각에 주로 향하는 목적지를 분석할 수 있다. 즉, 주로 사용자가 저녁 8시 사이에서 9시 사이에 퇴근하여 "집"으로 향하는 주행 습관을 가지고 있는 경우, 제어부(410)는 이러한 사용자의 주행 기록에 근거하여, 저녁 8시 부터 9시 사이에 사용자가 차량에 탑승하는 경우, 목적지를 "집"으로 자동 설정하고 해당 경로를 기 구비된 네비게이션의 디스플레이부에 표시할 수도 있다.
이처럼 본 발명의 실시 예와 관련된 차량 제어 장치(400)의 제어부(410)는 사용자가 인증 정보를 이용하여 차량을 제어할 수 있도록 함으로써 사용자가 보다 쉽고 편하게 차량에 탑승하고 차량을 이용할 수 있도록 한다. 뿐만 아니라 본 발명의 실시 예에 따른 차량 제어 장치(400)의 제어부(410)는, 사용자가 인증되면, 인증된 사용자에 근거하여 차량의 각종 환경 설정을 조정함으로써, 사용자가 선호하는 운전 환경이 자동으로 제공되어 질 수 있도록 한다.
또한, 사용자가 차량에 탑승하지 않았을 때뿐만 아니라, 사용자가 차량에 탑승한 경우에도, 제어부(410)는 사용자의 선택에 근거하여 상기 차량의 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 손쉽게 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 차량의 내부, 즉 예를 들어 콘솔 박스나 기어 박스 또는 운전석이나 보조석의 윈도우에 가해지는 복수의 두드림(탭(Tab))에 근거하여 적어도 하나의 상기 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 이루어지도록 할 수도 있다. 일 예로, 사용자가 차량의 핸들 부분에 복수의 탭을 가하는 경우, 제어부(410)는 이를 인식하여 핸들의 높이가 조정되도록 하거나 또는 파워 스티어링 장치의 동작 모드를 다른 모드로 변경되도록 할 수도 있다.
한편, 제어부(410)는 이러한 복수의 탭 뿐만 아니라, 사용자의 제스처에 근거하여서도 상기한 물리적 또는 소프트웨어적인 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 차량 내부에 구비된 카메라나 포토 센서 또는 레이저 센서나 적외선 센서를 이용하여 차량에 탑승한 운전자 또는 보조자의 움직임을 감지할 수 있다. 그리고 운전자 또는 보조자의 움직임에 근거하여 특정 기능이 수행되거나 현재 설정된 상태가 조정되도록 할 수도 있다. 일 예로 만약 보조석에 앉은 탑승자가, 보조석 윈도우 근처에서 손을 위에서 아래로 내리는 제스처를 취하는 경우, 상기 보조석 윈도우는 탑승자의 상기 제스처에 근거하여 그 열림 정도가 조정될 수 있다. 또는 제어부(410)는 운전석 또는 탑승자의 제스처에 근거하여 특정 제스처(예를 들어 손가락을 튕기거나 박수를 치는 제스처)가 감지되는 경우, 기 설정된 특정 음악 데이터가 재생되도록 할 수도 있다.
한편, 상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 차량 제어 장치(400)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 차량 제어 장치(400)의 동작, 제어, 또는 제어방법은 상기 메모리(440)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 차량 제어 장치(400) 상에서 구현될 수 있다.
이하에서는, 위에서 살펴본 차량 제어 장치(400)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 6A를 참조하여 보다 구체적으로 살펴본다.
감지부(430)는 차량 제어 장치 내 정보, 차량 제어 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(410)는 이러한 센싱 신호에 기초하여, 차량 제어 장치(400)의 구동 또는 동작을 제어하거나, 차량 제어 장치(400)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 감지부(430)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.
먼저, 근접 센서(432)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(432)는 차량 내부 또는 외부의 각 영역 또는 상기 터치스크린의 근처에 배치될 수 있다.
근접 센서(432)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치스크린이 정전식인 경우에, 근접 센서(432)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다.
한편, 설명의 편의를 위해, 터치스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(432)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(410)는 위와 같이, 근접 센서(432)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치스크린 상에 출력시킬 수 있다. 나아가, 제어부(410)는, 터치스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 차량 제어 장치(400)를 제어할 수도 있다.
터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러가지 터치방식 중 적어도 하나를 이용하여 터치스크린(또는 디스플레이부(451))에 가해지는 터치(또는 터치 입력)를 감지한다.
일 예로서, 터치 센서는, 터치스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.
이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(410)로 전송한다. 이로써, 제어부(110)는 디스플레이부(451)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(410)와 별도의 구성요소일 수 있고, 제어부(410) 자체일 수 있다.
한편, 제어부(410)는, 터치스크린(또는 터치스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할 지는, 현재 차량 제어 장치(400)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다.
한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.
초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(410)는 광센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.
한편, 감지부(430)는 사용자의 제스처를 인식하기 위해, 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다.
카메라(421)와 레이저 센서는 서로 조합되어, 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.
디스플레이부(451)는 상술한 바와 같이 사용자의 인증 정보 입력과 관련된 다양한 화상 정보를 표시할 수 있다. 예를 들어 디스플레이부(451)는 터치스크린이 형성된 차량의 일부 영역에서, 사용자의 지문을 입력받기 위한 영역을 표시하는 그래픽 객체나, 패턴 정보를 입력받기 위한 그래픽 객체를 표시할 수 있다. 또는 디스플레이부(451)는 사용자 인증이 완료된 경우 사용자 인증 결과 및 현재 인증된 사용자와 관련된 정보를 표시할 수도 있다. 이러한 화상 정보들은 차량의 윈드 쉴드 글래스의 적어도 일부나 운전석 또는 보조석의 윈도우 등에 표시될 수 있으며, 이에 따라 본 발명의 실시 예에 따른 차량 제어 장치(400)가 구비되는 차량의 윈도우 또는 윈드 쉴드 글래스의 적어도 일부는, 사용자의 터치 입력을 감지할 수 있도록 전극 설계될 수 있다.
또한 이러한 디스플레이부(451)는, 상기 윈드 쉴드 글래스 및 윈도우의 외부면 뿐만 아니라 내부면에도 형성될 수 있다. 그리고 이처럼 내부면에 형성되는 디스플레이부(451)는 차량 제어 장치(400)에서 처리되는 정보를 표시(출력)할 수도 있다. 예를 들어, 상기 내부면에 형성되는 디스플레이부(451)에 표시되는 화면 정보는, 차량 제어 장치(400)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보일 수 있다.
또한 상기 디스플레이부(451)는 상기 감지부(130)에 포함되어 구현될 수도 있다. 이러한 경우, 상기 디스플레이부(451)는 상기 감지부(430)의 감지 결과 및, 사용자 인증 정보의 매칭 결과 또는 상기 사용자의 고유 인증 정보의 일부(예를 들어 사용자의 이름 등)를 표시할 수도 있다.
음향 출력부(452)는 메모리(440)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 차량 제어 장치(400)에서 수행되는 기능(예를 들어, 사용자 인증 확인음, 사용자 인증 안내음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(452)에는 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 출력부(450)는 햅틱 모듈(haptic module)(453)을 포함할 수 있다. 햅틱 모듈(453)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(453)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 제어부(410)는 차량의 외부 프레임이나 내부 프레임 또는 글래스 형태의 윈도우등에 구현된 터치스크린에 사용자의 터치 입력이 감지되는 경우 상기 햅틱 모듈(453)을 이용하여 촉각 정보가 출력되도록 할 수 있고, 이에 따라 사용자는, 촉각 정보를 이용하여 자신이 입력한 인증 정보가 올바르게 입력되었는지 여부를 확인할 수도 있다.
이러한 햅틱 모듈(453)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(453)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.
햅틱 모듈(453)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.
햅틱 모듈(453)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(453)은 차량 제어 장치(400)의 구성 태양에 따라 2개 이상이 구비될 수 있다.
한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.
한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 감지부(430)는 상기 바디부에 장착되어 사용자 신체의 일부와 접촉하도록 이루어지는 본체 및, 사용자가 상기 본체를 두드리는 탭(tab) 또는 탭 제스처(tab gesture)를 감지하기 위한 탭 감지부(433)를 더 구비할 수 있다. 여기서 상기 차량 제어 장치(400)의 탭 감지부(433)에서 감지되는 탭은 사용자의 인증 정보를 입력하기 위한 수단으로, 또는 사용자가 차량에 탑승한 경우 차량 제어 장치(400)의 각종 기능을 제어하기 위한 수단으로 사용될 수 있다. 그리고 이러한 탭은, 손가락 등의 탭 대상체로 차량 제어 장치(400) 본체 또는 물체를 가볍게 치는 동작, 또는 탭 대상체를 차량 제어 장치(400) 본체 또는 물체에 가볍게 접촉시키는 동작으로 이해되어 질 수 있다. 여기서 상기 감지부(430)의 본체는, 차량의 외부 프레임과 내부 프레임 및 윈도우나 윈드 쉴드 글래스를 포함하는 차량의 바디(body)부에 형성될 수 있다.
한편, 이러한 탭을 인가하는 탭 대상체는, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물일 수 있으며, 예를 들어, 손가락, 스타일러스 펜(stylus pen), 펜(pen), 포인터, 주먹 등이 될 수 있다. 한편, 상기 탭 대상체는, 반드시 본 발명에 따른 차량 제어 장치(400)에 터치입력을 가할 수 있는 사물에 제한되지 않고, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물이기만 하면 그 종류가 무관하다.
한편, 상기 탭 제스처가 가해지는 물체는, 차량 제어 장치(400) 본체 및 차량 제어 장치(400) 위에 놓여진 물체 중 적어도 하나를 포함할 수 있다.
한편, 상기 탭 또는 탭 제스처는 탭 감지부(433)에 포함된 가속도 센서 및 터치 센서 중 적어도 하나에 의하여 감지될 수 있다. 여기에서 가속도 센서는, 차량 제어 장치(400) 본체의 가속도, 진동, 충격 등의 동적 힘을 측정하는 것이 가능한 센서이다.
즉, 가속도 센서는 탭 제스처에 의해 발생하는 차량 제어 장치(400) 본체의 진동(또는 움직임)을 감지하여, 물체에 대하여 탭이 가해졌는지를 감지할 수 있다. 따라서 상기 가속도 센서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하거나, 차량 제어 장치(400) 본체에 움직임 또는 진동이 발생했는지를 감지할 수 있을 만큼 차량 제어 장치(400) 본체와 가깝게 위치하는 물체가 탭되는 것을 감지할 수 있다.
이와 같이, 가속도 센서는 차량 제어 장치(400) 본체에 움직임 또는 진동이 감지하는 것이 가능하기만 하면, 상기 탭이 차량 제어 장치(400) 본체에 인가되는 경우뿐만 아니라, 상기 본체를 벗어난 지점에 인가되는 경우에도 상기 탭을 감지할 수 있다.
본 발명에 따른 차량 제어 장치(100)에서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하기 위하여, 가속도 센서 및 터치 센서 중 어느 하나만을 사용하거나, 가속도 센서 및 터치 센서를 순차적으로 사용하거나, 또는 가속도 센서 및 터치 센서를 동시에 사용할 수 있다. 한편, 탭을 감지하기 위하여, 가속도 센서만을 사용하는 모드는, 제1 모드, 터치 센서를 사용하는 모드는 제2 모드로 명명될 수 있고, 가속도 센서 및 터치 센서를 모두 활용(동시에 또는 순차적으로 사용 가능)하는 모드는 제3 모드 또는 하이브리드(hybrid) 모드로 명명될 수 있다.
한편, 터치 센서를 통해 탭을 감지하는 경우, 탭이 감지되는 위치를 보다 정확하게 파악하는 것이 가능할 수 있다.
한편, 일 실시예에 따른 차량 제어 장치(400)에서는, 가속도 센서 또는 터치 센서를 통해 상기 탭을 감지하기 위하여, 차량 제어 장치(400)의 디스플레이부(451)가 비활성화 상태에서도 최소한의 전류 또는 전력이 소모되는 특정 모드로 동작할 수 있다. 이러한 특정 모드는 "도즈 모드(또는 Doze mode)"라고 명명 될 수 있다.
예를 들어, 도즈 모드는, 터치 센서와 디스플레이부(451)가 상호 레이어 구조를 이루는 터치스크린 구조에서, 상기 디스플레이부(451)에서 화면을 출력하기 위한 발광소자가 오프(off)되고, 상기 터치 센서는 온(on) 상태를 유지하는 상태일 수 있다. 또는 상기 도즈 모드는, 상기 디스플레이부(451)가 오프되고, 상기 가속도 센서가 온 된 상태를 유지하는 모드일 수 있다. 또는 상기 도즈 모드는 상기 디스플레이부(451)가 오프되고, 상기 터치 센서 및 가속도 센서가 모두 온 된 상태를 유지하는 모드일 수 있다.
따라서, 상기 도즈 모드 상태, 즉, 디스플레이부(451)가 오프된 상태(디스플레이부(451)가 비활성된 상태)에서, 사용자가 차량의 일부분에 형성된 터치스크린 상의 적어도 일 지점 또는 상기 차량 제어 장치(400) 본체의 특정 지점에 상기 탭을 가하는 경우, 온(on) 되어 있는 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 사용자로부터 상기 탭이 가해졌음을 감지할 수 있다.
또한 제어부(410)는, 사용자의 인증 정보를 입력하기 위한 수단으로서의 탭 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 탭과 단순하게 외부의 임의의 물체가 충돌한 것을 구분하기 위해, 상기 차량의 일부에 형성된 터치스크린에 적어도 두 번 이상의 탭이 기준 시간 이내에 가해지는 경우에 한하여, 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 제어를 목적으로 하는 "탭"이 감지되었다고 판단할 수 있다. 예를 들어, 제어부(410)는, 탭 감지부(433)의 감지 결과, 상기 차량의 일부분에 형성된 터치스크린에 한 번의 탭이 가해진 것으로 판단되는 경우, 상기 한 번의 탭을 사용자의 인증 정보를 입력받기 위한 것이 아니라 단지 외부의 임의의 물체 또는 인체가 충돌한 것으로 인식할 수도 있다.
따라서 제어부(410)는 탭 감지부(433)에 의해, 기준시간 이내에 연속적으로 가해지는 적어도 두 번 이상(또는 복수 번)의 탭이 감지된 경우에 한하여, 사용자의 인증 정보를 입력하기 위한 수단 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 '탭'이 감지되었다고 판단할 수 있다.
즉, 탭 제스처들은 적어도 두 번 이상의 탭 제스처가 기준시간 이내에 연속적으로 감지되는 것을 의미할 수 있다. 따라서 이하에서는, "탭"이 감지되었다고 함은, 실질적으로 복수 회 차량 제어 장치(400)의 본체에 사용자의 손가락 또는 터치펜등의 물체가 두드려지는 것이 감지되었음을 의미할 수 있다.
나아가, 제어부(410)는 상기 탭이, 상기 기준시간 이내에 감지되는 것뿐만이 아니라, 상기 탭이 사용자의 각각 다른 손가락에 의해 감지된 것인지 하나의 손가락에서 감지된 것인지 여부를 판단할 수도 있다. 예를 들어 제어부(410)는 차량의 기 설정된 일부 영역, 즉 차량의 윈도우나 윈드 쉴드 글래스의 일부 영역이나 A, B, C 필라 또는 차량의 선루프, 또는 차량 도어의 일부분이나, 차량 내부의 콘솔 박스나 기어 박스 등에서 상기 탭들이 감지된 경우, 상기 탭들이 가해진 부분에서 감지되는 지문을 이용하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다. 또는 제어부(410)는 탭 감지부(433)에 구비된 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 상기 디스플레이부(451) 상에서 상기 탭들이 감지된 위치 또는 상기 탭들로 인해 발생된 가속도를 인식하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다.
더욱이 제어부(410)는 탭이 가해진 각도 및 거리, 또는 상기 지문이 인식된 방향등을 더 고려하여, 사용자가 상기 탭들을 한 손 또는 한 손가락을 통해 입력한 것인지 또는 양손 또는 적어도 두 개의 손가락을 통해 입력한 것인지 여부를 판단할 수 있다.
한편, 상기 탭들은 기준시간 내에서 연속적으로 감지되는 복수 회의 두드림을 의미할 수 있다. 여기에서, 기준시간은 매우 짧은 시간일 수 있으며, 예를 들어, 300ms 내지 2s 이내의 시간일 수 있다.
이를 위하여, 탭 감지부(433)에 위해 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 탭 감지부(433)는 상기 처음 두드림이 감지된 시간으로부터 기준시간 이내에 상기 처음 두드림에 이어 다음번 두드림이 있는지를 감지할 수 있다. 그리고 기준 시간 이내에 상기 다음 번 두드림이 감지되는 경우, 상기 탭 감지부(433) 또는 제어부(410)는 본 발명의 실시 예에 따라 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 특정 기능을 제어하기 위한 탭이 감지된 것으로 판단할 수 있다. 이처럼 제어부(410)는, 제1 탭이 감지된 후, 소정 시간 이내에 제2 탭이 감지된 경우에만, "유효한 탭"으로 인식함으로써, 사용자가 인증 정보를 입력하기 위하여 또는 차량 제어 장치(400)를 제어하기 위하여 탭을 가한 것인지, 아니면 단지 사용자의 실수 또는 의도되지 않은 물체가 차량 외부 또는 내부에 충돌한 것인지를 구분할 수 있다.
상기 "유효한 탭"이 인식되도록 하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 제어부(410)는 제1 기준 횟수만큼 또는 제1 기준 횟수 이상 두드리는 제1 탭이 감지된 후, 소정 시간 이내에 상기 본체를 제2 기준 횟수만큼 또는 제2 기준 횟수 이상 두드리는 제2 탭이 감지되는 것을 상기 '유효한 탭'으로 인식할 수도 있다. 여기에서, 상기 제1 기준 횟수와 상기 제2 기준 횟수의 수는 서로 같거나 다를 수도 있다. 예를 들어, 상기 제1 기준 횟수는 1회일 수 있고, 상기 제2 기준 횟수는 2회일 수 있다. 또 다른 예로, 상기 제1 기준 횟수 및 제2 기준 횟수는 모두 1회일 수 있다.
또한 제어부(410)는, 상기 탭이 "소정의 영역" 내에서 가하진 경우에 한하여, 상기 "탭"들이 감지되었다고 판단할 수 있다. 즉 제어부(410)는, 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 상기 처음 두드림이 감지된 지점으로부터 소정의 영역을 산출할 수 있다. 그리고 제어부(410)는 상기 처음 두드림이 감지된 시간으로부터 상기 기준시간 이내에 상기 "소정의 영역"에 상기 처음 두드림에 이어 상기 제1 또는 제2 기준 횟수만큼, 또는 제1 또는 제2 기준 횟수 이상 두드림이 감지되는 경우 상기 제1 탭 또는 제2 탭이 가해진 것으로 판단할 수 있다.
한편, 상술한 기준시간 및 소정의 영역은 실시 예에 따라 다양하게 변형될 수 있음은 물론이다.
한편 상기 제1 탭 및 제 2 탭은 기준 시간 및 소정의 영역 뿐만 아니라, 각 탭이 감지된 위치에 따라 별개의 탭으로 감지될 수도 있음은 물론이다. 즉, 제어부(410)는 제1 탭이 감지된 위치에서 일정 거리 이상 이격된 위치에서 제 2 탭이 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다. 그리고 이처럼 감지된 위치에 근거하여 상기 제1 탭 및 제2 탭을 인식하는 경우, 상기 제1 탭 및 제2 탭은 동시에 감지될 수도 있다.
또한 상기 제1 탭 및 제2 탭이 복수의 터치, 즉 복수의 두드림으로 구성되는 경우에는, 상기 제1 탭 및 제2 탭을 각각 구성하는 복수의 터치들 역시 동시에 감지될 수 있음은 물론이다. 예를 들어 상기 제1 탭을 구성하는 최초의 터치가 감지됨과 동시에, 상기 제1 탭의 최초의 터치가 감지된 위치로부터 일정 거리 이상 이격된 위치에, 상기 제2 탭을 구성하는 최초의 터치가 감지되는 경우, 제어부(110)는 상기 제1 탭 및 제2 탭을 구성하는 최초의 터치를 각각 감지할 수 있다. 그리고 제어부(410)는 각 위치에서 감지되는 추가적인 터치 입력을 감지하고, 상기 각 위치에서 제1 기준 횟수 또는 제2 기준 횟수 이상의 터치가 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다.
한편, 차량 제어 장치(400) 본체에 대한 탭이, 탭 감지부(133)로부터 복수 회 감지되면 상기 제어부(410)는 상기 복수 회 감지된 탭에 근거하여, 사용자의 인증 뿐만 아니라 차량 제어 장치(400)에서 실행 가능한 기능 중 적어도 하나가 제어되도록 할 수 있다. 여기에서, 상기 차량 제어 장치(400) 상에서 실행 가능한 기능은, 차량 제어 장치(400)에서 실행되거나 구동되는 것이 가능한 모든 종류의 기능을 의미할 수 있다. 여기서 상기 실행 가능한 기능 중 하나는, 차량 제어 장치(400)에 설치된 애플리케이션일 수 있다. 그리고 "임의의 기능이 실행된다"고 함은, "임의의 응용 프로그램이 상기 차량 제어 장치(400)에서 실행 또는 구동"되는것을 의미할 수 있다. 예를 들어 제어부(410)는 콘솔 박스에서 감지되는 사용자의 복수의 탭에 근거하여 음악 파일을 재생하거나 또는 기 설정된 목적지까지의 경로가 자동으로 설정되도록 네비게이션을 제어 할 수 있다.
또 다른 예로서, 차량 제어 장치(400)에서 실행 가능한 기능은, 차량 제어 장치(400)의 기본적인 구동을 위하여 필요한 기능일 수 있다. 예를 들어, 기본적인 구동을 위하여 필요한 기능은, 차량에 구비된 에어컨이나 온풍기를 온/오프하는 기능일 수 있고, 차량에 시동을 걸거나, 차량을 잠금 상태에서 잠금 해제상태에서 전환하거나, 반대로 해제 상태에서 잠금 상태로 전환하는 기능 등이 존재할 수 있다. 또는 차량의 크루즈 컨트롤 기능을 온(on) 시키거나 또는 오프(off)하는 기능일 수 있다.
한편, 제어부(410)는 사용자의 인증 정보를 입력받는 위치를 사용자의 탭이 감지된 본체 또는 터치스크린 상의 지점에 근거하여 형성할 수 있다. 예를 들어 제어부(410)는 처음 사용자의 탭이 가해진 지점을 중심으로, 패턴 정보를 입력받기 위한 영역이 형성되도록 하거나, 또는 사용자의 생체 정보, 즉 예를 들어 지문 등을 입력받기 위한 영역이 형성되도록 할 수 있다. 이러한 경우, 사용자가 매번 본체 또는 터치스크린 상의 다른 지점에 탭을 가하는 경우라고 할지라도, 사용자의 패턴 정보 또는 생체 인증 정보가 입력되는 지점은 매번 달라질 수 있다. 이에 따라 사용자는 인증 정보의 노출을 최소화할 수 있으며, 따라서 차량의 도난 등의 위협으로부터 보다 안전해질 수 있다.
뿐만 아니라 이러한 사용자 인증 정보는 사용자의 선택에 근거하여 기 설정된 외부기기를 경유하여 차량 제어 장치(400)에 입력될 수도 있음은 물론이다. 즉, 예를 들어 감지부(430)는 근거리 통신 모듈(431)을 이용하여 차량 외부의 기 설정된 외부 기기와 연결될 수 있으며, 이러한 외부 기기를 통해 입력되는 사용자의 인증 정보는, 상기 근거리 통신 모듈(431)을 통해 감지부(430)로 인가되고, 제어부(410)에 의해 인증될 수도 있다.
상기 차량 제어 장치(400)는 차량으로부터 차량 정보를 획득할 수 있다.
일 실시예에 따르면, 상기 차량 정보는 전술된 감지부(430)을 통해 획득될 수 있다.
또 다른 실시예에 따르면, 상기 차량 제어 장치(400)는 상기 차량 정보를 획득하는 차량 정보 획득부(460)를 별도로 구비할 수 있다.
여기서, 상기 차량 정보는, 상기 차량에 대한 공조 기능, 도어(본네트, 트렁크 및 주유구 등을 포함)의 개폐 여부, 창문의 개폐 여부, 선루프의 개폐 여부, 상기 차량의 배터리 충전 상태, 상기 차량의 주차 위치, 상기 차량에 구비된 네비게이션 기능, 차량의 도난 상태 및 상기 차량의 주유 상태 중 적어도 하나와 관련된 정보인 것일 수 있다.
또한, 상기 차량 정보는, 상기 차량의 운전 속도, 운전 가속도, 현재까지의 운행 거리, 급가속 횟수 및 급제동 횟수 중 적어도 하나와 관련된 정보를 더 포함할 수 있다.
이를 위해, 상기 차량 정보 획득부(460)는 상기 차량에 구비된 다양한 센서와 통신을 수행할 수 있다.
예를 들어, 상기 차량 정보 획득부(460)는 상기 차량에 설치되고, 상기 차량의 가속도를 측정하는 가속도 센서와 통신을 수행하여 상기 차량에 대한 가속도 정보를 수집할 수 있다.
또한, 예를 들어, 상기 차량 정보 획득부(460)는, 상기 차량에 구비된 블랙 박스와 통신을 수행하여, 차량 사고 발생 시, 사고 영상을 획득할 수 있다. 이 경우, 상기 메모리(440)는 상기 사고 영상을 저장할 수 있다.
영상 정보 획득부(470)는 영상획득장치(900)로부터 사용자에 대한 영상 정보를 획득한다.
영상획득장치(900)는 카메라와 같이 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리할 수 있는 수단으로서, 사용자에 대한 영상을 획득한다.
영상획득장치(900)는 하나 또는 복수일 수 있으며, 영상 정보 획득부(470)는 상기 영상획득장치(900)로부터 각종 통신 수단을 통하여 영상 정보를 획득할 수 있다.
도 6B는 이처럼 기 설정된 외부 기기가 본 발명의 실시 예에 따른 차량 제어 장치에 연결되는 예를 도시한 것이다.
도 6B를 참조하여 살펴보면, 상기 기 설정된 외부 기기(170)는, 사용자의 스마트 폰(smart phone: 171)이나 스마트 키(smart key: 172) 등의 이동 단말기일 수 있다. 이러한 경우, 제어부(110)는 상기 외부 기기(170)의 고유 정보를 인식하여, 상기 외부 기기(170)가 일정 거리 이내로 근접한 경우 자동으로 특정 사용자가 인식되도록 할 수 있다. 그리고, 제어부(410)는 사용자가 상기 외부 기기(170)를 통해 입력하는 인증 정보를 수신할 수 있으며, 외부 기기(170)에서 입력된 인증 정보는 외부 기기(170)에 구비된 통신 모듈과, 감지부(430)의 근거리 통신 모듈(431)을 통해 차량 제어 장치(400)로 전달될 수 있다.
한편, 이러한 인증 정보는 상기 사용자의 생체 정보일 수 있다.
일 실시예에 따르면, 상기 생체 정보는, 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 획득되는 것일 수 있다.
여기서, 상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.
예를 들어, 상기 인증 정보는, 사용자의 심박수, 지문이나 홍채 인식 정보 또는 기 설정된 패스워드나 패턴 정보일 수 있다. 또한 이러한 인증 정보는 특정한 사용자의 제스처에 관련된 정보일 수도 있다.
상기 사용자에 대한 인증은 복수 개의 생체 정보 또는 복수 개의 인증 정보를 근거로 이루어질 수 있다.
예를 들어, 상기 사용자에 대한 인증은, 상기 사용자의 심박수 및 상기 사용자의 제스처를 모두 확인하여 이루어질 수 있다.
이를 위해 상기 외부 기기(170)는 사용자로부터 인증 정보를 입력받기 위한 구성, 즉, 일 실시 예에 따른 차량 제어 장치(400)의 감지부(430)에 구비된 센서 중 적어도 일부 또는 그 외의 다른 부가적인 센서들과 동일, 유사하거나 대응되는 구성을 더 포함할 수 있다.
예를 들어 상기 스마트 키(172) 또는 스마트 폰(171)과 같은 외부 기기(170)에는, 사용자가 패턴 정보를 입력할 수 있는 터치스크린 또는 상기 차량 제어 장치(400)의 감지부(430)에 구비된 탭 감지부(433)와 동일, 유사 또는 그에 대응되는 감지부가 구비될 수 있다. 또한 상기 외부 기기(170)에는, 사용자의 지문을 인식하기 위한 지문 인식부가 더 구비될 수도 있다. 뿐만 아니라 상기 외부 기기(170)에는 사용자의 제스처를 인식하기 위한 관성 센서, 자이로 센서, 또는 가속도 센서 등을 더 구비할 수도 있음은 물론이다.
또한, 예를 들어, 시계형 이동 단말기인 스마트 워치(173)의 경우에는, 사용자의 심박수를 획득할 수 있는 센서를 포함할 수 있고, 또한 안경형 이동 단말기인 스마트 안경(174)의 경우에는, 사용자의 홍채를 인식하기 위한 홍채 인식 카메라를 포함할 수 있다.
이러한 경우 사용자는 상기 외부 기기(170)를 통해 지문, 기 설정된 패턴 정보, 홍채 인식 정보 중 적어도 하나를 이용하여 자신의 인증 정보를 입력할 수 있다. 또는 사용자는 상기 외부 기기(170)를 착용한 채로 특정한 제스처를 취함으로써 자신의 인증 정보가 외부 기기(170)에 입력되도록 할 수도 있다. 이러한 경우 상기 외부 기기(170)의 제어부(110)는 사용자의 제스처에 따라 상기 외부 기기(170)의 위치 변경에 대한 정보, 즉 가속도 측정값이나 중력 변화량, 또는 관성의 변화량을 측정한 값을 이용하여 상기 사용자의 제스처를 인식하고 이를 인증 정보로 활용할 수 있다. 또는 상기 외부 기기(170)는 카메라 등을 통해 입력되는 사용자의 영상을 이용하여 위치가 변경되었음을 인식하고, 변경된 값을 측정할 수도 있다.
한편, 이처럼 외부 기기(170)를 통해 인증 정보가 입력되면, 차량 제어 장치(400)의 제어부(410)는 상기 입력된 인증 정보를 이용하여 차량의 구동을 제어할 수 있다. 예를 들어 제어부(410)는 상기 인증 정보에 따라 현재 사용자를 인식하고, 차량의 잠금 상태를 해제 및 상기 인식된 사용자에 대응되는 차량 내부 환경이 설정되도록 할 수도 있다. 또는 제어부(410)는 현재 차량의 상태가 잠금 해제 상태이며, 시동이 종료된 상태에서 다시 한번 상기 인증 정보가 입력되는 경우, 차량의 잠금 해제 상태를 잠금 상태로 변환되도록 할 수도 있다.
한편, 이처럼 상기 외부 기기(170)를 통해 입력된 사용자의 인증 정보를 이용하여 바로 차량의 구동이 제어되도록 할 수도 있으나, 제어부(410)는 한 번의 인증 과정을 사용자에게 더 요구할 수도 있다. 이러한 경우, 제어부(410)는 상기 외부 기기(170)가 일정 거리 이내로 근접하거나 또는 상기 외부 기기(170)를 통해 인증 정보가 입력되는 경우, 차량의 상태를 웨이크 업(wake up) 상태로 전환하고, 상기 인증된 사용자로부터 입력되는 인증 정보에 따라 차량을 구동할 준비를 수행할 수 있다. 그리고 웨이크 업 상태로 전환된 상태에서 사용자가 차량의 외부 또는 내부의 기 설정된 영역(예를 들어 운전석 또는 보조석의 윈도우나, A, B, C 필라 등)에 다시 한번 인증 정보를 입력하는 경우, 이를 입력받아 사용자를 인증하고, 그에 따라 차량이 구동되도록 할 수 있다.
또한, 상술한 설명에서는 단지 한번의 인증 절차가 더 수행되는 것을 예로 들어 설명하였으나, 얼마든지 더 많은 인증 절차가 수행될 수 있음은 물론이다. 또한 상술한 설명에서는 외부 기기(170)를 통해 사용자의 인증 정보가 입력되는 경우에 복수의 인증 절차를 수행하는 것을 설명하였으나, 이러한 복수의 인증 절차는 사용자가 직접 차량의 일부분에 형성된 터치스크린 영역에 자신의 인증 정보를 입력하는 경우에도 마찬가지로 적용될 수도 있음은 물론이다.
도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.
도 7은 상기 차량 제어 장치(400)가 차량의 헤드 유닛(Head Unit)의 형태로 구현된 경우를 나타낸다.
상기 차량 제어 장치(400)는 복수의 디스플레이부(D100 ~ D102)를 포함할 수 있다.
예컨대, 도 7에 도시되어 있는 바와 같이, 상기 차량 제어 장치(400)는 운전석 앞쪽에 하나의 제1 디스플레이부(D100), 각 뒷좌석 앞쪽에 두 개의 제2 디스플레이부(D101, D102)를 포함할 수 있다.
이때, 일반적으로는, 상기 제1 디스플레이부(D100)만이 주행 규제의 제한을 받는다.
따라서, 상기 제1 디스플레이부(D100)만 차량용 컨텐츠 표시 방법의 제한을 받고, 상기 제2 디스플레이부(D101, D102)는 상기 제한 없이 전체 컨텐츠를 표시할 수 있다.
도 8A는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8A는 상기 차량 제어 장치(400)가 영상표시기기, 차량의 헤드 유닛 또는 텔레메틱스 단말기의 형태로 구현된 경우를 나타낼 수 있다.
도 8A에 도시한 바와 같이, 차량 제어 장치(400')는 차량 제어 장치(400')의 전반적인 동작을 제어하는 제어부(예를 들면, 중앙 처리 장치, CPU)(412')와, 제어부(412')의 처리 및 제어를 위한 프로그램과 입/출력되는 데이터들을 저장하는 메모리(413')와, 각종 키 신호를 제어하는 키 제어부(411')와, LCD(liquid crystal display)를 제어하는 LCD 제어부(414')를 내장한 메인 보드(410')를 포함한다.
상기 메모리(413')는 길 안내 정보를 디지털 지도상에 표시하기 위한 지도 정보(지도 데이터)를 저장할 수 있다. 또한, 상기 메모리(413')는 차량이 현재 주행하는 도로 상황에 따른 교통 정보를 입력할 수 있도록 하는 교통 정보 수집 제어 알고리즘 및 상기 알고리즘의 제어를 위한 정보를 저장할 수 있다.
상기 메인 보드(410')는 고유의 기기번호가 부여되어 차량에 내장된 CDMA(code division multiple access) 모듈(406'), 차량의 위치 안내, 출발지부터 목적지까지의 주행 경로 추적 등을 위한 GPS 신호를 수신하거나 사용자에 의해서 수집된 교통정보를 GPS(Global Positioning System) 신호로 송신하는 GPS 모듈(207), CD(compact disk)에 기록된 신호를 재생하기 위한 CD 데크(CD Deck)(408'), 자이로 센서(gyro sensor)(409') 등을 포함할 수 있다. 상기 CDMA 모듈(406'), GPS 모듈(407')은 안테나(404', 405')를 통해서 신호를 송수신할 수 있다.
또한, 방송 수신 모듈(422')은 상기 메인 보드(410')에 연결되고, 안테나(423')를 통해서 방송 신호를 수신할 수 있다. 상기 메인보드(410')에는 인터페이스 보드(430')를 통해서 상기 LCD 제어부(414')의 제어를 받는 표시부(LCD)(401')와, 키 제어부(411')의 제어를 받는 프론트 보드(402')와 차량의 내부 및/또는 외부를 촬영하는 카메라(427')가 연결될 수 있다. 상기 표시부(401')는, 각종 비디오 신호, 문자 신호를 표시하고, 상기 프론트 보드(402')는 각종 키 신호 입력을 위한 버튼을 구비하고, 사용자 선택이 이루어진 버튼에 해당하는 키 신호를 메인 보드(410')에 제공한다. 또한, 상기 표시부(401')는 근접 센서 및 터치 센서(터치 스크린)을 포함한다.
상기 프론트 보드(402')는 교통정보를 직접 입력하기 위한 메뉴 키를 구비하며, 상기 메뉴 키는 키 제어부(411')의 제어를 받도록 구성될 수 있다.
상기 오디오 보드(417')는 상기 메인 보드(410')와 연결되고, 각종 오디오 신호를 처리한다. 상기 오디오 보드(417')는 오디오 보드(417')의 제어를 위한 마이크로컴퓨터(419'), 라디오 신호를 수신하는 튜너(418'), 상기 마이크로컴퓨터(419')에 전원을 공급하는 전원부(416'), 각종 음성 신호를 처리하는 신호 처리부(415')로 구성된다.
또한, 상기 오디오 보드(417')는 라디오 신호를 수신하기 위한 라디오 안테나(420')와, 오디오 테이프를 재생하기 위한 테이프 데크(421')로 구성된다. 상기 오디오 보드(417')는 상기 오디오 보드(417')에서 신호 처리된 음성 신호를 출력하기 위한 음성 출력부(예를 들면, 앰프)(426')를 더 포함할 수도 있다.
상기 음성 출력부(앰프)(426')는 차량 인터페이스(424')에 연결된다. 즉, 상기 오디오 보드(417')와 메인 보드(410')는 상기 차량 인터페이스(424')에 연결된다. 상기 차량 인터페이스(424')는 음성 신호를 입력하는 핸즈프리(425a'), 탑승자 안전을 위한 에어백(425b'), 차량의 속도를 검출하기 위한 속도 센서(425c') 등이 연결될 수도 있다. 상기 속도 센서(425c')는 차량 속도를 산출하고, 그 산출된 차량 속도 정보를 상기 중앙 처리 장치(412')에 제공한다.
상기 차량 제어 장치(400')에 적용된 내비게이션 세션(400_1')은, 지도 데이터 및 차량 현재 위치 정보를 근거로 길 안내 정보를 발생하고, 그 발생된 길 안내 정보를 사용자에게 통지한다.
상기 표시부(401')는 근접 센서를 통해 표시창 내에서 근접 터치를 감지한다. 예를 들면, 상기 표시부(401')는 포인터(예를 들면, 손가락 또는 스타일러스 팬(stylus pen))가 근접 터치될 때 그 근접 터치의 위치를 검출하고, 그 검출된 위치에 대응하는 위치 정보를 상기 제어부(412')에 출력한다.
음성 인식 장치(또는 음성 인식 모듈)(401_1')는 사용자에 의해 발성된 음성을 인식하고, 그 인식된 음성 신호에 따라 해당 기능을 수행한다.
상기 차량 제어 장치(400')에 적용된 내비게이션 세션(session)(400_1')은, 지도 데이터 상에 주행 경로를 표시하고, 상기 이동 단말기(100)의 위치가 상기 주행 경로에 포함된 사각지대로부터 미리 설정된 거리 이내일 때 무선 통신(예를 들면,근거리 무선 통신망)을 통해 주변 차량에 장착된 단말기(예를 들면, 차량 내비게이션 장치) 및/또는 주변 보행자가 휴대하고 있는 이동 단말기와 자동으로 무선 네트워크를 형성함으로써 상기 주변 차량에 장착된 단말기로부터 그 주변 차량의 위치 정보를 수신하고, 주변 보행자가 휴대하고 있는 이동 단말기로부터 상기 주변 보행자의 위치 정보를 수신한다.
한편, 메인 보드(410')는 인터페이스부(430')에 연결될 수 있으며, 인터페이스부(430')는 외부장치 인터페이스부(431') 및 네트워크 인터페이스부(432')를 포함한다.
외부장치 인터페이스부(431')는 외부 장치와 차량 제어 장치(400')를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
외부장치 인터페이스부(431')는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(231)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 차량 제어 장치(400')의 제어부(412')로 전달한다. 또한, 제어부(412')에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.
A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 차량 제어 장치(400')로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.
무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 차량 제어 장치(400')는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.
또한, 외부장치 인터페이스부(431')는, 다양한 셋탑 박스와 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.
한편, 외부장치 인터페이스부(431')는, 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(412') 또는 메모리(413')로 전달할 수 있다.
네트워크 인터페이스부(432')는, 차량 제어 장치(400')를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(432')는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.
네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 특히, 차량 제어 장치(400')에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 차량 제어 장치(400')에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.
한편, 네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.
또한, 네트워크 인터페이스부(432')는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.
도 8B는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8B는 상기 차량 제어 장치(400)를 차량 네비게이션 장치의 기능에 중점을 두어 나타낸 구성도이다.
상기 차량 제어 장치(400'')가 차량 네비게이션 장치로 구현되는 경우, 상기 차량 제어 장치(400'')는 차량에서의 설치 형태에 따라 인데시 타입(In Dash Type)과 온데시 타입(OnDash Type)으로 구분된다. 인데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시 보드(Dash Board) 내에 할당된 일정 공간에 삽입되어 고정적으로 장착되는 형태이다. 온데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시보드 위에 거치되거나 또는 그 근처에 일정한 지지대를 이용하여 설치되는 형태로서 탈착이 가능하므로 차량으로부터 분리되어 휴대할 수 있다.
본 실시예들에 따른 차량 제어 장치(400'')는 이러한 인데시 타입과 온데시 타입의 내비게이션(차량 내비게이션) 장치를 포함하며, 이외에도 차량 내에서 GPS(Global Positioning System) 위성으로부터 전송되는 항법 메시지를 수신하는 GPS 수신기와 연동하여 내비게이션 기능을 수행할 수 있는 각종 휴대용 단말기(Portable Terminal)와 같은 교통정보의 수신 및/또는 처리가 가능한 정보 처리 장치를 모두 포함한다.
도 8B에 도시한 바와 같이, 상기 차량 제어 장치(400'')는, 위성으로부터 수신되는 GPS(global positioning system) 신호를 수신하고, 상기 수신된 GPS 신호를 근거로 내비게이션 장치(이동 통신 단말기(100)와 동일한 위치인 것으로 간주함)의 제1 차량 위치 데이터를 발생하는 GPS 모듈(401'')과, 차량의 주행 방향 및 상기 차량의 속도를 근거로 제2 차량 위치 데이터를 발생하는 DR(Dead-Reckoning) 센서(402'')와, 지도 데이터 및 다양한 정보를 저장하는 저장부(또는 메모리)(404'')와, 상기 제1 차량 위치 데이터 및 상기 제2 차량 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크(지도 정합 링크 또는 지도 정합 도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 출력하는 지도 정합부(403'')와, 무선 통신망(500'')을 통해 정보 제공 센터 및/또는 주변 차량으로부터 실시간 교통 정보를 수신하고, 교통 신호등 정보를 수신하고, 전화 통신을 수행하는 통신부(408'')와, 상기 정합된 지도 정보(지도 정합 결과)를 근거로 길 안내 정보를 발생하는 제어부(407'')와, 상기 길 안내 정보에 포함된 길 안내 지도(관심지 정보 포함) 및 상기 교통 신호등 정보를 표시하는 표시부(405'')와, 상기 길 안내 정보에 포함된 길 안내 음성 정보(길 안내 음성 메시지) 및 상기 교통 신호등 정보에 대응하는 음성 신호를 출력하는 음성 출력부(406'')를 포함할 수 있다.
여기서, 상기 통신부(408'')는 블루투스 모듈을 갖는 핸즈프리를 더 포함하며, 안테나를 통해 TPEG 포맷의 교통정보를 포함하는 방송신호를 방송국으로부터 수신할 수도 있다. 상기 방송신호는 지상파 또는 위성 디지털 멀티미디어 방송(DMB), 디지털 오디오 방송(DAB), 디지털 비디오 방송(DVB-T, DVB-H) 등 각종 규격에 따른 비디오와 오디오 데이터뿐만 아니라, 교통정보(TPEG) 서비스, BIFS(Binary Format for Scene) 데이터 서비스에 따른 교통정보 및 각종 부가 데이터와 같은 부가 정보를 포함한다. 또한, 상기 통신부(408'')는 교통정보가 제공되는 신호 대역을 동조하고 동조된 신호를 복조하여 TPEG 디코더(제어부(407)에 포함됨)로 출력한다.
상기 TPEG 디코더는 TPEG 포맷의 교통정보를 복호화하여, 교통정보에 포함된 신호등 정보를 비롯한 각종 정보를 제어부(407'')에 제공한다.
상기 길 안내 정보는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보를 포함할 수 있다.
상기 GPS 모듈(401'')를 통해 수신되는 신호는, IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access : FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network)(Broadband Wireless Access : BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선MAN(MBWA : Mobile Broadband Wireless Access)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 단말기의 위치 정보를 상기 차량 제어 장치(400'')에 제공하도록 구성할 수도 있다.
상기 차량 제어 장치(400'')에 입력부를 더 포함될 수 있으며, 상기 입력부는, 사용자가 원하는 기능을 선택하거나 정보를 입력받으며, 키패드, 터치스크린, 조그셔틀, 마이크 등의 다양한 장치가 사용될 수 있다.
상기 지도 정합부(403'')는, 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 저장부(404'')로부터 주행 경로에 대응하는 지도 데이터를 독출한다.
상기 지도 정합부(403'')는, 상기 차량 추정 위치와 상기 지도 데이터에 포함된 링크(도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 상기 제어부(407'')에 출력한다. 예를 들면, 상기 지도 정합부(403'')는 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크들을 링크 순번에 따라 정합하고, 상기 정합된 지도 정보(지도 정합 결과)를 제어부(407'')에 출력한다. 상기 지도 정합부(403'')는 상기 정합된 지도 정보(지도 정합 결과)에 포함된 단층 도로 또는 복층 도로 등과 같은 도로 속성 정보를 상기 제어부(407'')에 출력할 수도 있다. 또한, 상기 지도 정합부(403'')의 기능은 상기 제어부(407'')에서 구현될 수도 있다.
상기 저장부(404'')는, 지도 데이터를 저장한다. 이때, 상기 저장되는 지도 데이터는, 도분초 단위(DMS 단위 : Degree/Minute/Second)로 위도 및 경도를 표시하는 지리 좌표(Geographic Coordinate 또는, 경위도 좌표)를 포함한다. 여기서, 상기 저장되는 지도 데이터는 상기 지리 좌표 이외에도 UTM(Universal Transverse Mercator) 좌표, UPS(Universal Polar System) 좌표, TM(Transverse Mercator) 좌표 등을 사용할 수도 있다.
상기 저장부(404'')는, 각종 메뉴 화면, 관심 지점(POI: Point Of Interest, 이하 'POI' 라 한다), 지도 데이터의 특정 위치에 따른 기능 특성 정보 등의 각종 정보를 저장한다.
상기 저장부(404'')는, 다양한 사용자 인터페이스(User Interface: UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장한다.
상기 저장부(404'')는, 상기 네비게이션 장치(400)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
상기 저장부(404'')는, 상기 입력부를 통해 사용자로부터 입력된 목적지 정보를 저장한다. 이때, 상기 목적지 정보는 목적지, 또는 출발지와 목적지 중 어느 하나일 수 있다.
상기 표시부(405'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 화상 정보(또는, 길 안내 지도)를 표시한다. 여기서, 상기 표시부(405)는, 터치 센서(터치 스크린) 및 근접 센서를 포함한다. 또한, 상기 길 안내 정보에는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴(TBT) 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보가 포함될 수 있다.
상기 표시부(405'')는, 상기 화상 정보를 표시할 때, 상기 저장부(404)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면과 길 안내 정보 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(405'')에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(지도 데이터나 각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.
상기 음성 출력부(406'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 음성 정보(또는, 상기 길 안내 정보에 대한 음성 메시지)를 출력한다. 여기서, 상기 음성 출력부(406'')는, 앰프 또는 스피커가 될 수도 있다.
상기 제어부(407'')는, 상기 정합된 지도 정보를 근거로 길 안내 정보를 발생하고, 상기 발생된 길 안내 정보를 상기 표시부(405'') 및 음성 출력부(406'')에 출력한다. 이때, 상기 표시부(405'')는 상기 길 안내 정보를 표시한다.
상기 제어부(407''), 상기 정보 제공 센터 및/또는 주변 차량에 장착된 단말기(차량 내비게이션 장치)로부터 실시간 교통 정보를 수신하여 길 안내 정보를 발생한다.
상기 제어부(407'')는, 콜 센터와 통신부(408'')를 통해 연결되어, 전화 통화를 수행하거나, 상기 차량 제어 장치(400'')와 상기 콜센터 간의 정보를 송신/수신할 수 있다. 여기서, 상기 통신부(408'')는 근거리 무선 통신 방식을 사용하는 블루투스 기능을 갖는 핸즈프리 모듈을 더 포함한다.
상기 제어부(407'')는 사용자에 의해 POI 검색 메뉴가 선택되면, 현재 위치로부터 목적지까지의 경로 상에 위치한 POI를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다. 이때, 상기 제어부(407'')는 상기 경로 상에 위치한 POI(경로를 변경(재탐색)하지 않아도 되는 지점, 예를 들면, 주행 도로의 좌측 또는 우측에 위치한 POI) 및/또는 상기 경로의 주변에 위치한 POI(경로를 변경하여야 하는 지점, 예를 들면, 주변 POI를 경유하기 위해 미리 설정된 경로를 변경하여야 하는 지점)를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다.
도 8C는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.
도 8C에 도시된 화면은 상기 이동 단말기(100), 상기 웨어러블 디바이스(200, 200') 또는 상기 차량 제어 장치(400)에 의해 표시되는 화면일 수 있다.
상기 이동 단말기(100)가 사용자가 휴대 가능한 형태의 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 웨어러블 디바이스등의 형태로 구현된 경우, 도 8C에 도시된 구성요소 중 일부만이 표시되거나, 도 8C에 표시된 도시된 구성요소들 모두가 표시되지 않을 수 있다.
도 8C에 도시된 바와 같이, 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 표시된 지도의 방위를 표시하는 아이콘(I1)을 표시할 수 있다. 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 특정 방향(예를 들어 지구의 진북방향), 이동체의 진행방향, 목적지가 위치하는 방향 등이 화면의 상방향에 고정되어 표시되도록 지도를 표시할 수 있다.
상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 상기 음향출력모듈(162)의 활성화 여부 및 볼륨설정을 나타내는 아이콘(I2)을 표시할 수 있다. 사용자는 상기 아이콘(I2)에 터치입력을 가하는 방법으로 상기 음향출력모듈(162)을 활성화 또는 비활성화시키거나 그 볼륨을 조절할 수 있다.
상기 디스플레이부는 화면의 일 영역에 TPEG(Transport Portal Experts Group)을 이용한 경로탐색 기능의 활성화 여부를 나타내는 아이콘(I3)을 표시할 수 있다. TPEG(Transport Portal Experts Group)은 본래 1997년에 유럽 방송 연합(European Broadcasting Union)에 의하여 설립된 교통정보 프로토콜 제정을 위한 그룹을 의미하나, 네비게이션 시스템에서는 실시간 교통상황 정보를 이용한 경로안내 기능으로 널리 알려져 있다.
상기 디스플레이부는 화면의 일 영역에 상기 지도 데이터의 축척(scale)을 표시하는 아이콘(I4)을 표시할 수 있다.
상기 디스플레이부는 화면의 일 영역에 현재시간을 표시하는 아이콘(I5)을 표시할 수 있다. 또한 디스플레이부(161)는 화면의 일 영역에 기 설정된 목적지에 도달하는 예상시간을 표시하는 아이콘(I6)을 표시할 수 있다. 이외에도, 기 설정된 목적지까지 도달하는데 예상되는 소요시간을 표시하는 아이콘이 표시될 수 있다.
상기 디스플레이부는 화면의 일 영역에 기 설정된 목적지까지 남은 거리를 표시하는 아이콘(I7)을 표시할 수 있다.
상기 디스플레이부는 화면의 일 영역에 표시된 지도를 확대하느 아이콘(I8) 또는 축소하는 아이콘(I8')을 표시할 수 있다.
상기 디스플레이부는 화면의 일 영역에 상기 이동체의 위치 및 진행방향을 표시하는 아이콘(I9)을 표시할 수 있다. 지도상에 현재 이동체의 위치에 해당하는 지점에 상기 아이콘(I9)을 표시할 수 있다. 또한 이동체의 진행방향은 상기 아이콘(I9)에서 화살표의 꼭지점방향 등으로 표시할 수 있다.
상기 디스플레이부는 화면의 일 영역에 이동체가 위치한 지역의 지명을 표시하는 아이콘(I10)을 표시할 수 있다.
상기 디스플레이부는 화면의 일 영역에 상기 이동체가 진행하는 길이 차도인 경우, 차도의 차선구성을 나타내는 아이콘(I11)을 표시할 수 있다.
상기 디스플레이부는 상기 기 설정된 목적지(I12, 도8 참조)까지 도달하는데 필요한 경로를 표시할 수 있다. 상기 경로는 이동체의 목적지가 설정되지 않은경우 표시되지 않을 수 있다.
전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능(예를 들어, 네비게이션 기능)은, 상기 차량 제어 장치(400)과 유선 또는 무선으로 연결된 이동 단말기(100) 또는 웨어러블 디바이스(200, 200')에 의해 모두 수행될 수 있다.
또는, 상기 차량 제어 장치(400) 및 상기 이동 단말기(100)이 서로 연동 또는 연계하여 상기 모든 기능을 수행할 수 있다.
이를 위해, 이동 단말기(100) 또는 웨어러블 디바이스(200)는 상기 차량 제어 장치(400)에 포함된 구성 요소와 동일, 유사하거나 대응되는 구성요소를 포함할 수 있다.
예를 들어, 상기 차량 제어 장치(400)에 포함된 가속도 센서의 역할을 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 구비된 가속도 센서가 할 수 있다.
일 실시예에 따르면, 상기 차량 제어 장치(400) 및 상기 이동 단말기(100) 간의 연동 또는 연계를 위해 VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅) 방식이 적용될 수 있다.
VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅)는 컴퓨터 환경에서 RFB 프로토콜을 이용하여 원격으로 다른 컴퓨터(또는 다른 단말)를 제어하는 그래픽 데스크톱 공유 시스템을 의미할 수 있다.
상기 VNC는 자판, 마우스 또는 터치 이벤트를 한 단말에서 다른 단말로 전송시켜서 네트워크를 거쳐 그래픽 화면을 갱신하는 방식을 제공할 수 있다.
또한, 전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능은, 상기 차량 제어 장치(400)와 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200') 나누어서 수행될 수 있다.
즉, 전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능 중 특정 기능이 수행될 때, 상기 특정 기능 중 일부 기능은 상기 차량 제어 장치(400)에 의해 수행되고, 나머지 기능은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행될 수 있다.
예를 들어, 상기 차량에 대한 공조 기능의 경우, 차량 내에 구비된 공기 조화기에 대한 설정 온도에 대한 입력은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행되고, 상기 입력된 설정 온도로 상기 공기 조화기를 제어하는 역할은 상기 차량 제어 장치(400)에 의해 수행될 수 있다.
본 명세서에 개시된 차량 제어 장치에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
이하에서는, 본 명세서에 개시된 일 실시예에 따라, 도 9A 내지 13을 참조하여, 운전자의 부주의를 판단하는 이동 단말기 또는 차량 제어 장치에 대해 자세히 상술한다.
운전자의 부주의를 판단하는 이동 단말기
이하에서는 본 명세서에 개시된 일 실시예에 따라 운전자의 부주의를 판단하는 이동 단말기에 대하여 자세히 설명하되, 전술한 내용과 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.
본 명세서 개시된 일 실시예에 따른 이동 단말기는, 통신부(110), 생체 정보 획득부(145) 및 제어부(180)를 포함한다.
생체 정보 획득부(145)는 전술한 바와 같이, 사용자(본 명세서에서 사용하는 "운전자"의 용어와 혼용한다)의 특정 신체 부위를 통해 생체 정보를 획득한다.
일 실시예에 따라, 생체 정보 획득부(145)는 인체의 생리학적 전위차에 의하여 발생되는 생체 신호를 측정할 수 있고, 일 예로, 전술한 바와 같이, PPG, ECG, GSR, EEG, EMG 및 EOG 센서 중 적어도 하나를 포함할 수 있다.
도 9A 및 9B는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 예시도이다.
영상획득장치(900)는 카메라와 같이 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리할 수 있는 수단으로서, 사용자에 대한 영상을 획득한다.
이때, 영상획득장치(900)는 사용자에 대한 영상을 획득하기 위해 사용자를 향하여 설치되는 것이 바람직하되, 상기 영상획득장치(900)는 차량의 내부 또는 외부에 위치할 수 있다.
후술하는 바와 같이, 본 명세서에서 개시한 일 실시예에 따른 이동 단말기는 사용자의 졸음, 부주의 또는 스트레스 등을 판단할 때, 사용자의 생체 정보 이외에도 사용자의 표정을 근거로 하기 때문에, 상기 영상획득장치(900)는, 일 예로, 도 9에 도시한 바와 같이, 차량 내부에 설치되되, 상기 사용자의 얼굴을 향하도록 계기판 또는 그 주변(도 9A 참조)이나 조향 핸들의 회전 축 상(도 9B 참조)에 설치되는 것이 바람직하다.
물론, 상기 영상획득장치(900)는 차량 내부의 어느 일 면에 부착가능한 거치대에 의해 고정되되, 거치대에 고정된 영상획득장치(900)가 상기 사용자를 향하도록 고정 설치될 수 있다.
사용자에 대한 영상을 획득하는 영상획득장치(900)는 하나 또는 복수일 수 있으나, 영상획득장치(900)가 복수인 경우, 제어부(180)는 복수의 영상획득장치(900)에 의해 획득한 영상 정보를 이용하여, 상기 사용자에 대한 3차원 영상 정보를 획득할 수 있다.
사용자에 대한 3차원 영상 정보를 획득하기 위해, 복수의 영상획득장치(900) 각각은 상기 사용자를 향하여 설치되되, 서로 다른 방향에서 상기 사용자를 향하도록 설치되는 것이 바람직하다.
후술하는 바와 같이, 제어부(180)가 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 및 시선 방향 등을 인식하기 위해, 이용하는 영상 정보는 복수의 영상획득장치(900)로부터 획득한 복수일 수 있으나, 일 실시예에 따라, 복수의 영상획득장치(900)로부터 사용자 얼굴(또는 머리)가 공간 내에 위치한 좌표 또는 얼굴의 방향을 산출하고, 복수의 영상획득장치(900) 중 사용자의 얼굴에 대한 인식률이 높은 어느 하나의 영상획득장치(900)를 선택하여, 선택된 영상획득장치(900)를 기준으로 획득한 영상 정보를 이용하여, 제어부(180)는 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 및 시선 방향 등을 인식할 수 있다.
또한, 사용자의 시선 좌표에 따른 ROI(Region Of Interest)의 영상을 획득하기 위해, 복수의 영상획득장치(900)는 차량 내외부의 복수 영역에 대한 영상 정보를 획득하도록 상기 복수 영역을 향하여 설치될 수 있다.
또한, 영상획득장치(900)는 적은 수의 영상획득장치로 차량 내외부의 영역에 대한 영상 정보를 획득하거나, 사용자의 얼굴에 대한 인식률을 높이기 위해, 렌즈 혹은 영상획득장치(900) 자체를 상하좌우 방향으로 이동시키거나 회전시키기 위한 적어도 하나의 모터를 포함할 수 있다.
영상획득장치(900)가 ROI를 향하지 않거나, 사용자의 얼굴을 인식하지 못하는 경우, 획득한 영상 정보로부터 사용자의 얼굴을 추출할 때까지 렌즈 혹은 영상획득장치(900) 자체를 틸팅(tilt)시킬 수 있다.
통신부(110)는 차량에 구비된 영상획득장치(900)로부터 사용자에 대한 영상 정보를 수신한다.
상기 영상획득장치(900)는 내장 또는 외장의 유선 또는 무선 통신부를 통하여, 상기 영상 정보를 이동 단말기(100) 또는 차량 제어 장치(400)에 직접 전송하거나, 이동 단말기(100) 또는 차량 제어 장치(400)가 상기 영상 정보를 수신하고, 수신한 영상 정보를 차량 제어 장치(400) 또는 이동 단말기(100)에 전달할 수 있다.
제어부(180)는 상기 통신부(110)를 통해 수신한 영상 정보 및 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태를 검출할 수 있다.
여기서, 사용자에 대한 위험 운전 상태는, 사용자에 대한 졸음(drowsiness) 운전 상태, 시선 분산(driver distraction) 운전 상태 및 스트레스(stress) 상태 중 적어도 하나를 포함할 수 있다.
이때, 제어부(180)는 상기 영상 정보를 근거로 사용자의 졸음 운전 상태 및/또는 시선 분산 운전 상태를 판단할 수 있다.
또한, 제어부(180)는 상기 생체 정보를 근거로 사용자의 졸음 운전 상태 및/또는 스트레스 상태를 판단할 수 있다.
따라서, 제어부(180)는 상기 영상 정보 및 상기 생체 정보를 근거로 사용자의 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태를 판단하거나, 각각의 위험 운전 상태에 대한 위험 레벨 정보를 생성할 수 있다.
특히, 사용자의 졸음 운전 상태에 대해서는 상기 영상 정보 및 상기 생체 정보를 근거로 판단하기 때문에, 여러 단계로 구분된 졸음에 대한 평가 단계 중 사용자가 어느 단계에 해당하는지 정확한 판단이 가능하다.
이때, 제어부(180)는 사용자가 최초 차량에 탑승하는 경우, 상기 위험 운전 상태 또는 위험 레벨을 결정하기 전에, 일정 시간 동안 상기 영상 정보 및/또는 상기 생체 정보에 대한 초기값을 보정할 수 있고, 보정된 초기값을 기준으로 상기 영상 정보 및/또는 상기 생체 정보를 결정하는 것이 바람직하다.
졸음 운전 상태
그 중 졸음에 대한 평가 단계는, 일 예로, 하기의 표 1에 나타낸 바와 같이, HFC 및 SSS를 기준으로 하는 경우 총 7 단계로 나타낼 수 있고, KSS를 기준으로 하는 경우 총 9 단계로 나타낼 수 있다.
Figure 112014045870328-pat00001
제어부(180)가 상기 영상 정보를 이용하여, 사용자의 졸음 운전 상태에 대한 판단시, 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 중 어느 하나 또는 이들의 조합으로 판단할 수 있다.
일 예로, 제어부(180)는 소정 시간 중 눈꺼풀이 떠있거나 감겨있는 시간이 차지하는 비율에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.
여기서, 눈꺼풀이 감겨있는 시간은, 사용자 눈의 최대 크기와 최소 크기 간의 차이를 기준으로 눈꺼풀이 약 70% 또는 80% 정도 감겨져 있는 시간으로 할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
구체적으로, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)를 제곱한 값들을 이용하여 눈이 깜빡거린 횟수로 평균한 값에 따라 사용자의 졸음 운전 상태를 판단하거나, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)를 이용하여 눈이 깜빡거린 횟수로 평균한 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.
이때, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도는 왼쪽 눈과 오른쪽 눈 중 큰 값을 근거로 제곱하여 평균하거나, 단순히 평균한 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 오래 걸리지 않으나 소정 시간(약 0.5초 또는 1초) 이상인 횟수에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 상기 소정 시간 이상으로 오래 걸리는 경우에는 이를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 횟수의 합을 연속하여 발생한 횟수로 나눈 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.
일 예로, 눈의 깜빡거림을 판단하고, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 경우, "1"로 나타내도록 가정하면, 0000110000111100001110000인 경우에, 산출되는 값은 (2+4+3)/3=3으로써, 이 값을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다. 즉, 제어부(180)는 상기와 같이 산출한 값의 크기에 따라 졸음에 대한 평가를 할 수 있고, 상기 산출한 값이 클수록 사용자의 졸음에 대한 평가 단계는 높다고 판단할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림의 주기를 근거로 사용자의 졸음 운전 상태를 판단할 수 있고, 구체적으로 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 횟수(n)을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 제어부(180)는 눈의 깜빡거림의 속도를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
구체적으로, 눈이 떠진 상태에서 감길때의 속도를 측정하고, 측정한 속도들의 총합을 눈을 깜빡거리는 횟수로 나누어 계산한 평균값(AECS)을 근거로 사용자의 졸음 운전 상태를 판단하거나, 이와 달리, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)값들 중 가장 큰 값을 눈이 떠진 상태에서 감길때의 최고 속도값으로 나눈 값(APCV)을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
이때, APCV는 가장 최근 값을 근거로 하거나 복수 회 산출한 APCV들을 평균한 값을 근거로 할 수 있다.
또 다른 예로, 제어부(180)는 동공의 수축 여부(또는 홍채의 이완 여부)를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 얼굴의 방향을 근거로 얼굴의 방향이 상하 방향으로 시간에 따라 변하는 경우, 제어부(180)는 사용자의 고개가 끄덕거려지는 것으로 판단하여, 사용자의 졸음 운전 상태를 판단할 수 있다.
또 다른 예로, 제어부(180)는 사용자의 얼굴 표정을 근거로, 사용자가 하품(yawn)하는 것을 판단하여, 사용자의 졸음 운전 상태를 판단할 수 있다.
상기와 같이, 제어부(180)는 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 중 어느 하나를 근거로 사용자의 졸음 운전 상태를 판단할 수 있으나, 사용자의 졸음 운전 상태가 어느 단계에 해당하는지 정확한 판단을 하기 위해, 상기 판단 근거를 조합하여 졸음 운전 상태를 판단하는 것이 바람직하다.
이때, 제어부(180)가 복수의 판단 근거를 조합하여 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단하는 경우, 상기 복수의 판단 근거(일 예로, 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 등) 각각에 대한 가중치를 적용할 수 있다.
여기서, 제어부(180)가 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 등과 같은 복수의 요소를 근거로 사용자에 대한 졸음 운전 상태 및 사용자의 졸음 운전 평가 레벨을 판단할 때, 판단 정확도를 향상시키기 위해, 상기 복수의 요소에 대한 가중치는 상기 요소에 대한 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.
이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 제어부(180)는 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
한편, 제어부(180)는, 전술한 바와 같이, 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 상기 사용자에 대한 졸음 운전 상태를 판단할 수 있다.
제어부(180)는 EMG 센서를 통해 측정한 근전도에 대한 생체 신호를 근거로 하거나, GSR 센서를 통해 측정한 전기성 피부 반사 신호를 근거로 하여, 사용자에 대한 졸음 운전 상태를 판단할 수 있다.
제어부(180)가 생체 정보를 근거로 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단하는 경우, 상기 복수의 생체 정보 각각에 대한 가중치를 적용할 수 있다.
여기서, 제어부(180)가 EMG 및 GSR 센서 등에 의해 측정한 값과 같은 복수의 요소를 근거로 사용자에 대한 졸음 운전 상태 및 사용자의 졸음 운전 평가 레벨을 판단할 때도 마찬가지로, 판단 정확도를 향상시키기 위해, 상기 복수의 요소(일 예로, EMG 및 GSR 센서 등에 의해 측정한 값)에 대한 가중치는 상기 요소에 대한 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.
이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
한편, 제어부(180)가 상기 영상 정보만으로 사용자에 대한 졸음 운전 상태를 판단하거나, 상기 생체 정보만으로 사용자에 대한 졸음 운전 상태를 판단하는 경우에는, 졸음 운전 상태에 대한 평가 단계의 범위가 제한되고, 사용자의 졸음 운전 상태에 대한 평가 레벨이 어느 정도인지 정확한 판단을 할 수 없는 문제가 있을 수 있다.
따라서, 상기의 문제를 해소하기 위해, 제어부(180)는 상기 영상 정보 이외에 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태를 판단하는 것이 바람직하다.
제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.
여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 영상 정보에 대한 가중치가 상기 생체 정보에 대한 가중치보다 큰 것이 바람직하다.
상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 각각에 대하여 서로 다를 수 있고, 이에 따라, 각각의 위험 운전 상태에 따라 상기 영상 정보 및 상기 생체 정보 각각에 대한 가중치를 서로 다르게 적용하여, 어느 위험 운전 상태에 해당하는지 또는 구체적인 위험 운전 상태에 대한 평가 레벨을 결정하는 것이 바람직하다.
한편, 제어부(180)가 사용자에 대한 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).
도 13은 본 명세서에 개시된 일 실시예에 따른 졸음 운전 상태 또는 졸음 레벨을 결정하기 위한 과정을 나타내는 블록도이고, 도 10은 본 명세서에 개시된 일 실시예에 따라 사용자에 대한 졸음 추세선을 나타낸 도면이다.
도 10에 도시한 바와 같이, 제어부(180)는 시간에 따른 사용자의 졸음 운전 상태에 대한 평가 레벨 변화를 예측할 수 있다.
사용자가 이동 단말기(100)를 착용하고 있는 중에는, 상기 이동 단말기(100)는 상기 사용자에 대한 생체 정보를 소정 시간 동안 지속적으로 혹은 일정 주기마다 획득할 수 있다.
이동 단말기(100)는 사용자가 차량 탑승 전에 사용자의 수면 패턴을 분석하고, 사용자가 차량 탑승 후 졸음 추세선을 유도할 수 있다.
즉, 이동 단말기(100)는 센싱부(140)에 포함된 가속도 센서(acceleration sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor) 등을 이용하여 측정한 사용자의 움직임에 대한 정보와, 생체 정보 획득부(145)에 포함된 PPG, EMG 및 GSR 센서 등을 이용하여 측정된 사용자의 호흡, 맥박 변화, 근전도 등에 대한 정보를 근거로, 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 분석할 수 있다.
구체적으로, 제어부(180)는 상기와 같이 소정 시간 동안 지속적으로 혹은 일정 주기마다 측정된 정보를 이용하여, 수면의 시작과 끝, 수면 중 움직임의 빈도, 움직임의 정도, 수면 단계(얕은 수면에서 깊은 수면까지의 단계), 수면의 리듬 및 수면의 패턴 등을 분석할 수 있고, 분석된 정보를 근거로, 도 10과 같은 졸음 추세선을 산출할 수 있다.
졸음 추세선은 사용자의 차량 탑승 여부 또는 차량 주행 여부를 기준으로 시간에 따른 졸음 레벨을 나타낸 그래프로서, 도 10에 도시한 바와 같이, 사용자가 차량에 탑승한 직후 또는 차량의 주행 직후의 사용자에 대한 초기 졸음 레벨, 졸음 레벨이 변화하기 전까지 상기 초기 졸음 레벨을 유지하는 시간 및 시간에 따른 졸음 레벨의 변화율을 포함할 수 있다.
제어부(180)는 상기와 같이 산출한 졸음 추세선을 이용하여, 사용자에 대한 졸음 레벨을 예측할 수 있다.
다시 말해, 이동 단말기(100)는 사용자의 차량 탑승 전 혹은 차량 주행 전에 획득한 생체 정보를 이용하여, 수면 상태 정보를 분석하고, 분석한 수면 상태 정보를 근거로 졸음 추세선을 산출함으로써, 사용자가 차량 탑승 후 혹은 차량 주행 후 시간에 따른 졸음 레벨을 예측할 수 있다.
이와 같이, 본 명세서에 개시된 일 실시예에 따른 이동 단말기(100)는 후술하는 바와 같이, 사용자의 졸음 레벨을 예측하고, 사용자의 졸음 정도가 심하여 차량 운행에 지장을 주기 전에 미리 사용자에게 각종 수단을 통해 경각심을 불러 일으키도록 함으로써, 졸음에 의해 발생할 수 있는 교통 사고를 미연에 방지할 수 있다.
제어부(180)가 사용자의 졸음 운전 평가 레벨을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 졸음 레벨과 상기 졸음 추세선을 근거로 산출된 제2 졸음 레벨을 조합함으로써, 정확한 사용자의 졸음 레벨을 산출할 수 있다.
상기 제1 졸음 레벨과 상기 제2 졸음 레벨 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 졸음 레벨을 최종적으로 산출할 수 있다.
이때, 제1 졸음 레벨 및 제2 졸음 레벨에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 졸음 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다. 즉, 최종적으로 판단된 사용자의 졸음 레벨이 3 레벨이나, 사용자 입력부(130)를 통해 입력받은 확인 입력이 3이 아닌 2인 경우에는 최종 판단된 사용자의 졸음 레벨이 2 레벨이 되도록 가중치를 변경할 수 있다.
시선 분산 운전 상태
한편, 제어부(180)는 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태 중 시선 분산 운전 상태에 대한 판단이 가능하다.
제어부(180)가 상기 영상 정보를 이용하여, 사용자의 시선 분산 운전 상태에 대한 판단시, 사용자의 얼굴 방향 및 사용자의 시선 방향 중 어느 하나 또는 이들의 조합으로 판단할 수 있다.
일 예로, 제어부(180)는 하나 또는 복수의 영상획득장치(900)를 통해 획득한 영상 정보를 근거로, 사용자의 얼굴 방향 및 사용자의 시선 방향을 산출하고, 산출된 사용자의 얼굴 방향 및 사용자의 시선 방향을 근거로 사용자의 시선 분산 운전 상태에 대한 판단을 할 수 있다.
제어부(180)가 사용자의 시선 분산 운전 상태를 판단하는 경우, 사용자의 시선이 향하는 방향, 시선의 변화 정도 및 시선의 머무는 시간 등을 고려하여, 사용자의 시선 분산 레벨을 결정할 수 있다.
한편, 제어부(180)가 사용자의 얼굴 방향 및 사용자의 시선 방향 중 어느 하나 또는 이들의 조합으로 사용자가 시선 분산 운전 상태임을 판단한 경우, 제어부(180)는 복수의 영상획득장치(900) 중 사용자의 시선이 향하는 시선 좌표에 대응하는 적어도 하나의 영상획득장치(900)를 선택할 수 있다.
즉, 사용자의 ROI를 향하고 있는 복수의 영상획득장치(900) 중 적어도 하나를 선택할 수 있다.
이에 따라, 제어부(180)는 상기 선택된 영상획득장치(900)에 의해 획득한 영상 정보로부터 적어도 하나의 대상을 인식할 수 있고, 인식한 대상에 따라 대응하는 제어 명령을 이동 단말기(100)가 수행하거나 상기 제어 명령을 타 이동 단말기(100) 또는 타 차량 제어 장치(400) 등으로 전송하여, 타 이동 단말기(100) 또는 타 차량 제어 장치(400)가 상기 제어 명령을 수행하도록 할 수 있다.
일 예로, 도 11A에 도시한 바와 같이, 사용자의 시선이 룸미러(M)를 향하는 경우, 제어부(180)는 사용자의 시선이 전방을 주시하지 않은 것으로 인식하고, 사용자가 위험 운전 상태 중 시선 분산 운전 상태임을 판단할 수 있다.
그리고, 제어부(180)는 사용자의 시선이 향하는 시선 좌표가 룸미러(M)인 것으로 판단하고, 룸미러(M)에 대응하는 후방향 영상획득장치(미도시)를 선택하여, 선택된 후방향 영상획득장치로부터 영상 정보를 획득할 수 있다.
이에 따라, 제어부(180)는 후방향 영상획득장치로부터 획득한 영상 정보로부터 적어도 하나의 대상을 인식하되, 상기 대상(T1)이 사람인 경우에는 얼굴을 인식할 수 있다.
상기 대상(T1)에 대응하는 제어 명령에 따라, 제어부(180)가 얼굴을 인식한 경우, 인식한 대상이 얼굴이므로 이에 대응하는 제어 명령을 수행할 수 있다. 구체적으로, 제어부(180)는 메모리(160)에 저장된 얼굴 데이터베이스를 이용하여, 인식한 얼굴에 대응하는 이름 정보 등을 추출할 수 있다.
또한, 제어부(180)는 인식한 얼굴의 표정 및/또는 인식한 얼굴에 대응하는 이동 단말기로부터 상기 대상(T1)의 생체 정보 등을 수신하고, 대상에 대한 상태를 판단하여, 판단 결과를 출력부(150)를 통해 출력할 수 있다.
따라서, 제어부(180)는 후방향 영상획득장치로부터 획득한 영상 정보를 근거로, 음향 출력부(153)를 통해 "캐빈이 잠자고 있습니다"라는 음성을 출력하거나, "캐빈의 호흡이 정상보다 빠릅니다"라는 음성을 출력하여, 사용자가 인식 대상의 상태에 따른 대응을 신속하게 취할 수 있도록 할 수 있다.
또 다른 예로, 도 11B에 도시한 바와 같이, 사용자의 시선이 차량의 운전자 측 창문 밖을 향하는 경우, 제어부(180)는 사용자의 시선이 전방을 주시하지 않은 것으로 인식하고, 사용자가 위험 운전 상태 중 시선 분산 운전 상태임을 판단할 수 있다.
그리고, 제어부(180)는 사용자의 시선이 향하는 시선 좌표가 즉, ROI가 차량의 운전자 측 창문 밖인 것으로 판단하고, 이에 대응하는 좌방향 영상획득장치(미도시)를 선택하여, 선택된 좌방향 영상획득장치로부터 영상 정보를 획득할 수 있다.
이에 따라, 좌방향 영상획득장치로부터 획득한 영상 정보로부터 제어부(180)는 적어도 하나의 대상(T2, T3)을 인식하되, 상기 대상(T2, T3)이 문자열인 경우에는 문자열을 인식하고, 인식한 문자열로부터 인터넷 주소, 전화번호 또는 상호 등을 추출할 수 있다.
따라서, 제어부(180)는 좌방향 영상획득장치로부터 획득한 영상 정보를 근거로, "COFFEE"의 상호와 "02-000-0000"의 전화번호를 추출하고, 추출한 정보에 대응하는 제어 명령에 따라 추출한 정보를 전화번호부에 저장할 수 있다.
한편, 제어부(180)는 상기 영상 정보 이외에 EOG, EMG 센서 등을 포함한 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 사용자에 대한 시선 부주의 운전 상태를 판단할 수 있고, 제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.
여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 영상 정보에 대한 가중치가 상기 생체 정보에 대한 가중치보다 큰 것이 바람직하다.
이때, 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태 및 스트레스 상태에서 적용되는 가중치 관계와 다를 수 있다.
스트레스 상태
한편, 제어부(180)는 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태 중 스트레스 상태에 대한 판단이 가능하다.
제어부(180)가 상기 영상 정보를 이용하여, 사용자의 스트레스 상태에 대한 판단시, 사용자 얼굴의 표정으로 판단할 수 있다.
일 예로, 사용자의 얼굴 표정이 화난 것으로 판단하는 경우에는, 사용자의 스트레스 상태를 판단할 수 있다.
사용자의 얼굴 표정에 따라, 사용자의 스트레스 상태 레벨을 결정하되, 사용자 표정에 따른 스트레스 레벨을 저장한 다량의 데이터베이스를 이용할 수 있다.
또한, 제어부(180)는, 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 상기 사용자에 대한 스트레스 상태를 판단할 수 있다.
일 예로, 제어부(180)는 PPG 센서를 통해 측정한 심박수 및/또는 심박 변이도 등으로부터 사용자의 스트레스 정도를 판단할 수 있다. 이때, 스트레스 정도 측정에 정확도를 높이기 위해, 소정의 필터를 통과시키거나 잡음을 제거할 수 있다.
제어부(180)가 복수의 생체 정보를 근거로 스트레스 상태 및 사용자의 스트레스 레벨을 판단하는 경우, 상기 복수의 생체 정보 각각에 대한 가중치를 적용할 수 있고, 스트레스 상태 및 스트레스 레벨에 대한 판단 정확도를 향상시키기 위해, 상기 복수의 요소에 대한 가중치는 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.
이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
한편, 제어부(180)가 상기 영상 정보만으로 사용자에 대한 스트레스 상태를 판단하거나, 상기 생체 정보만으로 사용자에 대한 스트레스 상태를 판단하는 경우에는, 스트레스 상태에 대한 평가 단계의 범위가 제한되고, 사용자의 스트레스 상태에 대한 평가 레벨이 어느 정도인지 정확한 판단을 할 수 없는 문제가 있을 수 있다.
따라서, 상기의 문제를 해소하기 위해, 제어부(180)는 상기 영상 정보 이외에 상기 생체 정보를 근거로 사용자에 대한 스트레스 상태를 판단하는 것이 바람직하다.
제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 스트레스 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.
여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 생체 정보에 대한 가중치가 상기 영상 정보에 대한 가중치보다 큰 것이 바람직하다.
상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태 및 시선 분산 운전 상태에 대한 가중치와 다를 수 있다.
한편, 제어부(180)가 사용자의 스트레스 상태 또는 사용자의 스트레스 레벨을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).
사용자의 스트레스 상태 및 스트레스 레벨은 사용자의 수면 상태에 영향을 받을 수 있기 때문에, 이동 단말기(100)가 산출한 졸음 추세선(도 10 참조)을 이용할 수 있다.
즉, 제어부(180)가 사용자의 스트레스 레벨을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 스트레스 레벨과 상기 졸음 추세선을 근거로 산출된 졸음 레벨에 대응하는 제2 스트레스 레벨을 조합함으로써, 정확한 사용자의 스트레스 레벨을 산출할 수 있다.
상기 제1 스트레스 레벨과 상기 제2 스트레스 레벨 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 스트레스 레벨을 최종적으로 산출할 수 있다.
이때, 제1 스트레스 레벨 및 제2 스트레스 레벨에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 스트레스 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다.
위험 운전 상태 판단
전술한 바와 같이, 본 명세서에서 개시한 일 실시예에 따라, 제어부(180)는 영상 정보 및 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태를 검출할 수 있다.
여기서, 상기 위험 운전 상태는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태를 포함할 수 있다.
또한, 제어부(180)는 각각의 위험 운전 상태에 대하여, 졸음 운전 정도, 시선 분산 정도 및 스트레스 정도를 나타내는 졸음 운전 레벨, 시선 분산 레벨 및 스트레스 레벨에 대한 위험 레벨 정보를 생성할 수 있다.
이때, 제어부(180)가 영상 정보 및 생체 정보를 근거로 상기 위험 레벨 정보를 생성하는 경우, 상기 영상 정보 및 생체 정보 각각에 가중치를 적용하는 것이 바람직하다. 상기 가중치는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용될 수 있다.
전술한 바와 같이, 졸음 운전 상태 및 시선 분산 운전 상태의 경우에는 영상 정보에 생체 정보보다 높은 가중치를 적용하고, 스트레스 상태의 경우에는 생체 정보에 영상 정보보다 높은 가중치를 적용하여 위험 레벨 정보를 생성하는 것이 바람직하다.
여기서, 제어부(180)가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있음은 전술한 바와 같다.
구체적으로, 제어부(180)는 공지의 각종 수단 또는 방법을 통해 적어도 하나의 영상획득장치(900)로부터 획득한 영상 정보에 노이즈가 포함되어 있거나 영상 정보의 적어도 일 부분에 오류가 있다고 판단할 수 있다.
이때, 제어부(180)가 판단한 상기 영상 정보에 대한 신뢰도가 기 설정된 수준에 미치지 못한 경우에는, 위험 운전 상태에 대한 평가시 적용되는 가중치를 점차 혹은 기 설정된 값으로 일시에 낮추거나, 사용자에게 상기 영상 정보에 대한 이상이 있음을 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 시각적 및/또는 청각적으로 사용자에게 알릴 수 있다.
마찬가지로, 제어부(180)는 공지의 각종 수단 또는 방법을 통해 생체 정보 획득부(145)를 통해 획득한 생체 정보에 노이즈가 포함되어 있거나 생체 정보의 적어도 일 부분에 오류가 있다고 판단할 수 있다.
이때, 제어부(180)가 판단한 상기 생체 정보에 대한 신뢰도가 기 설정된 수준에 미치지 못한 경우에는, 위험 운전 상태에 대한 평가시 적용되는 가중치를 점차 혹은 기 설정된 값으로 일시에 낮추거나, 사용자에게 상기 생체 정보에 대한 이상이 있음을 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 시각적 및/또는 청각적으로 사용자에게 알릴 수 있다.
일 예로, 영상획득장치(900)나 생체 정보 획득부(145) 중 하나에 고장이 발생한 경우, 위험 운전 상태에 대한 평가시 상기 영상 정보나 상기 생체 정보에 적용되는 가중치를 낮추거나, 사용자에게 영상획득장치(900)나 생체 정보 획득부(145) 중 이상이 있는 장치에 대한 정보를 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 출력할 수 있다.
한편, 제어부(180)는 영상 정보 및 생체 정보를 근거로 위험 레벨 정보를 생성할 때, 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 적어도 두 상태에 대한 위험 레벨 정보가 생성될 수 있다.
이때, 제어부(180)가 사용자에 대한 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하는 경우, 각 위험 운전 상태의 위험 레벨 정보에 대응하는 우선 순위를 설정할 수 있다.
따라서, 제어부(180)가 복수의 위험 레벨 정보를 생성한 경우, 제어부(180)는 각 위험 레벨 정보에 대응하는 우선 순위에 따라, 사용자에 대한 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정할 수 있다.
출력
출력부(150)는 제어부(180)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 다양한 형태(사용자의 오감을 자극할 수 있는 각종 형태)로 출력할 수 있다.
일 실시예에 따라, 출력부(150)는 위험 레벨 정보를 이동 단말기(100)의 본체 진동 또는 소리의 형태로 출력하되, 위험 레벨 정보가 변화함에 따라 출력 강도를 변화시킬 수 있다.
도 12는 본 명세서에 개시된 일 실시예에 따른 위험 레벨 정보에 대한 다양한 출력 방식을 나타내는 예시도이다.
일 예로, 도 12에 도시한 바와 같이, 이동 단말기(100)는 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 위험 레벨이 증가함에 따라 진동의 주파수를 증가시킨 알람(AS20)을 출력하거나, 진동의 진폭을 증가시킨 알람(AS30)을 출력하거나, 진동의 출력 주기를 짧게 출력할 수 있다.
또한, 상기 이동 단말기(200)는, 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 상기 위험 레벨 정보에 따라 진동의 주파수 또는 진폭이 시간에 따라 가변하는 알람(AS40)을 외부로 출력할 수도 있다.
전술한 바와 같이, 위험 레벨 정보에 따라 진동의 주파수 또는 진폭을 달리하여 출력할 수 있으나, 또 다른 실시예에 따라, 음성(일 예로, "현재 졸음 운전 상태 5 레벨입니다") 또는 소리를 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.
이동 단말기(100)가 위험 레벨 정보에 따른 소리를 출력하되, 위험 운전 상태 별로 출력하는 소리의 종류는 다를 수 있다.
즉, 사용자에 대해 판단한 위험 운전 상태가 졸음 운전 상태인 경우, 출력부(150)를 통해 출력하는 소리는 졸음을 쫓을 수 있는 진폭이 크고 주파수가 높은 소리인 것이 바람직하나, 사용자에 대해 판단한 위험 운전 상태가 스트레스 상태인 경우, 출력부(150)를 통해 출력하는 소리는 마음을 진정시킬 수 있는 음악 따위인 것이 바람직하다.
또 다른 실시예에 따라, 제어부(180)가 판단한 위험 운전 상태 및 이에 대한 위험 레벨 정보를 차량 제어 장치(400)로 전송하여, 차량 제어 장치(400)가 차량 제어 장치의 출력부(450)를 통해 상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하거나, 차량 구동부(420)를 이용하여, 차량에 설치된 차량 출력부(미도시)를 통해 외부로 상기 위험 레벨 정보를 출력할 수 있다.
차량 제어 장치의 출력부(450) 및 차량 출력부(미도시)도 이동 단말기(100)와 마찬가지로, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.
일 실시예에 따라, 차량 제어 장치의 출력부(450) 및 차량 출력부가 전술한 바와 같이, 음성 또는 소리를 출력하는 경우, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 음성 또는 소리의 종류, 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.
또한, 차량 출력부는 차량의 비상등, 계기판 또는 계기판 주변에 설치된 적어도 하나의 LED, 차량의 진동 시트 및 차량의 진동 가능한 조향 장치 중 적어도 하나 일 수 있으며, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라, 비상등의 출력 주기, LED의 색깔, LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 진폭, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 출력 주기 중 적어도 하나를 달리하여 출력할 수 있다.
또한, 차량 제어 장치(400)가 직접적으로 차량 내부의 환기를 위해 차량에 설치된 적어도 하나의 창문을 열거나, 차량의 공기 조화기를 동작시켜, 사용자의 위험 운전 레벨을 낮추도록 유도할 수 있다.
또한, 위험 레벨이 기 설정된 레벨보다 높은 경우에는, 차량 제어 장치(400)가 차량의 운행을 직접 제어하도록 하는 것이 바람직하다.
이때, 위험 운전 상태에 대한 위험 레벨에 대하여, 이동 단말기(100), 차량 제어 장치(400) 및 차량 출력부 중 적어도 하나가 상기와 같은 조치를 취한 후에 혹은 일정 시간 경과 후에 다시 위험 레벨에 대한 판단을 반복적으로 수행하여, 위험 레벨에 대한 판단과 그에 따른 조치를 지속적으로 반복하는 것이 바람직하다.
위험 레벨에 대한 조치에 대한 구체적인 예로, 제어부(180)가 위험 운전 상태를 졸음 운전 상태로 판단한 경우, 졸음 제1 레벨 내지 제3 레벨일 때, 차량 출력부 중 차량 계기판 주변의 적어도 하나의 LED를 녹색으로 점등할 수 있다.
또한, 졸음 제4 내지 제5 레벨일 때, 상기 LED를 황색으로 점등하되, 출력부(150)는 음성으로 현재 사용자의 생체 정보를 근거로 판단한 운전 가능한 예상 시간(수면 상태 정보 및/또는 생체 리듬 정보를 근거로 산출한 졸음 주세선에 따라 판단될 수 있음)을 출력할 수 있다.
또한, 졸음 제6 레벨일 때, 상기 LED를 황색으로 점멸하되, 출력부(150)는 음성으로 운전 가능한 예상 시간을 출력할 수 있다.
또한, 졸음 제7 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 5초 간격을 두고, 진동을 5초 동안 지속적으로 발생하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 졸음을 깨는 구체적인 방법(일 예로, "수분을 섭취하세요")을 안내할 수 있다.
또한, 졸음 제8 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 3초 간격을 두고, 진동을 3초 동안 지속적으로 발생하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 차량 제어 장치(400)가 현재 위치로부터 가까운 갓길 또는 휴게소를 목적지 또는 경유지로 안내할 수 있다.
또한, 졸음 제9 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 0.5초 간격을 두고, 진동을 0.5초 동안 지속적으로 발생하고, 차량 제어 장치(400)를 통해 차량 출력부 중 차량 비상등을 점멸하토록 하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 차량 제어 장치(400)가 차량의 속도를 감속하거나 현재 위치로부터 정차 가능한 장소까지 차량이 이동하도록 제어할 수 있다.
또 다른 예로, 제어부(180)가 위험 운전 상태를 스트레스 상태로 판단한 경우, 스트레스 제1 레벨일 때, 차량 출력부 중 차량 계기판 주변의 적어도 하나의 LED를 녹색으로 점등할 수 있다.
또한, 스트레스 제2 레벨일 때, 상기 LED를 황색으로 점등할 수 있다.
또한, 스트레스 제3 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 음향 출력부(153)를 이용하여, 현재 사용자의 스트레스 상태를 음성으로 안내하거나, 스트레스를 완화시킬수 있는 호흡법을 유도할 수 있는 소리나 음성을 출력할 수 있다.
이때, 제어부(180)는 생체 정보 획득부(145)를 통해 사용자의 호흡에 대한 생체 신호를 획득하여, 스트레스를 완화시킬 수 있는 호흡법에 따르는지 판단할 수 있고, 사용자가 유도한 호흡법에 따르지 않는 경우, 이동 단말기(100), 차량 제어 장치(400) 및/또는 차량 출력부를 통해 시청각적으로 출력하여 사용자에 호흡법에 따르지 않음을 경고할 수 있다.
또 다른 실시예에 따라, 제어부(180)가 판단한 위험 운전 상태 및 이에 대한 위험 레벨 정보를 타 이동 단말기로 전송하여, 타 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 본체의 진동 또는 음성 형태로 출력할 수 있고, 타 이동 단말기를 휴대한 사람에 의해 운전자가 위험 운전 상태에서 벗어나도록 유도할 수 있다.
일 예로, 타 이동 단말기를 휴대한 사람이 운전자와 인접한 위치에 있는 사람인 경우, 직접 운전자에 대하여 졸음을 깨도록 하거나, 전방을 주시하도록 하거나, 스트레스를 완화시키도록 할 수 있다.
만약, 타 이동 단말기를 휴대한 사람이 운전자와 원격에 위치에 있는 사람인 경우, 전화 또는 통신을 통해 운전자에 대하여 졸음을 깨도록 하거나, 전방을 주시하도록 하거나, 스트레스를 완화시키도록 할 수 있다.
운전자의 부주의를 판단하는 차량 제어 장치
이하에서는 본 명세서에 개시된 일 실시예에 따라 운전자의 부주의를 판단하는 이동 단말기에 대하여 자세히 설명하되, 전술한 운전자의 부주의를 판단하는 이동 단말기와 동일 또는 유사한 기능을 수행하므로, 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.
본 명세서에 개시된 일 실시예에 따른 차량 제어 장치는, 통신부(431), 영상 정보 획득부(470) 및 제어부(410)를 포함한다.
통신부(431)는 도 6A를 기준으로 설명한 근거리 통신 모듈(431)에 대응하는 구성으로서, 근거로 통신 모듈(431)에 대한 설명과 중복되므로, 그에 갈음하고, 자세한 설명은 생략하기로 한다.
또한, 영상 정보 획득부(470)는 영상획득장치(900)로부터 사용자에 대한 영상 정보를 획득한다.
또한, 제어부(410)는 상기 통신부(431)를 제어하여, 사용자에 대한 생체 정보를 수신하거나, 영상 정보 획득부(470)를 통해 상기 영상 정보를 획득하고, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태를 검출한다.
여기서, 사용자에 대한 위험 운전 상태는, 사용자에 대한 졸음(drowsiness) 운전 상태, 시선 분산(driver distraction) 운전 상태 및 스트레스(stress) 상태 중 적어도 하나를 포함할 수 있다.
제어부(410)는 사용자가 상기 졸음 운전 상태, 시선 분산 상태 및 스트레스 상태 중 어느 상태인지 결정하거나, 상기 위험 운전 상태 각각에 대한 위험 레벨 정보를 생성할 수 있다.
제어부(410)는 사용자의 위험 운전 상태 또는 위험 레벨 정보를 산출하기 위해, 영상 정보 및/또는 생체 정보를 근거로 판단할 때, 복수의 판단 요소들에 대한 가중치를 적용한다.
이때, 상기 위험 운전 상태 또는 위험 레벨 정보에 대한 판단 정확도를 향상시키기 위해, 상기 복수의 판단 요소들에 대한 가중치는 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.
이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
또한, 제어부(410)가 사용자에 대한 위험 운전 상태 또는 위험 운전 상태에 대한 위험 레벨 정보를 산출할 때, 상기 영상 정보 및 상기 생체 정보를 이용하되, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 제어부(410)의 위험 운전 상태 또는 위험 레벨 정보의 산출 정확도를 향상시킬 수 있다.
이때, 상기 가중치는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용될 수 있다.
한편, 제어부(410)가 사용자의 졸음 운전 상태(스트레스 상태 포함) 또는 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).
즉, 제어부(410)가 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 졸음 운전 레벨(제1 스트레스 레벨 포함)과 상기 졸음 추세선을 근거로 산출된 졸음 레벨에 대응하는 제2 졸음 운전 레벨(제2 스트레스 레벨 포함)을 조합함으로써, 정확한 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 산출할 수 있다.
상기 제1 졸음 운전 레벨(제1 스트레스 레벨 포함)과 상기 제2 졸음 운전 레벨(제2 스트레스 레벨 포함) 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 최종적으로 산출할 수 있다.
이때, 제1 졸음 운전 레벨(제1 스트레스 레벨 포함) 및 제2 졸음 운전 레벨(제2 스트레스 레벨 포함)에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 스트레스 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다.
한편, 출력부(450)는 제어부(410)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 다양한 형태(사용자의 오감을 자극할 수 있는 각종 형태)로 출력할 수 있다.
출력부(450)는 위험 레벨 정보를 영상 또는 음성 형태로 출력할 수 있고, 차량 제어 장치의 출력부(450)는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.
차량 제어 장치의 출력부(450)가 전술한 바와 같이, 음성 또는 소리를 출력하는 경우, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 영상을 달리하여 출력하거나, 음성 또는 소리의 종류, 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.
또한, 제어부(410)는 차량에 설치된 차량 출력부(미도시)를 통해 상기 위험 레벨 정보를 출력할 수 있다. 차량 출력부(미도시)도 차량 제어 장치의 출력부(450)와 마찬가지로, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.
이때, 차량 출력부는 차량의 비상등, 계기판 또는 계기판 주변에 설치된 적어도 하나의 LED, 차량의 진동 시트 및 차량의 진동 가능한 조향 장치 중 적어도 하나 일 수 있으며, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라, 비상등의 출력 주기, LED의 색깔, LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 진폭, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 출력 주기 중 적어도 하나를 달리하여 출력할 수 있다.
또한, 차량 제어 장치(400)가 직접적으로 차량 내부의 환기를 위해 차량에 설치된 적어도 하나의 창문을 열거나, 차량의 공기 조화기를 동작시켜, 사용자의 위험 운전 레벨을 낮추도록 유도할 수 있다.
또한, 위험 레벨이 기 설정된 레벨보다 높은 경우에는, 차량 제어 장치(400)가 차량의 운행을 직접 제어하도록 하는 것이 바람직하다.
위험 운전 상태에 대한 위험 레벨에 대하여, 이동 단말기(100), 차량 제어 장치(400) 및 차량 출력부 중 적어도 하나가 상기와 같은 조치를 취한 후에 혹은 일정 시간 경과 후에 다시 위험 레벨에 대한 판단을 반복적으로 수행하여, 위험 레벨에 대한 판단과 그에 따른 조치를 지속적으로 반복하는 것이 바람직하다.
일 실시예에 따라, 제어부(410)가 판단한 위험 운전 상태 및 이에 대한 위험 레벨 정보를 이동 단말기(100)로 전송하여, 이동 단말기(100)가 출력부(150)를 통해 본체 진동 또는 소리의 형태로 출력하되, 위험 레벨 정보가 변화함에 따라 출력 강도를 변화시킬 수 있다.
일 예로, 도 12에 도시한 바와 같이, 이동 단말기(100)는 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 위험 레벨이 증가함에 따라 진동의 주파수를 증가시킨 알람(AS20)을 출력하거나, 진동의 진폭을 증가시킨 알람(AS30)을 출력하거나, 진동의 출력 주기를 짧게 출력할 수 있다.
또한, 상기 이동 단말기(200)는, 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 상기 위험 레벨 정보에 따라 진동의 주파수 또는 진폭이 시간에 따라 가변하는 알람(AS40)을 외부로 출력할 수도 있다.
전술한 바와 같이, 위험 레벨 정보에 따라 진동의 주파수 또는 진폭을 달리하여 출력할 수 있으나, 또 다른 실시예에 따라, 음성(일 예로, "현재 졸음 운전 상태 5 레벨입니다") 또는 소리를 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.
이동 단말기(100)가 위험 레벨 정보에 따른 소리를 출력하되, 위험 운전 상태 별로 출력하는 소리의 종류는 다를 수 있다.
또 다른 실시예에 따라, 제어부(410)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 타 이동 단말기로 전송하여, 타 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 본체의 진동 또는 음성 형태로 출력할 수 있고, 타 이동 단말기를 휴대한 사람에 의해 운전자가 위험 운전 상태에서 벗어나도록 유도할 수 있다.
일 예로, 타 이동 단말기를 휴대한 사람이 운전자와 인접한 위치에 있는 사람인 경우, 직접 운전자에 대하여 졸음을 깨도록 하거나, 전방을 주시하도록 하거나, 스트레스를 완화시키도록 할 수 있다.
만약, 타 이동 단말기를 휴대한 사람이 운전자와 원격에 위치에 있는 사람인 경우, 전화 또는 통신을 통해 운전자에 대하여 졸음을 깨도록 하거나, 전방을 주시하도록 하거나, 스트레스를 완화시키도록 할 수 있다.
본 명세서에 개시된 기술이 적용 가능한 차량
이하에서는 도 14를 참조하여 본 명세서에 개시된 기술이 적용 가능한 차량에 대해 설명한다.
도 14에서는 전기차량에 대해 기술하지만, 본 명세서에 개시된 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 한도에서 다른 종류의 차량(예를 들어, 가솔린 엔진, 디젤 엔진 또는 LPG 엔진을 구비한 차량)에도 적용 가능함이 본 기술분야에 당업자에게 자명하다.
도 14는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.
도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 배터리 충전장치를 구비한 전기차량(600)은, 차량바디(610)와, 상기 차량바디(610)에 구비되는 배터리(625)와, 상기 차량바디(610)에 구비되고 외부 전원과 연결되어 상기 배터리(625)를 충전시키는 배터리 충전장치(640)를 포함하여 구성될 수 있다.
상기 차량바디(610)의 상부영역에는 도면에는 도시하지 아니하였으나 운전자 또는 승객이 탑승하는 탑승공간이 구비될 수 있다. 예를 들면, 상기 차량바디(610)는 내부에 탑승공간이 형성되는 캐빈(cabin)(미도시)이 구비될 수 있다.
상기 차량바디(610)는 주행이 가능하게 복수의 휠(615)을 구비하여 구성될 수 있다. 상기 차량바디(610)와 상기 각 휠(615) 사이에는 현가장치(620)가 각각 구비될 수 있다. 이에 의해, 상기 차량바디(610)의 노면 주행 시 발생하는 진동 및 충격이 완화될 수 있다.
상기 휠(615)은 상기 차량바디(610)의 전, 후 양 측에 각각 배치될 수 있다.
상기 차량바디(610)에는 전원 공급을 위한 배터리(625)가 구비될 수 있다.
상기 배터리(625)는 충전이 가능하게 2차 전지로 구성될 수 있다.
상기 차량바디(610)의 일 측에는 상기 휠(615)에 구동력을 제공하는 전동기(630)가 마련될 수 있다.
상기 차량바디(610)에는 상기 전동기(630)에 구동 전원을 제공하는 인버터장치(635)가 구비될 수 있다. 상기 인버터장치(635)는 상기 배터리(625) 및 상기 전동기(630)에 각각 연결될 수 있다.
상기 인버터장치(635)는 상기 배터리(125)에 연결되어 직류 전원을 공급받고, 직류 전원을 상기 전동기(630)의 구동에 적합한 전원으로 변환하여 상기 전동기(130)에 제공할 수 있다.
상기 차량바디(610)에는 상기 배터리(625)를 충전할 수 있게 배터리 충전장치(640)가 구비될 수 있다. 상기 배터리 충전장치(640)는 외부 상용 전원(AC)과 연결되어 상용 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 상기 배터리(625)에 제공하는 충전회로(660)를 구비하여 구성될 수 있다. 여기서, 상기 충전회로(660)는, 구체적으로 도시하지 아니하였으나, 상용 전원과 연결되어 상용 전원이 입력되는 상용전원입력부, 상기 상용전원입력부를 통해 입력된 상용 전원을 직류로 변환하는 정류부 및 평활부, 변환된 직류 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 출력하는 전력변환부를 포함하여 구성될 수 있다.
본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.
100: 이동 단말기 110: 통신부
130: 사용자 입력부 145: 생체 정보 획득부
150: 출력부 160: 메모리
180: 제어부 400: 차량 제어 장치
410: 제어부 431: 통신부
420: 차량 구동부 450: 출력부
470: 영상 정보 획득부 900: 영상 획득 장치

Claims (27)

  1. 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기에 있어서,
    상기 특정 신체 부위에 착용 가능하도록 형성된 본체;
    차량에 구비된 제1 영상획득장치로부터 상기 사용자에 대한 영상 정보를 수신하는 통신부;
    상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부; 및
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부를 포함하며,
    상기 생체 정보는 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 포함하며,
    상기 제어부는 상기 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 근거로 시간에 따른 상기 사용자에 대한 졸음 추세선을 산출하고, 상기 졸음 추세선 및 상기 영상 정보를 근거로 상기 시간에 따른 졸음 레벨을 검출하는 것인 이동 단말기.
  2. 제 1 항에 있어서,
    상기 제어부는,
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하는 것인 이동 단말기.
  3. 제 2 항에 있어서,
    상기 제어부는,
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 결정된 어느 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성하는 것인 이동 단말기.
  4. 제 3 항에 있어서,
    상기 제어부는,
    상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여 상기 위험 레벨 정보를 생성하는 것인 이동 단말기.
  5. 제 4 항에 있어서,
    상기 가중치는,
    상기 위험 운전 상태가 상기 졸음 운전 상태, 상기 시선 분산 운전 상태 및 상기 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용되는 것인 이동 단말기.
  6. 제 3 항에 있어서,
    상기 제어부는,
    상기 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하거나, 차량에 구비된 차량 제어 장치로 상기 위험 레벨 정보를 전송하여, 상기 차량 제어 장치 또는 상기 차량에 설치된 차량 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하는 것인 이동 단말기.
  7. 제 6 항에 있어서,
    외부로 출력되는 상기 위험 레벨 정보는,
    상기 위험 레벨 정보가 변화함에 따라 출력 강도가 변화되는 것인 이동 단말기.
  8. 제 7 항에 있어서,
    상기 이동 단말기의 출력부는,
    상기 위험 레벨 정보를 상기 본체의 진동 또는 음성의 형태로 외부로 출력하는 것인 이동 단말기.
  9. 제 8 항에 있어서,
    상기 이동 단말기의 출력부는,
    상기 진동의 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기, 상기 음성의 크기, 상기 음성의 내용 및 상기 음성의 출력 주기 중 적어도 하나를 변경함에 의해 상기 출력 강도를 변화시키는 것인 이동 단말기.
  10. 제 6 항에 있어서,
    상기 차량 제어 장치는,
    상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하고,
    상기 차량 출력부는,
    상기 차량의 비상등, 상기 차량의 계기판에 설치된 LED, 상기 차량의 진동 시트 및 상기 차량의 진동 가능한 조향 장치 중 적어도 하나인 것인 이동 단말기.
  11. 제 10 항에 있어서,
    상기 차량 출력부는,
    상기 비상등의 출력 주기, 상기 LED의 색깔, 상기 LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기 중 적어도 하나를 변경함에 의해 출력 강도를 변화시키는 것인 이동 단말기.
  12. 제 1항에 있어서, 상기 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보는,
    상기 사용자가 상기 차량에 탑승하기 전에 상기 생체 정보 획득부에 의해 획득된 정보인 것인 이동 단말기.
  13. 삭제
  14. 제 2 항에 있어서,
    상기 제어부는,
    상기 사용자에 대한 과거 영상 정보 및 과거 생체 정보를 근거로 위험 운전 상태를 판별하기 위한 운전 상태 학습 모델을 생성하고,
    상기 영상 정보, 상기 생체 정보 및 상기 운전 상태 학습 모델을 근거로 상기 위험 운전 상태를 검출하는 것인 이동 단말기.
  15. 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기와 통신을 수행하는 통신부;
    차량에 구비된 제1 영상획득장치로부터 상기 사용자에 대한 영상 정보를 획득하는 영상 정보 획득부; 및
    상기 특정 신체 부위로부터 획득된 상기 사용자에 대한 생체 정보를 수신하도록 상기 통신부를 제어하고,
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부를 포함하며,
    상기 생체 정보는 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 포함하며,
    상기 제어부는 상기 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 근거로 시간에 따른 상기 사용자에 대한 졸음 추세선을 산출하고, 상기 졸음 추세선 및 상기 영상 정보를 근거로 상기 시간에 따른 졸음 레벨을 검출하는 것인 차량 제어 장치.
  16. 제 15 항에 있어서,
    상기 제어부는,
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하고,
    상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 결정된 어느 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성하는 것인 차량 제어 장치.
  17. 제 16 항에 있어서,
    상기 제어부는,
    상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여 상기 위험 레벨 정보를 생성하는 것인 차량 제어 장치.
  18. 제 17 항에 있어서,
    상기 가중치는,
    상기 위험 운전 상태가 상기 졸음 운전 상태, 상기 시선 분산 운전 상태 및 상기 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용되는 것인 차량 제어 장치.
  19. 제 16 항에 있어서,
    상기 제어부는,
    상기 차량 제어 장치의 출력부 또는 상기 차량에 설치된 차량 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하거나, 상기 이동 단말기로 상기 위험 레벨 정보를 전송하여, 상기 이동 단말기의 출력부를 통해 상기 위험 레벨 정보를 외부로 출력하는 것인 차량 제어 장치.
  20. 제 19 항에 있어서,
    외부로 출력되는 상기 위험 레벨 정보는,
    상기 위험 레벨 정보가 변화함에 따라 출력 강도가 변화되는 것인 차량 제어 장치.
  21. 제 19 항에 있어서,
    상기 차량 제어 장치는,
    상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하고,
    상기 차량 출력부는,
    상기 차량의 비상등, 상기 차량의 계기판에 설치된 LED, 상기 차량의 진동 시트 및 상기 차량의 진동 가능한 조향 장치 중 적어도 하나인 것인 차량 제어 장치.
  22. 제 21 항에 있어서,
    상기 차량 출력부는,
    상기 비상등의 출력 주기, 상기 LED의 색깔, 상기 LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기 중 적어도 하나를 변경함에 의해 출력 강도를 변화시키는 것인 차량 제어 장치.
  23. 제 19 항에 있어서,
    상기 이동 단말기는,
    상기 위험 레벨 정보를 상기 이동 단말기 본체의 진동 또는 음성의 형태로 외부로 출력하되,
    상기 진동의 주파수, 상기 진동의 진폭, 상기 진동의 출력 주기, 상기 음성의 크기, 상기 음성의 내용 및 상기 음성의 출력 주기 중 적어도 하나를 변경함에 의해 출력 강도를 변화시키는 것인 차량 제어 장치.
  24. 제 15 항에 있어서,
    상기 이전에 저장된 사용자 수면 상태 정보 및 생체 리듬 정보는,
    상기 사용자가 상기 차량에 탑승하기 전에 검출된 정보인 것인 차량 제어 장치.
  25. 삭제
  26. 제 15 항에 있어서,
    상기 제어부는,
    상기 사용자에 대한 과거 영상 정보 및 과거 생체 정보를 근거로 위험 운전 상태를 판별하기 위한 운전 상태 학습 모델을 생성하고,
    상기 영상 정보, 상기 생체 정보 및 상기 운전 상태 학습 모델을 근거로 상기 위험 운전 상태를 검출하는 것인 차량 제어 장치.
  27. 제 1 항에 있어서, 상기 제어부는,
    상기 영상 정보로부터 사용자 시선 방향을 인식하고, 상기 인식한 사용자 시선 방향을 근거로 서로 다른 방향을 향하도록 상기 차량에 구비된 다수의 영상획득장치들 중에서 상기 사용자 시선 방향을 향하는 제2 영상획득장치를 선택하고, 상기 선택된 제2 영상획득장치를 통해 상기 사용자 시선 방향에 해당하는 영상을 촬영하고, 상기 촬영된 영상으로부터 정보를 검출하는 것인 이동 단말기.
KR1020140058583A 2014-05-15 2014-05-15 이동 단말기 및 차량 제어 장치 KR101659027B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020140058583A KR101659027B1 (ko) 2014-05-15 2014-05-15 이동 단말기 및 차량 제어 장치
US14/672,520 US9682622B2 (en) 2014-05-15 2015-03-30 Driver monitoring system
EP15001394.4A EP2952403B1 (en) 2014-05-15 2015-05-08 Driver monitoring system
CN201510239153.6A CN105894733B (zh) 2014-05-15 2015-05-12 驾驶员监控系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140058583A KR101659027B1 (ko) 2014-05-15 2014-05-15 이동 단말기 및 차량 제어 장치

Publications (2)

Publication Number Publication Date
KR20150131634A KR20150131634A (ko) 2015-11-25
KR101659027B1 true KR101659027B1 (ko) 2016-09-23

Family

ID=53268569

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140058583A KR101659027B1 (ko) 2014-05-15 2014-05-15 이동 단말기 및 차량 제어 장치

Country Status (4)

Country Link
US (1) US9682622B2 (ko)
EP (1) EP2952403B1 (ko)
KR (1) KR101659027B1 (ko)
CN (1) CN105894733B (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180115505A (ko) * 2017-04-13 2018-10-23 동국대학교 경주캠퍼스 산학협력단 이동체 환경에 기반한 사물 제어 시스템

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US20150310758A1 (en) * 2014-04-26 2015-10-29 The Travelers Indemnity Company Systems, methods, and apparatus for generating customized virtual reality experiences
WO2016033587A1 (en) * 2014-08-29 2016-03-03 Ims Solutions Inc. Driver readiness and integrated performance assessment
KR101867915B1 (ko) * 2015-01-16 2018-07-19 현대자동차주식회사 차량에서 웨어러블 기기를 이용한 기능 실행 방법 및 이를 수행하는 차량
US10139966B2 (en) 2015-07-22 2018-11-27 Osterhout Group, Inc. External user interface for head worn computing
US11003246B2 (en) 2015-07-22 2021-05-11 Mentor Acquisition One, Llc External user interface for head worn computing
KR101730321B1 (ko) * 2015-08-03 2017-04-27 엘지전자 주식회사 운전자 보조 장치 및 그 제어방법
KR20170036428A (ko) * 2015-09-24 2017-04-03 삼성전자주식회사 웨어러블 디바이스를 이용한 운전자 모니터링 방법 및 장치
KR102149295B1 (ko) * 2015-11-10 2020-08-28 현대자동차주식회사 추월 차선에서의 차량 제어 장치 및 방법
CN105516891A (zh) * 2015-11-27 2016-04-20 广东好帮手电子科技股份有限公司 一种车载终端与可穿戴设备互联的预警方法及系统
US10308256B1 (en) * 2015-12-01 2019-06-04 State Farm Mutual Automobile Insurance Company Technology for notifying vehicle operators of incident-prone locations
KR101642697B1 (ko) * 2015-12-03 2016-08-10 양선종 차량 운전자 생체정보신호 측정 시스템 및 방법
EP3384475B1 (en) * 2015-12-06 2021-12-22 Cerence Operating Company System and method of conversational adjustment based on user's cognitive state
DE102015226574A1 (de) * 2015-12-22 2017-06-22 Robert Bosch Gmbh Verfahren und Vorrichtung zur Unterstützung eines Fahrers
AU2017101887A4 (en) * 2016-01-16 2020-10-08 Dometic Sweden Ab Parking cooler
DE102016202086B4 (de) * 2016-02-11 2019-06-27 Zf Friedrichshafen Ag Verfahren zum Feststellen von Gefahrensituationen im Straßenverkehr und zum Warnen von Verkehrsteilnehmern
US10562412B1 (en) 2016-03-24 2020-02-18 Xsensor Technology Corporation Intelligent seat systems
CN107241647A (zh) * 2016-03-28 2017-10-10 中兴通讯股份有限公司 一种视频播放控制方法、装置及机顶盒
US10824253B2 (en) * 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
EP3445224A1 (en) * 2016-04-20 2019-02-27 Siemens Rail Automation S.A.U. Dead man's control system and method for a vehicle
US10323952B2 (en) * 2016-04-26 2019-06-18 Baidu Usa Llc System and method for presenting media contents in autonomous vehicles
EP3438948B1 (en) * 2016-05-11 2023-08-30 Sony Group Corporation Image processing apparatus, image processing method, and mobile body
CN109313040A (zh) * 2016-06-08 2019-02-05 三菱电机株式会社 车载信息处理装置、车载装置及车载信息处理方法
DE102016007272A1 (de) * 2016-06-15 2017-12-21 Daimler Ag Verfahren zum Betreiben eines Kraftfahrzeugs sowie Kraftfahrzeug
KR101866724B1 (ko) * 2016-06-23 2018-06-15 현대자동차주식회사 웨어러블 디바이스, 그와 통신하는 차량 및 그 제어 방법
US9725036B1 (en) * 2016-06-28 2017-08-08 Toyota Motor Engineering & Manufacturing North America, Inc. Wake-up alerts for sleeping vehicle occupants
JP6083056B1 (ja) * 2016-06-28 2017-02-22 ザーズ株式会社 安全運転支援システム
US10610145B2 (en) * 2016-06-30 2020-04-07 Wellen Sham Safety driving system
JP6378719B2 (ja) * 2016-07-19 2018-08-22 矢崎総業株式会社 生体情報記憶システム、及び、車内生体情報記憶装置
US10559217B2 (en) * 2016-08-05 2020-02-11 Intel Corporation Methods and apparatus to develop in-vehicle experiences in simulated environments
US10023115B2 (en) * 2016-09-16 2018-07-17 Ford Global Technologies, Llc Autonomous vehicle handoff alert
US20180082501A1 (en) * 2016-09-16 2018-03-22 Ford Global Technologies, Llc Integrated on-board data collection
CN106335454A (zh) * 2016-09-29 2017-01-18 北京汽车股份有限公司 车辆和驾驶员车辆驾驶习惯的设置方法
FR3057517B1 (fr) * 2016-10-14 2020-03-13 Valeo Comfort And Driving Assistance Dispositif de prevention des situations dangereuses pour un conducteur d'un vehicule de transport et procede associe
CN106274483A (zh) * 2016-11-10 2017-01-04 合肥工业大学 基于分心驾驶行为判别的车辆自动驾驶切换装置及方法
US9925872B1 (en) 2016-11-14 2018-03-27 Denso International America, Inc. System for monitoring driver alertness and adapting vehicle settings thereto
US20180134215A1 (en) * 2016-11-16 2018-05-17 Samsung Electronics Co., Ltd. Method and device for generating driving assistance information
JP6617686B2 (ja) * 2016-11-25 2019-12-11 株式会社デンソー 無線給電システム及び送受電監視プログラム
KR101982774B1 (ko) * 2016-11-29 2019-05-27 엘지전자 주식회사 자율 주행 차량
CN106780254A (zh) * 2016-12-07 2017-05-31 东软集团股份有限公司 行车安全分析方法及终端设备
JPWO2018138980A1 (ja) * 2017-01-30 2019-11-14 日本電気株式会社 制御システム、制御方法及びプログラム
CN107122789B (zh) * 2017-03-14 2021-10-26 华南理工大学 基于深度摄像头的多模态信息融合的学习专注度分析方法
US11183167B2 (en) * 2017-03-24 2021-11-23 Sony Corporation Determining an output position of a subject in a notification based on attention acquisition difficulty
JP6928825B2 (ja) * 2017-03-30 2021-09-01 パナソニックIpマネジメント株式会社 居眠り防止装置、居眠り防止方法、およびプログラム
CN107832748B (zh) * 2017-04-18 2020-02-14 黄海虹 一种共享汽车驾驶员更换系统及方法
CN108733020B (zh) * 2017-04-19 2021-10-01 奥迪股份公司 用于车辆的远程控制设备和方法
KR20180123354A (ko) * 2017-05-08 2018-11-16 엘지전자 주식회사 차량용 사용자 인터페이스 장치 및 차량
CN109774471B (zh) * 2017-05-15 2022-07-29 成都中技智慧企业管理咨询有限公司 一种适用于安全驾驶的车载设备
CN107233104A (zh) * 2017-05-27 2017-10-10 西南交通大学 认知分心测评方法和系统
CN109146217A (zh) 2017-06-19 2019-01-04 北京嘀嘀无限科技发展有限公司 行程安全评估方法、装置、服务器、计算机可读存储介质
CN107323459B (zh) * 2017-06-23 2023-09-12 东风商用车有限公司 一种驾驶员意图识别传感器装置的识别方法
KR101963684B1 (ko) * 2017-06-26 2019-03-29 한국원자력 통제기술원 차량이동 시스템, 및 개별차량 단말기, 통제 단말기, 및 차량이동 시스템의 차량 이동을 위한 방법
KR102406511B1 (ko) * 2017-07-04 2022-06-10 현대자동차주식회사 차량 시스템 및 그 제어 방법
DE102017213177A1 (de) * 2017-07-31 2019-01-31 Audi Ag Verfahren zum Betreiben eines Bildschirms eines Kraftfahrzeugs sowie Kraftfahrzeug
CN110891889B (zh) * 2017-08-03 2021-12-24 三菱电机株式会社 电梯系统
US10085683B1 (en) 2017-08-11 2018-10-02 Wellen Sham Vehicle fatigue monitoring system
US10293768B2 (en) 2017-08-11 2019-05-21 Wellen Sham Automatic in-vehicle component adjustment
US10235859B1 (en) 2017-08-17 2019-03-19 State Farm Mutual Automobile Insurance Company Systems and methods for the mitigation of drowsy or sleepy driving
CN109409172B (zh) * 2017-08-18 2021-08-13 安徽三联交通应用技术股份有限公司 驾驶员视线检测方法、系统、介质及设备
US10152141B1 (en) 2017-08-18 2018-12-11 Osterhout Group, Inc. Controller movement tracking with light emitters
KR102435346B1 (ko) * 2017-09-28 2022-08-23 현대자동차주식회사 운전자의 헬스 측정 시스템 및 그를 이용한 위험 경고 방법
US10379535B2 (en) 2017-10-24 2019-08-13 Lear Corporation Drowsiness sensing system
JP6853159B2 (ja) * 2017-10-31 2021-03-31 トヨタ自動車株式会社 状態推定装置
CN107844777B (zh) * 2017-11-16 2021-06-11 百度在线网络技术(北京)有限公司 用于生成信息的方法和装置
JP6687300B2 (ja) * 2017-11-21 2020-04-22 三菱電機株式会社 異常検知装置及び異常検知方法
TWI656050B (zh) * 2017-11-29 2019-04-11 財團法人金屬工業研究發展中心 以生理監測結合車輛控制之方法
US10836403B2 (en) 2017-12-04 2020-11-17 Lear Corporation Distractedness sensing system
US10709386B2 (en) * 2017-12-12 2020-07-14 Lear Corporation Electrocardiogram waveform identification and diagnostics via electrophysiological sensor system fusion
KR101993537B1 (ko) * 2017-12-12 2019-06-26 성균관대학교산학협력단 차량 운전자의 졸음상태 판단 방법 및 장치
KR102506866B1 (ko) * 2017-12-13 2023-03-08 현대자동차주식회사 차량 환경에서 선발화 안내 장치, 방법 및 시스템
KR101988426B1 (ko) * 2017-12-15 2019-06-12 충남대학교산학협력단 졸음방지용 손목형 전기충격기
US10210409B1 (en) * 2018-02-07 2019-02-19 Lear Corporation Seating system with occupant stimulation and sensing
KR101993189B1 (ko) * 2018-02-09 2019-06-26 충북대학교 산학협력단 영상 처리를 이용한 졸음 운전 방지 장치 및 그 구동 방법
JP7011508B2 (ja) * 2018-03-26 2022-01-26 本田技研工業株式会社 運転評価システム、及びプログラム
JP7060434B2 (ja) * 2018-04-18 2022-04-26 トヨタ自動車株式会社 状態推定装置
US10867218B2 (en) 2018-04-26 2020-12-15 Lear Corporation Biometric sensor fusion to classify vehicle passenger state
DE102018111596A1 (de) * 2018-05-15 2019-11-21 Motherson Innovations Company Limited Verfahren, Vorrichtung und System zum Beeinflussen zumindest eines Fahrassistenzsystems eines Kraftfahrzeugs
DE102018207572A1 (de) * 2018-05-16 2019-11-21 Ford Global Technologies, Llc Adaptiver Geschwindigkeitsregler für Kraftfahrzeuge und Verfahren zur adaptiven Geschwindigkeitsregelung
DE102018208060B3 (de) 2018-05-23 2019-07-04 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen einer Müdigkeit eines Fahrers eines Fahrzeugs in einem Mobilgerät
JP7066541B2 (ja) * 2018-06-19 2022-05-13 本田技研工業株式会社 制御装置および制御方法
WO2020006003A1 (en) * 2018-06-25 2020-01-02 Nottingham Spirk Design Associates User-provided automotive data collection
US11180158B1 (en) * 2018-07-31 2021-11-23 United Services Automobile Association (Usaa) Routing or driving systems and methods based on sleep pattern information
KR102586619B1 (ko) * 2018-09-28 2023-10-11 현대자동차주식회사 차량 및 차량의 제어방법
CN111152793A (zh) * 2018-10-22 2020-05-15 上海擎感智能科技有限公司 一种基于用户状态的车辆控制方法及系统、车载终端
JP7138541B2 (ja) * 2018-10-22 2022-09-16 フォルシアクラリオン・エレクトロニクス株式会社 振動発生装置および振動発生方法
US10969240B2 (en) * 2018-11-16 2021-04-06 Honda Motor Co., Ltd. Systems and methods for controlling vehicle systems using experience attributes
JP7206854B2 (ja) * 2018-11-29 2023-01-18 トヨタ自動車株式会社 情報提供システム、サーバ、携帯端末、プログラム及び情報提供方法
US10706633B2 (en) 2018-12-06 2020-07-07 Toyota Motor Engineering & Manufacturing North America, Inc. Augmented reality systems and methods for vehicle inspection
JP2020092350A (ja) * 2018-12-06 2020-06-11 シャープ株式会社 情報処理システム及び情報処理方法
CN111301428A (zh) * 2018-12-11 2020-06-19 上汽通用汽车有限公司 机动车驾驶员分心检测警示方法、系统及机动车
US11170240B2 (en) * 2019-01-04 2021-11-09 Cerence Operating Company Interaction system and method
IT201900000133A1 (it) 2019-01-07 2020-07-07 St Microelectronics Srl "Procedimento di elaborazione di immagini, sistema, veicolo e prodotto informatico corrispondenti"
CN109948554A (zh) * 2019-03-21 2019-06-28 浙江中科正方电子技术有限公司 车辆信息管理系统和方法
JP2020162016A (ja) * 2019-03-27 2020-10-01 ソニー株式会社 状態検出装置、状態検出システム及び状態検出方法
WO2020226431A1 (ko) * 2019-05-07 2020-11-12 인핸드플러스 주식회사 카메라 모듈 및 무선통신 장치를 활용하여 이벤트 감지를 수행하는 웨어러블 기기
CN110310458B (zh) * 2019-05-29 2020-07-21 中国安全生产科学研究院 一种用于识别驾驶员是否疲劳驾驶的墨镜及方法
CN110262084B (zh) * 2019-05-29 2020-04-03 中国安全生产科学研究院 一种用于识别驾驶员是否分心驾驶的墨镜及方法
JP7140068B2 (ja) * 2019-07-16 2022-09-21 トヨタ自動車株式会社 操作装置
JP2021018546A (ja) * 2019-07-18 2021-02-15 トヨタ自動車株式会社 車両用コミュニケーション装置および車両用コミュニケーションシステム
US11524691B2 (en) 2019-07-29 2022-12-13 Lear Corporation System and method for controlling an interior environmental condition in a vehicle
JP7328828B2 (ja) * 2019-08-27 2023-08-17 フォルシアクラリオン・エレクトロニクス株式会社 状態推定装置、状態推定プログラムおよび状態推定方法
JP2021041800A (ja) * 2019-09-10 2021-03-18 株式会社Subaru 車両用制御装置
FR3100516A1 (fr) * 2019-09-11 2021-03-12 Psa Automobiles Sa Procédé et dispositif d’alerte d’un problème rencontré par un conducteur d’un véhicule
FR3101594B1 (fr) * 2019-10-03 2021-09-03 Valeo Vision Détermination d’un état d’utilisateur conduisant activement ou non un véhicule automobile
TWI724615B (zh) * 2019-11-07 2021-04-11 南開科技大學 依據擴增實境之圖像配置進行解鎖的系統及其方法
CN110910611A (zh) * 2019-12-13 2020-03-24 上海擎感智能科技有限公司 提醒方法、系统、终端及车辆
JP7355120B2 (ja) * 2019-12-27 2023-10-03 日本電気株式会社 処理装置、処理方法及びプログラム
KR20210094192A (ko) * 2020-01-20 2021-07-29 삼성전자주식회사 사용자의 생체 정보를 획득하는 전자 장치 및 그 동작 방법
JP6982108B2 (ja) * 2020-01-30 2021-12-17 本田技研工業株式会社 車両制御装置、車両制御方法およびプログラム
US11407428B2 (en) * 2020-03-23 2022-08-09 Toyota Motor North America, Inc. Transport safety
CN111866056B (zh) * 2020-03-23 2023-11-21 北京嘀嘀无限科技发展有限公司 信息推送方法、装置、电子设备和存储介质
US11820402B2 (en) * 2020-07-02 2023-11-21 Qualcomm Incorporated Motion sickness detection system for autonomous vehicles
CN111862533B (zh) * 2020-07-15 2021-11-12 广东卡仕达电子科技有限公司 一种基于大数据的车辆联合导航设备及导航方法
KR102232491B1 (ko) * 2020-09-01 2021-03-30 주식회사 햅코리아 표면 근전도 센서를 이용한 개인 맞춤형 졸음 판단 방법
CN112172836B (zh) * 2020-09-28 2022-05-13 广州小鹏汽车科技有限公司 一种信息的推送方法、装置、车辆、可读介质
KR20220094398A (ko) * 2020-12-29 2022-07-06 현대자동차주식회사 차량의 진동 제공 방법
US11691511B2 (en) * 2021-04-12 2023-07-04 Ford Global Technologies, Llc Redundant vehicle controls based on user presence and position
CN113628448B (zh) * 2021-06-28 2023-05-30 东风汽车集团股份有限公司 车辆及其缓解疲劳驾驶的装置
CN113624514A (zh) * 2021-08-17 2021-11-09 中国汽车技术研究中心有限公司 驾驶员状态监控产品的测试方法、系统、电子设备及介质
US11861916B2 (en) 2021-10-05 2024-01-02 Yazaki Corporation Driver alertness monitoring system
KR20230082316A (ko) * 2021-12-01 2023-06-08 현대모비스 주식회사 모빌리티 외부측정센서의 노이즈저감장치 및 노이즈저감방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183900A (ja) * 2000-12-14 2002-06-28 Nissan Motor Co Ltd 居眠り運転警報装置
JP2008242602A (ja) * 2007-03-26 2008-10-09 Denso Corp 眠気警報装置、及びプログラム
JP2009018765A (ja) * 2007-07-13 2009-01-29 Osaka Prefecture Univ ドライバ特性検出装置
JP2011183005A (ja) * 2010-03-10 2011-09-22 Nec Corp 携帯端末

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6265978B1 (en) 1996-07-14 2001-07-24 Atlas Researches, Ltd. Method and apparatus for monitoring states of consciousness, drowsiness, distress, and performance
DE10210130B4 (de) 2002-03-08 2014-12-24 Robert Bosch Gmbh Verfahren und Vorrichtung zur Fahrerwarnung
JP3908583B2 (ja) * 2002-04-10 2007-04-25 独立行政法人科学技術振興機構 眠気度検出装置及びそれと連動した覚醒装置
JP4316960B2 (ja) * 2003-08-22 2009-08-19 株式会社半導体エネルギー研究所 装置
US20050195079A1 (en) * 2004-03-08 2005-09-08 David Cohen Emergency situation detector
EP1877991A4 (en) * 2005-05-06 2009-11-11 Jerome Arnold Power SLEEP WARNING DEVICE
DE102005048542A1 (de) 2005-10-11 2007-04-12 Robert Bosch Gmbh Fahrerassistenzsystem
JP4985428B2 (ja) 2007-02-01 2012-07-25 株式会社デンソー ドライバ管理装置および運行管理システム
CN101556728A (zh) * 2008-12-31 2009-10-14 上海市延安中学 一种防瞌睡装置
JP5444898B2 (ja) 2009-07-09 2014-03-19 アイシン精機株式会社 状態検出装置、状態検出方法及びプログラム
EP2500889B1 (en) 2009-11-09 2021-07-28 Panasonic Corporation Alertness assessment device, method, and program
WO2013067513A1 (en) * 2011-11-04 2013-05-10 Massachusetts Eye & Ear Infirmary Contextual image stabilization
DE102012201802A1 (de) 2012-02-07 2013-08-08 Robert Bosch Gmbh Fahrerassistenzsystem für ein Zweirad zur Schräglagenwarnung
JP6033838B2 (ja) 2012-02-27 2016-11-30 ヤマハ発動機株式会社 運転状態共有装置および運転状態共有システム
DE102012020901B4 (de) 2012-10-24 2022-06-02 Mercedes-Benz Group AG Verfahren zum Betrieb zumindest einer Assistenzvorrichtung eines Fahrzeugs und Vorrichtung zur Durchführung des Verfahrens
JP6118097B2 (ja) * 2012-12-14 2017-04-19 株式会社デルタツーリング 運転時生体状態判定装置及びコンピュータプログラム
US9013300B2 (en) * 2013-06-12 2015-04-21 Wilfredo FELIX Method of communicating information through a wearable device
KR101554188B1 (ko) * 2014-06-05 2015-09-18 엘지전자 주식회사 웨어러블 디바이스 및 그 제어 방법
KR101570430B1 (ko) * 2014-08-11 2015-11-20 엘지전자 주식회사 웨어러블 디바이스 및 그것의 동작 방법
US20160131905A1 (en) * 2014-11-07 2016-05-12 Kabushiki Kaisha Toshiba Electronic apparatus, method and storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002183900A (ja) * 2000-12-14 2002-06-28 Nissan Motor Co Ltd 居眠り運転警報装置
JP2008242602A (ja) * 2007-03-26 2008-10-09 Denso Corp 眠気警報装置、及びプログラム
JP2009018765A (ja) * 2007-07-13 2009-01-29 Osaka Prefecture Univ ドライバ特性検出装置
JP2011183005A (ja) * 2010-03-10 2011-09-22 Nec Corp 携帯端末

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180115505A (ko) * 2017-04-13 2018-10-23 동국대학교 경주캠퍼스 산학협력단 이동체 환경에 기반한 사물 제어 시스템
KR101940398B1 (ko) * 2017-04-13 2019-01-18 동국대학교 경주캠퍼스 산학협력단 이동체 환경에 기반한 사물 제어 시스템

Also Published As

Publication number Publication date
US20150328985A1 (en) 2015-11-19
US9682622B2 (en) 2017-06-20
EP2952403A2 (en) 2015-12-09
EP2952403B1 (en) 2018-10-03
CN105894733A (zh) 2016-08-24
CN105894733B (zh) 2018-12-18
KR20150131634A (ko) 2015-11-25
EP2952403A3 (en) 2016-02-17

Similar Documents

Publication Publication Date Title
KR101659027B1 (ko) 이동 단말기 및 차량 제어 장치
US9530265B2 (en) Mobile terminal and vehicle control
US9869556B2 (en) Mobile terminal and control method therefor
US9800717B2 (en) Mobile terminal and method for controlling the same
CN105320277B (zh) 可穿戴设备以及控制其的方法
KR20160128119A (ko) 이동 단말기 및 이의 제어방법
US20160061588A1 (en) Proximity sensor and control method thereof
KR101879334B1 (ko) 근접 센서 및 이의 제어 방법
CN104691449A (zh) 车辆控制设备及其方法
KR101737800B1 (ko) 차량 단말기 및 그 제어 방법
JP7049453B2 (ja) 信頼されたモバイルコンピューティングデバイスに関連してビークル内カメラを使用するシームレスな運転者の認証
CN111179880A (zh) 一种显示屏幕的亮度调节方法、装置、电子设备及系统
KR101659033B1 (ko) 이동 단말기 및 이의 제어 방법
KR101698102B1 (ko) 차량 제어 장치 및 이의 제어 방법
CN115185080A (zh) 一种车用可穿戴ar抬头显示系统
KR101602265B1 (ko) 이동 단말기 및 이의 제어 방법
KR101578741B1 (ko) 이동 단말기 및 그 제어 방법
US11568758B2 (en) Terminal
KR20160023755A (ko) 이동 단말기 및 그 제어 방법
KR102220367B1 (ko) 이동 단말기 및 그 제어 방법
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190814

Year of fee payment: 4