KR101602265B1 - Mobile terminal and method for controlling the same - Google Patents

Mobile terminal and method for controlling the same Download PDF

Info

Publication number
KR101602265B1
KR101602265B1 KR1020140120355A KR20140120355A KR101602265B1 KR 101602265 B1 KR101602265 B1 KR 101602265B1 KR 1020140120355 A KR1020140120355 A KR 1020140120355A KR 20140120355 A KR20140120355 A KR 20140120355A KR 101602265 B1 KR101602265 B1 KR 101602265B1
Authority
KR
South Korea
Prior art keywords
user
information
vehicle
unit
terminal
Prior art date
Application number
KR1020140120355A
Other languages
Korean (ko)
Inventor
김성현
이은실
김성우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140120355A priority Critical patent/KR101602265B1/en
Application granted granted Critical
Publication of KR101602265B1 publication Critical patent/KR101602265B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Abstract

The present invention is to provide a mobile terminal and a vehicle control device, wherein the mobile terminal determines the carelessness of a driver and transmit a dangerous driving state to another terminal, thereby enabling other person to alert the driver to the carelessness. An embodiment disclosed in the present specification provides the mobile terminal worn on a specific body portion of a user to be used, which comprises: a body configured to be wearable on the specific body portion; a bio-information acquiring unit acquiring bio-information on the user from the specific body portion; a control unit detecting a dangerous driving state of the user based on the bio-information; a communications unit transmitting the dangerous driving state to another terminal; and a user input unit receiving a mode selection input for selecting targets to which the dangerous driving state is to be transmitted, wherein the control unit transmits the dangerous driving state to another terminal corresponding to the mode selection input.

Description

이동 단말기 및 이의 제어 방법 {MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME}[0001] MOBILE TERMINAL AND METHOD FOR CONTROLLING THE SAME [0002]

본 명세서에 개시된 기술은, 이동 단말기 및 이의 제어 방법에 관한 것으로서, 좀 더 구체적으로는 차량 운전자의 부주의를 판단하고, 이를 타 단말기를 통해 출력하는 이동 단말기 및 이의 제어 방법에 관한 것이다.
TECHNICAL FIELD [0002] The present invention relates to a mobile terminal and a control method thereof, and more particularly, to a mobile terminal for judging a carelessness of a driver of a vehicle and outputting the carelessness through another terminal and a control method thereof.

단말기(terminal)는 이동 가능 여부에 따라 이동 단말기(mobile/portable terminal) 및 고정 단말기(stationary terminal)로 나뉠 수 있다. 다시, 이동 단말기는 사용자의 직접 휴대 가능 여부에 따라 휴대(형) 단말기(handheld terminal) 및 거치형 단말기(vehicle mount terminal)로 나뉠 수 있다.A terminal can be divided into a mobile / portable terminal and a stationary terminal depending on whether the terminal is movable. Again, the mobile terminal may be divided into a handheld terminal and a vehicle mount terminal according to whether the user can carry the mobile phone directly.

이와 같은 단말기는 기능이 다양화됨에 따라, 예를 들어, 사진이나 동영상의 촬영, 음악이나 동영상 파일의 재생, 게임, 방송의 수신 등의 복합적인 기능들을 갖춘 멀티미디어 기기(Multimedia player) 형태로 구현되고 있다. 나아가 단말기의 기능 지지 및 증대를 위해, 단말기의 구조적인 부분 및 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다.As the functions of the terminal are diversified, the terminal is implemented in the form of a multimedia device having a combination of functions such as photographing and photographing of a moving picture, reproduction of a music or video file, reception of a game and broadcasting, have. Further, in order to support and enhance the function of the terminal, it may be considered to improve the structural and software parts of the terminal.

또한, 최근 사용자 편의성을 고려하여 다양한 형태의 이동 단말기가 개발되고 있다. 이 중 웨어러블 디바이스(Wearable device)는 사용자가 신체 또는 의류에 착용할 수 있는 각종 전자기기를 모두 포함한다. 이러한 웨어러블 디바이스는 예를 들어 스마트 워치(Smart Watch, 시계형 이동 단말기), 웨어러블 컴퓨터(Wearable Computer), 구글 글래스(google glass), 블루투스 헤드셋(Bluetooth Headset), 스마트 웨어(Smart wear) 등일 수 있다. Recently, various types of mobile terminals have been developed in consideration of user convenience. Among these, a wearable device includes all kinds of electronic devices that a user can wear on the body or clothes. Such a wearable device may be, for example, a smart watch, a wearable computer, a google glass, a Bluetooth headset, a smart wear, or the like.

이와 같은 웨어러블 디바이스는 그 다양한 기능에 따라 복합적인 기능을 갖춘 멀티미디어 기기 형태로 구현되고 있다. 예를 들어 스마트 워치의 경우 시계로서 제공되는 기본 기능 외에도, 구비된 카메라를 통해 정지 화상을 촬영하거나, 동영상을 녹화하는 기능 또는 본체에 형성된 디스플레이부를 통해 멀티미디어 컨텐츠를 재생할 수도 있다. 또는 다양한 이메일 플러그인등을 이용하여 무선 인터넷을 통한 메시지를 확인하거나 소셜 네트워크(Social Network)에 접속하도록 할 수도 있다. Such a wearable device is implemented in the form of a multimedia device having a complex function according to various functions. For example, in addition to the basic functions provided as a clock in the case of a smart watch, the multimedia contents may be reproduced through a function of photographing a still image through a provided camera, recording a moving picture, or a display unit formed in the main body. Or various e-mail plug-ins or the like to check messages via the wireless Internet or access the social network.

이러한 이동 단말기 또는 웨어러블 디바이스(이하, 본 명세서에서는 "이동 단말기"로 통칭하기로 하나, 본 명세서에서 개시된 기술이 적용되는 장치를 한정하고자 하는 의도는 아니다)의 다양한 기능을 활용하여 사용자에게 더욱 편의를 제공할 수 있도록 하기 위한 연구가 활발하게 진행되고 있는 실정이다.By utilizing the various functions of such mobile terminal or wearable device (hereinafter referred to as "mobile terminal" in the present specification, but not intended to limit the devices to which the technology disclosed herein applies) Researches are being actively carried out in order to enable the researchers to provide such information.

이와 관련하여, 최근에는 상기 이동 단말기를 착용한 운전자가 차량에 탑승한 경우에, 상기 이동 단말기가 획득한 차량 운전자의 각종 생체 정보를 이용하여, 차량 운전자의 부주의(졸음(drowsiness), 시선 분산(distraction), 스트레스(stress) 등)를 판단하는 기술에 대한 필요성이 대두되고 있다.
In this regard, in recent years, when a driver wearing the mobile terminal has boarded the vehicle, he or she uses the various kinds of biometric information of the driver of the vehicle acquired by the mobile terminal to perform a carelessness (drowsiness, distraction, stress, and the like) of the human body.

본 명세서에서 개시된 기술적 과제는, 이동 단말기가 운전자의 부주의를 판단하고, 타 단말기에 위험 운전 상태를 전송함으로써, 타인으로 하여금 운전자가 부주의에 대한 경각심을 갖도록 하는 이동 단말기 및 차량 제어 장치에 관한 발명을 제공하는 데 있다.
The technical problem disclosed in this specification relates to a mobile terminal and a vehicle control apparatus which allow a driver to be aware of carelessness by allowing a mobile terminal to judge a carelessness of a driver and transmit a dangerous driving state to another terminal .

본 명세서에 개시된 일 실시예는, 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기에 있어서, 상기 특정 신체 부위에 착용 가능하도록 형성된 본체, 상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부, 상기 생체 정보를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하는 제어부, 상기 위험 운전 상태를 타 단말기에 전송하는 통신부 및 상기 위험 운전 상태를 전송하려는 대상을 선택하도록 모드 선택 입력을 받는 사용자 입력부를 포함하되, 상기 제어부는, 상기 모드 선택 입력에 대응되는 타 단말기에 상기 위험 운전 상태를 전송하는 것을 특징으로 하는 이동 단말기를 제공한다.One embodiment disclosed herein is a mobile terminal used by being worn on a specific body part of a user, comprising: a body formed to be worn on the specific body part; a body part for acquiring biometric information on the user from the specific body part; A control unit for detecting a dangerous driving state for the user based on the biometric information, a communication unit for transmitting the dangerous driving state to another terminal, and a control unit for receiving a mode selection input to select an object to which the dangerous driving state is to be transmitted Wherein the control unit transmits the dangerous driving state to another terminal corresponding to the mode selection input.

또한, 일 실시예에 따라, 상기 타 단말기는, 상기 이동 단말기, 차량 제어 장치 및 차량에 구비된 차량 출력부 중 적어도 하나를 포함할 수 있다.Also, according to an embodiment, the other terminal may include at least one of the mobile terminal, the vehicle control device, and a vehicle output unit provided in the vehicle.

또한, 일 실시예에 따라, 상기 위험 운전 상태는, 졸음 운전 상태 및 스트레스 상태 중 적어도 하나일 수 있다.In addition, according to an embodiment, the dangerous driving state may be at least one of a drowsy driving state and a stressed state.

또한, 일 실시예에 따라, 상기 통신부는, 차량에 구비된 영상획득장치로부터 상기 사용자에 대한 영상 정보를 수신하고, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태를 검출할 수 있다.According to an embodiment, the communication unit may receive image information about the user from an image acquisition device provided in the vehicle, and the control unit may perform the dangerous driving based on at least one of the image information and the biometric information State can be detected.

또한, 일 실시예에 따라, 상기 제어부는, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정할 수 있다.According to an embodiment, the controller may determine whether the dangerous driving state is a drowsy driving state, a line-of-sight dispersion driving state, or a stressed state based on at least one of the image information and the biometric information.

또한, 일 실시예에 따라, 상기 제어부는, 상기 위험 운전 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성할 수 있다.Also, according to one embodiment, the controller may generate risk level information indicating a risk level of the dangerous driving state.

또한, 일 실시예에 따라, 상기 사용자 입력부가, 자동 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 차량 내 탑승자에 대응하는 타 단말기에 상기 위험 운전 상태에 대한 정보를 전송하고, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 출력부를 통해 상기 위험 운전 상태를 외부로 출력하되, 상기 탑승자에 대응하는 타 단말기는, 상기 차량에 구비된 영상획득장치에 의해 획득된 상기 차량 내 탑승자에 대한 영상 정보를 근거로 하여 인식된 탑승자에 대응하는 단말기일 수 있다.According to an embodiment, when the user input unit receives the automatic mode input, the control unit transmits information on the dangerous driving state to another terminal corresponding to the in-vehicle occupant when the dangerous driving state is detected , The other terminal having received the information on the dangerous driving state outputs the dangerous driving state through the output unit to the outside, and the other terminal corresponding to the occupant, And may be a terminal corresponding to the recognized occupant based on the image information of the occupant in the vehicle.

또한, 일 실시예에 따라, 상기 사용자 입력부가 자동 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 상기 통신부를 통해 인식된 타 단말기에 상기 위험 운전 상태에 대한 정보를 전송하고, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 출력부를 통해 상기 위험 운전 상태를 외부로 출력할 수 있다.According to an embodiment of the present invention, when the user input unit receives the automatic mode input, the control unit transmits information on the dangerous driving state to another terminal recognized through the communication unit when the dangerous driving state is detected, Upon receiving the information on the dangerous driving state, the other terminal can output the dangerous driving state to the outside through the output unit.

또한, 일 실시예에 따라, 상기 위험 운전 상태에 대한 정보를 수신하는 타 단말기는, 상기 타 단말기 중 상기 사용자 입력부를 통해 선택된 적어도 하나의 타 단말기일 수 있다.Also, according to an exemplary embodiment, the other terminal receiving the information on the dangerous driving state may be at least one other terminal selected through the user input unit of the other terminal.

또한, 일 실시예에 따라, 상기 제어부는, 상기 타 단말기와의 거리가 소정 거리 범위 내인 타 단말기에 상기 위험 운전 상태에 대한 정보를 전송할 수 있다.According to an embodiment, the control unit may transmit information on the dangerous driving state to another terminal within a predetermined distance from the other terminal.

또한, 일 실시예에 따라, 상기 사용자 입력부가 자동 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 복수의 디스플레이부를 가진 차량 제어 장치에 상기 위험 운전 상태에 대한 정보를 전송하고, 상기 차량 제어 장치는, 상기 위험 운전 상태를 상기 탑승자의 탑승 위치에 대응하는 디스플레이부를 통해 출력하되, 상기 탑승 위치는, 상기 차량 제어 장치가 영상획득장치에 의해 획득한 차량 내 탑승자에 대한 영상 정보를 근거로 인식한 탑승자의 위치를 근거로 판단될 수 있다.According to an embodiment of the present invention, when the user input unit receives the automatic mode input, the control unit transmits information on the dangerous driving state to the vehicle control device having a plurality of display units when the dangerous driving state is detected, Wherein the vehicle control apparatus outputs the dangerous driving state via the display unit corresponding to the boarding position of the occupant, wherein the boarding position is a position in which the vehicle control apparatus displays image information on the occupant in the vehicle It can be judged based on the position of the occupant recognized as a basis.

또한, 일 실시예에 따라, 상기 사용자 입력부가 개인 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 상기 이동 단말기에 포함된 출력부를 통해 상기 위험 운전 상태를 외부로 출력할 수 있다.According to an exemplary embodiment, when the user input unit receives the personal mode input, the control unit may output the dangerous driving state to the outside through the output unit included in the mobile terminal when the dangerous driving state is detected .

또한, 일 실시예에 따라, 상기 사용자 입력부가 공개 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 통신 연결이 가능한 타 단말기에 상기 위험 운전 상태에 대한 정보를 전송하고, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 출력부를 통해 상기 위험 운전 상태를 외부로 출력할 수 있다.According to an embodiment of the present invention, when the user input unit receives the open mode input, the control unit transmits information on the dangerous driving state to another terminal capable of establishing a communication connection when the dangerous driving state is detected, The other terminal having received the information on the driving state can output the dangerous driving state to the outside through the output unit.

또한, 일 실시예에 따라, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 상기 통신 연결이 가능한 타 단말기 중 상기 사용자 입력부를 통해 선택된 적어도 하나의 타 단말기일 수 있다.Also, according to an exemplary embodiment, the other terminal receiving the information on the dangerous driving state may be at least one other terminal selected through the user input unit among other terminals capable of establishing communication.

또한, 일 실시예에 따라, 상기 사용자 입력부가 커스텀 모드 입력을 받은 경우, 상기 제어부는, 상기 위험 운전 상태를 검출시 기 설정된 타 단말기에 상기 위험 운전 상태에 대한 정보를 전송하고, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 출력부를 통해 상기 위험 운전 상태를 외부로 출력할 수 있다.According to an embodiment, when the user input unit receives the custom mode input, the control unit transmits information on the dangerous driving state to the other established terminal upon detecting the dangerous driving state, The other terminal receiving the information on the dangerous operation state can output the dangerous driving state to the outside via the output unit.

또한, 일 실시예에 따라, 상기 위험 운전 상태에 대한 정보를 수신한 타 단말기는, 상기 기 설정된 타 단말기 중 상기 사용자 입력부를 통해 선택된 적어도 하나의 단말기일 수 있다.Also, according to an exemplary embodiment, the other terminal having received the information on the dangerous driving state may be at least one terminal selected through the user input unit of the other established terminals.

또한, 일 실시예에 따라, 상기 사용자 입력부가 상기 타 단말기에 대한 선택 입력을 받을 경우, 상기 이동 단말기에 포함된 출력부는 탑승 좌석에 대한 그래픽 오브젝트 이외에 탑승자의 탑승 여부 및 상기 탑승자의 단말기 착용 여부 중 적어도 하나를 함께 출력할 수 있다.According to an embodiment, when the user input unit receives a selection input for the other terminal, the output unit included in the mobile terminal determines whether or not the occupant of the passenger is wearing the terminal, At least one can be output together.

또한, 일 실시예에 따라, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.According to one embodiment, the output unit of the other terminal outputs an output according to at least one of the type of the dangerous driving state, the level of the danger level, whether the other terminal is located in the vehicle, Can be different.

또한, 일 실시예에 따라, 상기 타 단말기가 상기 이동 단말기인 경우, 상기 이동 단말기의 출력부는, 상기 위험 운전 상태의 종류 또는 위험 레벨 정도에 따라 본체의 진동 주파수, 진폭, 주기, 음성 또는 소리의 종류, 내용, 주파수, 진폭, 주기 중 적어도 하나를 변경하여 출력하고, 상기 타 단말기가 차량에 구비된 차량 출력부 또는 차량 제어 장치인 경우, 상기 차량 출력부 또는 차량 제어 장치는, 차량 비상등의 출력 주기, 차량 내외부에 배치된 복수의 LED 중 점등되는 LED, LED의 출력 색상, LED의 출력 주기, 차량 진동 시트의 진동 주파수, 상기 차량 진동 시트의 진동 진폭, 상기 차량 진동 시트의 진동 주기, 차량의 진동 가능한 조향 장치의 진동 주파수, 상기 조향 장치의 진동 진폭 및 상기 조향 장치의 진동 주기 중 적어도 하나를 변경하여 출력할 수 있다.According to an embodiment, when the other terminal is the mobile terminal, the output unit of the mobile terminal may be configured to detect a vibration frequency, an amplitude, a period, a voice or a sound of the main body Wherein the vehicle output unit or the vehicle control device outputs at least one of a type, a content, a frequency, an amplitude, and a cycle of the vehicle emergency output when the other terminal is a vehicle output unit or a vehicle control unit provided in the vehicle, An output LED of the LED, an output period of the LED, a vibration frequency of the vehicle vibration sheet, a vibration amplitude of the vehicle vibration sheet, a vibration period of the vehicle vibration sheet, Wherein at least one of a vibration frequency of the steerable vibration device, a vibration amplitude of the steering device, and a vibration cycle of the steering device is changed and output The.

또한, 본 명세서에 개시된 일 실시예는, 사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기의 제어 방법에 있어서, 상기 사용자에 대한 위험 운전 상태를 전송하려는 대상을 선택하도록 모드 선택 입력을 받는 단계, 상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 단계, 상기 생체 정보를 근거로 상기 위험 운전 상태를 검출하는 단계 및 상기 모드 선택 입력에 대응되는 타 단말기에 상기 위험 운전 상태에 대한 정보를 타 단말기에 전송하는 단계를 포함하는 이동 단말기의 제어 방법을 제공한다.
According to another aspect of the present invention, there is provided a method of controlling a mobile terminal used in a specific body part of a user, the method comprising: receiving a mode selection input to select an object to which a dangerous driving state for the user is to be transmitted; Detecting the dangerous driving state based on the biometric information, and receiving information on the dangerous driving state from the other terminal corresponding to the mode selection input And transmitting the data to the mobile station.

본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 운전자의 부주의 종류 및 부주의 정도를 정확하게 판단할 수 있다.According to the mobile terminal or the control method thereof according to the embodiment disclosed herein, it is possible to accurately determine the type of carelessness and the degree of carelessness of the driver.

또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 사용자의 졸음 레벨을 예측하고, 미리 사용자에게 각종 수단을 통해 경각심을 불러 일으키도록 함으로써, 졸음에 의해 발생할 수 있는 사고를 미연에 방지할 수 있다.In addition, according to the mobile terminal or the control method thereof according to the embodiment disclosed herein, it is possible to predict a sleepiness level of a user and to alert the user in advance through various means, thereby preventing an accident caused by drowsiness It can be prevented in advance.

또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 운전자의 부주의에 대한 판단시, 영상 정보 및 생체 정보 중 적어도 하나를 근거로 판단하기 때문에, 상기 영상 정보를 획득하는 영상획득장치와 상기 생체 정보를 획득하는 생체 정보 획득부 중 어느 하나에 이상이 발생하더라도 운전자의 부주의를 판단할 수 있다.In addition, according to the mobile terminal or the control method thereof according to the embodiment disclosed herein, it is determined based on at least one of the image information and the biometric information when the driver's carelessness is determined, The carelessness of the driver can be judged even if an abnormality occurs in any one of the acquiring device and the biometric information acquiring unit for acquiring the biometric information.

또한, 본 명세서에 개시된 일 실시예에 따른 이동 단말기 또는 그 제어 방법에 따르면, 위험 운전 상태를 타 단말기에 전송함으로써, 타인으로 하여금 운전자가 부주의에 대한 경각심을 갖도록 하여, 효과적으로 운전자가 상기 위험 운전 상태로부터 빠져나올 수 있도록 할 수 있다.
In addition, according to the mobile terminal or its control method according to the embodiment disclosed in this specification, by transmitting the dangerous driving state to the other terminal, it is possible for the driver to have the driver's awareness of carelessness, So as to be able to escape from.

도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기를 나타내는 블록도이다.
도 2a는 본 명세서에 따른 이동 단말기가 동작 가능한 통신 시스템의 개념도이다.
도 2b는 본 명세서에 따른 이동 단말기의 위치 측위 방법을 설명하기 위한 참고도이다.
도 3a는 본 발명서에 개시된 일 실시 예에 따른 스마트 워치의 전면을 도시한 도면이다.
도 3b는 본 발명서에 개시된 일 실시 예에 따른 스마트 워치의 후면을 도시한 도면이다.
도 4a는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다.
도 4b는 도 4a의 안경형 단말기를 다른 방향에서 바라본 도면이다.
도 5a는 본 명세서에 개시된 이동 단말기의 일 예를 전면에서 바라본 사시도이다.
도 5b는 본 명세서에 개시된 이동 단말기의 일 예를 후면에서 바라본 사시도이다.
도 6a는 본 명세서에 개시된 차량 제어 장치를 설명하기 위한 블록도이다.
도 6b는 본 발명에 개시된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.
도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.
도 8a는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8b는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.
도 8c는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.
도 9a는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 예시도이다.
도 9b는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 또 다른 예시도이다.
도 10은 본 명세서에 개시된 일 실시예에 따라 사용자에 대한 졸음 추이 예측선을 나타낸 도면이다.
도 11a는 본 명세서에 개시된 일 실시예에 따라 사용자의 시선 분산 상태에 대한 예시도이다.
도 11b는 본 명세서에 개시된 일 실시예에 따라 사용자의 시선 분산 상태에 대한 또 다른 예시도이다.
도 12는 본 명세서에 개시된 일 실시예에 따른 위험 레벨 정보에 대한 다양한 출력 방식을 나타내는 예시도이다.
도 13은 본 명세서에 개시된 일 실시예에 따른 졸음 운전 상태 또는 졸음 레벨을 결정하기 위한 과정을 나타내는 블록도이다.
도 14는 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 모드 선택 입력받기 위한 화면의 일 예시도이다.
도 15a 내지 15d는 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 모드별로 그에 대응하는 단말기에 위험 운전 상태 정보를 전송하는 예시도를 나타낸 도면이다.
도 16은 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 위험 운전 상태 정보를 전송하려는 타 단말기를 선택하는 입력을 받기 위해 출력되는 화면의 일 예시도이다.
도 17는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.
도 18은 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 제어 방법에 대한 단계별 흐름도를 나타낸 도면이다.
1 is a block diagram illustrating a mobile terminal according to one embodiment disclosed herein.
2A is a conceptual diagram of a communication system in which a mobile terminal according to the present invention is operable.
2B is a reference diagram for explaining a method of positioning a mobile terminal according to the present invention.
3A shows a front view of a smart watch according to an embodiment disclosed in the present invention.
3B is a rear view of a smart watch according to an embodiment disclosed in the present invention.
4A is a conceptual diagram illustrating an embodiment of a wearable eyewear terminal according to an embodiment disclosed herein.
FIG. 4B is a view of the spectacles-shaped terminal of FIG.
5A is a perspective view showing an example of the mobile terminal disclosed in the present specification from the front.
5B is a rear perspective view of an example of the mobile terminal disclosed in this specification.
6A is a block diagram for explaining a vehicle control apparatus disclosed in this specification.
6B is an exemplary view showing an example of external devices connected to the vehicle control apparatus disclosed in the present invention.
7 is an exemplary view for explaining a display unit of the vehicle control device according to the embodiment disclosed herein.
8A is a block diagram showing the configuration of a vehicle control apparatus according to another embodiment disclosed herein.
8B is a block diagram showing the configuration of a vehicle control apparatus according to another embodiment disclosed herein.
FIG. 8C is an exemplary view illustrating a screen related to the navigation function according to the embodiment disclosed herein.
FIG. 9A is an exemplary view showing an image acquisition apparatus according to an embodiment disclosed in this specification installed in a vehicle. FIG.
FIG. 9B is another example of the image acquisition apparatus according to the embodiment disclosed herein installed in a vehicle. FIG.
10 is a diagram illustrating a drowsiness prediction line for a user according to an embodiment disclosed herein.
11A is an exemplary view of a user's gaze dispersion state according to an embodiment disclosed herein.
FIG. 11B is another exemplary diagram of a user's gaze dispersion state according to an embodiment disclosed herein.
12 is an exemplary diagram illustrating various output methods for the danger level information according to an embodiment disclosed herein.
13 is a block diagram illustrating a process for determining a drowsy driving state or a drowsiness level according to an embodiment disclosed herein.
FIG. 14 is an exemplary view of a screen for receiving a mode selection input by a mobile terminal according to an embodiment disclosed herein.
FIGS. 15A to 15D are diagrams illustrating an example in which a mobile terminal according to an embodiment disclosed herein transmits dangerous operation status information to a terminal corresponding to each mode.
16 is a diagram illustrating an example of a screen displayed in order to receive an input for selecting another terminal to transmit dangerous operation status information according to an embodiment of the present invention.
17 is a schematic configuration diagram of an electric vehicle having a battery charging device according to an embodiment disclosed herein.
18 is a flowchart illustrating steps of a method of controlling a mobile terminal according to an embodiment disclosed herein.

본 명세서에서 설명되는 이동 단말기에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다. 그러나, 본 명세서에 기재된 실시 예에 따른 구성은 이동 단말기에만 적용 가능한 경우를 제외하면, 디지털 TV, 데스크탑 컴퓨터 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 당업자라면 쉽게 알 수 있을 것이다.The mobile terminal described in this specification includes a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a navigation device, a slate PC , A tablet PC (tablet PC), an ultrabook, a wearable device, and the like. However, it will be understood by those skilled in the art that the configuration according to the embodiments described herein may be applied to a fixed terminal such as a digital TV, a desktop computer, and the like, unless the configuration is applicable only to a mobile terminal.

본 명세서에서 설명되는 차량 제어 장치는, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, AVN(Audio Video Navigation) 단말기, 텔레비전(Television), 3D 텔레비전, A/V(Audio/Video) 시스템, 정보 제공 센터, 콜 센터(call center) 등과 같은 다양한 기기 또는 장치에 적용될 수 있다.The vehicle control apparatus described in the present specification may be applied to a telematics terminal, a navigation terminal, an AVN (Audio Video Navigation) terminal, a television, a 3D television, an A / V (Audio / A center, a call center, and the like.

또한, 본 명세서에서 설명되는 차량 제어 장치는, 상기 차량에 유선 또는 무선으로 연결되는 이동 단말기의 형태로도 이루어질 수 있다. 이 경우, 상기 차량 제어 장치에는, 전술된 이동 단말기와 마찬가지로 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable device) 등이 포함될 수 있다.In addition, the vehicle control apparatus described in this specification may also be in the form of a mobile terminal connected to the vehicle by wire or wirelessly. In this case, the vehicle control device may be a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) A slate PC, a tablet PC, an ultrabook, a wearable device, and the like.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 명세서에 개시된 기술의 사상을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 명세서에 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 명세서에 개시된 기술의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 명세서에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. . Also, the technical terms used herein should be interpreted as being generally understood by those skilled in the art to which the presently disclosed subject matter belongs, unless the context clearly dictates otherwise in this specification, Should not be construed in a broader sense, or interpreted in an oversimplified sense. In addition, when a technical term used in this specification is an erroneous technical term that does not accurately express the concept of the technology disclosed in this specification, it should be understood that technical terms which can be understood by a person skilled in the art are replaced. Also, the general terms used in the present specification should be interpreted in accordance with the predefined or prior context, and should not be construed as being excessively reduced in meaning.

또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. Also, the singular forms "as used herein include plural referents unless the context clearly dictates otherwise. In this specification, the terms "comprising ", or" comprising ", etc. should not be construed as necessarily including the various elements or steps described in the specification, Or may be further comprised of additional components or steps. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.

또한, 본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Furthermore, terms including ordinals such as first, second, etc. used in this specification can be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals are used to designate identical or similar elements, and redundant description thereof will be omitted.

또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
Further, in the description of the technology disclosed in this specification, a detailed description of related arts will be omitted if it is determined that the gist of the technology disclosed in this specification may be obscured. In addition, it should be noted that the attached drawings are only for easy understanding of the concept of the technology disclosed in the present specification, and should not be construed as limiting the idea of the technology by the attached drawings.

이동 단말기Mobile terminal

이하에서는 도 1 내지 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 이동 단말기의 구성 내지 형태에 대해 상술한다.Hereinafter, the configuration and the mode of a mobile terminal according to an embodiment disclosed herein will be described in detail with reference to FIGS. 1 to 5B.

도 1은 본 명세서에 개시된 일 실시 예에 따른 이동 단말기(100)를 나타내는 블록도이다.1 is a block diagram illustrating a mobile terminal 100 in accordance with one embodiment disclosed herein.

상기 이동 단말기(100)는 무선 통신부(110), A/V(Audio/Video) 입력부(120), 사용자 입력부(130), 감지부(140), 출력부(150), 메모리(160), 인터페이스부(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 이동 단말기가 구현될 수도 있다.The mobile terminal 100 includes a wireless communication unit 110, an audio / video input unit 120, a user input unit 130, a sensing unit 140, an output unit 150, a memory 160, A controller 170, a controller 180, a power supply 190, and the like. The components shown in FIG. 1 are not essential, and a mobile terminal having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

무선 통신부(110)는 이동 단말기(100)와 무선 통신 시스템 사이 또는 이동 단말기(100)와 이동 단말기(100)가 위치한 네트워크 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 무선 통신부(110)는 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114) 및 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include one or more modules for enabling wireless communication between the mobile terminal 100 and the wireless communication system or between the mobile terminal 100 and the network in which the mobile terminal 100 is located. For example, the wireless communication unit 110 may include at least one of a broadcast receiving module 111, a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115 .

방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. The broadcast receiving module 111 receives broadcast signals and / or broadcast-related information from an external broadcast management server through a broadcast channel.

상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast channel may include a satellite channel and a terrestrial channel. The broadcast management server may refer to a server for generating and transmitting broadcast signals and / or broadcast related information, or a server for receiving broadcast signals and / or broadcast related information generated by the broadcast management server and transmitting the generated broadcast signals and / or broadcast related information. The broadcast signal may include a TV broadcast signal, a radio broadcast signal, a data broadcast signal, and a broadcast signal in which a data broadcast signal is combined with a TV broadcast signal or a radio broadcast signal.

상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련한 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우에는 상기 이동통신 모듈(112)에 의해 수신될 수 있다. The broadcast-related information may refer to a broadcast channel, a broadcast program, or information related to a broadcast service provider. The broadcast-related information may also be provided through a mobile communication network. In this case, it may be received by the mobile communication module 112.

상기 방송 관련 정보는 다양한 형태로 존재할 수 있다. 예를 들어, DMB(Digital Multimedia Broadcasting)의 EPG(Electronic Program Guide) 또는 DVB-H(Digital Video Broadcast-Handheld)의 ESG(Electronic Service Guide) 등의 형태로 존재할 수 있다.The broadcast-related information may exist in various forms. For example, an EPG (Electronic Program Guide) of DMB (Digital Multimedia Broadcasting) or an ESG (Electronic Service Guide) of Digital Video Broadcast-Handheld (DVB-H).

상기 방송 수신 모듈(111)은, 예를 들어, DMB-T(Digital Multimedia Broadcasting-Terrestrial), DMB-S(Digital Multimedia Broadcasting-Satellite), MediaFLO(Media Forward Link Only), DVB-H(Digital Video Broadcast-Handheld), ISDB-T(Integrated Services Digital Broadcast-Terrestrial) 등의 디지털 방송 시스템을 이용하여 디지털 방송 신호를 수신할 수 있다. 물론, 상기 방송 수신 모듈(111)은, 상술한 디지털 방송 시스템뿐만 아니라 다른 방송 시스템에 적합하도록 구성될 수도 있다.For example, the broadcast receiving module 111 may be a Digital Multimedia Broadcasting-Terrestrial (DMB-T), a Digital Multimedia Broadcasting-Satellite (DMB-S), a Media Forward Link Only (DVF-H) And a Digital Broadcasting System (ISDB-T) (Integrated Services Digital Broadcast-Terrestrial). Of course, the broadcast receiving module 111 may be adapted to other broadcasting systems as well as the digital broadcasting system described above.

방송 수신 모듈(111)을 통해 수신된 방송 신호 및/또는 방송 관련 정보는 메모리(160)에 저장될 수 있다.The broadcast signal and / or broadcast related information received through the broadcast receiving module 111 may be stored in the memory 160.

이동통신 모듈(112)은, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication module 112 transmits and receives radio signals to at least one of a base station, an external terminal, and a server on a mobile communication network. The wireless signal may include various types of data depending on a voice call signal, a video call signal or a text / multimedia message transmission / reception.

상기 이동통신 모듈(112)은 화상통화모드 및 음성통화모드를 구현하도록 이루어진다. 화상통화모드는 상대방의 영상을 보면서 통화하는 상태를 지칭하고, 음성통화모드는 상대방의 영상을 보지 않으면서 통화를 하는 상태를 지칭한다. 화상통화모드 및 음성통화모드를 구현하기 위하여 이동통신 모듈(112)은 음성 및 영상 중 적어도 하나를 송수신하도록 형성된다.The mobile communication module 112 is configured to implement a video communication mode and a voice communication mode. The video call mode refers to a state of talking while viewing a video of the other party, and the voice call mode refers to a state in which a call is made without viewing the other party's video. In order to implement the video communication mode and the voice communication mode, the mobile communication module 112 is configured to transmit and receive at least one of voice and image.

무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN), WiFi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. The wireless Internet module 113 is a module for wireless Internet access, and may be built in or externally attached to the mobile terminal 100. Examples of the wireless Internet technology include a wireless LAN (WLAN), a wireless fidelity (WiFi) direct, a DLNA (Digital Living Network Alliance), a Wibro (Wireless broadband), a Wimax (World Interoperability for Microwave Access), HSDPA Can be used.

근거리 통신 모듈(114)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication) 등이 이용될 수 있다.The short-range communication module 114 refers to a module for short-range communication. Bluetooth ™, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, NFC (Near Field Communication), etc. are used as short range communication technology .

위치정보 모듈(115)은 이동 단말기의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Position System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다.The position information module 115 is a module for obtaining the position of the mobile terminal, and representative examples thereof include a Global Position System (GPS) module or a Wireless Fidelity (WiFi) module.

도 1을 참조하면, A/V(Audio/Video) 입력부(120)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, 여기에는 카메라(121)와 마이크(122) 등이 포함될 수 있다. 카메라는(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.Referring to FIG. 1, an A / V (Audio / Video) input unit 120 is for inputting an audio signal or a video signal, and may include a camera 121 and a microphone 122. The camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

카메라(121)에서 처리된 화상 프레임은 메모리(160)에 저장되거나 무선 통신부(110)를 통하여 외부 기기로 전송될 수 있다. 또한, 카메라(121)에서 획득되는 화상 프레임으로부터 사용자의 위치 정보 등이 산출될 수 있다. 카메라(121)는 사용 환경에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 121 may be stored in the memory 160 or transmitted to an external device through the wireless communication unit 110. [ Further, the position information of the user and the like can be calculated from the image frame obtained by the camera 121. [ Two or more cameras 121 may be provided depending on the use environment.

마이크(122)는 통화 모드 또는 녹음 모드, 음성인식 모드 등에서 마이크로폰(Microphone)에 의해 외부의 음향 신호를 입력받아 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 통화 모드인 경우 이동통신 모듈(112)을 통하여 이동통신 기지국으로 송신 가능한 형태로 변환되어 출력될 수 있다. 마이크(122)에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 122 receives an external sound signal through a microphone in a communication mode, a recording mode, a voice recognition mode, or the like, and processes it as electrical voice data. The processed voice data can be converted into a form that can be transmitted to the mobile communication base station through the mobile communication module 112 when the voice data is in the call mode, and output. Various noise reduction algorithms may be implemented in the microphone 122 to remove noise generated in receiving an external sound signal.

사용자 입력부(130)는 사용자로부터 인가되는 이동 단말기(100)의 동작을 제어하기 위한 제어명령에 따른 입력 데이터를 발생시킨다. 사용자 입력부(130)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다.The user input unit 130 generates input data according to a control command for controlling the operation of the mobile terminal 100 applied by the user. The user input unit 130 may include a key pad, a dome switch, a touch pad (static / static), a jog wheel, a jog switch, and the like.

감지부(또는 센싱부, 140)는 이동 단말기(100)의 개폐 상태, 이동 단말기(100)의 위치, 사용자 접촉 유무, 이동 단말기의 방위, 이동 단말기의 가속/감속 등과 같이 이동 단말기(100)의 현 상태를 감지하여 이동 단말기(100)의 동작을 제어하기 위한 감지 신호 (또는 센싱 신호)를 발생시킨다. 예를 들어 감지부(140)는 이동 단말기(100)가 슬라이드 폰 형태인 경우 슬라이드 폰의 개폐 여부를 감지할 수 있다. 또한, 감지부(140)는 전원 공급부(190)의 전원 공급 여부, 인터페이스부(170)의 외부 기기 결합 여부 등을 감지할 수도 있다. The sensing unit 140 may sense the position of the mobile terminal 100 such as the open / close state of the mobile terminal 100, the position of the mobile terminal 100, the presence of the user, the orientation of the mobile terminal, And generates a sensing signal (or sensing signal) for sensing the current state and controlling the operation of the mobile terminal 100. For example, the sensing unit 140 may detect whether the slide phone is opened or closed when the mobile terminal 100 is in the form of a slide phone. The sensing unit 140 may sense whether the power supply unit 190 is powered on, whether the interface unit 170 is connected to an external device, and the like.

출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 이에는 디스플레이부(151), 음향 출력 모듈(153), 알람부(154) 및 햅틱 모듈(155) 등이 포함될 수 있다.The output unit 150 may include a display unit 151, an audio output module 153, an alarm unit 154, a haptic module 155, and the like in order to generate output related to visual, auditory, have.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 이동 단말기가 통화 모드인 경우 통화와 관련된 UI(User Interface) 또는 GUI(Graphic User Interface)를 표시한다. 이동 단말기(100)가 화상 통화 모드 또는 촬영 모드인 경우에 디스플레이부(151)는 촬영 또는/및 수신된 영상 또는 UI, GUI를 표시한다. The display unit 151 displays (outputs) information processed by the mobile terminal 100. For example, when the mobile terminal is in the call mode, a UI (User Interface) or a GUI (Graphic User Interface) associated with a call is displayed. When the mobile terminal 100 is in the video communication mode or the photographing mode, the display unit 151 displays the photographed and / or received video or UI and GUI.

디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display display, a 3D display, and an e-ink display.

이들 중 일부 디스플레이는 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이라 호칭될 수 있는데, 상기 투명 디스플레이의 대표적인 예로는 TOLED(Transparant OLED) 등이 있다. 디스플레이부(151)의 후방 구조 또한 광 투과형 구조로 구성될 수 있다. 이러한 구조에 의하여, 사용자는 단말기 바디의 디스플레이부(151)가 차지하는 영역을 통해 단말기 바디(body)의 후방에 위치한 사물을 볼 수 있다.Some of these displays may be transparent or light transmissive so that they can be seen through. This can be referred to as a transparent display, and a typical example of the transparent display is TOLED (Transparent OLED) and the like. The rear structure of the display unit 151 may also be of a light transmission type. With this structure, the user can see the object located behind the terminal body through the area occupied by the display unit 151 of the terminal body.

이동 단말기(100)의 구현 형태에 따라 디스플레이부(151)가 2개 이상 존재할 수 있다. 예를 들어, 이동 단말기(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.There may be two or more display units 151 according to the embodiment of the mobile terminal 100. For example, in the mobile terminal 100, a plurality of display portions may be spaced apart from one another or may be disposed integrally with each other, or may be disposed on different surfaces.

또한, 상기 디스플레이부(151)는 입체영상을 표시하는 입체 디스플레이부(152)로서 구성될 수 있다.Also, the display unit 151 may be configured as a stereoscopic display unit 152 for displaying a stereoscopic image.

여기서, 입체영상은 3차원 입체영상(3-dimensional stereoscopic image)을 나타내며, 3차원 입체 영상(3-dimensional stereoscopic image)은 모니터나 스크린 상에서 사물이 위치한 점진적 깊이(depth)와 실체(reality)를 현실 공간과 동일하게 느낄 수 있도록 한 영상이다. 3차원 입체 영상은 양안시차(binocular disparity)를 이용하여 구현된다. 양안시차란 떨어져 있는 두 눈의 위치에 의하여 이루어지는 시차를 의미하는 것으로, 두 눈이 서로 다른 2차원 화상을 보고 그 화상들이 망막을 통하여 뇌로 전달되어 융합되면 입체 영상의 깊이 및 실제감을 느낄 수 있게 된다.Here, a stereoscopic image represents a 3-dimensional stereoscopic image, and a 3-dimensional stereoscopic image represents a progressive depth and reality in which objects are located on a monitor or a screen, It is an image that makes you feel the same as the space. 3D stereoscopic images are implemented using binocular disparity. The binocular parallax means a parallax caused by the position of two eyes away from each other. When two eyes see two different images and the images are transmitted to the brain through the retina and fused, the depth and real feeling of the stereoscopic image can be felt .

상기 입체 디스플레이부(152)에는 스테레 스코픽 방식(안경 방식), 오토 스테레오스코픽 방식(무안경 방식), 프로젝션 방식(홀로그래픽 방식) 등의 3차원 디스플레이 방식이 적용될 수 있다. 가정용 텔레비전 수신기 등에 많이 이용되는 스테레오스코픽 방식에는 휘스톤 스테레오스코프 방식 등이 있다. The stereoscopic display unit 152 may be applied to a three-dimensional display system such as a stereoscopic system (eyeglass system), an autostereoscopic system (non-eyeglass system), and a projection system (holographic system). The stereoscopic method, which is widely used in home television receivers, includes a Wheatstone stereoscopic method.

상기 오토 스테레오스코픽 방식의 예로서, 패럴렉스 배리어(parallex barrier) 방식, 렌티큘러(lenticular) 방식, 집적영상(integral imaging) 방식, 스위츠블 렌즈(switchable lens) 등이 있다. 프로젝션 방식에는 반사형 홀로그래픽 방식, 투과형 홀로그래픽 방식 등이 있다.Examples of the autostereoscopic method include a parallax barrier method, a lenticular method, an integral imaging method, and a switchable lens method. The projection method includes a reflection type holographic method and a transmission type holographic method.

일반적으로 3차원 입체 영상은 좌 영상(좌안용 영상)과 우 영상(우안용 영상)으로 구성된다. 좌 영상과 우 영상이 3차원 입체 영상으로 합쳐지는 방식에 따라, 좌 영상과 우 영상을 한 프레임 내 상하로 배치하는 탑-다운(top-down) 방식, 좌 영상과 우 영상을 한 프레임 내 좌우로 배치하는 L-to-R(left-to-right, side by side) 방식, 좌 영상과 우 영상의 조각들을 타일 형태로 배치하는 체커 보드(checker board) 방식, 좌 영상과 우 영상을 열 단위 또는 행 단위로 번갈아 배치하는 인터레이스드(interlaced) 방식, 그리고 좌 영상과 우 영상을 시간 별로 번갈아 표시하는 시분할(time sequential, frame by frame) 방식 등으로 나뉜다.Generally, 3D stereoscopic images consist of left image (left eye image) and right image (right eye image). A top-down method of arranging a left image and a right image in one frame according to a method in which a left image and a right image are combined into a three-dimensional stereoscopic image, A checker board system in which pieces of a left image and a right image are arranged in a tile form, a left-to-right (right-side) Or an interlaced method in which rows are alternately arranged, and a time sequential (frame-by-frame) method in which right and left images are alternately displayed in time.

또한, 3차원 썸네일 영상은 원본 영상 프레임의 좌 영상 및 우 영상으로부터 각각 좌 영상 썸네일 및 우 영상 썸네일을 생성하고, 이를 합쳐서 하나의 3차원 썸네일 영상을 생성할 수 있다. 일반적으로 썸네일(thumbnail)은 축소된 화상 또는 축소된 정지영상을 의미한다. 이렇게 생성된 좌 영상 썸네일과 우 영상 썸네일은 좌 영상과 우 영상의 시차에 대응하는 깊이감(depth)만큼 화면상에서 좌우 거리차를 두고 표시됨으로써 입체적인 공간감을 나타낼 수 있다.In addition, the 3D thumbnail image can generate a left image thumbnail and a right image thumbnail from the left image and right image of the original image frame, respectively, and combine them to generate one 3D thumbnail image. In general, a thumbnail means a reduced image or a reduced still image. The left image thumbnail and the right image thumbnail generated in this way are displayed on the screen with a difference of the left and right distance by the depth corresponding to the parallax between the left image and the right image, thereby exhibiting a stereoscopic spatial feeling.

3차원 입체영상의 구현에 필요한 좌 영상과 우 영상은 입체 처리부(미도시)에 의하여 입체 디스플레이부(152)에 표시될 수 있다. 입체 처리부는 3D 영상을 입력받아 이로부터 좌 영상과 우 영상을 추출하거나, 2D 영상을 입력받아 이를 좌 영상과 우 영상으로 전환하도록 이루어진다.The left and right images necessary for realizing the three-dimensional stereoscopic image can be displayed on the stereoscopic display unit 152 by a stereoscopic processing unit (not shown). The stereoscopic processing unit receives a 3D image and extracts a left image and a right image from the 3D image, or receives a 2D image and converts it into a left image and a right image.

한편, 디스플레이부(151)와 터치 동작을 감지하는 센서(이하, '터치 센서'라 함)가 상호 레이어 구조를 이루는 경우(이하, '터치 스크린'이라 함)에, 디스플레이부(151)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 터치 센서는, 예를 들어, 터치 필름, 터치 시트, 터치 패드 등의 형태를 가질 수 있다.On the other hand, when a display unit 151 and a sensor (hereinafter, referred to as 'touch sensor') that detects a touch operation form a mutual layer structure (hereinafter referred to as a 'touch screen' It can also be used as an input device in addition to the device. The touch sensor may have the form of, for example, a touch film, a touch sheet, a touch pad, or the like.

터치 센서는 디스플레이부(151)의 특정 부위에 가해진 압력 또는 디스플레이부(151)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 대상체가 터치 센서 상에 터치 되는 위치 및 면적뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다.The touch sensor may be configured to convert a change in a pressure applied to a specific portion of the display unit 151 or a capacitance generated in a specific portion of the display unit 151 into an electrical input signal. The touch sensor can be configured to detect not only the position and area where the touch object is touched on the touch sensor but also the pressure at the time of touch. Here, the touch object may be a finger, a touch pen, a stylus pen, a pointer, or the like as an object to which a touch is applied to the touch sensor.

터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(180)로 전송한다. 이로써, 제어부(180)는 디스플레이부(151)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다.If there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the controller 180. Thus, the control unit 180 can know which area of the display unit 151 is touched or the like.

도 1을 참조하면, 상기 터치 스크린에 의해 감싸지는 이동 단말기의 내부 영역 또는 상기 터치 스크린의 근처에 근접 센서(141)가 배치될 수 있다. 근접 센서(141)는 상기 센싱부(140)의 일 예로서 구비될 수 있다. 상기 근접 센서(141)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서(141)는 접촉식 센서보다는 그 수명이 길며 그 활용도 또한 높다.Referring to FIG. 1, a proximity sensor 141 may be disposed in an inner region of the mobile terminal or in the vicinity of the touch screen, which is surrounded by the touch screen. The proximity sensor 141 may be provided as an example of the sensing unit 140. The proximity sensor 141 refers to a sensor that detects the presence of an object approaching a predetermined detection surface or an object existing in the vicinity of the detection surface without mechanical contact using an electromagnetic force or an infrared ray. The proximity sensor 141 has a longer life than the contact type sensor and its utilization is also high.

상기 근접 센서(141)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 상기 터치 스크린이 정전식인 경우에는 전도성을 갖는 물체(이하, 포인터라 함)의 근접에 따른 전계의 변화로 상기 포인터의 근접을 검출하도록 구성된다. 이 경우 상기 터치 스크린(터치 센서)은 근접 센서로 분류될 수도 있다.Examples of the proximity sensor 141 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. When the touch screen is electrostatic, it is configured to detect the proximity of the pointer by a change of the electric field along the proximity of an object having conductivity (hereinafter, referred to as a pointer). In this case, the touch screen (touch sensor) may be classified as a proximity sensor.

이하에서는 설명의 편의를 위해, 상기 터치 스크린상에 포인터가 접촉되지 않으면서 근접되어 상기 포인터가 상기 터치 스크린상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 칭하고, 상기 터치 스크린상에 포인터가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 칭한다. 상기 터치 스크린상에서 포인터로 근접 터치가 되는 위치라 함은, 상기 포인터가 근접 터치 될 때 상기 포인터가 상기 터치 스크린에 대해 수직으로 대응되는 위치를 의미한다.Hereinafter, for convenience of explanation, the act of recognizing that the pointer is positioned on the touch screen while the pointer is not in contact with the touch screen is referred to as "proximity touch & The act of actually touching the pointer on the screen is called "contact touch. &Quot; The position where the pointer is proximately touched on the touch screen means a position where the pointer is vertically corresponding to the touch screen when the pointer is touched.

상기 근접센서(141)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지한다. 상기 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 정보는 터치 스크린상에 출력될 수 있다. The proximity sensor 141 detects a proximity touch and a proximity touch pattern (for example, a proximity touch distance, a proximity touch direction, a proximity touch speed, a proximity touch time, a proximity touch position, a proximity touch movement state, and the like). Information corresponding to the detected proximity touch operation and the proximity touch pattern may be output on the touch screen.

입체 디스플레이부(152)와 터치 센서가 상호 레이어 구조를 이루는 경우(이하, '입체 터치스크린'이라 함)나, 입체 디스플레이부(152)와 터치 동작을 감지하는 3차원 센서가 서로 조합되는 경우에는 상기 입체 디스플레이부(152)는 3차원의 입력 장치로도 사용될 수 있다.In the case where the three-dimensional display unit 152 and the touch sensor have a mutual layer structure (hereinafter referred to as a 'three-dimensional touch screen') or a three-dimensional sensor that detects the touch operation and the stereoscopic display unit 152 are combined with each other The stereoscopic display unit 152 may also be used as a three-dimensional input device.

상기 3차원 센서의 예로서, 상기 센싱부(140)는 근접 센서(141), 입체 터치 센싱부(142), 초음파 센싱부(143), 카메라 센싱부(144), 생체 정보 획득부(145)를 포함할 수 있다.The sensing unit 140 may include a proximity sensor 141, a solid touch sensing unit 142, an ultrasonic sensing unit 143, a camera sensing unit 144, a biometric information acquiring unit 145, . ≪ / RTI >

근접센서(141)는 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 터치를 가하는 감지대상(예를 들어, 사용자의 손가락이나 스타일러스 펜)와 검출면과의 거리를 측정한다. 단말기는 이러한 거리를 이용하여 입체영상의 어느 부분이 터치되었는지를 인식하게 된다. 특히, 터치스크린이 정전식인 경우에는 상기 감지대상의 근접에 따른 전계의 변화로 상기 감지대상의 근접 정도를 검출하고, 이러한 근접 정도를 이용하여 3차원 상의 터치를 인식하도록 구성된다. The proximity sensor 141 measures the distance between the sensing surface (for example, a user's finger or a stylus pen) to which the touch is applied without mechanical contact using the force of the electromagnetic field or infrared rays. The terminal recognizes which part of the stereoscopic image has been touched using the distance. In particular, when the touch screen is of the electrostatic type, the proximity of the sensing object is detected by a change of the electric field according to the proximity of the sensing object, and the touch on the three-dimensional is recognized using the proximity.

입체 터치 센싱부(142)는 터치 스크린상에 가해지는 터치의 세기나 지속시간을 감지하도록 이루어진다. 예를 들어, 입체 터치 센싱부(142)는 터치를 가하는 압력을 감지하고, 가압력이 강하면 이를 단말기의 내부를 향하여 터치 스크린과 보다 멀리 위치한 객체에 대한 터치로 인식한다.The stereoscopic touch sensing unit 142 senses the strength or duration of a touch applied to the touch screen. For example, the three-dimensional touch sensing unit 142 senses a pressure to apply a touch, and when the pressing force is strong, recognizes the touch as a touch to an object located further away from the touch screen toward the inside of the terminal.

초음파 센싱부(143)는 초음파를 이용하여, 감지대상의 위치정보를 인식하도록 이루어진다.The ultrasonic sensing unit 143 is configured to recognize the position information of the sensing target using ultrasonic waves.

초음파 센싱부(143)는, 예를 들어 광 센서와 복수의 초음파 센서로 이루어질 수 있다. 광 센서는 광을 감지하도록 형성되며, 초음파 센서는 초음파를 감지하도록 형성된다. 광이 초음파보다 매우 빠르기 때문에, 광이 광 센서에 도달하는 시간은 초음파가 초음파 센서에 도달하는 시간보다 매우 빠르다. 따라서, 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치를 산출할 수 있게 된다.The ultrasound sensing unit 143 may include, for example, an optical sensor and a plurality of ultrasound sensors. The light sensor is configured to sense light, and the ultrasonic sensor is configured to sense ultrasonic waves. Since light is much faster than ultrasonic waves, the time it takes for light to reach the optical sensor is much faster than the time it takes for the ultrasonic waves to reach the ultrasonic sensor. Therefore, it is possible to calculate the position of the wave generating source using the time difference with the time when the ultrasonic wave reaches the reference signal.

카메라 센싱부(144)는 카메라(121), 포토 센서, 레이저 센서 중 적어도 하나를 포함한다.The camera sensing unit 144 includes at least one of a camera 121, a photo sensor, and a laser sensor.

예를 들어, 카메라(121)와 레이저 센서는 서로 조합되어, 3차원 입체영상에 대한 감지대상의 터치를 감지한다. 카메라에 의하여 촬영된 2차원 영상에 레이저 센서에 의하여 감지된 거리정보가 더해지면, 3차원 정보가 획득될 수 있다.For example, the camera 121 and the laser sensor are combined with each other to sense a touch of a sensing target with respect to a three-dimensional stereoscopic image. When the distance information detected by the laser sensor is added to the two-dimensional image photographed by the camera, three-dimensional information can be obtained.

또 다른 예로서, 포토 센서가 디스플레이 소자에 적층될 수 있다. 포토 센서는 터치 스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보를 획득하게 된다.As another example, a photosensor may be stacked on a display element. The photosensor is configured to scan the movement of the object proximate to the touch screen. More specifically, the photosensor mounts photo diodes and TRs (Transistors) in a row / column and scans the contents loaded on the photosensor using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor performs coordinate calculation of the object to be sensed according to the amount of light change, thereby acquiring position information of the object to be sensed.

생체 정보 획득부(145)는 사용자의 특정 신체 부위를 통해 생체 정보를 획득한다.The biometric information acquiring unit 145 acquires biometric information through a specific body part of the user.

일 실시예에 따라, 생체 정보 획득부(145)는 인체의 생리학적 전위차에 의하여 발생되는 생체 신호를 측정할 수 있다.According to one embodiment, the biometric information acquiring unit 145 can measure a bio-signal generated by a physiological potential difference of the human body.

일 예로, 생체 정보 획득부(145)는 PPG(Pulse Plethyamo Graphy), ECG(Electro-CardioGram), GSR(Galvanic Skin Reflex), EEG(Electro-EncephaloGram), EMG(Electro-MyoGram) 및 EOG(Electro-OculoGraphy) 센서 중 적어도 하나를 포함할 수 있다. 이와 같은 센서는, 펄스 혈류량, 심전도, 전기성 피부 반사, 뇌파, 근전도 및 안구 운동에 대한 생체 신호를 측정할 수 있다.For example, the bio-information acquiring unit 145 may acquire the bio-information from the bio-information acquiring unit 145, such as Pulse Plethysmographic (ECG), Electro-CardioGram, Galvanic Skin Reflex, Electro-EncephaloGram, Electro- OculoGraphy sensors. Such sensors can measure vital signs for pulse blood flow, electrocardiogram, electrical skin reflection, brain waves, EMG, and eye movement.

음향 출력 모듈(153)은 호신호 수신, 통화 모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(160)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력 모듈(153)은 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력 모듈(153)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output module 153 can output audio data received from the wireless communication unit 110 or stored in the memory 160 in a call signal reception mode, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, The sound output module 153 also outputs sound signals related to functions (e.g., call signal reception sound, message reception sound, etc.) performed in the mobile terminal 100. [ The sound output module 153 may include a receiver, a speaker, a buzzer, and the like.

알람부(154)는 이동 단말기(100)의 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생 되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 터치 입력 등이 있다. 알람부(154)는 비디오 신호나 오디오 신호 이외에 다른 형태, 예를 들어 진동을 이용하여, 이벤트 발생을 알리기 위한 신호를 출력할 수도 있다. 상기 비디오 신호나 오디오 신호는 디스플레이부(151)나 음향 출력 모듈(153)을 통해서도 출력될 수 있어서, 디스플레이부(151) 및 음향 출력 모듈(153)은 알람부(154)의 일부로 분류될 수도 있다.The alarm unit 154 outputs a signal for notifying the occurrence of an event of the mobile terminal 100. Examples of events generated in the mobile terminal 100 include call signal reception, message reception, key signal input, touch input, and the like. The alarm unit 154 may output a signal for notifying the occurrence of an event by using a form other than the video signal or the audio signal, for example, vibration. The video signal or the audio signal may be output through the display unit 151 or the sound output module 153 so that the display unit 151 and the sound output module 153 may be classified as a part of the alarm unit 154 .

햅틱 모듈(haptic module)(155)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(155)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(155)이 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(155)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 155 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 155 may be vibration. The intensity and pattern of the vibration generated by the haptic module 155 can be controlled by the user's selection or setting of the control unit. For example, the haptic module 155 may combine and output different vibrations or sequentially output the vibrations.

햅틱 모듈(155)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(eletrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to the vibration, the haptic module 155 may be configured to perform various functions such as a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or a suction force of the air through the injection port or the suction port, a touch on the skin surface, contact with an electrode, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(155)은 직접적인 접촉을 통해 촉각 효과의 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(155)은 이동 단말기(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 155 can be implemented not only to transmit the tactile effect through the direct contact but also to allow the user to feel the tactile effect through the muscular sense of the finger or arm. At least two haptic modules 155 may be provided according to the configuration of the mobile terminal 100.

메모리(160)는 제어부(180)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 폰북, 메시지, 정지영상, 동영상 등)을 임시 저장할 수도 있다. 상기 메모리(160)는 상기 터치 스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 160 may store a program for the operation of the controller 180 and temporarily store input / output data (e.g., a phone book, a message, a still image, a moving picture, etc.). The memory 160 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 이동 단말기(100)는 인터넷(internet)상에서 상기 메모리(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 160 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory), a RAM (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- And may include a storage medium of at least one type of disk and optical disk. The mobile terminal 100 may operate in association with a web storage that performs a storage function of the memory 160 on the Internet.

인터페이스부(170)는 이동 단말기(100)에 연결되는 모든 외부 기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 이동 단말기(100) 내부의 각 구성요소에 전달하거나, 이동 단말기(100) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 등이 인터페이스부(170)에 포함될 수 있다.The interface unit 170 serves as a path for communication with all external devices connected to the mobile terminal 100. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 100 or transmits data to the external device. For example, a port for connecting a device equipped with a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, An audio I / O port, a video I / O port, an earphone port, and the like may be included in the interface unit 170.

한편, 식별 모듈은 이동 단말기(100)의 사용 권한을 인증하기 위한 각종 정보를 저장한 칩으로서, 사용자 인증 모듈(user identify module; UIM), 가입자 인증 모듈(subscriber identity module; SIM), 범용 사용자 인증 모듈(universal subscriber identity module; USIM) 등을 포함할 수 있다. 식별 모듈이 구비된 장치(이하 '식별 장치')는, 스마트 카드(smart card) 형식으로 제작될 수 있다. 따라서 식별 장치는 상기 인터페이스부(170)를 통하여 단말기(100)와 연결될 수 있다.The identification module is a chip for storing various information for authenticating the use right of the mobile terminal 100 and includes a user identification module (UIM), a subscriber identity module (SIM) A universal subscriber identity module (USIM), and the like. Devices with identification modules (hereinafter referred to as "identification devices") can be manufactured in a smart card format. Therefore, the identification device can be connected to the terminal 100 through the interface unit 170. [

또한, 상기 인터페이스부(170)는 이동 단말기(100)가 외부 크래들(cradle)과 연결될 때 상기 크래들로부터의 전원이 상기 이동 단말기(100)에 공급되는 통로가 되거나, 사용자에 의해 상기 크래들에서 입력되는 각종 명령 신호가 상기 이동 단말기(100)로 전달되는 통로가 될 수 있다. 상기 크래들로부터 입력되는 각종 명령 신호 또는 상기 전원은 상기 이동 단말기(100)가 상기 크래들에 정확히 장착되었음을 인지하기 위한 신호로 동작될 수 있다.The interface unit 170 may be a path through which power from the cradle is supplied to the mobile terminal 100 when the mobile terminal 100 is connected to an external cradle, And various command signals may be transmitted to the mobile terminal 100. The various command signals or the power source input from the cradle may be operated as a signal for recognizing that the mobile terminal 100 is correctly mounted on the cradle.

제어부(controller, 180)는 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 예를 들어 음성 통화, 데이터 통신, 화상 통화 등과 관련된 제어 및 처리를 수행한다. 제어부(180)는 멀티미디어 재생을 위한 멀티미디어 모듈(181)을 구비할 수도 있다. 멀티미디어 모듈(181)은 제어부(180) 내에 구현될 수도 있고, 제어부(180)와 별도로 구현될 수도 있다.The controller 180 typically controls the overall operation of the mobile terminal 100. For example, voice communication, data communication, video communication, and the like. The control unit 180 may include a multimedia module 181 for multimedia playback. The multimedia module 181 may be implemented in the control unit 180 or may be implemented separately from the control unit 180. [

또한, 상기 제어부(180)는 상기 터치 스크린상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. In addition, the control unit 180 may perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively.

또한, 상기 제어부(180)는 상기 이동 단말기의 상태가 설정된 조건을 만족하면, 애플리케이션들에 대한 사용자의 제어 명령의 입력을 제한하는 잠금 상태를 실행할 수 있다. 또한, 상기 제어부(180)는 상기 잠금 상태에서 상기 디스플레이부(151)를 통해 감지되는 터치 입력에 근거하여 상기 잠금 상태에서 표시되는 잠금화면을 제어할 수 있다.In addition, if the state of the mobile terminal meets a set condition, the controller 180 can execute a lock state for restricting input of a control command of the user to the applications. In addition, the controller 180 may control the lock screen displayed in the locked state based on a touch input sensed through the display unit 151 in the locked state.

전원 공급부(190)는 제어부(180)의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power necessary for operation of the respective components.

여기에 설명되는 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다.The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 여기에 설명되는 실시 예는 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시 예들은 제어부(180) 자체로 구현될 수 있다.According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays , Microprocessors, microprocessors, microprocessors, and other electronic units for carrying out other functions. In some cases, the embodiments described herein may be implemented by the controller 180 itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein.

소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 애플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(160)에 저장되고, 제어부(180)에 의해 실행될 수 있다.The software code may be implemented in a software application written in a suitable programming language. The software code is stored in the memory 160 and can be executed by the control unit 180. [

다음으로, 본 발명에 따른 이동 단말기(100)를 통해 실시 가능한 통신 시스템에 대하여 살펴본다.Next, a communication system that can be implemented through the mobile terminal 100 according to the present invention will be described.

도 2A 및 2B는 본 발명에 따른 이동 단말기(100)가 동작 가능한 통신 시스템의 개념도이다.2A and 2B are conceptual diagrams of a communication system in which the mobile terminal 100 according to the present invention can operate.

먼저, 도 2A를 살펴보면, 통신 시스템은, 서로 다른 무선 인터페이스 및/또는 물리 계층을 이용할 수도 있다. 예를 들어, 통신 시스템에 의해 이용 가능한 무선 인터페이스에는, 주파수 분할 다중 접속(Frequency Division Multiple Access, FDMA), 시분할 다중 접속(Time Division Multiple Access, TDMA), 코드 분할 다중 접속(Code Division Multiple Access, CDMA), 범용 이동통신 시스템(Universal Mobile Telecommunications Systems, UMTS)(특히, LTE(Long Term Evolution)), 이동통신 글로벌 시스템(Global System for Mobile Communications, GSM) 등이 포함될 수 있다.First, referring to FIG. 2A, the communication system may use different wireless interfaces and / or physical layers. For example, wireless interfaces that can be used by a communication system include Frequency Division Multiple Access (FDMA), Time Division Multiple Access (TDMA), Code Division Multiple Access (CDMA) , Universal Mobile Telecommunications Systems (UMTS) (especially Long Term Evolution (LTE)), Global System for Mobile Communications (GSM), and the like.

이하에서는, 설명의 편의를 위하여, CDMA에 한정하여 설명하도록 한다. 그러나, 본 발명은, CDMA 무선 통신 시스템을 포함한 모든 통신 시스템 적용될 수 있음은 자명하다.Hereinafter, for the sake of convenience of description, the description will be limited to CDMA. However, it is apparent that the present invention can be applied to all communication systems including CDMA wireless communication systems.

도 2A에 도시된 바와 같이, CDMA 무선 통신 시스템은, 적어도 하나의 단말기(100), 적어도 하나의 기지국(Base Station, BS)(270), 적어도 하나의 기지국 제어부(Base Station Controllers, BSCs)(275), 이동 스위칭 센터(Mobile Switching Center, MSC)(280)를 포함할 수 있다. MSC(280)는, 일반 전화 교환망(Public Switched Telephone Network, PSTN)(290) 및 BSCs(275)와 연결되도록 구성된다. BSCs(275)는, 백홀 라인(backhaul line)을 통하여, BS(270)와 짝을 이루어 연결될 수 있다. 백홀 라인은, E1/T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL 또는 xDSL 중 적어도 하나에 따라서 구비될 수 있다. 따라서, 복수의 BSCs(275)가 도 2A에 도시된 시스템에 포함될 수 있다.2A, a CDMA wireless communication system includes at least one terminal 100, at least one base station (BS) 270, at least one base station controller (BSCs) 275 , And a mobile switching center (MSC) The MSC 280 is configured to be coupled to a Public Switched Telephone Network (PSTN) 290 and BSCs 275. BSCs 275 may be coupled in pairs with BS 270 through a backhaul line. The backhaul line may be provided according to at least one of E1 / T1, ATM, IP, PPP, Frame Relay, HDSL, ADSL or xDSL. Thus, a plurality of BSCs 275 may be included in the system shown in FIG. 2A.

복수의 BS(270) 각각은 적어도 하나의 섹터를 포함할 수 있고, 각각의 섹터는, 전방향성 안테나 또는 BS(270)로부터 방사상의 특정 방향을 가리키는 안테나를 포함할 수 있다. 또한, 각각의 섹터는, 다양한 형태의 안테나를 두 개 이상 포함할 수도 있다. 각각의 BS(270)는, 복수의 주파수 할당을 지원하도록 구성될 수 있고, 복수의 주파수 할당은 각각 특정 스펙트럼(예를 들어, 1.25MHz, 5MHz 등)을 가질 수 있다.Each of the plurality of BSs 270 may include at least one sector, and each sector may include an omnidirectional antenna or an antenna pointing to a particular direction of radials from the BS 270. In addition, each sector may include two or more antennas of various types. Each BS 270 may be configured to support a plurality of frequency assignments and each of the plurality of frequency assignments may have a specific spectrum (e.g., 1.25 MHz, 5 MHz, etc.).

섹터와 주파수 할당의 교차는, CDMA 채널이라고 불릴 수 있다. BS(270)은 는, 기지국 송수신 하부 시스템(Base Station Transceiver Subsystem, BTSs)이라고 불릴수 있다. 이러한 경우, 하나의 BSC(275) 및 적어도 하나의 BS(270)를 합하여 “기지국”이라고 칭할 수 있다. 기지국은, 또한 "셀 사이트"를 나타낼 수도 있다. 또는, 특정 BS(270)에 대한 복수의 섹터들 각각은, 복수의 셀 사이트로 불릴 수도 있다.The intersection of sector and frequency assignment may be referred to as a CDMA channel. The BS 270 may be referred to as a Base Station Transceiver Subsystem (BTSs). In this case, one BSC 275 and at least one BS 270 may be collectively referred to as a " base station ". The base station may also indicate a "cell site ". Alternatively, each of the plurality of sectors for a particular BS 270 may be referred to as a plurality of cell sites.

도 2A에 도시된 바와 같이, 방송 송신부(Broadcasting Transmitter, BT)(295)는, 시스템 내에서 동작하는 단말기들(100)에게 방송 신호를 송신한다. 도 1에 도시된 방송 수신 모듈(111)은, BT(295)에 의해 전송되는 방송 신호를 수신하기 위해 단말기(100) 내에 구비된다.As shown in FIG. 2A, a broadcasting transmitter (BT) 295 transmits a broadcasting signal to terminals 100 operating in the system. The broadcast receiving module 111 shown in FIG. 1 is provided in the terminal 100 to receive a broadcast signal transmitted by the BT 295.

뿐만 아니라, 도 2A에서는, 위성 위치 확인 시스템(Global Positioning System, GPS)의 위성(300)을 도시한다. 상기 위성(300)은, 이동 단말기(100)의 위치를 파악하는 것을 돕는다. 도 2A에서는 두 개의 위성이 도시되어 있지만, 유용한 위치 정보는, 두 개 이하 또는 이상의 위성들에 의해 획득될 수도 있다. 도 1에 도시된 위치정보 모듈(115)은, 원하는 위치 정보를 획득하기 위하여 도 2A에 도시된 위성(300)과 협력한다. 여기에서는, GPS 추적 기술뿐만 아니라 위치를 추적할 수 있는 모든 기술들을 이용하여 이동 단말기(100)의 위치가 추적될 수 있다. 또한, GPS 위성(300) 중 적어도 하나는, 선택적으로 또는 추가로 위성 DMB 전송을 담당할 수도 있다.In addition, Figure 2A shows a satellite 300 of a Global Positioning System (GPS). The satellite 300 aids in locating the mobile terminal 100. Although FIG. 2A shows two satellites, useful location information may be obtained by two or more satellites. The location information module 115 shown in FIG. 1 cooperates with the satellite 300 shown in FIG. 2A to obtain desired location information. Here, the position of the mobile terminal 100 can be tracked using all the techniques capable of tracking the location as well as the GPS tracking technology. Also, at least one of the GPS satellites 300 may optionally or additionally be responsible for satellite DMB transmission.

무선 통신 시스템의 전형적인 동작 중, BS(270)는, 이동 단말기(100)로부터 역 링크 신호를 수신한다. 이때, 이동 단말기(100)는, 호를 연결 중이거나, 메시지를 송수신 중이거나 또는 다른 통신 동작을 수행하고 있다. 특정 기지국(270)에 의해 수신된 역 링크 신호들 각각은, 특정 기지국(270)에 의해 내에서 처리된다. 상기 처리 결과 생성된 데이터는, 연결된 BSC(275)로 송신된다. BSC(275)는, 기지국들(270) 간의 소프트 핸드오프(soft handoff)들의 조직화를 포함하여, 호 자원 할당 및 이동성 관리 기능을 제공한다. 또한, BSCs(275)는, 상기 수신된 데이터를 MSC(280)로 송신하고, MSC(280)는, PSTN(290)과의 연결을 위하여 추가적인 전송 서비스를 제공한다. 또한, 이와 유사하게 PSTN(290)은 MSC(280)와 연결되고, MSC(280)는 BSCs(275)와 연결되고, BSCs(275)는 이동 단말기(100)로 순 링크 신호가 전송되도록 BS(270)를 제어할 수 있다.Of the typical operation of a wireless communication system, the BS 270 receives a reverse link signal from the mobile terminal 100. At this time, the mobile terminal 100 is connecting a call, transmitting or receiving a message, or performing another communication operation. Each of the reverse link signals received by the particular base station 270 is processed by the particular base station 270. The data resulting from the processing is transmitted to the connected BSC 275. The BSC 275 provides call resource allocation and mobility management functions, including the organization of soft handoffs between the base stations 270. BSCs 275 also transmit the received data to MSC 280 and MSC 280 provides additional transport services for connection with PSTN 290. [ Similarly, the PSTN 290 is connected to the MSC 280, the MSC 280 is connected to the BSCs 275, and the BSCs 275 are connected to the BS 100 so that the forward link signal is transmitted to the mobile terminal 100 270 can be controlled.

다음으로, 도 2B에서는 와이파이 위치추적 시스템(WPS: WiFi(Wireless Fidelity) Positioning System)을 이용하여, 이동 단말기의 위치정보를 획득하는 방법에 대하여 살펴본다.Next, a method of acquiring location information of a mobile terminal using a WiFi (Wireless Fidelity) Positioning System (WPS) will be described with reference to FIG. 2B.

와이파이 위치추적 시스템(WPS: WiFi Positioning System, 300)은 이동 단말기(100)에 구비된 WiFi모듈 및 상기 WiFi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point, 320)를 이용하여, 이동 단말기(100)의 위치를 추적하는 기술로서, WiFi를 이용한 WLAN(Wireless Local Area Network)기반의 위치 측위 기술을 의미한다. A WiFi Positioning System (WPS) 300 uses a WiFi module included in the mobile terminal 100 and a wireless access point 320 transmitting or receiving a wireless signal with the WiFi module, Is a technology for tracking the position of the terminal 100, and refers to a WLAN (Wireless Local Area Network) based positioning technology using WiFi.

와이파이 위치추적 시스템(300)은 와이파이 위치 측위 서버(310), 이동 단말기(100), 상기 이동 단말기(100)와 접속된 무선 AP(330), 임의의 무선 AP정보가 저장된 데이터 베이스(330)를 포함할 수 있다.The WiFi location tracking system 300 includes a Wi-Fi location server 310, a mobile terminal 100, a wireless AP 330 connected to the mobile terminal 100, and a database 330 in which certain wireless AP information is stored .

와이파이 위치 측위 서버(310)는 이동 단말기(100)의 위치정보 요청 메시지(또는 신호)에 근거하여, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 추출한다. 상기 이동 단말기(100)와 접속된 무선 AP(320)의 정보는 이동 단말기(100)를 통해 상기 와이파이 위치 측위 서버(310)로 전송되거나, 무선 AP(320)에서 와이파이 위치 측위 서버(310)로 전송될 수 있다.The WiFi location server 310 extracts information of the wireless AP 320 connected to the mobile terminal 100 based on the location information request message (or signal) of the mobile terminal 100. The information of the wireless AP 320 connected to the mobile terminal 100 may be transmitted to the Wi-Fi position server 310 through the mobile terminal 100 or may be transmitted from the wireless AP 320 to the Wi- Lt; / RTI >

상기 이동 단말기(100)의 위치정보 요청 메시지에 근거하여, 추출되는 무선 AP의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 신호세기(Signal Strength) 및 노이즈 세기(Noise Strength)중 적어도 하나일 수 있다.SSID, RSSI, channel information, Privacy, Network Type, Signal Strength, and Noise Strength based on the location information request message of the mobile terminal 100, Lt; / RTI >

와이파이 위치 측위 서버(310)는 위와 같이, 이동 단말기(100)와 접속된 무선 AP(320)의 정보를 수신하여, 미리 구축된 데이터베이스(330)에 포함된 정보와 상기 수신된 무선 AP(320) 정보를 비교하여, 상기 이동 단말기(100)의 위치정보를 추출(또는 분석)한다. The WiFi location server 310 receives the information of the wireless AP 320 connected to the mobile terminal 100 and transmits the information included in the built-in database 330 and the received wireless AP 320, And extracts (or analyzes) the location information of the mobile terminal 100 by comparing the information.

한편, 도 2B에서는 일 예로서, 이동 단말기(100)와 접속되어 있는 무선 AP를 제1, 제2 및 제3 무선 AP(320)로 도시하였다. 그러나, 이동 단말기(100)와 접속되는 무선 AP의 수는 이동 단말기(100)가 위치한 무선 통신환경에 따라 다양하게 변경될 수 있다. 와이파이 위치추척 시스템(300)은 이동 단말기(100)가 적어도 하나의 무선 AP와 접속되는 경우, 이동 단말기(100)의 위치를 추적하는 것이 가능하다. 2B, the wireless APs connected to the mobile terminal 100 are illustrated as first, second, and third wireless APs 320 as an example. However, the number of wireless APs connected to the mobile terminal 100 can be variously changed according to the wireless communication environment in which the mobile terminal 100 is located. The WiFi location tracking system 300 is capable of tracking the location of the mobile terminal 100 when the mobile terminal 100 is connected to at least one wireless AP.

다음으로, 임의의 무선 AP정보가 저장되어 있는 데이터 베이스(330)에 대하여 보다 구체적으로 살펴보면, 상기 데이터 베이스(330)에는 서로 다른 위치에 배치된 임의의 무선 AP들의 다양한 정보가 저장될 수 있다.Next, the database 330 may store various information of arbitrary wireless APs located at different locations, as will be described in more detail with respect to a database 330 in which arbitrary wireless AP information is stored.

상기 데이터 베이스(300)에 저장되는 임의의 무선 AP들의 정보는 MAC Address, SSID, RSSI, 채널정보, Privacy, Network Type, 무선 AP의 위경도 좌표, 무선 AP가 위치한 건물명, 층수, 실내 상세 위치정보(GPS 좌표 이용가능), AP소유자의 주소, 전화번호 등의 정보일 수 있다.The information of any wireless APs stored in the database 300 includes at least one of MAC address, SSID, RSSI, channel information, privacy, network type, radar coordinate of the wireless AP, (Available in GPS coordinates), address of the AP owner, telephone number, and the like.

이와 같이, 상기 데이터베이스(330)에는 임의의 무선 AP정보 및 상기 임의의 무선 AP에 대응되는 위치정보가 함께 저장되어 있으므로, 와이파이 위치 측위 서버(310)는 상기 데이터베이스(330)에서 이동 단말기(100)에 접속된 무선 AP(320)의 정보와 대응되는 무선 AP정보를 검색하고, 검색된 무선 AP정보에 매칭된 위치정보 추출함으로써, 이동 단말기(100)의 위치정보를 추출할 수 있다.Since the database 330 stores any wireless AP information and location information corresponding to the wireless AP, the WiFi location server 310 can search the mobile terminal 100 in the database 330, The location information of the mobile terminal 100 can be extracted by searching for wireless AP information corresponding to the information of the wireless AP 320 connected to the wireless AP 320 and extracting location information matched with the retrieved wireless AP information.

그리고, 이렇게 추출된 이동 단말기(100)의 위치정보는 상기 와이파이 위치 측위 서버(310)를 통해 이동 단말기(100)로 전송됨으로써, 이동 단말기(100)는 위치정보를 획득할 수 있다.
The extracted location information of the mobile terminal 100 is transmitted to the mobile terminal 100 through the Wi-Fi location server 310 so that the mobile terminal 100 can acquire the location information.

이하에서는 도 3A 내지 5B를 참조하여 본 명세서에 개시된 일 실시예에 따른 다양한 이동 단말기의 구현 형태에 대해 살펴본다.Hereinafter, an embodiment of various mobile terminals according to an embodiment disclosed herein will be described with reference to FIGS. 3A to 5B.

도 3A 및 3B는 본 발명의 일 실시 예에 따른 스마트 워치의 전면 및 후면을 도시한 도면이다.3A and 3B are front and rear views of a smart watch according to an embodiment of the present invention.

즉, 도 3A 및 3B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 시계형 이동 단말기인 스마트 워치 형태를 구비한 경우를 나타낸다.That is, FIGS. 3A and 3B show a case where the mobile terminal 100 has a smart watch type which is a watch type mobile terminal in the form of a wearable device.

본 명세서에서 개시한 스마트 워치(Smart Watch)(200)는 사각형 형태의 구조로 예시를 하였으나, 본 발명은 여기에 한정하지 않고, 즉 원형이나 삼각형과 같은 다양한 형태의 다각형 구조를 가지는 스마트 워치에도 적용이 가능함은 물론이다. Although the Smart Watch 200 disclosed in the present specification is illustrated as a rectangular shape, the present invention is not limited thereto, and may be applied to a smart watch having various polygonal shapes such as a circle or a triangle Of course, this is possible.

일 실시예에 따르면, 스마트 워치(200)는 밴드(230)와 본체(220)를 포함하여 구성된다. 본체(220)의 외관을 이루는 케이스는 프론트 케이스(210)와 리어 케이스(250)로 구분될 수 있다. 프론트 케이스(210)와 리어 케이스(250)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(210)와 리어 케이스(250) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수도 있다. 케이스들은 합성수지를 사출하여 형성되거나 금속 재질, 예를 들어 스테인레스 스틸(STS) 또는 티타늄(Ti) 등과 같은 금속 재질을 갖도록 형성될 수도 있다. According to one embodiment, the smart watch 200 comprises a band 230 and a body 220. The outer case of the main body 220 may be divided into a front case 210 and a rear case 250. Various electronic parts are embedded in the space formed between the front case 210 and the rear case 250. [ At least one intermediate case may be additionally disposed between the front case 210 and the rear case 250. [ The cases may be formed by injection molding a synthetic resin or may be formed to have a metal material such as stainless steel (STS) or titanium (Ti) or the like.

도 3A를 참조하면, 프론트 케이스(210)에는 디스플레이부(151), 카메라(121), 마이크(122) 등이 배치될 수 있다. 3A, a display unit 151, a camera 121, a microphone 122, and the like may be disposed on the front case 210.

디스플레이부(151)는 프론트 케이스(210)의 주면의 대부분을 차지한다. 디스플레이부(151)의 양단부에는 카메라(121) 및 마이크(122)가 배치될 수 있다. The display unit 151 occupies most of the main surface of the front case 210. A camera 121 and a microphone 122 may be disposed at both ends of the display unit 151.

한편, 디스플레이부(151)에는 다양한 종류의 시각 정보들이 표시될 수 있다. 이들 정보들은 문자, 숫자, 기호, 그래픽, 또는 아이콘 등의 형태로 표시될 수 있다. On the other hand, the display unit 151 may display various types of time information. These pieces of information can be displayed in the form of letters, numbers, symbols, graphics, or icons.

이러한 정보의 입력을 위하여 상기 문자, 숫자, 기호, 그래픽 또는 아이콘 들 중 적어도 하나는 일정한 배열을 이루어 표시됨으로써 키패드의 형태로 구현될 수 있다. 이러한 키패드는 소위 '소프트키'라 불릴 수 있다. At least one of the letters, numbers, symbols, graphics, or icons may be displayed in a predetermined arrangement for inputting such information, thereby being implemented as a keypad. Such a keypad may be called a so-called " soft key ".

디스플레이부(151)는 전체 영역으로 작동되거나, 복수의 영역들로 나뉘어져 작동될 수 있다. 후자의 경우, 상기 복수의 영역들은 서로 연관되게 작동되도록 구성될 수 있다. The display unit 151 may operate as an entire area or may be divided into a plurality of areas and operated. In the latter case, the plurality of areas can be configured to operate in association with each other.

또한 스마트 워치(200)의 본체(220)의 일 측면에는 유/무선 헤드셋 포트(미도시)과 유/무선 데이터 포트(미도시)가 배치될 수 있다. 상기 포트들은 인터페이스(170, 도 1 참조)의 일 예로서 구성된다. Also, a wired / wireless headset port (not shown) and a wired / wireless data port (not shown) may be disposed on one side of the main body 220 of the smart watch 200. The ports are configured as an example of the interface 170 (see FIG. 1).

도 3B를 참조하면, 본체(220)의 후면, 다시 말해서 리어 케이스(250)에는 제1 센서(145a)가 배치될 수 있다. 제1 센서(145a)는 사용자의 피부 상태 또는 사용자의 생체 신호를 감지하기 위한 센서일 수 있다. 또한 실제 사용자의 손목 뒷부분의 피부와 접촉되는 밴드(230)의 적어도 일 영역에서는 사용자의 근육 움직임 등을 감지할 수 있는 제2 센서(145b)가 배치될 수 있다. Referring to FIG. 3B, the first sensor 145a may be disposed on the rear surface of the main body 220, that is, on the rear case 250. The first sensor 145a may be a sensor for detecting a user's skin condition or a user's biological signal. In addition, a second sensor 145b may be disposed in at least one region of the band 230 that is in contact with the skin of the rear part of the wrist of the actual user to detect movement of the user's muscles.

본체(220)의 측면에는 방송신호 수신용 안테나가 추가적으로 배치될 수 있다. 방송 수신 모듈(111, 도 1 참조)의 일부를 이루는 안테나는 본체(220)에서 인출 가능하게 설치될 수 있다. An antenna for receiving broadcast signals may be additionally disposed on the side surface of the main body 220. An antenna constituting a part of the broadcast receiving module 111 (see FIG. 1) may be installed to be able to be drawn out from the main body 220.

그리고 스마트 워치(200)의 본체(220)에는 음향 출력 모듈(미도시), 인터페이스 등이 구비될 수 있다. 또한 프론트 케이스(210) 및 리어 케이스(250)의 측면에는 사용자 입력부(340)와 연결 포트 등이 배치될 수 있다.The main body 220 of the smart watch 200 may include an audio output module (not shown), an interface, and the like. A user input unit 340 and a connection port may be disposed on the side surfaces of the front case 210 and the rear case 250.

사용자 입력부(240)는 스마트 위치(200)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 적어도 하나의 조작 유닛들(240a, 240b, 240c, 240d)을 포함할 수 있다. 조작 유닛들은 조작부(manipulating portion)로도 통칭 될 수 있으며, 사용자가 촉각적인 느낌을 가하면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. The user input unit 240 is operated to receive a command for controlling the operation of the smart position 200 and may include at least one operation unit 240a, 240b, 240c, and 240d. The operating units may also be referred to as manipulating portions and may be employed in any manner as long as the user is operating in a tactile manner with a tactile impression.

복수의 조작 유닛들에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 시작, 종료, 스크롤 등과 같은 명령의 입력, 음향 출력부(152)에서 출력되는 음향의 크기 조절, 또는 디스플레이부(151)의 터치 인식 모드의 전환 등과 같은 명령을 입력받도록 형성될 수 있다. Contents inputted by a plurality of operation units can be set variously. For example, inputting a command such as start, end, scroll, and the like, adjusting the size of sound output from the sound output unit 152, or switching the touch recognition mode of the display unit 151 have.

연결 포트는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 스마트 워치(200) 내부의 각 구성 요소에 전달하거나, 스마트 워치(200) 내부의 데이터가 외부 기기로 전송되도록 한다. 연결 포트는, 인터페이스(170, 도 1 참조)의 일 예로서 구성될 수 있다. The connection port receives data from an external device or supplies power to each component in the smart watch 200 or allows data in the smart watch 200 to be transmitted to an external device. The connection port may be configured as an example of the interface 170 (see FIG. 1).

스마트 워치(200)의 본체(220)에는 스마트 워치(200)에 전원을 공급하기 위한 전원 공급부(미도시)가 구비된다. 전원공급부는 본체(220)에 내장되는 형태로 구성될 수 있다.A main body 220 of the smart watch 200 is provided with a power supply unit (not shown) for supplying power to the smart watch 200. The power supply unit may be built in the main body 220.

도 4A 및 4B는 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기의 일 실시예를 나타낸 개념도이다. Figures 4A and 4B are conceptual diagrams illustrating one embodiment of a wearable eyewear terminal in accordance with one embodiment disclosed herein.

즉, 도 4A 및 4B는 상기 이동 단말기(100)가 웨어러블 디바이스의 형태 중 안경형 이동 단말기인 스마트 안경 형태를 구비한 경우를 나타낸다.4A and 4B illustrate a case where the mobile terminal 100 is equipped with smart glasses, which is a glasses type mobile terminal in the form of a wearable device.

도 4A을 참조하면, 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 본체(100'), 디스플레이부(151) 및 제어부(180)를 포함한다. Referring to FIG. 4A, a wearable eyewear type terminal 200 'according to an embodiment disclosed herein includes a body 100', a display portion 151, and a control portion 180.

또한 본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 사용자 입력부, 음성 인식부, 동작 감지부를 더 포함할 수 있다.In addition, the wearable eyewear type terminal 200 'according to the embodiment disclosed herein may further include a user input unit, a voice recognition unit, and a motion detection unit.

본 명세서에 개시된 일 실시예에 따른 착용 가능한 안경형 단말기(200')는 두부 장착형 디스플레이(head mounted display, HMD)로 구현될 수 있다. 구체적인 실시 예로, 스마트 안경(smart glasses)으로 구현될 수 있다. The wearable eyewear type terminal 200 'according to one embodiment disclosed herein may be implemented with a head mounted display (HMD). As a concrete example, it can be implemented as smart glasses.

본체(100')는 두부에 장착가능 하도록 형성된다. 예를 들면, 스마트 안경에서의 프레임과 다리 부분으로 구현될 수 있다. The body 100 'is formed to be mountable on the head. For example, it can be implemented as a frame and leg in smart glasses.

디스플레이부(151)는 본체(100')와 결합하여 양안에 대응되는 위치에 배치될 수 있다. 또한 상기 디스플레이부(151)는 광투과성을 가지며, 시각 정보를 출력할 수 있다. The display unit 151 may be disposed at a position corresponding to both eyes in association with the main body 100 '. Also, the display unit 151 is optically transparent and can output time information.

상기 시각 정보는 착용 가능한 안경형 단말기(200')에서 생성하거나 또는 외부 기기로부터 입력받은 가상의 객체를 의미한다. 예를 들면, 상기 가상의 객체는 어플리케이션이나 이에 대응하는 아이콘, 콘텐츠, 통화모드의 UI 등을 의미할 수 있다. 이는 제어부(180)에 의해 생성되거나 스마트 폰과 같은 이동 단말기로부터 입력받을 수 있다. 이때, 디스플레이부(151)는 광투과성을 갖기 때문에, 사용자는 상기 디스플레이부(151)를 통하여 외부 환경을 볼 수 있다.The time information refers to a virtual object created in the wearable eyewear type terminal 200 'or input from an external device. For example, the virtual object may refer to an application, a corresponding icon, a content, a UI of a call mode, and the like. Which may be generated by the control unit 180 or input from a mobile terminal such as a smart phone. At this time, since the display unit 151 has light transmittance, the user can see the external environment through the display unit 151. [

또한, 일 실시 예로, 디스플레이부(151)는 외부 환경이 보이는 동시에 상기 외부 환경을 구성하는 임의의 외부 물체에 대한 정보가 출력될 수 있다. 예를 들어, 외부 물체는 명함, 사람 또는 상호 통신이 가능한 외부기기일 수 있다. In addition, in one embodiment, the display unit 151 may output information about an arbitrary external object configuring the external environment while viewing the external environment. For example, the external object may be a business card, a person, or an external device capable of mutual communication.

앞서 설명한 바와 같이, 제어부(180)는 착용 가능한 안경형 단말기(200')를 제어할 수 있다. 구체적으로, 제어부(180)는 디스플레이부(151)에 무선통신부(110)에서 감지한 외부기기의 정보를 출력시킬 수 있다. As described above, the control unit 180 can control the wearable eyewear type terminal 200 '. Specifically, the control unit 180 may output the information of the external device sensed by the wireless communication unit 110 to the display unit 151.

예를 들어, 제어부(180)는 상기 감지된 외부기기의 위치를 식별할 수 있다. 이때, 상기 제어부(180)는 상기 감지된 외부기기가 사용자의 시야 내에 위치하는지 여부를 판단하고, 상기 판단 결과에 따라 상기 감지된 외부기기의 정보를 출력시킬지 여부를 결정할 수 있다.For example, the controller 180 may identify the location of the detected external device. At this time, the controller 180 may determine whether the detected external device is located within the user's field of view, and may determine whether to output the sensed information of the external device according to the determination result.

또한, 제어부(180)는 착용 가능한 안경형 단말기(200')의 본체(100')에 장착되거나, 본체(100')와 일체로 형성될 수 있다. 또 다른 실시 예로, 본체(100')와 떨어져 배치될 수 있다.The control unit 180 may be mounted on the body 100 'of the wearable eyewear-type terminal 200' or may be integrally formed with the body 100 '. In another embodiment, it may be spaced apart from the body 100 '.

카메라(121)는 좌안 및 우안 디스플레이부(151) 중 적어도 하나의 전면에 배치될 수 있다. 또는, 프레임(100') 한쪽 또는 양쪽에 배치되어 착용자의 시야 이외의 공간도 촬영할 수 있다.The camera 121 may be disposed on the front face of at least one of the left and right eye display units 151. Alternatively, a space other than the wearer's view can be photographed by being disposed on one or both sides of the frame 100 '.

사용자 입력부(130)는 프레임(110') 한쪽 또는 양쪽에 별도의 터치 패널로 구현될 수 있다. 또는, 물리적인 키로 구현될 수 있다. 예를 들면, 전원의 ON/OFF 스위치가 프레임(110')의 한쪽에 구현될 수 있다.The user input unit 130 may be implemented as a separate touch panel on one or both sides of the frame 110 '. Alternatively, it may be implemented with a physical key. For example, a power ON / OFF switch may be implemented on one side of the frame 110 '.

또 다른 실시 예로, 본체(100')와 연결된 별도의 외부 기기 장치로 구현될 수 있다. 이에 따라, 사용자는 별도의 외부 기기 장치에 특정 명령을 입력할 수 있다. 또는, 디스플레이부(151)가 터치 스크린으로 구현되어 사용자로부터의 제어 명령을 직접 입력받을 수 있다.In another embodiment, it may be implemented as a separate external device connected to the main body 100 '. Accordingly, the user can input a specific command to a separate external device. Alternatively, the display unit 151 may be implemented as a touch screen to directly receive a control command from a user.

또 다른 실시 예로, 사용자의 음성 명령을 인식하는 모듈로 구현될 수 있다. 이를 통해, 사용자는 음성을 통하여 본체(100')에 특정 명령을 입력할 수 있다.In another embodiment, it may be implemented as a module that recognizes a voice command of a user. Thus, the user can input a specific command to the main body 100 'through voice.

한편, 착용 가능한 안경형 단말기의 일 실시 예로서, 스마트 안경(smart glasses)이 출시되고 있다. 착용 가능한 장치(Wearable device)로 구현된 스마트 안경은 기존의 이동 단말기에서 실행되던 기능을 간편하게 실행할 수 있다. Meanwhile, smart glasses are being marketed as an example of a wearable eyewear-type terminal. The smart glasses implemented as a wearable device can easily perform the functions performed in the existing mobile terminal.

상기 스마트 안경의 디스플레이부(151)는 디스플레이부(151)를 통해 보이는 외부 환경과 출력된 시각 정보를 함께 표시(Augmented Reality)할 수 있다. 이를 통해 사용자는 외부 환경을 구성하는 임의의 객체에 대한 정보를 보다 쉽게 파악할 수 있다.The display unit 151 of the smart glasses may display an external environment and output time information displayed on the display unit 151 together. This allows the user to more easily grasp information about an arbitrary object constituting the external environment.

또한 상기 스마트 안경은 스마트 안경들끼리 혹은, 스마트 안경과 통신이 가능한 외부 기기와 무선 통신을 수행할 수 있다. 이때, 상기 외부기기와 관련된 정보가 디스플레이부(151)에 출력될 수 있다.In addition, the smart glasses can perform wireless communication between smart glasses or an external device capable of communicating with smart glasses. At this time, information related to the external device may be output to the display unit 151. [

도 4B는 본 명세서에 개시된 일 실시예에 따른 눈 근접 디스플레이가 장착될 수 있는 웨어러블 디바이스를 나타낸다.4B shows a wearable device on which an eye proximity display according to one embodiment disclosed herein may be mounted.

도 4B를 참조하면, 도시된 웨어러블 디바이스는 글래스형 단말기(200'')로, 글래스형 단말기(200'')는 인체의 두부에 착용 가능하도록 구성되며, 이를 위한 프레임부(케이스, 하우징 등)을 구비할 수 있다. 프레임부는 착용이 용이하도록 플렉서블 재질로 형성될 수 있다. 본 도면에서는, 프레임부가 서로 다른 재질의 제1 프레임(201'')과 제2 프레임(202'')을 포함하는 것을 예시하고 있다.4B, the wearable device shown is a glass-type terminal 200 '', and the glass-type terminal 200 '' is configured to be worn on the head of a human body, and a frame part (case, . The frame portion may be formed of a flexible material to facilitate wearing. This figure illustrates that the frame portion includes a first frame 201 '' and a second frame 202 '' of different materials.

프레임부는 두부에 지지되며, 각종 부품들이 장착되는 공간을 마련한다. 도 4B에 도시한 바와 같이, 프레임부에는 제어 모듈(280''), 음향 출력 모듈(252'') 등과 같은 전자부품이 장착될 수 있다. 또한, 프레임부에는 좌안 및 우안 중 적어도 하나를 덮는 디스플레이부(251'')가 착탈 가능하게 장착될 수 있다.The frame portion is supported on the head portion, and a space for mounting various components is provided. As shown in Fig. 4B, electronic parts such as the control module 280 ", the sound output module 252 " and the like may be mounted on the frame part. Further, a display portion 251 " covering at least one of the left and right eyes may be detachably mounted on the frame portion.

제어 모듈(280'')은 글래스형 단말기(200'')에 구비되는 각종 전자부품을 제어하도록 이루어진다. 제어 모듈(280'')은 앞서 설명한 제어부(180, 도 1 참조)에 대응되는 구성으로 이해될 수 있다. 본 도면에서는, 제어 모듈(280'')이 일 측 두부 상의 프레임부에 설치된 것을 예시하고 있다. 하지만, 제어 모듈(280'')의 위치는 이에 한정되지 않는다.The control module 280 " is configured to control various electronic components included in the glass type terminal 200 ". The control module 280 '' can be understood as a configuration corresponding to the control unit 180 (see FIG. 1) described above. This figure illustrates that the control module 280 " is installed in the frame portion on one side of the head. However, the location of the control module 280 " is not limited to this.

디스플레이부(251'')는 헤드 마운티드 디스플레이(Head Mounted Display, HMD) 형태로 구현될 수 있다. HMD 형태란, 두부에 장착되어, 사용자의 눈 앞에 직접 영상을 보여주는 디스플레이 방식을 말한다. 사용자가 글래스형 단말기(200)를 착용하였을 때, 사용자의 눈 앞에 직접 영상을 제공할 수 있도록, 디스플레이부(251)는 좌안 및 우안 중 적어도 하나에 대응되게 배치될 수 있다.The display unit 251 '' may be implemented as a head mounted display (HMD). The HMD type refers to a display method that is mounted on a head and displays an image directly in front of the user's eyes. When the user wears the glass-type terminal 200, the display unit 251 may be arranged to correspond to at least one of the left and right eyes so that the user can directly provide an image in front of the user's eyes.

디스플레이부(251'')는 사용자의 눈으로 이미지를 투사할 수 있다. 또한, 사용자가 투사된 이미지와 전방의 일반 시야(사용자가 눈을 통하여 바라보는 범위)를 함께 볼 수 있도록, 디스플레이부(251)는 투광성으로 형성될 수 있다.The display unit 251 " can project an image with the user's eyes. Further, the display unit 251 may be formed to be transmissive so that the user can view the projected image and the general view of the front (the range that the user views through the eyes) together.

이처럼, 디스플레이부(251'')를 통하여 출력되는 영상은, 일반 시야와 오버랩(overlap)되어 보여질 수 있다. 이동 단말기(100)는 이러한 디스플레이의 특성을 이용하여 현실의 이미지나 배경에 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 증강현실(Augmented Reality, AR)을 제공할 수 있다.As described above, the image output through the display unit 251 '' can be seen overlapping with the general view. The mobile terminal 100 can provide an Augmented Reality (AR) in which a virtual image is superimposed on a real image or a background and displayed as a single image using the characteristics of the display.

카메라(221'')는 좌안 및 우안 중 적어도 하나에 인접하게 배치되어, 전방의 영상을 촬영하도록 형성된다. 카메라(221'')가 눈에 인접하여 위치하므로, 카메라(221'')는 사용자가 바라보는 장면을 영상으로 획득할 수 있다.The camera 221 " is disposed adjacent to at least one of the left and right eyes, and is configured to capture a forward image. Since the camera 221 " is located adjacent to the eye, the camera 221 " can acquire a scene viewed by the user as an image.

본 도면에서는, 카메라(221'')가 제어 모듈(280'')에 구비된 것을 예시하고 있으나, 반드시 이에 한정되는 것은 아니다. 카메라(221'')는 상기 프레임부에 설치될 수도 있으며, 복수 개로 구비되어 입체 영상을 획득하도록 이루어질 수도 있다.Although the camera 221 '' is provided in the control module 280 '' in the figure, it is not limited thereto. The camera 221 '' may be provided in the frame part, or may be provided in plural to acquire stereoscopic images.

글래스형 단말기(200'')는 제어명령을 입력받기 위하여 조작되는 사용자 입력부(223a'', 223b'')를 구비할 수 있다. 사용자 입력부(223a'', 223b'')는 터치, 푸시 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 본 도면에서는, 프레임부와 제어 모듈(280'')에 각각 푸시 및 터치 입력 방식의 사용자 입력부(223a'', 223b'')가 구비된 것을 예시하고 있다.The glass-type terminal 200 " may have user inputs 223a ", 223b " that are manipulated to receive control commands. The user input units 223a '' and 223b '' can be employed in any manner as long as the user touches, pushes, etc. in a tactile manner. This figure illustrates that the user input portions 223a '' and 223b '' of the push and touch input type are provided in the frame portion and the control module 280 '', respectively.

또한, 글래스 타입의 이동 단말기(200'')에는 사운드를 입력받아 전기적인 음성 데이터로 처리하는 마이크(미도시) 및 음향을 출력하는 음향 출력 모듈(252'')이 구비될 수 있다. 음향 출력 모듈(252)은 일반적인 음향 출력 방식 또는 골전도 방식으로 음향을 전달하도록 이루어질 수 있다. 음향 출력 모듈(252'')이 골전도 방식으로 구현되는 경우, 사용자가 글래스형 단말기(200'')를 착용시, 음향 출력 모듈(252'')은 두부에 밀착되며, 두개골을 진동시켜 음향을 전달하게 된다.In addition, a glass-type mobile terminal 200 '' may be provided with a microphone (not shown) for receiving sound and processing it as electrical voice data and an acoustic output module 252 '' for outputting sound. The sound output module 252 may be configured to transmit sound in a general sound output mode or a bone conduction mode. In a case where the acoustic output module 252 '' is implemented in a bone conduction manner, when the user wears the glass-type terminal 200 '', the acoustic output module 252 '' is brought into close contact with the head, .

이하, 도 5A 및 5B를 참조하여, 상기 도 1에서 살펴본 본 명세서에 개시된 일 실시 예에 따른 이동 단말기 또는 이동 단말기의 구성요소들이 배치된 이동 단말기 또는 이동 단말기의 구조를 살펴본다.5A and 5B, a structure of a mobile terminal or a mobile terminal in which components of the mobile terminal or the mobile terminal according to the embodiment disclosed in FIG. 1 are arranged will be described.

도 5A는 본 발명과 관련된 이동 단말기(100)의 일 예를 전면에서 바라본 사시도이다.5A is a perspective view of a mobile terminal 100 according to an embodiment of the present invention.

본 명세서에서 개시한 이동 단말기(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 발명은 여기에 한정되지 않고, 와치 타입, 클립 타입, 안경 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다.The mobile terminal 100 disclosed in the present specification has a bar-shaped terminal body. However, the present invention is not limited thereto and can be applied to various structures such as a watch type, a clip type, a spectacle type, or a folder type, a flip type, a slide type, a swing type and a swivel type in which two or more bodies are movably coupled have.

바디는 외관을 이루는 케이스(프레임, 하우징, 커버 등)를 포함한다. 본 실시예에서, 케이스는 프론트 케이스(101)와 리어 케이스(102)로 구분될 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 사이에 형성된 공간에는 각종 전자부품들이 내장된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 중간 케이스가 추가로 배치될 수 있으며, 배터리(191)를 덮는 배터리 커버(103)가 리어 케이스(102)에 착탈 가능하게 구성될 수도 있다.The body includes a case (frame, housing, cover, etc.) which forms an appearance. In this embodiment, the case may be divided into a front case 101 and a rear case 102. [ A variety of electronic components are embedded in the space formed between the front case 101 and the rear case 102. At least one intermediate case may be additionally disposed between the front case 101 and the rear case 102. A battery cover 103 covering the battery 191 may be detachably attached to the rear case 102 have.

케이스들은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.The cases may be formed by injection molding of synthetic resin, or may be formed of metal such as stainless steel (STS), aluminum (Al), titanium (Ti), or the like.

단말기 바디의 전면에는 디스플레이부(151), 제1 음향출력모듈(153a), 제1 카메라(121a), 제1 조작유닛(131) 등이 배치되며, 측면에는 마이크(122), 인터페이스부(170), 제2 조작유닛(132) 등이 구비될 수 있다.A first sound output module 153a, a first camera 121a, a first operation unit 131 and the like are disposed on the front surface of the terminal body, and a microphone 122, an interface unit 170 ), A second operation unit 132, and the like.

디스플레이부(151)는 이동 단말기(100)에서 처리되는 정보를 표시(출력)하도록 이루어진다. 디스플레이부(151)는 정보를 시각적으로 표현하는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 151 is configured to display (output) information processed by the mobile terminal 100. The display unit 151 may include a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) ), A flexible display, a 3D display, and an e-ink display.

상기 디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력받을 수 있게 터치감지수단을 포함할 수 있다. 디스플레이부(151) 상의 어느 한 곳에 대하여 터치가 이루어지면 터치감지수단은 이를 감지하고 그 터치된 위치에 대응하는 내용이 입력되게 구성될 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴 항목 등일 수 있다.The display unit 151 may include touch sensing means for receiving a control command by a touch method. When a touch is performed on any one of the display units 151, the touch sensing unit senses the touch and the content corresponding to the touched position is input. The content input by the touch method may be a letter or a number, an instruction in various modes, a menu item which can be designated, and the like.

터치감지수단은 디스플레이부(151)에서 출력되는 시각 정보가 보일 수 있도록 투광성으로 형성되며, 밝은 곳에서 터치스크린의 시인성(visibility)을 높이기 위한 구조가 포함될 수 있다. 도 5A에 의하면, 디스플레이부(151)는 프론트 케이스(101)의 전면(front surface)의 대부분을 차지한다.The touch sensing means may be formed of a translucent material so that the visual information output from the display unit 151 can be seen, and a structure for enhancing the visibility of the touch screen in a bright place. 5A, the display unit 151 occupies most of the front surface of the front case 101.

디스플레이부(151)의 양단부 중 일 단부에 인접한 영역에는 제1 음향출력모듈(153a)과 제1 카메라(121a)가 배치되고, 다른 단부에 인접한 영역에는 제1 조작유닛(131)과 마이크(122)가 배치된다. 제2 조작유닛(132, 도 5B 참조), 인터페이스부(170) 등은 단말기 바디의 측면에 배치될 수 있다.A first sound output module 153a and a first camera 121a are disposed in an area adjacent to one end of both ends of the display unit 151 and a first operation unit 131 and a microphone 122 . The second operation unit 132 (see FIG. 5B), the interface unit 170, and the like may be disposed on the side of the terminal body.

제1 음향출력모듈(153a)은 통화음을 사용자의 귀에 전달시키는 리시버(receiver) 또는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.The first sound output module 153a may be implemented in the form of a receiver for delivering a call sound to a user's ear or a loud speaker for outputting various alarm sounds or multimedia playback sounds.

제1 음향출력모듈(153a)로부터 발생되는 사운드는 구조물 간의 조립틈을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나, 숨겨져 이동 단말기(100)의 외관이 보다 심플해질 수 있다. 다만, 본 발명은 이에 한정되는 것은 아니며, 상기 사운드의 방출을 위한 홀이 윈도우에 형성될 수 있다.The sound generated from the first sound output module 153a may be configured to be emitted along the assembly gap between the structures. In this case, the hole formed independently for the apparent acoustic output is hidden or hidden, so that the appearance of the mobile terminal 100 can be simplified. However, the present invention is not limited thereto, and a hole for emitting the sound may be formed in the window.

제1 카메라(121a)는 화상통화 모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있다.The first camera 121a processes an image frame such as a still image or moving image obtained by the image sensor in the video communication mode or the photographing mode. The processed image frame can be displayed on the display unit 151. [

사용자 입력부(130)는 이동 단말기(100)의 동작을 제어하기 위한 명령을 입력받기 위해 조작되는 것으로서, 제1 및 제2 조작유닛(131, 132)을 포함할 수 있다. 제1 및 제2 조작유닛(131, 132)은 조작부(manipulating portion)로도 통칭될 수 있으며, 터치, 푸쉬, 스크롤 등 사용자가 촉각적인 느낌을 가면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다.The user input unit 130 is operated to receive a command for controlling the operation of the mobile terminal 100 and may include first and second operation units 131 and 132. The first and second operation units 131 and 132 may be collectively referred to as a manipulating portion and may be any type of tactile manner such as touch, push, scroll, etc., .

본 도면에서는 제1 조작유닛(131)이 터치키(touch key)인 것을 기준으로 예시하나, 본 발명은 이에 한정되는 것은 아니다. 예를 들어 제1 조작유닛(131)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.In the figure, the first operation unit 131 is a touch key, but the present invention is not limited thereto. For example, the first operation unit 131 may be a mechanical key, or a combination of a touch key and a touch key.

제1 및/또는 제2 조작유닛들(131, 132)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(131)은 메뉴, 홈키, 취소, 검색 등과 같은 명령을 입력받고, 제2 조작유닛(132)은 제1 음향출력모듈(153a)에서 출력되는 음향의 크기 조절 또는 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력받을 수 있다. The contents input by the first and / or second operation units 131 and 132 may be variously set. For example, the first operation unit 131 receives a command such as a menu, a home key, a cancellation, a search, and the like, and the second operation unit 132 adjusts the size of the sound output from the first sound output module 153a And a switch to the touch recognition mode of the display unit 151 and the like.

마이크(122)는 사용자의 음성, 기타 소리 등을 입력받도록 형성된다. 마이크(122)는 복수의 개소에 구비되어 스테레오 음향을 입력받도록 구성될 수 있다.The microphone 122 is configured to receive a user's voice, other sounds, and the like. The microphone 122 may be provided at a plurality of locations to receive stereophonic sound.

인터페이스부(170)는 이동 단말기(100)가 외부기기와 데이터 교환 등을 할 수 있게 하는 통로가 된다. 예를 들어, 인터페이스부(170)는 유선 또는 무선으로 이어폰과 연결하기 위한 접속단자, 근거리 통신을 위한 포트{예를 들어 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등}, 또는 이동 단말기(100)에 전원을 공급하기 위한 전원공급 단자들 중 적어도 하나일 수 있다. 이러한 인터페이스부(170)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수 있다.The interface unit 170 is a path for allowing the mobile terminal 100 to exchange data with an external device. For example, the interface unit 170 may include a connection terminal for connecting to an earphone by wire or wireless, a port for short-range communication (for example, an IrDA Port, a Bluetooth Port, a Wireless LAN LAN Port) or the like, or power supply terminals for supplying power to the mobile terminal 100. [ The interface unit 170 may be implemented as a socket for receiving an external card such as a SIM (Subscriber Identification Module) or a UIM (User Identity Module) or a memory card for storing information.

도 5B는 도 5A에 도시된 이동 단말기(100)의 후면 사시도이다.5B is a rear perspective view of the mobile terminal 100 shown in FIG. 5A.

도 5B를 참조하면, 단말기 바디의 후면, 다시 말해서 리어 케이스(102)에는 제2 카메라(121b)가 추가로 장착될 수 있다. 제2 카메라(121b)는 제1 카메라(121a, 도 5A 참조)와 실질적으로 반대되는 촬영 방향을 가지며, 제1 카메라(121a)와 서로 다른 화소를 가지는 카메라일 수 있다.Referring to FIG. 5B, a second camera 121b may be additionally mounted on the rear surface of the terminal body, that is, the rear case 102. FIG. The second camera 121b may have a photographing direction substantially opposite to that of the first camera 121a (see FIG. 5A), and may be a camera having different pixels from the first camera 121a.

예를 들어, 제1 카메라(121a)는 화상 통화 등의 경우에 사용자의 얼굴을 촬영하여 상대방에 전송함에 무리가 없도록 저 화소를 가지며, 제2 카메라(121b)는 일반적인 피사체를 촬영하고 바로 전송하지는 않는 경우가 많기에 고 화소를 가지는 것이 바람직하다. 제1 및 제2 카메라(121a, 121b)는 회전 또는 팝업(pop-up) 가능하게 단말기 바디에 설치될 수도 있다.For example, the first camera 121a has low pixels so that it is easy to capture a face of a user in the case of a video call or the like and transmit the face to the other party. The second camera 121b photographs a general object and immediately transmits It is preferable to have a high pixel. The first and second cameras 121a and 121b may be installed in the terminal body so as to be able to rotate or pop-up.

제2 카메라(121b)에 인접하게는 플래시(123)와 거울(124)이 추가로 배치된다. 플래시(123)는 제2 카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향해 빛을 비추게 된다. 거울(124)은 사용자가 제2 카메라(121b)를 이용하여 자신을 촬영(셀프 촬영)하고자 하는 경우에, 사용자 자신의 얼굴 등을 비춰볼 수 있게 한다.A flash 123 and a mirror 124 are further disposed adjacent to the second camera 121b. The flash 123 shines light toward the subject when the subject is photographed by the second camera 121b. The mirror 124 enables the user to illuminate the user's own face or the like when the user intends to photograph the user himself / herself (self-photographing) using the second camera 121b.

단말기 바디의 후면에는 제2 음향출력모듈(153b)이 추가로 배치될 수도 있다. 제2 음향출력모듈(153b)은 제1 음향출력모듈(153a, 도 5A 참조)과 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.And a second sound output module 153b may be further disposed on the rear surface of the terminal body. The second sound output module 153b may implement the stereo function together with the first sound output module 153a (see FIG. 5A) and may be used for the implementation of the speakerphone mode during a call.

단말기 바디의 측면에는 통화 등을 위한 안테나 외에 방송신호 수신용 안테나(미도시)가 추가적으로 배치될 수 있다. 방송수신모듈(111, 도 1 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 설치될 수 있다.An antenna (not shown) for receiving a broadcast signal may be additionally disposed on the side of the terminal body in addition to an antenna for a call or the like. An antenna constituting a part of the broadcast receiving module 111 (see FIG. 1) can be installed to be able to be drawn out from the terminal body.

단말기 바디에는 이동 단말기(100)에 전원을 공급하기 위한 전원공급부(190, 도 1 참조)가 구비된다. 전원공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다. 본 도면에서는 배터리 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하는 것을 예시하고 있다.The terminal body is provided with a power supply unit 190 (see FIG. 1) for supplying power to the mobile terminal 100. The power supply unit 190 may include a battery 191 built in the terminal body or detachable from the outside of the terminal body. This figure illustrates that the battery cover 103 is coupled to the rear case 102 so as to cover the battery 191 to restrict the detachment of the battery 191 and to protect the battery 191 from external impact and foreign matter .

본 명세서에 개시된 이동 단말기 또는 웨어러블 디바이스에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.
It will be apparent to those skilled in the art that the techniques for mobile terminals or wearable devices disclosed herein may be embodied in other specific forms without departing from the spirit of the invention disclosed herein.

차량 제어 장치Vehicle control device

이하에서는 도 6A 내지 8C를 참조하여 본 명세서에 개시된 차량 제어 장치에 대해 상술한다.Hereinafter, the vehicle control device disclosed in this specification will be described in detail with reference to Figs. 6A to 8C.

도 6A는 본 발명과 관련된 차량 제어 장치를 설명하기 위한 블록도이다.6A is a block diagram for explaining a vehicle control apparatus related to the present invention.

도 6B는 본 발명과 관련된 차량 제어 장치와 연결되는 외부 기기들의 일 예를 보이고 있는 예시도이다.6B is an exemplary view showing an example of external devices connected to the vehicle control device related to the present invention.

도 6A 및 6B를 참조하면, 도 6A는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치를 설명하기 위한 블록도이고, 도 6B는 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치와 연결 가능한 외부 기기들의 예를 보이고 있는 예시도이다.6A and 6B are block diagrams for explaining a vehicle control apparatus according to an embodiment disclosed herein, and FIG. 6B is a block diagram illustrating a vehicle control apparatus according to an embodiment of the present invention, Fig. 8 is an example showing an example of devices. Fig.

우선, 도 6A에서 도시한 바와 같이 본 명세서에 개시된 일 실시 예에 따른 차량 제어 장치(400)는, 제어부(410), 및 제어부(410)와 연결되는 감지부(430), 차량 구동부(420), 메모리(440)를 포함하여 구성될 수 있으며, 출력부(450)를 더 포함할 수 있다. 그리고 상기 차량 제어 장치(400)는, 차량의 외관을 이루는 외부 프레임과 윈도우 및 사용자가 탑승 가능하도록 형성되는 내부 프레임을 포함하는 차량의 바디(body)부에 형성될 수 있다. 여기서, 도 6A에 도시된 구성요소들은 본 발명과 관련된 차량 제어 장치(400)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서상에서 설명되는 차량 제어 장치(400)는 위에서 열거된 구성요소들보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 6A, a vehicle control apparatus 400 according to an embodiment of the present invention includes a control unit 410, a sensing unit 430 connected to the control unit 410, a vehicle driving unit 420, And a memory 440, and may further include an output unit 450. The vehicle control apparatus 400 may be formed in a body portion of a vehicle including an outer frame forming an outer appearance of the vehicle, a window, and an inner frame formed so that the user can ride. Here, the components shown in FIG. 6A are not essential in implementing the vehicle control apparatus 400 related to the present invention, so that the vehicle control apparatus 400 described in this specification may be configured to have more , Or may have fewer components.

감지부(430)는 차량 제어 장치(400) 내 정보, 차량 제어 장치(400)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 감지부(430)는 근접센서(432, proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 차량 제어 장치(400)는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 430 may include at least one sensor for sensing at least one of information in the vehicle control device 400, surrounding environment information surrounding the vehicle control device 400, and user information. For example, the sensing unit 430 may include a proximity sensor 432, an illumination sensor, a touch sensor, an acceleration sensor, a magnetic sensor, a gravity sensor A G-sensor, a gyroscope sensor, a motion sensor, an RGB sensor, an infrared sensor, a finger scan sensor, an ultrasonic sensor, A sensor such as an optical sensor, an environmental sensor (for example, a barometer, a hygrometer, a thermometer, a radiation sensor, a heat sensor, a gas sensor, And the like). Meanwhile, the vehicle control apparatus 400 disclosed in this specification can combine and utilize the information sensed by at least two of the sensors.

한편, 감지부(430)는 근거리 통신 모듈(431)을 더 포함할 수 있다. 근거리 통신 모듈(431)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(431)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 차량 제어 장치(400)와 외부 기기(170, 도 6B 참조) 사이의 무선 통신을 지원할 수 있다. Meanwhile, the sensing unit 430 may further include a near field communication module 431. The short-range communication module 431 is for short-range communication. The short-range communication module 431 may be a Bluetooth ™, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), an Ultra Wideband (UWB) (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technology. The short range communication module 431 may support wireless communication between the vehicle control device 400 and the external device 170 (see FIG. 6B) through the wireless area networks.

상기 외부 기기는 전술된 이동 단말기(100)일 수 있다. 특히, 상기 외부 기기는 전술된 이동 단말기의 일 형태인 웨어러블 디바이스(200, 200') 형태일 수 있다.The external device may be the mobile terminal 100 described above. In particular, the external device may be in the form of a wearable device 200, 200 ', which is a form of the mobile terminal described above.

차량 구동부(420)는 차량의 잠금 상태를 해제하거나 또는 차량의 상태를 잠금 상태로 전환할 수 있다. 여기서 차량의 잠금 상태라는 것은, 차량의 기능이 전체 또는 일부의 기능이 제한되거나 또는 시동이 걸리지 않거나 도어가 열리지 않도록 하는 상태일 수 있다. 이와 반대로, 상기 잠금 상태가 해제되는 상태라는 것은, 차량의 운전석 또는 동승석의 도어(door)나, 뒷좌석의 도어들 중 적어도 하나 또는 트렁크(trunk)가 열리도록 하거나, 상기 차량의 모든 기능, 즉 시동이 걸릴 수 있도록 하거나 네비게이션 기능이나 환기 기능 등의 다양한 기능들이 사용가능한 상태가 되도록 하는 것을 의미할 수 있다. The vehicle drive unit 420 can release the locked state of the vehicle or switch the state of the vehicle to the locked state. Here, the locked state of the vehicle may be a state in which the function of the vehicle is limited in whole or in part, or the state in which the vehicle is not started or the door is not opened. On the contrary, the state in which the lock state is released means that at least one of a door of a driver's seat or a passenger seat of a vehicle, a door of a rear seat or a trunk is opened, or all the functions of the vehicle, Or a variety of functions such as a navigation function and a ventilation function can be made available.

또한 차량 구동부(420)는 차량의 각종 설정을 변경하거나 기능이 자동으로 수행되도록 할 수 있다. 예를 들어 차량 구동부(420)는, 차량의 각 구성부, 예를 들어 앞좌석의 운전석이나 동승석의 윈도우(Window)가 열린 정도, 또는 사이드 미러(Side Mirror)의 각도 등을 상기 제어부(410)의 제어에 따라 제어할 수 있으며, 운전석 또는 동승석 및 뒷자석들 중 적어도 하나의 시트 높이 또는 시트의 수평 위치(예를 들어 시트 사이의 간격)가 조정되도록 할 수 있다. 뿐만 아니라 차량 구동부(120)는 운전석의 핸들의 설정, 즉 핸들의 높이나 핸들의 감도 등이 제어부(410)의 제어에 따라 설정되도록 할 수도 있다. 또한 차량 구동부(420)는, 제어부(410)의 제어에 따라 차량의 기어(gear)가 자동 변속 모드 또는 수동 변속 모드로 동작하도록 할 수도 있으며, 하이브리드(hybrid) 차량의 경우, 내연 기관 엔진을 사용하는 모드 또는 전기 모터를 사용하는 모드 중 어느 하나의 모드가 우선적으로 선택되도록 할 수도 있다. In addition, the vehicle drive unit 420 may change various settings of the vehicle or perform functions automatically. For example, the vehicle drive unit 420 may control the components of the vehicle such as the driver's seat of the front seat, the degree of opening of the window of the passenger seat, the angle of the side mirror, And it is possible to adjust the seat height of at least one of the driver's seat or the rear seat and rear seats or the horizontal position of the seat (for example, the distance between the seats). In addition, the vehicle driver 120 may set the steering wheel handle setting, that is, the height of the steering wheel, the sensitivity of the steering wheel, etc., under the control of the controller 410. In addition, the vehicle drive unit 420 may cause the gear of the vehicle to operate in the automatic shift mode or the manual shift mode under the control of the control unit 410. In the case of a hybrid vehicle, Or a mode in which an electric motor is used may be preferentially selected.

또한 차량 구동부(420)는 이러한 차량의 물리적인 설정 상태뿐만 아니라 소프트웨어적인 설정 역시 상기 제어부(410)의 제어에 따라 변경되도록 할 수도 있다. 예를 들어 차량 구동부(420)는 제어부(410)의 제어에 따라 기 설정된 음악 리스트가 표시되도록 하거나, 또는 상기 기 설정된 리스트 상의 음악 중 어느 하나가 자동으로 재생되도록 할 수도 있다. 또는 차량 구동부(420)는 기 설정된 특정 목적지를 자동으로 설정하고, 구비된 네비게이션(navigation)을 통해 상기 특정 목적지까지의 경로가 자동으로 표시되도록 할 수도 있다. 또는 차량 구동부(420)는 차량의 크루즈 컨트롤(Cruise control) 시에, 상기 제어부(410)의 제어에 따라 차량간 거리 또는 차량 속도가 자동으로 설정되도록 할 수도 있다. The vehicle driving unit 420 may change not only the physical setting state of the vehicle but also the software setting according to the control of the controller 410. [ For example, the vehicle drive unit 420 may display a preset music list under the control of the control unit 410, or may automatically reproduce one of the music on the preset list. Or the vehicle driving unit 420 may automatically set a predetermined specific destination and automatically display the route to the specific destination through the provided navigation. Alternatively, the vehicle drive unit 420 may automatically set the vehicle-to-vehicle distance or the vehicle speed under the control of the control unit 410 at the time of cruise control of the vehicle.

이를 위해 차량 구동부(420)는, 적어도 하나의 서로 다른 하부 구동부들을 가질 수 있으며, 이러한 하부 구동부들은 각각 차량의 물리적인 설정 상태 또는 소프트웨어적인 설정 상태를 변경할 수 있다. 이하 차량의 물리적인 설정 상태를 변경하는 하부 구동부를 제1 구동부(421)라고 칭하기로 하고, 차량의 소프트웨어적인 설정 상태를 변경하는 하부 구동부를 제2 구동부(422)라고 칭하기로 한다. To this end, the vehicle driving unit 420 may have at least one different lower driving unit, and each of the lower driving units may change a physical setting state or a software setting state of the vehicle. Hereinafter, the lower driving unit for changing the physical setting state of the vehicle will be referred to as a first driving unit 421, and the lower driving unit for changing the software setting state of the vehicle will be referred to as a second driving unit 422. [

여기서 상기 제1 구동부(421)는 차량의 물리적인 설정을 변경하기 위하여, 차량의 외부 프레임이나 내부 프레임을 변경할 수 있는 다른 구성요소들을 포함할 수 있다. 예를 들어 상기 제1 구동부(421)는 시트의 높이나 등받이의 각도를 조정하기 위한 물리적인 구동부 등을 더 포함할 수 있으며, 핸들의 높이를 높이거나 낮추기 위한 코일이나 스프링 등의 탄성 부재나 압력 부재를 포함하는 핸들 높이 조정부 등을 더 포함할 수 있다.The first driving unit 421 may include other components that can change an outer frame or an inner frame of the vehicle to change a physical setting of the vehicle. For example, the first driving unit 421 may further include a physical driving unit for adjusting the height of the seat or the angle of the backrest, and may include an elastic member such as a coil or a spring for increasing or decreasing the height of the handle, And a handle height adjusting unit including the handle height adjusting unit.

한편 상기 제2 구동부(422)는 적어도 하나 이상의 응용 프로그램이나 애플리케이션 등으로 구현될 수 있다. 예를 들어 상기 제2 구동부(122)는 네비게이션을 구동하기 위한 응용 프로그램 중 어느 하나 또는 기 저장된 미디어 데이터(예를 들어 MP3 등)등을 재생하기 위한 응용 프로그램을 포함하는 형태로 구현될 수 있으며, 이러한 응용 프로그램 또는 애플리케이션들은 차량의 구동 제어를 위한 것들 중 어느 하나가 될 수도 있다. Meanwhile, the second driver 422 may be implemented by at least one application program or application. For example, the second drive unit 122 may be implemented as an application program for playing back any one of application programs for driving navigation or pre-stored media data (for example, MP3) These application programs or applications may be any of those for driving control of the vehicle.

출력부(450)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(451), 음향 출력부(452), 햅팁 모듈(453), 광 출력부(454) 중 적어도 하나를 포함할 수 있다. 각종 화상 정보를 표시하는 디스플레이부(451)는, 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치스크린을 구현할 수 있다. 이러한 터치스크린은, 차량 제어 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(423)로써 기능함과 동시에, 차량 제어 장치(400)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 450 includes at least one of a display unit 451, an acoustic output unit 452, a haptrip module 453, and a light output unit 454 to generate an output related to visual, auditory, can do. The display unit 451 for displaying various image information may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. This touch screen may function as a user input portion 423 that provides an input interface between the vehicle control device 100 and a user and may provide an output interface between the vehicle control device 400 and the user.

이러한 터치스크린은, 차량의 다양한 부분에 구현될 수 있다. 예를 들어 상기 터치스크린은, 차량의 윈드 쉴드 글래스(Wind Shield Glass)의 전체 또는 일부에 구현될 수 있으며, 외부면(차량의 외부에 노출되는 면) 또는 내부면(차량의 내부를 향하는 면) 중 어디에서라도 구현될 수 있다. 또한 상기 터치스크린은 운전석 옆면의 윈도우나 동승석 옆면의 윈도우 또는 차량 뒷좌석의 윈도우의 외부면 또는 내부면에 구현될 수도 있다. 또는 상기 터치스크린은 차량의 사이드 미러나, 차량의 선루프(sunroof)에도 구현될 수 있다. Such a touch screen can be implemented in various parts of the vehicle. For example, the touch screen may be implemented on all or part of a windshield glass of a vehicle, and may be an outer surface (a surface exposed to the outside of the vehicle) or an inner surface (a surface facing the inside of the vehicle) Lt; / RTI > The touch screen may also be implemented on a window on the side of the driver's seat, a window on the side of the driver's seat, or an exterior or interior surface of the window in the rear seat of the vehicle. Alternatively, the touch screen may be implemented in a side mirror of a vehicle or a sunroof of a vehicle.

또한 이러한 터치스크린은 차량의 윈도우나 선루프와 같은 글래스(galss) 부분뿐만 아니라, 차량의 외부 프레임 또는 내부 프레임에도 구현될 수 있다. 예를 들어 상기 터치스크린은 A-필라(Pillar), B-필라, C-필라와 같이, 윈드 쉴드 글래스와 윈도우 사이, 또는 윈도우나 윈도우 사이와 같은 차량의 외부 프레임의 표면에 구현될 수도 있다. 또는 차량 도어의 외부 표면의 적어도 일부(예를 들어 차량 도어의 손잡이 부분 근처)에 구현될 수도 있다. 뿐만 아니라 상기 터치스크린은 차량 내부의 기어(Gear) 박스(box) 덮개 표면이나, 콘솔(Console) 박스의 덮개 부분에 형성될 수도 있다. 또한 상기 터치스크린은, 적어도 하나 이상, 차량의 서로 다른 부분에 복수개가 형성될 수도 있음은 물론이다. Such a touch screen may also be implemented not only in the gals portion of the vehicle's window or sunroof, but also in the outer or inner frame of the vehicle. For example, the touch screen may be implemented on a surface of an outer frame of a vehicle, such as an A-pillar, a B-pillar, a C-pillar, between a windshield glass and a window, or between a window and a window. Or at least a portion of the exterior surface of the vehicle door (e.g., near the handle portion of the vehicle door). In addition, the touch screen may be formed on a cover surface of a gear box inside the vehicle or on a cover portion of a console box. It should be understood that a plurality of touch screens may be formed on at least one or more different portions of the vehicle.

메모리(440)는 차량 제어 장치(400)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(440)는 차량 제어 장치(400)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 차량 제어 장치(400)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 차량 제어 장치(400)의 기본적인 기능(예를 들어, 시동 기능, 네비게이션 기능, 차량 잠금 및 잠금 해제 기능)을 위하여 출고 당시부터 차량 제어 장치(400)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(440)에 저장되고, 차량 제어 장치(400) 상에 설치되어, 제어부(410)에 의하여 상기 차량 제어 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.The memory 440 stores data supporting various functions of the vehicle control device 400. [ The memory 440 may store a plurality of application programs (application programs or applications) driven by the vehicle control device 400, data for operation of the vehicle control device 400, and commands. At least some of these applications may be downloaded from an external server via wireless communication. At least some of these application programs may also be present on the vehicle control device 400 from the time of departure for the basic functions of the vehicle control device 400 (e.g., start function, navigation function, vehicle lock and unlock function) . On the other hand, the application program is stored in the memory 440, installed on the vehicle control device 400, and can be driven by the control unit 410 to perform the operation (or function) of the vehicle control device.

일 실시예에 따르면, 상기 응용 프로그램은 네비게이션 기능을 수행하는 네비게이션 프로그램일 수 있다.According to one embodiment, the application program may be a navigation program that performs a navigation function.

뿐만 아니라 메모리(440)는 적어도 한 명 이상의 사용자에 관련된 정보들을 저장할 수 있다. 여기서 사용자 관련 정보라는 것은, 해당 사용자의 인증 정보 및 해당 사용자가 직접 설정하거나 또는 사용자의 생체 정보에 근거하여 적합하게 설정된 각종 차량의 설정 상태에 대한 정보일 수 있다. 예를 들어 특정 사용자가 직접 설정한 차량의 내부 온도나 습도, 또는 사용자의 운전 습관에 따른 설정 정보 등이 될 수 있다. 또는 해당 사용자의 주행 경로 기록 등이 이러한 정보가 될 수도 있다. 또한 인증 정보는, 사용자가 미리 설정한 패스워드(password)나, 패턴(pattern)에 관한 정보일 수도 있으며, 또는 지문이나 홍채 인식 정보와 같은 사용자의 생체 정보에 근거한 정보일 수도 있다. 또는 상기 인증 정보는 사용자의 제스처(gesture)에 관련된 정보일 수도 있다. In addition, the memory 440 may store information related to at least one or more users. Here, the user-related information may be information on the authentication information of the user and the setting status of various vehicles set by the user directly or appropriately set based on the user's biometric information. For example, it may be internal temperature or humidity of a vehicle set by a specific user, or setting information according to a user's driving habits. Or the travel route record of the user may be such information. The authentication information may be information on a password, a pattern preset by the user, or information based on the user's biometric information such as fingerprint or iris recognition information. Alternatively, the authentication information may be information related to a user's gesture.

일 실시예에 따르면, 상기 사용자의 생체 정보는 상기 이동 단말기(100)(또는 상기 웨어러블 디바이스(200, 200'))에 의해 획득되는 것일 수 있다.According to one embodiment, the biometric information of the user may be obtained by the mobile terminal 100 (or the wearable device 200, 200 ').

이 경우, 상기 웨어러블 디바이스는, 차량에 설치된 차량 제어 장치와 통신을 수행하는 통신부 및 상기 특정 신체 부위(예를 들어, 손목 부위)로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부를 더 포함할 수 있다.In this case, the wearable device may further include a communication unit that communicates with a vehicle control device installed in the vehicle, and a biometric information obtaining unit that obtains biometric information on the user from the specific body part (e.g., the wrist) .

여기서, 상기 통신부는 상기 획득된 사용자의 생체 정보를 상기 차량 제어 장치(400)로 전송할 수 있고, 상기 저장부(440)는 상기 사용자의 생체 정보를 저장할 수 있다.Here, the communication unit may transmit the acquired biometric information of the user to the vehicle control device 400, and the storage unit 440 may store the biometric information of the user.

상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.The biometric information may be at least one of information on the heart rate, body fat, blood pressure, blood sugar, face shape, fingerprint, brain waves, and iris for the user.

또한, 메모리(440)는 제어부(410)의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 사용자 인증 정보, 운전 환경 설정 정보)을 임시 저장할 수도 있다. 상기 메모리(440)는 상기 터치스크린 상의 터치 입력시 출력되는 다양한 패턴의 진동 및 음향에 관한 데이터를 저장할 수 있다.The memory 440 may store a program for the operation of the controller 410 and may temporarily store input / output data (e.g., user authentication information and operation environment setting information). The memory 440 may store data on vibration and sound of various patterns outputted when a touch is input on the touch screen.

이러한 메모리(440)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광 디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량 제어 장치(400)는 인터넷(internet)상에서 상기 메모리(440)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 440 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), a multimedia card micro type a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable memory (EEPROM) read-only memory (ROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. The vehicle control apparatus 400 may be operated in association with a web storage that performs a storage function of the memory 440 on the Internet.

한편, 제어부(410)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 차량 제어 장치(400)의 전반적인 동작을 제어한다. 제어부(410)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(440)에 저장된 응용 프로그램을 구동함으로써, 차량의 구동을 제어할 수 있다. 또한, 제어부(410)는 메모리(440)에 저장된 응용 프로그램을 구동하기 위하여, 도 1a와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(410)는 상기 응용 프로그램의 구동을 위하여, 차량 제어 장치(400)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition to the operation related to the application program, the control unit 410 typically controls the overall operation of the vehicle control device 400. [ The control unit 410 may control the driving of the vehicle by processing signals, data, information or the like inputted or outputted through the above-mentioned components or driving an application program stored in the memory 440. In addition, the control unit 410 may control at least some of the components illustrated in FIG. 1A in order to drive an application program stored in the memory 440. Further, the control unit 410 may operate at least two or more of the components included in the vehicle control device 400 in combination with each other for driving the application program.

한편, 제어부(410)는 사용자로부터 인증 정보를 입력받을 수 있으며, 입력된 인증 정보에 근거하여 상기 사용자가 인증된 사용자인지 여부를 판단할 수 있다. 여기서 상기 인증 정보는, 사용자의 지문이나, 기 설정된 패턴의 인식 정보일 수 있다. 또는 상기 인증 정보는, 사용자의 홍채 인식 정보 또는 사용자의 특정한 제스처와 관련된 정보일 수 있다. 예를 들어 제어부(410)는 사용자에 의해 차량의 외부 또는 내부의 표면 일부분에 가해지는 복수의 두드림(예를 들어 탭(Tab) 또는 노크(Knock))의 패턴을 인식한 정보, 또는 차량의 외부 또는 내부의 일부분의 표면, 운전석 또는 동승석의 윈도우 및 윈드 쉴드 글래스 등에 형성된 터치스크린 영역을 통해 입력될 수 있는 지문 인식 정보를 상기 인증 정보로서 입력받을 수 있다. 또는 제어부(410)는 감지부(430)에 구비된 포토 센서나 카메라 등을 이용하여 차량의 내부 또는 외부에서 이루어지는 사용자의 제스처를 인식하거나, 또는 사용자의 홍채 정보를 인식할 수도 있다. Meanwhile, the control unit 410 can receive authentication information from a user, and can determine whether the user is an authenticated user based on the input authentication information. Here, the authentication information may be a fingerprint of the user or recognition information of a predetermined pattern. Or the authentication information may be iris recognition information of a user or information related to a specific gesture of a user. For example, the control unit 410 may recognize information of a pattern of a plurality of knocks (for example, tabs or knocks) applied to a portion of a surface of the vehicle exterior or interior by a user, Or a touch screen area formed on a surface of a part of the interior, a window of a driver's seat or a passenger seat, and a windshield glass, or the like, as the authentication information. Alternatively, the control unit 410 may recognize a user's gesture made inside or outside the vehicle by using a photosensor or a camera provided in the sensing unit 430, or may recognize the iris information of the user.

그리고 제어부(410)는, 인증된 사용자에 한하여 차량의 잠금 상태가 해제되도록 할 수 있다. 따라서 상기 차량 제어 장치(400)는. 사용자가 키를 사용하지 않고서도, 차량의 도어를 오픈하거나, 트렁크 등을 열 수 있도록 할 수 있다. 또는 기 설정된 사용자의 인증 정보를 이용하여 차량의 시동이 걸리도록 할 수도 있다. 또는 이와 반대로 차량의 상태를 잠금 상태로 전환되도록 할 수도 있다. 즉, 제어부(410)는 인증된 사용자의 선택에 근거하여 인증된 사용자의 인증 정보가 다시 입력될 때까지 차량의 잠금 상태가 유지되도록 할 수도 있다. 한편 제어부(410)는 차량의 잠금이 해제된 상태에서 차량의 외부를 통해 사용자의 인증 정보가 입력되면, 이에 근거하여 차량의 상태를 잠금 상태로 전환할 수 있다. 그리고 차량이 잠금 상태로 전환된 상태에서 다시 한번 동일한 인증 정보가 입력되면 차량을 다시 잠금 해제 상태로 전환되도록 할 수도 있다. Then, the control unit 410 can release the locked state of the vehicle only for the authenticated user. Therefore, the vehicle control apparatus 400 has: The user can open the door of the vehicle or open the trunk or the like without using the key. Alternatively, the vehicle may be started using the authentication information of the predetermined user. Or vice versa to switch the state of the vehicle to the locked state. That is, the control unit 410 may maintain the locked state of the vehicle until the authentication information of the authenticated user is input again based on the selection of the authenticated user. On the other hand, when the authentication information of the user is inputted through the outside of the vehicle while the vehicle is unlocked, the control unit 410 can switch the state of the vehicle to the locked state based on the user's authentication information. If the same authentication information is input once again while the vehicle is switched to the locked state, the vehicle may be switched to the unlocked state again.

제어부(410)는 이러한 사용자의 인증 정보를 입력받기 위해 차량의 일부에 터치스크린이 형성되도록 할 수 있다. 제어부(410)는 상기 형성된 터치스크린을 통해 사용자의 지문 정보를 입력받거나 패턴 정보를 입력받을 수 있으며, 또는 기 설정된 패스워드를 입력받을 수도 있다. 이를 위해 제어부(410)는 터치스크린 상에서 행해지는 필기 입력 또는 그림 그리기 입력을 각각 문자 및 이미지로 인식할 수 있는 패턴 인식 처리를 행할 수 있다. 나아가 제어부(410)는 이하에서 설명되는 다양한 실시 예들을 본 발명에 따른 차량 제어 장치(400) 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.The controller 410 may be configured to form a touch screen on a part of the vehicle to receive the authentication information of the user. The control unit 410 may receive the fingerprint information of the user, input the pattern information, or receive the preset password through the formed touch screen. For this purpose, the control unit 410 can perform a pattern recognition process for recognizing handwriting input or drawing input performed on the touch screen as characters and images, respectively. Furthermore, the control unit 410 may control any one or a plurality of the above-described components in order to implement various embodiments described below on the vehicle control device 400 according to the present invention.

또한 제어부(410)는, 상기 차량의 일부분에 형성된 터치스크린에서 각종 화상 정보가 표시되도록 할 수도 있다. 예를 들어 제어부(410)는 사용자의 인증을 위한 지문 입력 영역 또는 패턴 입력을 위한 그래픽 객체들이 상기 터치스크린 상에 표시되도록 할 수 있으며, 사용자의 인증 결과 또는 현재 인증된 사용자와 관련된 정보 등이 표시되도록 할 수도 있다. In addition, the control unit 410 may display various image information on the touch screen formed on a part of the vehicle. For example, the control unit 410 may display a fingerprint input area for user authentication or graphic objects for pattern input on the touch screen, and may display the authentication result of the user or information related to the currently authenticated user .

그리고, 제어부(410)는 인증된 사용자의 경우, 해당 사용자에 대응되는 사용자 관련 정보를 이용하여 차량의 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 제1 구동부(421)를 제어하여, 상기 인증된 사용자의 정보에 근거하여 운전석 등의 시트 높이나 등받이의 각도 등을 조절할 수 있으며, 차량 내부의 온도나 습도를 조절할 수도 있다. 또는 제어부(410)는 상기 인증된 사용자에 대응되는 정보에 근거하여 운전석 및 동승석 윈도우의 열림 정도, 또는 사이드 미러의 각도 등을 조절할 수 있으며, 또는 핸들의 높이 등을 조절할 수도 있다. In the case of the authenticated user, the control unit 410 may change the setting state of the vehicle using the user-related information corresponding to the user. For example, the control unit 410 may control the first driving unit 421 to adjust the seat height or the angle of the backrest of the driver's seat or the like based on the information of the authenticated user, have. Alternatively, the control unit 410 may adjust the degree of opening of the driver's seat and the passenger's window, the angle of the side mirror, or the like, or the height of the steering wheel, based on the information corresponding to the authenticated user.

뿐만 아니라, 제어부(410)는 차량의 각종 동작 모드가 인증된 사용자에 따라 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 핸들의 파워 스티어링(Power steering) 장치의 동작 모드를 변경하여 인증된 사용자가 선호하는 어느 하나의 동작 모드(예를 들어 노말(normal) 모드 또는 스포츠(sports) 모드)가 선택되도록 할 수도 있다. 또는 제어부(180)는 기어의 변속 방식에 있어서 수동 변속 방식 또는 자동 변속 방식 중 사용자가 선호하는 어느 하나의 방식으로 기어 변속 방식이 설정되도록 할 수도 있다. In addition, the control unit 410 may cause various operation modes of the vehicle to be changed according to the authenticated user. For example, the control unit 410 may change the operation mode of the power steering apparatus of the steering wheel to any one of the operation modes (for example, a normal mode or a sports mode) May be selected. Alternatively, the control unit 180 may set the gear shift mode in any one of the manual shift mode or the automatic shift mode that the user prefers in the shift mode of the gear.

또한 제어부(410)는 이러한 물리적인 설정 변경뿐만 아니라 소프트웨어적인 설정 변경을 수행할 수도 있다. 예를 들어 제어부(410)는, 인증된 사용자가 차량에 탑승한 경우, 해당 사용자가 선호하는 음악 또는 현재 인증된 사용자가 청취하던 음악 리스트를 자동으로 선택할 수 있다. 또는 제어부(410)는 현재 인증된 사용자가 주로 청취하는 라디오 방송국의 채널이 자동으로 선택되도록 할 수도 있다. In addition, the control unit 410 may perform software setting change as well as physical setting change. For example, when the authenticated user boarded the vehicle, the control unit 410 can automatically select a music list preferred by the user or a music list currently listened to by the authenticated user. Or the control unit 410 may automatically select a channel of the radio station that the currently authenticated user mainly hears.

또한 제어부(410)는 인증된 사용자가 차량에 탑승한 시각에 근거하여 다양한 차량의 설정이 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 인증된 사용자가 차량에 탑승한, 즉 사용자가 인증된 시각 및 인증된 사용자의 주행 기록에 근거하여, 해당 사용자가 해당 시각에 주로 향하는 목적지를 분석할 수 있다. 즉, 주로 사용자가 저녁 8시 사이에서 9시 사이에 퇴근하여 "집"으로 향하는 주행 습관을 가지고 있는 경우, 제어부(410)는 이러한 사용자의 주행 기록에 근거하여, 저녁 8시 부터 9시 사이에 사용자가 차량에 탑승하는 경우, 목적지를 "집"으로 자동 설정하고 해당 경로를 기 구비된 네비게이션의 디스플레이부에 표시할 수도 있다. Also, the control unit 410 may change various vehicle settings based on the time when the authenticated user boarded the vehicle. For example, the control unit 410 can analyze a destination that the user mainly travels at the time, based on the time at which the authenticated user boarded the vehicle, that is, the time at which the user was authenticated and the travel history of the authenticated user. In other words, when the user mainly has a driving habit toward "home" from 8:00 am to 9:00 am, the control unit 410, based on the user's driving record, When the user is boarding the vehicle, the destination may be automatically set to "home" and the route may be displayed on the display unit of the built-in navigation system.

이처럼 본 발명의 실시 예와 관련된 차량 제어 장치(400)의 제어부(410)는 사용자가 인증 정보를 이용하여 차량을 제어할 수 있도록 함으로써 사용자가 보다 쉽고 편하게 차량에 탑승하고 차량을 이용할 수 있도록 한다. 뿐만 아니라 본 발명의 실시 예에 따른 차량 제어 장치(400)의 제어부(410)는, 사용자가 인증되면, 인증된 사용자에 근거하여 차량의 각종 환경 설정을 조정함으로써, 사용자가 선호하는 운전 환경이 자동으로 제공되어 질 수 있도록 한다.As described above, the control unit 410 of the vehicle control device 400 related to the embodiment of the present invention allows the user to control the vehicle using the authentication information, thereby making it easier for the user to ride on the vehicle and use the vehicle. In addition, when the user is authenticated, the control unit 410 of the vehicle control device 400 according to the embodiment of the present invention adjusts various environment settings of the vehicle based on the authenticated user, As shown in FIG.

또한, 사용자가 차량에 탑승하지 않았을 때뿐만 아니라, 사용자가 차량에 탑승한 경우에도, 제어부(410)는 사용자의 선택에 근거하여 상기 차량의 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 손쉽게 변경되도록 할 수도 있다. 예를 들어 제어부(410)는 차량의 내부, 즉 예를 들어 콘솔 박스나 기어 박스 또는 운전석이나 동승석의 윈도우에 가해지는 복수의 두드림(탭(Tab))에 근거하여 적어도 하나의 상기 물리적인 설정 변경 또는 소프트웨어적인 설정 변경이 이루어지도록 할 수도 있다. 일 예로, 사용자가 차량의 핸들 부분에 복수의 탭을 가하는 경우, 제어부(410)는 이를 인식하여 핸들의 높이가 조정되도록 하거나 또는 파워 스티어링 장치의 동작 모드를 다른 모드로 변경되도록 할 수도 있다. In addition, not only when the user is not boarding the vehicle, but also when the user is boarding the vehicle, the control unit 410 allows the physical setting change or the software setting change of the vehicle to be easily changed based on the user's selection It is possible. For example, the control unit 410 may control at least one of the physical setting changes (for example, a change of the physical setting) based on a plurality of knocks (Tabs) applied to the interior of the vehicle, Or software configuration changes may be made. For example, when the user applies a plurality of taps to the handle portion of the vehicle, the controller 410 recognizes the taps so that the height of the steering wheel is adjusted or the operation mode of the power steering device is changed to another mode.

한편, 제어부(410)는 이러한 복수의 탭 뿐만 아니라, 사용자의 제스처에 근거하여서도 상기한 물리적 또는 소프트웨어적인 설정 상태가 변경되도록 할 수 있다. 예를 들어 제어부(410)는 차량 내부에 구비된 카메라나 포토 센서 또는 레이저 센서나 적외선 센서를 이용하여 차량에 탑승한 운전자 또는 동승자의 움직임을 감지할 수 있다. 그리고 운전자 또는 동승자의 움직임에 근거하여 특정 기능이 수행되거나 현재 설정된 상태가 조정되도록 할 수도 있다. 일 예로 만약 동승석에 앉은 탑승자가, 동승석 윈도우 근처에서 손을 위에서 아래로 내리는 제스처를 취하는 경우, 상기 동승석 윈도우는 탑승자의 상기 제스처에 근거하여 그 열림 정도가 조정될 수 있다. 또는 제어부(410)는 운전석 또는 탑승자의 제스처에 근거하여 특정 제스처(예를 들어 손가락을 튕기거나 박수를 치는 제스처)가 감지되는 경우, 기 설정된 특정 음악 데이터가 재생되도록 할 수도 있다. On the other hand, the control unit 410 can change not only the plurality of tabs but also the physical or software setting state based on the gesture of the user. For example, the controller 410 can detect movement of a driver or passenger on the vehicle using a camera, a photo sensor, a laser sensor, or an infrared sensor provided in the vehicle. And a specific function may be performed based on the movement of the driver or the passenger, or the currently set state may be adjusted. For example, if an occupant seated at the same passenger takes a gesture down the hand from the top to the bottom of the passenger's window, the degree of opening of the passenger's seat can be adjusted based on the occupant's gesture. Alternatively, the control unit 410 may cause the predetermined specific music data to be reproduced when a specific gesture (e.g., a gesture for flicking or clapping a finger) is detected based on the gesture of the driver's seat or the passenger.

한편, 상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 차량 제어 장치(400)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 차량 제어 장치(400)의 동작, 제어, 또는 제어방법은 상기 메모리(440)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 차량 제어 장치(400) 상에서 구현될 수 있다. At least some of the components may operate in cooperation with one another to implement the operation, control, or control method of the vehicle control apparatus 400 according to the various embodiments described below. In addition, the operation, control, or control method of the vehicle control device 400 may be implemented on the vehicle control device 400 by driving at least one application program stored in the memory 440.

이하에서는, 위에서 살펴본 차량 제어 장치(400)를 통하여 구현되는 다양한 실시 예들을 살펴보기에 앞서, 위에서 열거된 구성요소들에 대하여 도 6A를 참조하여 보다 구체적으로 살펴본다.Hereinafter, the components listed above will be described in more detail with reference to FIG. 6A, before explaining various embodiments implemented through the vehicle control device 400 described above.

감지부(430)는 차량 제어 장치 내 정보, 차량 제어 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(410)는 이러한 센싱 신호에 기초하여, 차량 제어 장치(400)의 구동 또는 동작을 제어하거나, 차량 제어 장치(400)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다. 감지부(430)에 포함될 수 있는 다양한 센서 중 대표적인 센서들의 대하여, 보다 구체적으로 살펴본다.The sensing unit 430 senses at least one of information in the vehicle control device, surrounding environment information surrounding the vehicle control device, and user information, and generates a corresponding sensing signal. The control unit 410 may control the driving or operation of the vehicle control device 400 or may perform data processing, function, or operation related to the application program installed in the vehicle control device 400 based on the sensing signal. Representative sensors among various sensors that may be included in the sensing unit 430 will be described in more detail.

먼저, 근접 센서(432)는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서(432)는 차량 내부 또는 외부의 각 영역 또는 상기 터치스크린의 근처에 배치될 수 있다. First, the proximity sensor 432 refers to a sensor that detects the presence of an object approaching a predetermined detection surface, or the presence of an object in the vicinity thereof, without mechanical contact using an electromagnetic force or an infrared ray. Such a proximity sensor 432 may be disposed in each area inside or outside the vehicle or near the touch screen.

근접 센서(432)의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전 용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 터치스크린이 정전식인 경우에, 근접 센서(432)는 전도성을 갖는 물체의 근접에 따른 전계의 변화로 상기 물체의 근접을 검출하도록 구성될 수 있다. 이 경우 터치스크린(또는 터치 센서) 자체가 근접 센서로 분류될 수 있다. Examples of the proximity sensor 432 include a transmission type photoelectric sensor, a direct reflection type photoelectric sensor, a mirror reflection type photoelectric sensor, a high frequency oscillation type proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. In the case where the touch screen is electrostatic, the proximity sensor 432 can be configured to detect the proximity of the object with a change of the electric field along the proximity of the object having conductivity. In this case, the touch screen (or touch sensor) itself may be classified as a proximity sensor.

한편, 설명의 편의를 위해, 터치스크린 상에 물체가 접촉되지 않으면서 근접되어 상기 물체가 상기 터치스크린 상에 위치함이 인식되도록 하는 행위를 "근접 터치(proximity touch)"라고 명명하고, 상기 터치스크린 상에 물체가 실제로 접촉되는 행위를 "접촉 터치(contact touch)"라고 명명한다. 상기 터치스크린 상에서 물체가 근접 터치 되는 위치라 함은, 상기 물체가 근접 터치될 때 상기 물체가 상기 터치스크린에 대해 수직으로 대응되는 위치를 의미한다. 상기 근접 센서(432)는, 근접 터치와, 근접 터치 패턴(예를 들어, 근접 터치 거리, 근접 터치 방향, 근접 터치 속도, 근접 터치 시간, 근접 터치 위치, 근접 터치 이동 상태 등)을 감지할 수 있다. 한편, 제어부(410)는 위와 같이, 근접 센서(432)를 통해 감지된 근접 터치 동작 및 근접 터치 패턴에 상응하는 데이터(또는 정보)를 처리하며, 나아가, 처리된 데이터에 대응하는 시각적인 정보를 터치스크린 상에 출력시킬 수 있다. 나아가, 제어부(410)는, 터치스크린 상의 동일한 지점에 대한 터치가, 근접 터치인지 또는 접촉 터치인지에 따라, 서로 다른 동작 또는 데이터(또는 정보)가 처리되도록 차량 제어 장치(400)를 제어할 수도 있다.On the other hand, for convenience of explanation, the act of recognizing that the object is located on the touch screen in proximity to the touch screen without touching the object is referred to as "proximity touch" The act of actually touching an object on the screen is called a "contact touch. &Quot; The position at which the object is closely touched on the touch screen means a position where the object corresponds to the touch screen vertically when the object is touched. The proximity sensor 432 can detect proximity touches and proximity touch patterns (e.g., proximity touch distance, proximity touch direction, proximity touch rate, proximity touch time, proximity touch location, proximity touch movement state, have. Meanwhile, the control unit 410 processes data (or information) corresponding to the proximity touch operation and the proximity touch pattern sensed through the proximity sensor 432 as described above, and further provides visual information corresponding to the processed data It can be output on the touch screen. Further, the control unit 410 may control the vehicle control apparatus 400 so that different operations or data (or information) are processed depending on whether the touch to the same point on the touch screen is a proximity touch or a contact touch have.

터치 센서는 저항막 방식, 정전용량 방식, 적외선 방식, 초음파 방식, 자기장 방식 등 여러 가지 터치 방식 중 적어도 하나를 이용하여 터치스크린(또는 디스플레이부(451))에 가해지는 터치(또는 터치 입력)를 감지한다.The touch sensor uses a touch (or touch input) applied to the touch screen (or the display unit 451) by using at least one of various touch methods such as a resistance film type, a capacitive type, an infrared type, an ultrasonic type, Detection.

일 예로서, 터치 센서는, 터치스크린의 특정 부위에 가해진 압력 또는 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는, 터치스크린 상에 터치를 가하는 터치 대상체가 터치 센서 상에 터치 되는 위치, 면적, 터치 시의 압력, 터치 시의 정전 용량 등을 검출할 수 있도록 구성될 수 있다. 여기에서, 터치 대상체는 상기 터치 센서에 터치를 인가하는 물체로서, 예를 들어, 손가락, 터치 펜 또는 스타일러스 펜(Stylus pen), 포인터 등이 될 수 있다. For example, the touch sensor may be configured to convert a change in a pressure applied to a specific portion of the touch screen or a capacitance generated in a specific portion to an electrical input signal. The touch sensor may be configured to detect a position, an area, a pressure at the time of touch, a capacitance at the time of touch, and the like where a touch object touching the touch screen is touched on the touch sensor. Here, the touch object may be a finger, a touch pen, a stylus pen, a pointer, or the like as an object to which a touch is applied to the touch sensor.

이와 같이, 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 제어부(410)로 전송한다. 이로써, 제어부(180)는 디스플레이부(451)의 어느 영역이 터치 되었는지 여부 등을 알 수 있게 된다. 여기에서, 터치 제어기는, 제어부(410)와 별도의 구성요소일 수 있고, 제어부(410) 자체일 수 있다. Thus, when there is a touch input to the touch sensor, the corresponding signal (s) is sent to the touch controller. The touch controller processes the signal (s) and transmits the corresponding data to the control unit 410. Thus, the control unit 180 can know which area of the display unit 451 is touched or the like. Here, the touch controller may be a separate component from the controller 410, and may be the controller 410 itself.

한편, 제어부(410)는, 터치스크린(또는 터치스크린 이외에 구비된 터치키)을 터치하는, 터치 대상체의 종류에 따라 서로 다른 제어를 수행하거나, 동일한 제어를 수행할 수 있다. 터치 대상체의 종류에 따라 서로 다른 제어를 수행할지 또는 동일한 제어를 수행할지는, 현재 차량 제어 장치(400)의 동작상태 또는 실행 중인 응용 프로그램에 따라 결정될 수 있다. Meanwhile, the control unit 410 may perform different controls or perform the same control according to the type of the touch object, which touches the touch screen (or a touch key provided on the touch screen). Whether to perform different controls or perform the same control according to the type of the touch object may be determined according to the operating state of the current vehicle control device 400 or an application program being executed.

한편, 위에서 살펴본 터치 센서 및 근접 센서는 독립적으로 또는 조합되어, 터치스크린에 대한 숏(또는 탭) 터치(short touch), 롱 터치(long touch), 멀티 터치(multi touch), 드래그 터치(drag touch), 플리크 터치(flick touch), 핀치-인 터치(pinch-in touch), 핀치-아웃 터치(pinch-out 터치), 스와이프(swype) 터치, 호버링(hovering) 터치 등과 같은, 다양한 방식의 터치를 센싱할 수 있다.On the other hand, the touch sensors and the proximity sensors discussed above can be used independently or in combination to provide a short touch (touch), a long touch, a multi touch, a drag touch ), Flick touch, pinch-in touch, pinch-out touch, swipe touch, hovering touch, and the like. Touch can be sensed.

초음파 센서는 초음파를 이용하여, 감지대상의 위치정보를 인식할 수 있다. 한편 제어부(410)는 광센서와 복수의 초음파 센서로부터 감지되는 정보를 통해, 파동 발생원의 위치를 산출하는 것이 가능하다. 파동 발생원의 위치는, 광이 초음파보다 매우 빠른 성질, 즉, 광이 광센서에 도달하는 시간이 초음파가 초음파 센서에 도달하는 시간보다 매우 빠름을 이용하여, 산출될 수 있다. 보다 구체적으로 광을 기준 신호로 초음파가 도달하는 시간과의 시간차를 이용하여 파동 발생원의 위치가 산출될 수 있다.The ultrasonic sensor can recognize the position information of the object to be sensed by using ultrasonic waves. Meanwhile, the controller 410 can calculate the position of the wave generating source through the information sensed by the optical sensor and the plurality of ultrasonic sensors. The position of the wave source can be calculated using the fact that the light is much faster than the ultrasonic wave, that is, the time when the light reaches the optical sensor is much faster than the time the ultrasonic wave reaches the ultrasonic sensor. More specifically, the position of the wave generating source can be calculated using the time difference with the time when the ultrasonic wave reaches the reference signal.

한편, 감지부(430)는 사용자의 제스처를 인식하기 위해, 카메라 센서(예를 들어, CCD, CMOS 등), 포토 센서(또는 이미지 센서) 및 레이저 센서 중 적어도 하나를 포함할 수 있다. The sensing unit 430 may include at least one of a camera sensor (e.g., a CCD, a CMOS, etc.), a photosensor (or an image sensor), and a laser sensor to recognize a gesture of a user.

카메라(421)와 레이저 센서는 서로 조합되어, 감지대상의 터치를 감지할 수 있다. 포토 센서는 디스플레이 소자에 적층될 수 있는데, 이러한 포토 센서는 터치스크린에 근접한 감지대상의 움직임을 스캐닝하도록 이루어진다. 보다 구체적으로, 포토 센서는 행/열에 Photo Diode와 TR(Transistor)를 실장하여 Photo Diode에 인가되는 빛의 양에 따라 변화되는 전기적 신호를 이용하여 포토 센서 위에 올려지는 내용물을 스캔한다. 즉, 포토 센서는 빛의 변화량에 따른 감지대상의 좌표 계산을 수행하며, 이를 통하여 감지대상의 위치정보가 획득될 수 있다.The camera 421 and the laser sensor are combined with each other to sense the touch of the object to be sensed. The photosensor can be laminated to the display element, which is adapted to scan the movement of the object to be detected proximate to the touch screen. More specifically, the photosensor mounts photo diodes and TRs (Transistors) in a row / column and scans the contents loaded on the photosensor using an electrical signal that varies according to the amount of light applied to the photo diode. That is, the photo sensor performs coordinate calculation of the object to be sensed according to the amount of change of light, and position information of the object to be sensed can be obtained through the calculation.

디스플레이부(451)는 상술한 바와 같이 사용자의 인증 정보 입력과 관련된 다양한 화상 정보를 표시할 수 있다. 예를 들어 디스플레이부(451)는 터치스크린이 형성된 차량의 일부 영역에서, 사용자의 지문을 입력받기 위한 영역을 표시하는 그래픽 객체나, 패턴 정보를 입력받기 위한 그래픽 객체를 표시할 수 있다. 또는 디스플레이부(451)는 사용자 인증이 완료된 경우 사용자 인증 결과 및 현재 인증된 사용자와 관련된 정보를 표시할 수도 있다. 이러한 화상 정보들은 차량의 윈드 쉴드 글래스의 적어도 일부나 운전석 또는 동승석의 윈도우 등에 표시될 수 있으며, 이에 따라 본 발명의 실시 예에 따른 차량 제어 장치(400)가 구비되는 차량의 윈도우 또는 윈드 쉴드 글래스의 적어도 일부는, 사용자의 터치 입력을 감지할 수 있도록 전극 설계될 수 있다. The display unit 451 may display various image information related to the user's authentication information input as described above. For example, the display unit 451 may display a graphic object displaying an area for receiving a fingerprint of a user or a graphic object for receiving pattern information in a part of a vehicle where a touch screen is formed. Alternatively, the display unit 451 may display information related to the user authentication result and the currently authenticated user when the user authentication is completed. Such image information may be displayed on at least a part of the windshield glass of the vehicle or a window of a driver's seat or a passenger's seat or the like so that the window of the vehicle or the windshield glass of the vehicle equipped with the vehicle control apparatus 400 according to the embodiment of the present invention At least a portion of the electrodes may be designed to sense the user's touch input.

또한 이러한 디스플레이부(451)는, 상기 윈드 쉴드 글래스 및 윈도우의 외부면 뿐만 아니라 내부면에도 형성될 수 있다. 그리고 이처럼 내부면에 형성되는 디스플레이부(451)는 차량 제어 장치(400)에서 처리되는 정보를 표시(출력)할 수도 있다. 예를 들어, 상기 내부면에 형성되는 디스플레이부(451)에 표시되는 화면 정보는, 차량 제어 장치(400)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보일 수 있다. Also, the display portion 451 may be formed on the inner surface as well as the outer surface of the windshield glass and the window. The display unit 451 formed on the inner surface may display (output) information to be processed by the vehicle control device 400. For example, the screen information displayed on the display unit 451 formed on the inner surface may include execution screen information of an application program driven by the vehicle control apparatus 400, UI (User Interface) based on the execution screen information, , And GUI (Graphic User Interface) information.

또한 상기 디스플레이부(451)는 상기 감지부(130)에 포함되어 구현될 수도 있다. 이러한 경우, 상기 디스플레이부(451)는 상기 감지부(430)의 감지 결과 및, 사용자 인증 정보의 매칭 결과 또는 상기 사용자의 고유 인증 정보의 일부(예를 들어 사용자의 이름 등)를 표시할 수도 있다. Also, the display unit 451 may be included in the sensing unit 130. In this case, the display unit 451 may display the detection result of the sensing unit 430, the matching result of the user authentication information, or a part of the unique authentication information of the user (e.g., the name of the user) .

음향 출력부(452)는 메모리(440)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 차량 제어 장치(400)에서 수행되는 기능(예를 들어, 사용자 인증 확인음, 사용자 인증 안내음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(452)에는 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The audio output unit 452 can output the audio data stored in the memory 440. The sound output unit 152 also outputs sound signals related to functions (e.g., user authentication sound, user authentication sound, etc.) performed in the vehicle control device 400. [ The sound output unit 452 may include a speaker, a buzzer, and the like.

한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 출력부(450)는 햅틱 모듈(haptic module)(453)을 포함할 수 있다. 햅틱 모듈(453)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(453)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 제어부(410)는 차량의 외부 프레임이나 내부 프레임 또는 글래스 형태의 윈도우등에 구현된 터치스크린에 사용자의 터치 입력이 감지되는 경우 상기 햅틱 모듈(453)을 이용하여 촉각 정보가 출력되도록 할 수 있고, 이에 따라 사용자는, 촉각 정보를 이용하여 자신이 입력한 인증 정보가 올바르게 입력되었는지 여부를 확인할 수도 있다. Meanwhile, the output unit 450 of the vehicle control apparatus 400 according to the embodiment disclosed herein may include a haptic module 453. [ The haptic module 453 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 453 may be vibration. The controller 410 can output tactile information using the haptic module 453 when a user's touch input is detected on a touch screen implemented in an outer frame of the vehicle, an inner frame, a glass window, or the like. Accordingly, the user can check whether or not the authentication information inputted by himself / herself is correctly inputted by using the tactile information.

이러한 햅틱 모듈(453)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(453)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The intensity and pattern of the vibration generated in the haptic module 453 can be controlled by the user's selection or the setting of the control unit. For example, the haptic module 453 may combine and output different vibrations or sequentially output the vibrations.

햅틱 모듈(453)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 453 can be used for a variety of applications such as a pin arrangement vertically moving with respect to the contact skin surface, a spraying force or suction force of air through the injection port or the suction port, a touch on the skin surface, And various tactile effects such as an effect of reproducing a cold sensation using an endothermic or exothermic element can be generated.

햅틱 모듈(453)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 구현할 수도 있다. 햅틱 모듈(453)은 차량 제어 장치(400)의 구성 태양에 따라 2개 이상이 구비될 수 있다.The haptic module 453 can transmit the tactile effect through the direct contact, and the tactile effect can be realized by the user through the muscular sense of the finger or arm. More than two haptic modules 453 may be provided in accordance with the configuration of the vehicle control device 400.

한편, 이하에서 다양한 실시 예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. In the following, various embodiments may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof.

한편, 본 명세서에 개시된 실시 예에 따른 차량 제어 장치(400)의 감지부(430)는 상기 바디부에 장착되어 사용자 신체의 일부와 접촉하도록 이루어지는 본체 및, 사용자가 상기 본체를 두드리는 탭(tab) 또는 탭 제스처(tab gesture)를 감지하기 위한 탭 감지부(433)를 더 구비할 수 있다. 여기서 상기 차량 제어 장치(400)의 탭 감지부(433)에서 감지되는 탭은 사용자의 인증 정보를 입력하기 위한 수단으로, 또는 사용자가 차량에 탑승한 경우 차량 제어 장치(400)의 각종 기능을 제어하기 위한 수단으로 사용될 수 있다. 그리고 이러한 탭은, 손가락 등의 탭 대상체로 차량 제어 장치(400) 본체 또는 물체를 가볍게 치는 동작, 또는 탭 대상체를 차량 제어 장치(400) 본체 또는 물체에 가볍게 접촉시키는 동작으로 이해되어 질 수 있다. 여기서 상기 감지부(430)의 본체는, 차량의 외부 프레임과 내부 프레임 및 윈도우나 윈드 쉴드 글래스를 포함하는 차량의 바디(body)부에 형성될 수 있다.Meanwhile, the sensing unit 430 of the vehicle control apparatus 400 according to the embodiment of the present invention includes a body mounted on the body unit to contact a part of the user's body, Or a tab sensing unit 433 for sensing a tab gesture. Here, the tabs sensed by the tap sensing unit 433 of the vehicle control device 400 are means for inputting authentication information of the user, or may be configured to control various functions of the vehicle control device 400 when the user boarded the vehicle As shown in FIG. These tabs can be understood as an operation of lightly tapping the body or the object of the vehicle control device 400 with a tap object such as a finger or an operation of lightly touching the tap object to the body or the object of the vehicle control device 400. [ Here, the body of the sensing unit 430 may be formed in a body portion of the vehicle including an outer frame of the vehicle, an inner frame, and a window or a windshield glass.

한편, 이러한 탭을 인가하는 탭 대상체는, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물일 수 있으며, 예를 들어, 손가락, 스타일러스 펜(stylus pen), 펜(pen), 포인터, 주먹 등이 될 수 있다. 한편, 상기 탭 대상체는, 반드시 본 발명에 따른 차량 제어 장치(400)에 터치입력을 가할 수 있는 사물에 제한되지 않고, 차량 제어 장치(400) 본체 또는 물체에 외력을 가할 수 있는 사물이기만 하면 그 종류가 무관하다. The tap object to which the tap is applied may be an object that can apply external force to the body of the vehicle control device 400 or an object. For example, the tap object may include a finger, a stylus pen, a pen, , A fist, and the like. The tap object is not limited to an object to which a touch input can be applied to the vehicle control device 400 according to the present invention. If the object is an object that can apply an external force to the body or the object of the vehicle control device 400, The kind is irrelevant.

한편, 상기 탭 제스처가 가해지는 물체는, 차량 제어 장치(400) 본체 및 차량 제어 장치(400) 위에 놓여진 물체 중 적어도 하나를 포함할 수 있다. On the other hand, the object to which the tap gesture is applied may include at least one of a body of the vehicle control device 400 and an object placed on the vehicle control device 400.

한편, 상기 탭 또는 탭 제스처는 탭 감지부(433)에 포함된 가속도 센서 및 터치 센서 중 적어도 하나에 의하여 감지될 수 있다. 여기에서 가속도 센서는, 차량 제어 장치(400) 본체의 가속도, 진동, 충격 등의 동적 힘을 측정하는 것이 가능한 센서이다.The tap or tap gesture may be sensed by at least one of an acceleration sensor and a touch sensor included in the tap sensing unit 433. [ Here, the acceleration sensor is a sensor capable of measuring dynamic forces such as acceleration, vibration, and impact of the main body of the vehicle control device 400.

즉, 가속도 센서는 탭 제스처에 의해 발생하는 차량 제어 장치(400) 본체의 진동(또는 움직임)을 감지하여, 물체에 대하여 탭이 가해졌는지를 감지할 수 있다. 따라서 상기 가속도 센서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하거나, 차량 제어 장치(400) 본체에 움직임 또는 진동이 발생했는지를 감지할 수 있을 만큼 차량 제어 장치(400) 본체와 가깝게 위치하는 물체가 탭되는 것을 감지할 수 있다.That is, the acceleration sensor can sense vibration (or movement) of the main body of the vehicle control device 400 generated by the tap gesture, and detect whether the tap is applied to the object. Therefore, the acceleration sensor is positioned close to the main body of the vehicle controller 400 so as to detect a tap with respect to the main body of the vehicle controller 400 or to detect whether movement or vibration occurs in the main body of the vehicle controller 400 It is possible to detect that an object is tapped.

이와 같이, 가속도 센서는 차량 제어 장치(400) 본체에 움직임 또는 진동이 감지하는 것이 가능하기만 하면, 상기 탭이 차량 제어 장치(400) 본체에 인가되는 경우뿐만 아니라, 상기 본체를 벗어난 지점에 인가되는 경우에도 상기 탭을 감지할 수 있다.As long as the acceleration sensor can detect movement or vibration in the main body of the vehicle control device 400, the acceleration sensor can be applied not only to the case where the tap is applied to the main body of the vehicle control device 400, It is possible to detect the tab.

본 발명에 따른 차량 제어 장치(100)에서는, 차량 제어 장치(400) 본체에 대한 탭을 감지하기 위하여, 가속도 센서 및 터치 센서 중 어느 하나만을 사용하거나, 가속도 센서 및 터치 센서를 순차적으로 사용하거나, 또는 가속도 센서 및 터치 센서를 동시에 사용할 수 있다. 한편, 탭을 감지하기 위하여, 가속도 센서만을 사용하는 모드는, 제1 모드, 터치 센서를 사용하는 모드는 제2 모드로 명명될 수 있고, 가속도 센서 및 터치 센서를 모두 활용(동시에 또는 순차적으로 사용 가능)하는 모드는 제3 모드 또는 하이브리드(hybrid) 모드로 명명될 수 있다.In the vehicle control device 100 according to the present invention, only one of the acceleration sensor and the touch sensor, the acceleration sensor, and the touch sensor are sequentially used for sensing the tab of the main body of the vehicle control device 400, Or an acceleration sensor and a touch sensor can be used at the same time. On the other hand, in order to sense a tap, a mode using only an acceleration sensor may be named as a first mode, a mode using a touch sensor may be referred to as a second mode, and both the acceleration sensor and the touch sensor may be used Mode) may be referred to as a third mode or a hybrid mode.

한편, 터치 센서를 통해 탭을 감지하는 경우, 탭이 감지되는 위치를 보다 정확하게 파악하는 것이 가능할 수 있다.On the other hand, when the tab is sensed through the touch sensor, it is possible to more accurately grasp the position where the tab is sensed.

한편, 일 실시예에 따른 차량 제어 장치(400)에서는, 가속도 센서 또는 터치 센서를 통해 상기 탭을 감지하기 위하여, 차량 제어 장치(400)의 디스플레이부(451)가 비활성화 상태에서도 최소한의 전류 또는 전력이 소모되는 특정 모드로 동작할 수 있다. 이러한 특정 모드는 "도즈 모드(또는 Doze mode)"라고 명명 될 수 있다. In the vehicle control apparatus 400 according to an embodiment of the present invention, in order to sense the tap through the acceleration sensor or the touch sensor, the display unit 451 of the vehicle control device 400 may be operated with a minimum current or power Can be operated in a specific mode consumed. This particular mode may be named "Doze mode ".

예를 들어, 도즈 모드는, 터치 센서와 디스플레이부(451)가 상호 레이어 구조를 이루는 터치스크린 구조에서, 상기 디스플레이부(451)에서 화면을 출력하기 위한 발광소자가 오프(off)되고, 상기 터치 센서는 온(on) 상태를 유지하는 상태일 수 있다. 또는 상기 도즈 모드는, 상기 디스플레이부(451)가 오프되고, 상기 가속도 센서가 온 된 상태를 유지하는 모드일 수 있다. 또는 상기 도즈 모드는 상기 디스플레이부(451)가 오프되고, 상기 터치 센서 및 가속도 센서가 모두 온 된 상태를 유지하는 모드일 수 있다.For example, in the doze mode, in a touch screen structure in which a touch sensor and a display unit 451 form a mutual layer structure, a light emitting element for outputting a screen in the display unit 451 is turned off, The sensor may be in the on-state state. Alternatively, the doze mode may be a mode in which the display unit 451 is turned off, and the acceleration sensor is kept in an on-state. Alternatively, the dose mode may be a mode in which the display unit 451 is turned off, and the touch sensor and the acceleration sensor are all kept on.

따라서, 상기 도즈 모드 상태, 즉, 디스플레이부(451)가 오프된 상태(디스플레이부(451)가 비활성된 상태)에서, 사용자가 차량의 일부분에 형성된 터치스크린 상의 적어도 일 지점 또는 상기 차량 제어 장치(400) 본체의 특정 지점에 상기 탭을 가하는 경우, 온(on) 되어 있는 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 사용자로부터 상기 탭이 가해졌음을 감지할 수 있다. Therefore, in the doze mode state, that is, in a state where the display unit 451 is turned off (the display unit 451 is in an inactive state), the user can perform at least one point on the touch screen formed on a part of the vehicle, 400, when the tab is attached to a specific point of the main body, it is possible to detect that the tab is applied from the user through at least one of the on-touch sensor and the acceleration sensor.

또한 제어부(410)는, 사용자의 인증 정보를 입력하기 위한 수단으로서의 탭 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 탭과 단순하게 외부의 임의의 물체가 충돌한 것을 구분하기 위해, 상기 차량의 일부에 형성된 터치스크린에 적어도 두 번 이상의 탭이 기준 시간 이내에 가해지는 경우에 한하여, 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 제어를 목적으로 하는 "탭"이 감지되었다고 판단할 수 있다. 예를 들어, 제어부(410)는, 탭 감지부(433)의 감지 결과, 상기 차량의 일부분에 형성된 터치스크린에 한 번의 탭이 가해진 것으로 판단되는 경우, 상기 한 번의 탭을 사용자의 인증 정보를 입력받기 위한 것이 아니라 단지 외부의 임의의 물체 또는 인체가 충돌한 것으로 인식할 수도 있다. In order to distinguish the taps as the means for inputting the user's authentication information or the taps as the means for controlling the functions of the vehicle control device 400 and simply any external objects, It is judged that a "tab" for the purpose of inputting the user's authentication information or controlling the vehicle control device 400 is detected only when at least two or more tabs are applied to the touch screen formed on a part of the vehicle within the reference time can do. For example, if it is determined that one tap is applied to the touch screen formed on a part of the vehicle as a result of the detection by the tap detection unit 433, the control unit 410 inputs the user's authentication information It may be recognized that an arbitrary external object or human body has collided.

따라서 제어부(410)는 탭 감지부(433)에 의해, 기준시간 이내에 연속적으로 가해지는 적어도 두 번 이상(또는 복수 번)의 탭이 감지된 경우에 한하여, 사용자의 인증 정보를 입력하기 위한 수단 또는 차량 제어 장치(400)의 기능을 제어하기 위한 수단으로서의 '탭'이 감지되었다고 판단할 수 있다. Accordingly, the control unit 410 may be configured to input the authentication information of the user only when at least two or more tabs (or a plurality of times) that are continuously applied within the reference time are detected by the tab detecting unit 433 Quot; tab " as a means for controlling the function of the vehicle control device 400 is detected.

즉, 탭 제스처들은 적어도 두 번 이상의 탭 제스처가 기준시간 이내에 연속적으로 감지되는 것을 의미할 수 있다. 따라서 이하에서는, "탭"이 감지되었다고 함은, 실질적으로 복수 회 차량 제어 장치(400)의 본체에 사용자의 손가락 또는 터치펜등의 물체가 두드려지는 것이 감지되었음을 의미할 수 있다.That is, tap gestures may mean that at least two or more tap gestures are continuously sensed within a reference time. Therefore, in the following description, the detection of the "tap " may mean that it has been sensed that a user's finger, a touch pen, or the like is struck by the body of the vehicle control apparatus 400 substantially plural times.

나아가, 제어부(410)는 상기 탭이, 상기 기준시간 이내에 감지되는 것뿐만이 아니라, 상기 탭이 사용자의 각각 다른 손가락에 의해 감지된 것인지 하나의 손가락에서 감지된 것인지 여부를 판단할 수도 있다. 예를 들어 제어부(410)는 차량의 기 설정된 일부 영역, 즉 차량의 윈도우나 윈드 쉴드 글래스의 일부 영역이나 A, B, C 필라 또는 차량의 선루프, 또는 차량 도어의 일부분이나, 차량 내부의 콘솔 박스나 기어 박스 등에서 상기 탭들이 감지된 경우, 상기 탭들이 가해진 부분에서 감지되는 지문을 이용하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다. 또는 제어부(410)는 탭 감지부(433)에 구비된 터치 센서 또는 가속도 센서 중 적어도 하나를 통해 상기 디스플레이부(451) 상에서 상기 탭들이 감지된 위치 또는 상기 탭들로 인해 발생된 가속도를 인식하여 상기 탭들이 하나의 손가락을 통해 이루어진 것인지 또는 각각 다른 손가락을 통해 이루어진 것인지를 감지할 수 있다.In addition, the controller 410 may determine whether the tab is sensed by the user's other finger or one finger, as well as that the tab is sensed within the reference time. For example, the control unit 410 may control a predetermined area of the vehicle, that is, a window of the vehicle or a part of the windshield glass or a portion of the A, B, C pillars or the vehicle roof, When the tabs are detected in a box, a gear box, or the like, the user can sense whether the tabs are made through one finger or through different fingers, using fingerprints sensed at the portions where the tabs are applied. The control unit 410 recognizes the position of the taps on the display unit 451 or the acceleration generated due to the taps through at least one of the touch sensor or the acceleration sensor provided in the tap sensing unit 433, You can detect if the tabs are made with one finger or each with a different finger.

더욱이 제어부(410)는 탭이 가해진 각도 및 거리, 또는 상기 지문이 인식된 방향등을 더 고려하여, 사용자가 상기 탭들을 한 손 또는 한 손가락을 통해 입력한 것인지 또는 양손 또는 적어도 두 개의 손가락을 통해 입력한 것인지 여부를 판단할 수 있다. Further, the control unit 410 determines whether the user has input the tabs through one hand or one finger, or both hands or at least two fingers It is possible to judge whether or not it is inputted.

한편, 상기 탭들은 기준시간 내에서 연속적으로 감지되는 복수 회의 두드림을 의미할 수 있다. 여기에서, 기준시간은 매우 짧은 시간일 수 있으며, 예를 들어, 300ms 내지 2s 이내의 시간일 수 있다. The taps may be a plurality of tapes continuously sensed within the reference time. Here, the reference time may be a very short time, for example, 300 ms to 2 s or less.

이를 위하여, 탭 감지부(433)에 위해 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 탭 감지부(433)는 상기 처음 두드림이 감지된 시간으로부터 기준시간 이내에 상기 처음 두드림에 이어 다음번 두드림이 있는지를 감지할 수 있다. 그리고 기준 시간 이내에 상기 다음 번 두드림이 감지되는 경우, 상기 탭 감지부(433) 또는 제어부(410)는 본 발명의 실시 예에 따라 사용자의 인증 정보의 입력 또는 차량 제어 장치(400)의 특정 기능을 제어하기 위한 탭이 감지된 것으로 판단할 수 있다. 이처럼 제어부(410)는, 제1 탭이 감지된 후, 소정 시간 이내에 제2 탭이 감지된 경우에만, "유효한 탭"으로 인식함으로써, 사용자가 인증 정보를 입력하기 위하여 또는 차량 제어 장치(400)를 제어하기 위하여 탭을 가한 것인지, 아니면 단지 사용자의 실수 또는 의도되지 않은 물체가 차량 외부 또는 내부에 충돌한 것인지를 구분할 수 있다.If the tap detecting unit 433 detects that the main body of the vehicle control apparatus 400 has been tapped for the first time, the tap detecting unit 433 detects the tap for the first time after the first tapping You can detect if there is a tap. If the next tap is detected within the reference time, the tap sensing unit 433 or the control unit 410 may input the authentication information of the user or the specific function of the vehicle control device 400 according to the embodiment of the present invention. It can be determined that a tab for controlling is detected. In this way, the controller 410 recognizes the second tab only when the second tab is detected within a predetermined time period after the first tab is detected, thereby enabling the user to input the authentication information, Or whether it is merely a user's mistake or an unintended object crashing outside or inside the vehicle.

상기 "유효한 탭"이 인식되도록 하는 방법은 여러 가지가 있을 수 있다. 예를 들어, 제어부(410)는 제1 기준 횟수만큼 또는 제1 기준 횟수 이상 두드리는 제1 탭이 감지된 후, 소정 시간 이내에 상기 본체를 제2 기준 횟수만큼 또는 제2 기준 횟수 이상 두드리는 제2 탭이 감지되는 것을 상기 "유효한 탭"으로 인식할 수도 있다. 여기에서, 상기 제1 기준 횟수와 상기 제2 기준 횟수의 수는 서로 같거나 다를 수도 있다. 예를 들어, 상기 제1 기준 횟수는 1회일 수 있고, 상기 제2 기준 횟수는 2회일 수 있다. 또 다른 예로, 상기 제1 기준 횟수 및 제2 기준 횟수는 모두 1회일 수 있다.There are various methods for allowing the "valid tab" to be recognized. For example, the control unit 410 may control the second tap for tapping the body by the second reference number or by the second reference number within a predetermined time after the first tap is detected by the first reference count or by the first reference count or more, May be recognized as the "valid tap ". Here, the number of the first reference times and the number of the second reference times may be equal to or different from each other. For example, the first reference number may be one, and the second reference number may be two. As another example, the first reference number and the second reference number may all be one.

또한 제어부(410)는, 상기 탭이 "소정의 영역" 내에서 가하진 경우에 한하여, 상기 "탭"들이 감지되었다고 판단할 수 있다. 즉 제어부(410)는, 차량 제어 장치(400) 본체가 처음 두드려진 것이 감지되면, 상기 처음 두드림이 감지된 지점으로부터 소정의 영역을 산출할 수 있다. 그리고 제어부(410)는 상기 처음 두드림이 감지된 시간으로부터 상기 기준시간 이내에 상기 "소정의 영역"에 상기 처음 두드림에 이어 상기 제1 또는 제2 기준 횟수만큼, 또는 제1 또는 제2 기준 횟수 이상 두드림이 감지되는 경우 상기 제1 탭 또는 제2 탭이 가해진 것으로 판단할 수 있다. Also, the control unit 410 may determine that the "tabs " are detected only when the tab is within the" predetermined area ". That is, when it is detected that the main body of the vehicle controller 400 is tapped for the first time, the controller 410 may calculate a predetermined area from the point where the first tapping is detected. Then, the control unit 410 determines whether or not the first hit is followed by the first or second reference count or the first or second reference count or more within the reference time from the time when the first hit is sensed It can be determined that the first tab or the second tab is applied.

한편, 상술한 기준시간 및 소정의 영역은 실시 예에 따라 다양하게 변형될 수 있음은 물론이다. It is to be understood that the reference time and the predetermined region may be variously modified according to the embodiment.

한편 상기 제1 탭 및 제 2 탭은 기준 시간 및 소정의 영역 뿐만 아니라, 각 탭이 감지된 위치에 따라 별개의 탭으로 감지될 수도 있음은 물론이다. 즉, 제어부(410)는 제1 탭이 감지된 위치에서 일정 거리 이상 이격된 위치에서 제 2 탭이 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다. 그리고 이처럼 감지된 위치에 근거하여 상기 제1 탭 및 제2 탭을 인식하는 경우, 상기 제1 탭 및 제2 탭은 동시에 감지될 수도 있다. Meanwhile, the first tap and the second tap may be sensed not only as a reference time and a predetermined area, but also as separate tabs depending on the detected position of each tab. That is, the controller 410 can determine that the first tab and the second tab are applied when the second tab is detected at a position spaced apart by a predetermined distance from the position where the first tab is sensed. When the first tap and the second tap are recognized based on the sensed position, the first tap and the second tap may be simultaneously detected.

또한 상기 제1 탭 및 제2 탭이 복수의 터치, 즉 복수의 두드림으로 구성되는 경우에는, 상기 제1 탭 및 제2 탭을 각각 구성하는 복수의 터치들 역시 동시에 감지될 수 있음은 물론이다. 예를 들어 상기 제1 탭을 구성하는 최초의 터치가 감지됨과 동시에, 상기 제1 탭의 최초의 터치가 감지된 위치로부터 일정 거리 이상 이격된 위치에, 상기 제2 탭을 구성하는 최초의 터치가 감지되는 경우, 제어부(180)는 상기 제1 탭 및 제2 탭을 구성하는 최초의 터치를 각각 감지할 수 있다. 그리고 제어부(410)는 각 위치에서 감지되는 추가적인 터치 입력을 감지하고, 상기 각 위치에서 제1 기준 횟수 또는 제2 기준 횟수 이상의 터치가 감지되는 경우, 상기 제1 탭 및 제2 탭이 가해진 것으로 판단할 수 있다. Also, when the first tap and the second tap are configured by a plurality of touches, that is, a plurality of tapes, a plurality of touches constituting the first tap and the second tap may be simultaneously detected. For example, when the first touch constituting the first tab is detected and the first touch constituting the second tab is positioned at a position distant from the detected position of the first touch of the first tab If it is sensed, the controller 180 can sense the first touch constituting the first tap and the second tap, respectively. The controller 410 senses an additional touch input sensed at each position and determines that the first tab and the second tab are applied when a touch is detected at a first reference frequency or at a second reference frequency or more at each position can do.

한편, 차량 제어 장치(400) 본체에 대한 탭이, 탭 감지부(133)로부터 복수 회 감지되면 상기 제어부(410)는 상기 복수 회 감지된 탭에 근거하여, 사용자의 인증 뿐만 아니라 차량 제어 장치(400)에서 실행 가능한 기능 중 적어도 하나가 제어되도록 할 수 있다. 여기에서, 상기 차량 제어 장치(400) 상에서 실행 가능한 기능은, 차량 제어 장치(400)에서 실행되거나 구동되는 것이 가능한 모든 종류의 기능을 의미할 수 있다. 여기서 상기 실행 가능한 기능 중 하나는, 차량 제어 장치(400)에 설치된 애플리케이션일 수 있다. 그리고 "임의의 기능이 실행된다"고 함은, "임의의 응용 프로그램이 상기 차량 제어 장치(400)에서 실행 또는 구동"되는것을 의미할 수 있다. 예를 들어 제어부(410)는 콘솔 박스에서 감지되는 사용자의 복수의 탭에 근거하여 음악 파일을 재생하거나 또는 기 설정된 목적지까지의 경로가 자동으로 설정되도록 네비게이션을 제어할 수 있다.If the tab of the main body of the vehicle control device 400 is detected a plurality of times from the tap sensing unit 133, the control unit 410 not only authenticates the user, 400 may be controlled so that at least one of the executable functions is controlled. Here, the functions executable on the vehicle control device 400 may mean all kinds of functions that can be executed or driven by the vehicle control device 400. [ Here, one of the executable functions may be an application installed in the vehicle control apparatus 400. And "an arbitrary function is executed" may mean that "any application program is executed or driven in the vehicle control apparatus 400 ". For example, the control unit 410 may play a music file based on a plurality of tabs of the user detected in the console box, or may control the navigation to automatically set a path to a predetermined destination.

또 다른 예로서, 차량 제어 장치(400)에서 실행 가능한 기능은, 차량 제어 장치(400)의 기본적인 구동을 위하여 필요한 기능일 수 있다. 예를 들어, 기본적인 구동을 위하여 필요한 기능은, 차량에 구비된 에어컨이나 온풍기를 온/오프하는 기능일 수 있고, 차량에 시동을 걸거나, 차량을 잠금 상태에서 잠금 해제상태에서 전환하거나, 반대로 해제 상태에서 잠금 상태로 전환하는 기능 등이 존재할 수 있다. 또는 차량의 크루즈 컨트롤 기능을 온(on) 시키거나 또는 오프(off)하는 기능일 수 있다. As another example, a function executable in the vehicle control device 400 may be a function necessary for basic driving of the vehicle control device 400. [ For example, the functions required for basic driving may be a function of turning on / off an air conditioner or a hot air fan provided in the vehicle, and may be a function for starting the vehicle, switching the vehicle from the locked state to the unlocked state, And a function of switching from a state to a locked state. Or to turn the cruise control function of the vehicle on or off.

한편, 제어부(410)는 사용자의 인증 정보를 입력받는 위치를 사용자의 탭이 감지된 본체 또는 터치스크린 상의 지점에 근거하여 형성할 수 있다. 예를 들어 제어부(410)는 처음 사용자의 탭이 가해진 지점을 중심으로, 패턴 정보를 입력받기 위한 영역이 형성되도록 하거나, 또는 사용자의 생체 정보, 즉 예를 들어 지문 등을 입력받기 위한 영역이 형성되도록 할 수 있다. 이러한 경우, 사용자가 매번 본체 또는 터치스크린 상의 다른 지점에 탭을 가하는 경우라고 할지라도, 사용자의 패턴 정보 또는 생체 인증 정보가 입력되는 지점은 매번 달라질 수 있다. 이에 따라 사용자는 인증 정보의 노출을 최소화할 수 있으며, 따라서 차량의 도난 등의 위협으로부터 보다 안전해질 수 있다. On the other hand, the control unit 410 can form a position where the user's authentication information is input based on the body of the user's tab or a point on the touch screen. For example, the control unit 410 forms an area for receiving the pattern information, centering on a point where the first user's taps are applied, or forms an area for receiving the user's biometric information, . In this case, the point at which the user's pattern information or the biometric authentication information is input may be changed every time, even if the user taps the body or another point on the touch screen every time. Accordingly, the user can minimize the exposure of the authentication information, and thus can be safer from a threat such as theft of the vehicle.

뿐만 아니라 이러한 사용자 인증 정보는 사용자의 선택에 근거하여 기 설정된 외부기기를 경유하여 차량 제어 장치(400)에 입력될 수도 있음은 물론이다. 즉, 예를 들어 감지부(430)는 근거리 통신 모듈(431)을 이용하여 차량 외부의 기 설정된 외부 기기와 연결될 수 있으며, 이러한 외부 기기를 통해 입력되는 사용자의 인증 정보는, 상기 근거리 통신 모듈(431)을 통해 감지부(430)로 인가되고, 제어부(410)에 의해 인증될 수도 있다.Needless to say, the user authentication information may be input to the vehicle control device 400 via a predetermined external device based on the user's selection. That is, for example, the sensing unit 430 may be connected to a predetermined external device outside the vehicle using the short-range communication module 431, and authentication information of the user input through the external device may be transmitted to the short- 431 to the sensing unit 430 and may be authenticated by the control unit 410.

상기 차량 제어 장치(400)는 차량으로부터 차량 정보를 획득할 수 있다.The vehicle control apparatus 400 can acquire vehicle information from the vehicle.

일 실시예에 따르면, 상기 차량 정보는 전술된 감지부(430)을 통해 획득될 수 있다.According to one embodiment, the vehicle information may be acquired through the sensing unit 430 described above.

또 다른 실시예에 따르면, 상기 차량 제어 장치(400)는 상기 차량 정보를 획득하는 차량 정보 획득부(460)를 별도로 구비할 수 있다.According to another embodiment, the vehicle control apparatus 400 may further include a vehicle information obtaining section 460 for obtaining the vehicle information.

여기서, 상기 차량 정보는, 상기 차량에 대한 공조 기능, 도어(본네트, 트렁크 및 주유구 등을 포함)의 개폐 여부, 창문의 개폐 여부, 선루프의 개폐 여부, 상기 차량의 배터리 충전 상태, 상기 차량의 주차 위치, 상기 차량에 구비된 네비게이션 기능, 차량의 도난 상태 및 상기 차량의 주유 상태 중 적어도 하나와 관련된 정보인 것일 수 있다.Here, the vehicle information includes at least one of an air conditioning function for the vehicle, whether or not the door (including a bonnet, a trunk, and a fuel supply port) is open or closed, whether a window is open or closed, whether a sunroof is opened or closed, A parking position, a navigation function provided in the vehicle, a stolen state of the vehicle, and a state of running of the vehicle.

또한, 상기 차량 정보는, 상기 차량의 운전 속도, 운전 가속도, 현재까지의 운행 거리, 급가속 횟수 및 급제동 횟수 중 적어도 하나와 관련된 정보를 더 포함할 수 있다.The vehicle information may further include information related to at least one of an operation speed of the vehicle, an operation acceleration, a travel distance to the present, a rapid acceleration frequency, and a sudden braking frequency.

이를 위해, 상기 차량 정보 획득부(460)는 상기 차량에 구비된 다양한 센서와 통신을 수행할 수 있다.For this purpose, the vehicle information obtaining unit 460 may perform communication with various sensors provided in the vehicle.

예를 들어, 상기 차량 정보 획득부(460)는 상기 차량에 설치되고, 상기 차량의 가속도를 측정하는 가속도 센서와 통신을 수행하여 상기 차량에 대한 가속도 정보를 수집할 수 있다.For example, the vehicle information acquiring unit 460 may acquire acceleration information for the vehicle by communicating with an acceleration sensor installed in the vehicle and measuring an acceleration of the vehicle.

또한, 예를 들어, 상기 차량 정보 획득부(460)는, 상기 차량에 구비된 블랙 박스와 통신을 수행하여, 차량 사고 발생 시, 사고 영상을 획득할 수 있다. 이 경우, 상기 메모리(440)는 상기 사고 영상을 저장할 수 있다.In addition, for example, the vehicle information obtaining unit 460 can communicate with the black box provided in the vehicle to obtain an accident image when a vehicle accident occurs. In this case, the memory 440 may store the accident image.

영상 정보 획득부(470)는 영상획득장치(900)로부터 사용자에 대한 영상 정보를 획득한다.The image information acquiring unit 470 acquires image information about the user from the image acquiring apparatus 900.

영상획득장치(900)는 카메라와 같이 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리할 수 있는 수단으로서, 사용자에 대한 영상을 획득한다.The image acquisition apparatus 900 acquires an image for a user as means for processing an image frame such as a still image or a moving image obtained by an image sensor such as a camera.

영상획득장치(900)는 하나 또는 복수일 수 있으며, 영상 정보 획득부(470)는 상기 영상획득장치(900)로부터 각종 통신 수단을 통하여 영상 정보를 획득할 수 있다.The image acquiring unit 900 may acquire image information through various communication means from the image acquiring apparatus 900. [

도 6B는 이처럼 기 설정된 외부 기기가 본 발명의 실시 예에 따른 차량 제어 장치에 연결되는 예를 도시한 것이다.6B shows an example in which the predetermined external device is connected to the vehicle control apparatus according to the embodiment of the present invention.

도 6B를 참조하여 살펴보면, 상기 기 설정된 외부 기기(170)는, 사용자의 스마트 폰(smart phone: 171)이나 스마트 키(smart key: 172) 등의 이동 단말기일 수 있다. 이러한 경우, 제어부(180)는 상기 외부 기기(170)의 고유 정보를 인식하여, 상기 외부 기기(170)가 일정 거리 이내로 근접한 경우 자동으로 특정 사용자가 인식되도록 할 수 있다. 그리고, 제어부(410)는 사용자가 상기 외부 기기(170)를 통해 입력하는 인증 정보를 수신할 수 있으며, 외부 기기(170)에서 입력된 인증 정보는 외부 기기(170)에 구비된 통신 모듈과, 감지부(430)의 근거리 통신 모듈(431)을 통해 차량 제어 장치(400)로 전달될 수 있다. 6B, the predetermined external device 170 may be a mobile terminal such as a smart phone 171 or a smart key 172 of the user. In this case, the controller 180 recognizes the unique information of the external device 170, and automatically recognizes a specific user when the external device 170 is within a predetermined distance. The control unit 410 may receive the authentication information input by the user through the external device 170. The authentication information input by the external device 170 may include a communication module provided in the external device 170, And may be transmitted to the vehicle control device 400 through the short range communication module 431 of the sensing unit 430.

한편, 이러한 인증 정보는 상기 사용자의 생체 정보일 수 있다.The authentication information may be biometric information of the user.

일 실시예에 따르면, 상기 생체 정보는, 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 획득되는 것일 수 있다.According to one embodiment, the biometric information may be obtained by the mobile terminal 100 or the wearable device 200, 200 '.

여기서, 상기 생체 정보는, 상기 사용자에 대한 심박수, 체지방, 혈압, 혈당, 얼굴 모양, 지문, 뇌파 및 홍채에 대한 정보 중 적어도 하나인 것일 수 있다.Here, the biometric information may be at least one of information on the heart rate, body fat, blood pressure, blood glucose, face shape, fingerprint, brain waves, and iris for the user.

예를 들어, 상기 인증 정보는, 사용자의 심박수, 지문이나 홍채 인식 정보 또는 기 설정된 패스워드나 패턴 정보일 수 있다. 또한 이러한 인증 정보는 특정한 사용자의 제스처에 관련된 정보일 수도 있다. For example, the authentication information may be a user's heart rate, fingerprint or iris recognition information, or predetermined password or pattern information. Such authentication information may also be information related to a specific user's gesture.

상기 사용자에 대한 인증은 복수 개의 생체 정보 또는 복수 개의 인증 정보를 근거로 이루어질 수 있다.The authentication for the user may be based on a plurality of biometric information or a plurality of authentication information.

예를 들어, 상기 사용자에 대한 인증은, 상기 사용자의 심박수 및 상기 사용자의 제스처를 모두 확인하여 이루어질 수 있다.For example, authentication of the user may be performed by checking both the heart rate of the user and the gesture of the user.

이를 위해 상기 외부 기기(170)는 사용자로부터 인증 정보를 입력받기 위한 구성, 즉, 일 실시 예에 따른 차량 제어 장치(400)의 감지부(430)에 구비된 센서 중 적어도 일부 또는 그 외의 다른 부가적인 센서들과 동일, 유사하거나 대응되는 구성을 더 포함할 수 있다.The external device 170 may be configured to receive authentication information from a user, that is, to receive at least some of the sensors provided in the sensing unit 430 of the vehicle control device 400, And may further include configurations that are the same, similar or corresponding to those of the sensors.

예를 들어 상기 스마트 키(172) 또는 스마트 폰(171)과 같은 외부 기기(170)에는, 사용자가 패턴 정보를 입력할 수 있는 터치스크린 또는 상기 차량 제어 장치(400)의 감지부(430)에 구비된 탭 감지부(433)와 동일, 유사 또는 그에 대응되는 감지부가 구비될 수 있다. 또한 상기 외부 기기(170)에는, 사용자의 지문을 인식하기 위한 지문 인식부가 더 구비될 수도 있다. 뿐만 아니라 상기 외부 기기(170)에는 사용자의 제스처를 인식하기 위한 관성 센서, 자이로 센서, 또는 가속도 센서 등을 더 구비할 수도 있음은 물론이다. For example, the external device 170 such as the smart key 172 or the smart phone 171 may be provided with a touch screen on which a user can input pattern information or a touch screen on which the user can input pattern information, A sensing unit may be provided that is the same as, or similar to, the tap sensing unit 433. The external device 170 may further include a fingerprint recognition unit for recognizing the fingerprint of the user. In addition, the external device 170 may further include an inertial sensor, a gyro sensor, or an acceleration sensor for recognizing the user's gesture.

또한, 예를 들어, 시계형 이동 단말기인 스마트 워치(173)의 경우에는, 사용자의 심박수를 획득할 수 있는 센서를 포함할 수 있고, 또한 안경형 이동 단말기인 스마트 안경(174)의 경우에는, 사용자의 홍채를 인식하기 위한 홍채 인식 카메라를 포함할 수 있다.For example, the smart watch 173, which is a watch type mobile terminal, may include a sensor capable of acquiring a user's heart rate. In the case of the smart glasses 174 as a spectacle type mobile terminal, And an iris recognition camera for recognizing the iris of the subject.

이러한 경우 사용자는 상기 외부 기기(170)를 통해 지문, 기 설정된 패턴 정보, 홍채 인식 정보 중 적어도 하나를 이용하여 자신의 인증 정보를 입력할 수 있다. 또는 사용자는 상기 외부 기기(170)를 착용한 채로 특정한 제스처를 취함으로써 자신의 인증 정보가 외부 기기(170)에 입력되도록 할 수도 있다. 이러한 경우 상기 외부 기기(170)의 제어부(180)는 사용자의 제스처에 따라 상기 외부 기기(170)의 위치 변경에 대한 정보, 즉 가속도 측정값이나 중력 변화량, 또는 관성의 변화량을 측정한 값을 이용하여 상기 사용자의 제스처를 인식하고 이를 인증 정보로 활용할 수 있다. 또는 상기 외부 기기(170)는 카메라 등을 통해 입력되는 사용자의 영상을 이용하여 위치가 변경되었음을 인식하고, 변경된 값을 측정할 수도 있다. In this case, the user can input his / her authentication information using at least one of the fingerprint, predetermined pattern information, and iris recognition information through the external device 170. Alternatively, the user may be allowed to input his / her authentication information to the external device 170 by taking a specific gesture while wearing the external device 170. In this case, the controller 180 of the external device 170 uses the value of the position change of the external device 170, that is, the measured value of the acceleration measurement value, the gravity change amount, or the inertia change amount according to the gesture of the user So that the gesture of the user can be recognized and utilized as authentication information. Alternatively, the external device 170 may recognize that the position has been changed using a user's image input through a camera or the like, and may measure the changed value.

한편, 이처럼 외부 기기(170)를 통해 인증 정보가 입력되면, 차량 제어 장치(400)의 제어부(410)는 상기 입력된 인증 정보를 이용하여 차량의 구동을 제어할 수 있다. 예를 들어 제어부(410)는 상기 인증 정보에 따라 현재 사용자를 인식하고, 차량의 잠금 상태를 해제 및 상기 인식된 사용자에 대응되는 차량 내부 환경이 설정되도록 할 수도 있다. 또는 제어부(410)는 현재 차량의 상태가 잠금 해제 상태이며, 시동이 종료된 상태에서 다시 한번 상기 인증 정보가 입력되는 경우, 차량의 잠금 해제 상태를 잠금 상태로 변환되도록 할 수도 있다. Meanwhile, when the authentication information is input through the external device 170, the control unit 410 of the vehicle control device 400 can control driving of the vehicle using the input authentication information. For example, the control unit 410 may recognize the current user according to the authentication information, cancel the locked state of the vehicle, and set the vehicle internal environment corresponding to the recognized user. Alternatively, the control unit 410 may change the unlocked state of the vehicle to the locked state when the current vehicle state is the unlocked state and the authentication information is input again once the startup is completed.

한편, 이처럼 상기 외부 기기(170)를 통해 입력된 사용자의 인증 정보를 이용하여 바로 차량의 구동이 제어되도록 할 수도 있으나, 제어부(410)는 한 번의 인증 과정을 사용자에게 더 요구할 수도 있다. 이러한 경우, 제어부(410)는 상기 외부 기기(170)가 일정 거리 이내로 근접하거나 또는 상기 외부 기기(170)를 통해 인증 정보가 입력되는 경우, 차량의 상태를 웨이크 업(wake up) 상태로 전환하고, 상기 인증된 사용자로부터 입력되는 인증 정보에 따라 차량을 구동할 준비를 수행할 수 있다. 그리고 웨이크 업 상태로 전환된 상태에서 사용자가 차량의 외부 또는 내부의 기 설정된 영역(예를 들어 운전석 또는 동승석의 윈도우나, A, B, C 필라 등)에 다시 한번 인증 정보를 입력하는 경우, 이를 입력받아 사용자를 인증하고, 그에 따라 차량이 구동되도록 할 수 있다. Meanwhile, the driving of the vehicle may be immediately controlled using the authentication information of the user input through the external device 170. However, the control unit 410 may request the user for a single authentication process. In this case, when the external device 170 is within a predetermined distance or when authentication information is inputted through the external device 170, the control unit 410 changes the state of the vehicle to a wake up state , And prepare to drive the vehicle according to the authentication information input from the authenticated user. When the user enters the authentication information again in a predetermined area (for example, a window of a driver's seat or a passenger seat, A, B, C pillars, etc.) outside or inside the vehicle in a state of being switched to the wakeup state Receives the input, authenticates the user, and drives the vehicle accordingly.

또한, 상술한 설명에서는 단지 한 번의 인증 절차가 더 수행되는 것을 예로 들어 설명하였으나, 얼마든지 더 많은 인증 절차가 수행될 수 있음은 물론이다. 또한 상술한 설명에서는 외부 기기(170)를 통해 사용자의 인증 정보가 입력되는 경우에 복수의 인증 절차를 수행하는 것을 설명하였으나, 이러한 복수의 인증 절차는 사용자가 직접 차량의 일부분에 형성된 터치스크린 영역에 자신의 인증 정보를 입력하는 경우에도 마찬가지로 적용될 수도 있음은 물론이다. In addition, although it has been described in the above description that only one authentication procedure is performed, it is needless to say that more authentication procedures can be performed. In the above description, a plurality of authentication procedures are performed when the user's authentication information is input through the external device 170. However, the plurality of authentication procedures may be performed by a user directly in a touch screen area It is needless to say that the present invention can also be applied to the case of inputting the authentication information of the user.

도 7은 본 명세서에 개시된 일 실시예에 따른 차량 제어 장치의 디스플레이부를 설명하기 위한 예시도이다.7 is an exemplary view for explaining a display unit of the vehicle control device according to the embodiment disclosed herein.

도 7은 상기 차량 제어 장치(400)가 차량의 헤드 유닛(Head Unit)의 형태로 구현된 경우를 나타낸다. 7 shows a case where the vehicle control apparatus 400 is implemented in the form of a head unit of a vehicle.

상기 차량 제어 장치(400)는 복수의 디스플레이부(D100 ~ D102)를 포함할 수 있다.The vehicle control apparatus 400 may include a plurality of display units D100 to D102.

예컨대, 도 7에 도시되어 있는 바와 같이, 상기 차량 제어 장치(400)는 운전석 앞쪽에 하나의 제1 디스플레이부(D100), 각 뒷좌석 앞쪽에 두 개의 제2 디스플레이부(D101, D102)를 포함할 수 있다.For example, as shown in FIG. 7, the vehicle control apparatus 400 includes a first display unit D100 in front of the driver's seat and two second display units D101 and D102 in front of the rear seats .

이때, 일반적으로는, 상기 제1 디스플레이부(D100)만이 주행 규제의 제한을 받는다.At this time, in general, only the first display unit D100 is restricted from the driving regulation.

따라서, 상기 제1 디스플레이부(D100)만 차량용 컨텐츠 표시 방법의 제한을 받고, 상기 제2 디스플레이부(D101, D102)는 상기 제한 없이 전체 컨텐츠를 표시할 수 있다.Therefore, only the first display unit D100 is limited by the vehicle display method, and the second display units D101 and D102 can display the entire contents without any limitation.

도 8A는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.8A is a block diagram showing a configuration of a vehicle control device according to another embodiment disclosed herein.

도 8A는 상기 차량 제어 장치(400)가 영상표시기기, 차량의 헤드 유닛 또는 텔레메틱스 단말기의 형태로 구현된 경우를 나타낼 수 있다.FIG. 8A illustrates a case where the vehicle control apparatus 400 is implemented in the form of a video display device, a head unit of a vehicle, or a telematics terminal.

도 8A에 도시한 바와 같이, 차량 제어 장치(400')는 차량 제어 장치(400')의 전반적인 동작을 제어하는 제어부(예를 들면, 중앙 처리 장치, CPU)(412')와, 제어부(412')의 처리 및 제어를 위한 프로그램과 입/출력되는 데이터들을 저장하는 메모리(413')와, 각종 키 신호를 제어하는 키 제어부(411')와, LCD(Liquid Crystal Display)를 제어하는 LCD 제어부(414')를 내장한 메인 보드(410')를 포함한다.8A, the vehicle control apparatus 400 'includes a control section (for example, a central processing unit (CPU) 412') for controlling the overall operation of the vehicle control apparatus 400 ' A key control unit 411 'for controlling various key signals, and an LCD control unit 412 for controlling an LCD (Liquid Crystal Display) And a main board 410 'having a built-in mother board 414'.

상기 메모리(413')는 길 안내 정보를 디지털 지도상에 표시하기 위한 지도 정보(지도 데이터)를 저장할 수 있다. 또한, 상기 메모리(413')는 차량이 현재 주행하는 도로 상황에 따른 교통 정보를 입력할 수 있도록 하는 교통 정보 수집 제어 알고리즘 및 상기 알고리즘의 제어를 위한 정보를 저장할 수 있다.The memory 413 'may store map information (map data) for displaying the route guidance information on the digital map. In addition, the memory 413 'may store traffic information collection control algorithm that allows the vehicle to input traffic information according to the current road conditions, and information for controlling the algorithm.

상기 메인 보드(410')는 고유의 기기번호가 부여되어 차량에 내장된 CDMA(Code Division Multiple Access) 모듈(406'), 차량의 위치 안내, 출발지부터 목적지까지의 주행 경로 추적 등을 위한 GPS 신호를 수신하거나 사용자에 의해서 수집된 교통정보를 GPS(Global Positioning System) 신호로 송신하는 GPS 모듈(207), CD(compact disk)에 기록된 신호를 재생하기 위한 CD 데크(CD Deck)(408'), 자이로 센서(gyro sensor)(409') 등을 포함할 수 있다. 상기 CDMA 모듈(406'), GPS 모듈(407')은 안테나(404', 405')를 통해서 신호를 송수신할 수 있다.The main board 410 'is provided with a unique device number and is provided with a CDMA (Code Division Multiple Access) module 406' embedded in the vehicle, a GPS signal for tracking the location of the vehicle, A GPS module 207 that receives traffic information collected by a user or transmits traffic information collected by a user as a Global Positioning System (GPS) signal, a CD deck 408 'for reproducing a signal recorded on a compact disc (CD) A gyro sensor 409 ', and the like. The CDMA module 406 'and the GPS module 407' can transmit and receive signals through the antennas 404 'and 405'.

또한, 방송 수신 모듈(422')은 상기 메인 보드(410')에 연결되고, 안테나(423')를 통해서 방송 신호를 수신할 수 있다. 상기 메인보드(410')에는 인터페이스 보드(430')를 통해서 상기 LCD 제어부(414')의 제어를 받는 표시부(LCD)(401')와, 키 제어부(411')의 제어를 받는 프론트 보드(402')와 차량의 내부 및/또는 외부를 촬영하는 카메라(427')가 연결될 수 있다. 상기 표시부(401')는, 각종 비디오 신호, 문자 신호를 표시하고, 상기 프론트 보드(402')는 각종 키 신호 입력을 위한 버튼을 구비하고, 사용자 선택이 이루어진 버튼에 해당하는 키 신호를 메인 보드(410')에 제공한다. 또한, 상기 표시부(401')는 근접 센서 및 터치 센서(터치 스크린)을 포함한다.In addition, the broadcast receiving module 422 'is connected to the main board 410' and can receive broadcast signals through the antenna 423 '. The main board 410 'includes a display unit (LCD) 401' under the control of the LCD control unit 414 'through an interface board 430', a front board (not shown) under the control of the key control unit 411 ' 402 'and a camera 427' for photographing the interior and / or exterior of the vehicle. The display unit 401 'displays various video signals and character signals, and the front board 402' includes buttons for inputting various key signals. The key signals corresponding to the user- (410 '). Also, the display unit 401 'includes a proximity sensor and a touch sensor (touch screen).

상기 프론트 보드(402')는 교통정보를 직접 입력하기 위한 메뉴 키를 구비하며, 상기 메뉴 키는 키 제어부(411')의 제어를 받도록 구성될 수 있다.The front board 402 'has a menu key for directly inputting traffic information, and the menu key may be controlled by the key controller 411'.

상기 오디오 보드(417')는 상기 메인 보드(410')와 연결되고, 각종 오디오 신호를 처리한다. 상기 오디오 보드(417')는 오디오 보드(417')의 제어를 위한 마이크로컴퓨터(419'), 라디오 신호를 수신하는 튜너(418'), 상기 마이크로컴퓨터(419')에 전원을 공급하는 전원부(416'), 각종 음성 신호를 처리하는 신호 처리부(415')로 구성된다.The audio board 417 'is connected to the main board 410' and processes various audio signals. The audio board 417 'includes a microcomputer 419' for controlling the audio board 417 ', a tuner 418' for receiving a radio signal, a power source unit for supplying power to the microcomputer 419 ' And a signal processing unit 415 'for processing various audio signals.

또한, 상기 오디오 보드(417')는 라디오 신호를 수신하기 위한 라디오 안테나(420')와, 오디오 테이프를 재생하기 위한 테이프 데크(421')로 구성된다. 상기 오디오 보드(417')는 상기 오디오 보드(417')에서 신호 처리된 음성 신호를 출력하기 위한 음성 출력부(예를 들면, 앰프)(426')를 더 포함할 수도 있다.The audio board 417 'includes a radio antenna 420' for receiving a radio signal and a tape deck 421 'for reproducing an audio tape. The audio board 417 'may further include a sound output unit (for example, an amplifier) 426' for outputting a sound signal processed by the audio board 417 '.

상기 음성 출력부(앰프)(426')는 차량 인터페이스(424')에 연결된다. 즉, 상기 오디오 보드(417')와 메인 보드(410')는 상기 차량 인터페이스(424')에 연결된다. 상기 차량 인터페이스(424')는 음성 신호를 입력하는 핸즈프리(425a'), 탑승자 안전을 위한 에어백(425b'), 차량의 속도를 검출하기 위한 속도 센서(425c') 등이 연결될 수도 있다. 상기 속도 센서(425c')는 차량 속도를 산출하고, 그 산출된 차량 속도 정보를 상기 중앙 처리 장치(412')에 제공한다.The audio output unit (amplifier) 426 'is connected to the vehicle interface 424'. That is, the audio board 417 'and the main board 410' are connected to the vehicle interface 424 '. The vehicle interface 424 'may be connected to a handsfree 425a' for inputting a voice signal, an airbag 425b 'for occupant safety, a speed sensor 425c' for detecting the speed of the vehicle, and the like. The speed sensor 425c 'calculates the vehicle speed and provides the calculated vehicle speed information to the central processing unit 412'.

상기 차량 제어 장치(400')에 적용된 내비게이션 세션(400_1')은, 지도 데이터 및 차량 현재 위치 정보를 근거로 길 안내 정보를 발생하고, 그 발생된 길 안내 정보를 사용자에게 통지한다.The navigation session 400_1 'applied to the vehicle control device 400' generates route guidance information based on the map data and the vehicle current position information, and notifies the user of the generated route guidance information.

상기 표시부(401')는 근접 센서를 통해 표시창 내에서 근접 터치를 감지한다. 예를 들면, 상기 표시부(401')는 포인터(예를 들면, 손가락 또는 스타일러스 팬(stylus pen))가 근접 터치될 때 그 근접 터치의 위치를 검출하고, 그 검출된 위치에 대응하는 위치 정보를 상기 제어부(412')에 출력한다.The display unit 401 'senses the proximity touch in the display window through the proximity sensor. For example, the display unit 401 'detects the position of the proximity touch when a pointer (for example, a finger or a stylus pen) is touched proximately, and obtains position information corresponding to the detected position And outputs it to the controller 412 '.

음성 인식 장치(또는 음성 인식 모듈)(401_1')는 사용자에 의해 발성된 음성을 인식하고, 그 인식된 음성 신호에 따라 해당 기능을 수행한다.The speech recognition device (or speech recognition module) 401_1 'recognizes the speech uttered by the user and performs the corresponding function according to the recognized speech signal.

상기 차량 제어 장치(400')에 적용된 내비게이션 세션(session)(400_1')은, 지도 데이터 상에 주행 경로를 표시하고, 상기 이동 단말기(100)의 위치가 상기 주행 경로에 포함된 사각지대로부터 미리 설정된 거리 이내일 때 무선 통신(예를 들면,근거리 무선 통신망)을 통해 주변 차량에 장착된 단말기(예를 들면, 차량 내비게이션 장치) 및/또는 주변 보행자가 휴대하고 있는 이동 단말기와 자동으로 무선 네트워크를 형성함으로써 상기 주변 차량에 장착된 단말기로부터 그 주변 차량의 위치 정보를 수신하고, 주변 보행자가 휴대하고 있는 이동 단말기로부터 상기 주변 보행자의 위치 정보를 수신한다.The navigation session 400_1 'applied to the vehicle control device 400' displays a traveling route on the map data, and when the position of the mobile terminal 100 is determined in advance from a dead zone included in the traveling route, (For example, a vehicle navigation device) mounted on a nearby vehicle and / or a mobile terminal carried by a neighboring pedestrian through a wireless communication (for example, a short-range wireless communication network) The location information of the surrounding vehicle is received from the terminal mounted on the peripheral vehicle, and the location information of the surrounding pedestrian is received from the mobile terminal carried by the peripheral pedestrian.

한편, 메인 보드(410')는 인터페이스부(430')에 연결될 수 있으며, 인터페이스부(430')는 외부장치 인터페이스부(431') 및 네트워크 인터페이스부(432')를 포함한다.Meanwhile, the main board 410 'may be connected to the interface unit 430', and the interface unit 430 'includes the external device interface unit 431' and the network interface unit 432 '.

외부장치 인터페이스부(431')는 외부 장치와 차량 제어 장치(400')를 접속할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.The external device interface unit 431 'can connect the external device and the vehicle control device 400'. To this end, the external device interface unit 431 'may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

외부장치 인터페이스부(431')는, DVD(Digital Versatile Disk), 블루레이(Blu ray), 게임기기, 카메라, 캠코더, 컴퓨터(노트북) 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(231)는 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 차량 제어 장치(400')의 제어부(412')로 전달한다. 또한, 제어부(412')에서 처리된 영상, 음성 또는 데이터 신호를 연결된 외부 장치로 출력할 수 있다. 이를 위해, 외부장치 인터페이스부(431')는, A/V 입출력부(미도시) 또는 무선 통신부(미도시)를 포함할 수 있다.The external device interface unit 431 'may be connected to an external device such as a DVD (Digital Versatile Disk), a Blu ray, a game device, a camera, a camcorder, a computer (notebook) The external device interface unit 231 transmits external video, audio or data signals to the control unit 412 'of the vehicle control device 400' through the connected external device. Further, the controller 412 'can output the video, audio, or data signal processed by the controller 412' to the connected external device. To this end, the external device interface unit 431 'may include an A / V input / output unit (not shown) or a wireless communication unit (not shown).

A/V 입출력부는, 외부 장치의 영상 및 음성 신호를 차량 제어 장치(400')로 입력할 수 있도록, USB 단자, CVBS(Composite Video Banking Sync) 단자, 컴포넌트 단자, S-비디오 단자(아날로그), DVI(Digital Visual Interface) 단자, HDMI(High Definition Multimedia Interface) 단자, RGB 단자, D-SUB 단자 등을 포함할 수 있다.The A / V input / output unit includes a USB terminal, a CVBS (Composite Video Banking Sync) terminal, a component terminal, an S-video terminal (analog) terminal, A DVI (Digital Visual Interface) terminal, an HDMI (High Definition Multimedia Interface) terminal, an RGB terminal, a D-SUB terminal, and the like.

무선 통신부는, 다른 전자기기와 근거리 무선 통신을 수행할 수 있다. 차량 제어 장치(400')는 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), 지그비(ZigBee), DLNA (Digital Living Network Alliance) 등의 통신 규격에 따라 다른 전자기기와 네트워크 연결될 수 있다.The wireless communication unit can perform short-range wireless communication with other electronic devices. The vehicle control apparatus 400 'may be, for example, Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, DLNA Alliance), and the like.

또한, 외부장치 인터페이스부(431')는, 다양한 셋탑 박스와 각종 단자 중 적어도 하나를 통해 접속되어, 셋탑 박스와 입력/출력 동작을 수행할 수도 있다.Also, the external device interface unit 431 'may be connected to at least one of various set-top boxes and various terminals to perform input / output operations with the set-top box.

한편, 외부장치 인터페이스부(431')는, 인접하는 외부 장치 내의 애플리케이션 또는 애플리케이션 목록을 수신하여, 제어부(412') 또는 메모리(413')로 전달할 수 있다.On the other hand, the external device interface unit 431 'can receive the application or application list in the adjacent external device and transmit it to the control unit 412' or the memory 413 '.

네트워크 인터페이스부(432')는, 차량 제어 장치(400')를 인터넷망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(432')는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 들어 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 통신 규격 등이 이용될 수 있다.The network interface unit 432 'provides an interface for connecting the vehicle control device 400' to a wired / wireless network including the Internet network. The network interface unit 432 'may include an Ethernet terminal or the like for connection to a wired network and may be connected to a wireless LAN (WLAN) (Wi -Fi, Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), and HSDPA (High Speed Downlink Packet Access) communication standards.

네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. 특히, 차량 제어 장치(400')에 미리 등록된 다른 사용자 또는 다른 전자 기기 중 선택된 사용자 또는 선택된 전자기기에, 차량 제어 장치(400')에 저장된 일부의 컨텐츠 데이터를 송신할 수 있다.The network interface unit 432 'may transmit or receive data to another user or other electronic device via the network to which it is connected or another network linked to the network to which it is connected. Particularly, it is possible to transmit a part of content data stored in the vehicle control device 400 'to another user registered in the vehicle control device 400' or a selected user or selected electronic device among other electronic devices.

한편, 네트워크 인터페이스부(432')는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 소정 웹 페이지에 접속할 수 있다. 즉, 네트워크를 통해 소정 웹 페이지에 접속하여, 해당 서버와 데이터를 송신 또는 수신할 수 있다. 그 외, 컨텐츠 제공자 또는 네트워크 운영자가 제공하는 컨텐츠 또는 데이터들을 수신할 수 있다. 즉, 네트워크를 통하여 컨텐츠 제공자 또는 네트워크 제공자로부터 제공되는 영화, 광고, 게임, VOD, 방송 신호 등의 컨텐츠 및 그와 관련된 정보를 수신할 수 있다. 또한, 네트워크 운영자가 제공하는 펌웨어의 업데이트 정보 및 업데이트 파일을 수신할 수 있다. 또한, 인터넷 또는 컨텐츠 제공자 또는 네트워크 운영자에게 데이터들을 송신할 수 있다.On the other hand, the network interface unit 432 'can access a predetermined web page through the connected network or another network linked to the connected network. That is, it is possible to access a predetermined web page through a network and transmit or receive data with the server. In addition, content or data provided by a content provider or a network operator can be received. That is, it can receive contents such as a movie, an advertisement, a game, a VOD, a broadcast signal, and related information provided from a content provider or a network provider through a network. In addition, the update information and the update file of the firmware provided by the network operator can be received. It may also transmit data to the Internet or a content provider or network operator.

또한, 네트워크 인터페이스부(432')는, 네트워크를 통해, 공중에 공개(open)된 애플리케이션들 중 원하는 애플리케이션을 선택하여 수신할 수 있다.In addition, the network interface unit 432 'can select and receive a desired one of applications open to the public via the network.

도 8B는 본 명세서에 개시된 또 다른 일 실시예에 따른 차량 제어 장치의 구성을 나타낸 블록도이다.8B is a block diagram showing a configuration of a vehicle control apparatus according to another embodiment disclosed herein.

도 8B는 상기 차량 제어 장치(400)를 차량 네비게이션 장치의 기능에 중점을 두어 나타낸 구성도이다.8B is a configuration diagram showing the vehicle control device 400 with emphasis on the function of the vehicle navigation device.

상기 차량 제어 장치(400'')가 차량 네비게이션 장치로 구현되는 경우, 상기 차량 제어 장치(400'')는 차량에서의 설치 형태에 따라 인데시 타입(In Dash Type)과 온데시 타입(OnDash Type)으로 구분된다. 인데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시 보드(Dash Board) 내에 할당된 일정 공간에 삽입되어 고정적으로 장착되는 형태이다. 온데시 타입의 내비게이션(차량 내비게이션) 장치는 차량의 데시보드 위에 거치되거나 또는 그 근처에 일정한 지지대를 이용하여 설치되는 형태로서 탈착이 가능하므로 차량으로부터 분리되어 휴대할 수 있다.When the vehicle control apparatus 400 '' is implemented as a vehicle navigation apparatus, the vehicle control apparatus 400 '' may be classified into an in-dash type and an on-dash type, ). The navigation system of the Indy type is inserted into a fixed space allocated in a dashboard of the vehicle and is fixedly mounted. The on-deck type navigation (vehicle navigation) device is mounted on a dashboard of a vehicle or installed near the vehicle by using a fixed support, and can be detachably attached to the vehicle.

본 실시예들에 따른 차량 제어 장치(400'')는 이러한 인데시 타입과 온데시 타입의 내비게이션(차량 내비게이션) 장치를 포함하며, 이외에도 차량 내에서 GPS(Global Positioning System) 위성으로부터 전송되는 항법 메시지를 수신하는 GPS 수신기와 연동하여 내비게이션 기능을 수행할 수 있는 각종 휴대용 단말기(Portable Terminal)와 같은 교통정보의 수신 및/또는 처리가 가능한 정보 처리 장치를 모두 포함한다.The vehicle control apparatus 400 '' according to the present embodiment includes navigation system (vehicle navigation) apparatuses of the intra-city type and the on-scene type. In addition, a navigation message transmitted from GPS (Global Positioning System) And a portable terminal capable of performing a navigation function in conjunction with a GPS receiver that receives the traffic information.

도 8B에 도시한 바와 같이, 상기 차량 제어 장치(400'')는, 위성으로부터 수신되는 GPS(global positioning system) 신호를 수신하고, 상기 수신된 GPS 신호를 근거로 내비게이션 장치(이동 통신 단말기(100)와 동일한 위치인 것으로 간주함)의 제1 차량 위치 데이터를 발생하는 GPS 모듈(401'')과, 차량의 주행 방향 및 상기 차량의 속도를 근거로 제2 차량 위치 데이터를 발생하는 DR(Dead-Reckoning) 센서(402'')와, 지도 데이터 및 다양한 정보를 저장하는 저장부(또는 메모리)(404'')와, 상기 제1 차량 위치 데이터 및 상기 제2 차량 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크(지도 정합 링크 또는 지도 정합 도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 출력하는 지도 정합부(403'')와, 무선 통신망(500'')을 통해 정보 제공 센터 및/또는 주변 차량으로부터 실시간 교통 정보를 수신하고, 교통 신호등 정보를 수신하고, 전화 통신을 수행하는 통신부(408'')와, 상기 정합된 지도 정보(지도 정합 결과)를 근거로 길 안내 정보를 발생하는 제어부(407'')와, 상기 길 안내 정보에 포함된 길 안내 지도(관심지 정보 포함) 및 상기 교통 신호등 정보를 표시하는 표시부(405'')와, 상기 길 안내 정보에 포함된 길 안내 음성 정보(길 안내 음성 메시지) 및 상기 교통 신호등 정보에 대응하는 음성 신호를 출력하는 음성 출력부(406'')를 포함할 수 있다.8B, the vehicle control device 400 '' receives a global positioning system (GPS) signal received from a satellite, and transmits the GPS signal to the navigation device 100 ) Which generates second vehicle position data based on the traveling direction of the vehicle and the speed of the vehicle, a GPS module 401 '' for generating first vehicle position data of the vehicle (Or memory) 404 '' for storing map data and various information; a vehicle position estimating unit 402 for estimating a vehicle based on the first vehicle position data and the second vehicle position data; (Map matching link or map matching road) in the map data stored in the storage unit 404 ", and outputs the matched map information Results) A communication unit 408 '' for receiving real-time traffic information from the information providing center and / or a nearby vehicle through the wireless communication network 500 '', receiving the traffic light information, and performing telephone communication through the wireless communication network 500 ' A control unit 407 '' for generating route guidance information based on the matched map information (map matching result), a route guidance map (including interest information) included in the route guidance information, A voice output unit 406 '' for outputting a voice signal corresponding to the voice guidance information (the voice guidance voice message) and the traffic signal light information included in the voice guidance information included in the voice guidance information, . ≪ / RTI >

여기서, 상기 통신부(408'')는 블루투스 모듈을 갖는 핸즈프리를 더 포함하며, 안테나를 통해 TPEG 포맷의 교통정보를 포함하는 방송신호를 방송국으로부터 수신할 수도 있다. 상기 방송신호는 지상파 또는 위성 디지털 멀티미디어 방송(DMB), 디지털 오디오 방송(DAB), 디지털 비디오 방송(DVB-T, DVB-H) 등 각종 규격에 따른 비디오와 오디오 데이터뿐만 아니라, 교통정보(TPEG) 서비스, BIFS(Binary Format for Scene) 데이터 서비스에 따른 교통정보 및 각종 부가 데이터와 같은 부가 정보를 포함한다. 또한, 상기 통신부(408'')는 교통정보가 제공되는 신호 대역을 동조하고 동조된 신호를 복조하여 TPEG 디코더(제어부(407)에 포함됨)로 출력한다.Here, the communication unit 408 '' may further include a hands-free unit having a Bluetooth module, and may receive a broadcast signal including traffic information in TPEG format from a broadcasting station through an antenna. The broadcast signal may include not only video and audio data according to various standards such as terrestrial or satellite digital multimedia broadcasting (DMB), digital audio broadcasting (DAB), digital video broadcasting (DVB-T, DVB- Service, traffic information according to a Binary Format for Scene (BIFS) data service, and various additional data. Further, the communication unit 408 " tunes the signal band in which the traffic information is provided, demodulates the tuned signal, and outputs the demodulated signal to the TPEG decoder (included in the control unit 407).

상기 TPEG 디코더는 TPEG 포맷의 교통정보를 복호화하여, 교통정보에 포함된 신호등 정보를 비롯한 각종 정보를 제어부(407'')에 제공한다.The TPEG decoder decodes traffic information in the TPEG format and provides various information including traffic signal information included in the traffic information to the controller 407 ''.

상기 길 안내 정보는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보를 포함할 수 있다. The route guidance information may include not only map data but also various information related to driving such as lane information, traveling speed limit information, turn-by-turn information, traffic safety information, traffic guidance information, vehicle information, .

상기 GPS 모듈(401'')를 통해 수신되는 신호는, IEEE(Institute of Electrical and Electronics Engineers)에서 제안한 무선 LAN 및 일부 적외선 통신 등을 포함하는 무선 LAN에 대한 무선 네트워크의 표준 규격인 802.11과, 블루투스, UWB, 지그비 등을 포함하는 무선 PAN(Personal Area Network)에 대한 표준 규격인 802.15과, 도시 광대역 네트워크(Fixed Wireless Access : FWA) 등을 포함하는 무선 MAN(Metropolitan Area Network)(Broadband Wireless Access : BWA)에 대한 표준 규격인 802.16과, 와이브로(Wibro), 와이맥스(WiMAX) 등을 포함하는 무선MAN(MBWA : Mobile Broadband Wireless Access)에 대한 모바일 인터넷에 대한 표준 규격인 802.20 등의 무선 통신 방식을 이용하여 단말기의 위치 정보를 상기 차량 제어 장치(400'')에 제공하도록 구성할 수도 있다.The signals received through the GPS module 401 " include 802.11, which is a standard specification of a wireless network for a wireless LAN including a wireless LAN and some infrared communication proposed by IEEE (Institute of Electrical and Electronics Engineers) A Broadband Wireless Access (BWA) system including 802.15, which is a standard for a wireless personal area network (PAN) including a UWB, a ZigBee, and the like, and a fixed broadband network (FWA) , 802.20, which is a standard for the mobile Internet, and 802.20, which is a standard for the mobile Internet (MBWA) including WiBro, And to provide positional information of the terminal to the vehicle control device 400 ".

상기 차량 제어 장치(400'')에 입력부를 더 포함될 수 있으며, 상기 입력부는, 사용자가 원하는 기능을 선택하거나 정보를 입력받으며, 키패드, 터치스크린, 조그셔틀, 마이크 등의 다양한 장치가 사용될 수 있다.The vehicle control apparatus 400 '' may further include an input unit, and the input unit may be a variety of devices such as a keypad, a touch screen, a jog shuttle, and a microphone, .

상기 지도 정합부(403'')는, 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 저장부(404'')로부터 주행 경로에 대응하는 지도 데이터를 독출한다.The map matching unit 403 '' generates a vehicle estimated position based on the first position data and the second position data, and reads the map data corresponding to the traveling path from the storage unit 404 '' do.

상기 지도 정합부(403'')는, 상기 차량 추정 위치와 상기 지도 데이터에 포함된 링크(도로)를 정합(matching)하고, 상기 정합된 지도 정보(지도 정합 결과)를 상기 제어부(407'')에 출력한다. 예를 들면, 상기 지도 정합부(403'')는 상기 제1 위치 데이터 및 상기 제2 위치 데이터를 근거로 차량 추정 위치를 발생하고, 상기 발생된 차량 추정 위치와 상기 저장부(404'')에 저장된 지도 데이터 내의 링크들을 링크 순번에 따라 정합하고, 상기 정합된 지도 정보(지도 정합 결과)를 제어부(407'')에 출력한다. 상기 지도 정합부(403'')는 상기 정합된 지도 정보(지도 정합 결과)에 포함된 단층 도로 또는 복층 도로 등과 같은 도로 속성 정보를 상기 제어부(407'')에 출력할 수도 있다. 또한, 상기 지도 정합부(403'')의 기능은 상기 제어부(407'')에서 구현될 수도 있다.The map matching unit 403 '' matches the vehicle estimated position with a link (road) included in the map data, and outputs the matched map information (map matching result) to the controller 407 ''. . For example, the map matching unit 403 " generates a vehicle estimated position based on the first position data and the second position data, and stores the generated vehicle estimated position and the storage unit 404 & , And outputs the matched map information (map matching result) to the control unit 407 ". The map matching unit 403 '' may output the road attribute information such as a single-storey road or a multi-storey road included in the matched map information (map matching result) to the control unit 407 ''. Also, the function of the map matching unit 403 " may be implemented in the control unit 407 " '.

상기 저장부(404'')는, 지도 데이터를 저장한다. 이때, 상기 저장되는 지도 데이터는, 도분초 단위(DMS 단위 : Degree/Minute/Second)로 위도 및 경도를 표시하는 지리 좌표(Geographic Coordinate 또는, 경위도 좌표)를 포함한다. 여기서, 상기 저장되는 지도 데이터는 상기 지리 좌표 이외에도 UTM(Universal Transverse Mercator) 좌표, UPS(Universal Polar System) 좌표, TM(Transverse Mercator) 좌표 등을 사용할 수도 있다.The storage unit 404 " stores map data. At this time, the stored map data includes geographic coordinates (geographic coordinates or latitude and longitude coordinates) indicating latitude and longitude in units of minutes (DMS unit: Degree / Minute / Second). In addition to the geographical coordinates, UTM (Universal Transverse Mercator) coordinates, UPS (Universal Polar System) coordinates, and TM (Transverse Mercator) coordinates may be used as the stored map data.

상기 저장부(404'')는, 각종 메뉴 화면, 관심 지점(POI: Point Of Interest, 이하 'POI' 라 한다), 지도 데이터의 특정 위치에 따른 기능 특성 정보 등의 각종 정보를 저장한다.The storage unit 404 '' stores various information such as various menu screens, point of interest (POI), and function characteristic information according to a specific position of the map data.

상기 저장부(404'')는, 다양한 사용자 인터페이스(User Interface: UI) 및/또는 그래픽 사용자 인터페이스(Graphic User Interface: GUI)를 저장한다.The storage unit 404 '' stores various user interface (UI) and / or graphical user interface (GUI).

상기 저장부(404'')는, 상기 네비게이션 장치(400)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.The storage unit 404 '' stores data and programs necessary for the navigation apparatus 400 to operate.

상기 저장부(404'')는, 상기 입력부를 통해 사용자로부터 입력된 목적지 정보를 저장한다. 이때, 상기 목적지 정보는 목적지, 또는 출발지와 목적지 중 어느 하나일 수 있다.The storage unit 404 '' stores destination information inputted from the user through the input unit. At this time, the destination information may be a destination, or a source and a destination.

상기 표시부(405'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 화상 정보(또는, 길 안내 지도)를 표시한다. 여기서, 상기 표시부(405)는, 터치 센서(터치 스크린) 및 근접 센서를 포함한다. 또한, 상기 길 안내 정보에는, 지도 데이터뿐만 아니라, 차선 정보, 주행 제한 속도 정보, 턴바이턴(TBT) 정보, 교통 안전 정보, 교통 안내 정보, 차량 정보, 길 찾기 정보 등의 주행과 관련된 각종 정보가 포함될 수 있다.The display unit 405 " displays image information (or a route guidance map) included in the route guidance information generated by the control unit 407. [ Here, the display unit 405 includes a touch sensor (touch screen) and a proximity sensor. The route guidance information includes not only map data but also various types of information related to driving such as lane information, running restriction speed information, turn-by-turn (TBT) information, traffic safety information, traffic guidance information, May be included.

상기 표시부(405'')는, 상기 화상 정보를 표시할 때, 상기 저장부(404)에 포함된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면과 길 안내 정보 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(405'')에 표시되는 콘텐츠는, 다양한 텍스트 또는 이미지 데이터(지도 데이터나 각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다.When displaying the image information, the display unit 405 '' displays various contents such as various menu screens and route guidance information by using the user interface and / or graphical user interface included in the storage unit 404 can do. Here, the content displayed on the display unit 405 " includes various text or image data (including map data and various information data) and a menu screen including data such as icons, list menus, and combo boxes.

상기 음성 출력부(406'')는, 상기 제어부(407)에 의해 발생된 길 안내 정보에 포함된 음성 정보(또는, 상기 길 안내 정보에 대한 음성 메시지)를 출력한다. 여기서, 상기 음성 출력부(406'')는, 앰프 또는 스피커가 될 수도 있다.The voice output unit 406 '' outputs voice information (or voice message for the route guidance information) included in the route guidance information generated by the control unit 407. Here, the audio output unit 406 " may be an amplifier or a speaker.

상기 제어부(407'')는, 상기 정합된 지도 정보를 근거로 길 안내 정보를 발생하고, 상기 발생된 길 안내 정보를 상기 표시부(405'') 및 음성 출력부(406'')에 출력한다. 이때, 상기 표시부(405'')는 상기 길 안내 정보를 표시한다.The control unit 407 '' generates the route guidance information based on the matched map information and outputs the generated route guidance information to the display unit 405 '' and the voice output unit 406 '' . At this time, the display unit 405 '' displays the guidance information.

상기 제어부(407''), 상기 정보 제공 센터 및/또는 주변 차량에 장착된 단말기(차량 내비게이션 장치)로부터 실시간 교통 정보를 수신하여 길 안내 정보를 발생한다.Real-time traffic information is received from the control unit 407 '', the information providing center, and / or a terminal (vehicle navigation device) installed in the nearby vehicle, thereby generating the route guidance information.

상기 제어부(407'')는, 콜 센터와 통신부(408'')를 통해 연결되어, 전화 통화를 수행하거나, 상기 차량 제어 장치(400'')와 상기 콜센터 간의 정보를 송신/수신할 수 있다. 여기서, 상기 통신부(408'')는 근거리 무선 통신 방식을 사용하는 블루투스 기능을 갖는 핸즈프리 모듈을 더 포함한다.The control unit 407 '' is connected to the call center through the communication unit 408 '' to perform a telephone conversation or transmit / receive information between the vehicle control device 400 '' and the call center . Here, the communication unit 408 '' further includes a hands-free module having a Bluetooth function using a short-range wireless communication system.

상기 제어부(407'')는 사용자에 의해 POI 검색 메뉴가 선택되면, 현재 위치로부터 목적지까지의 경로 상에 위치한 POI를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다. 이때, 상기 제어부(407'')는 상기 경로 상에 위치한 POI(경로를 변경(재탐색)하지 않아도 되는 지점, 예를 들면, 주행 도로의 좌측 또는 우측에 위치한 POI) 및/또는 상기 경로의 주변에 위치한 POI(경로를 변경하여야 하는 지점, 예를 들면, 주변 POI를 경유하기 위해 미리 설정된 경로를 변경하여야 하는 지점)를 검색하고, 그 검색된 POI를 상기 표시부(405'')에 표시한다. When the POI search menu is selected by the user, the controller 407 '' searches POIs located on the route from the current position to the destination, and displays the retrieved POI on the display unit 405 ". At this time, the control unit 407 '' determines whether the POI located on the route (POI located on the left or right side of the travel road, for example, where the route is not to be changed (re-searching)) and / (A point at which a path should be changed, for example, a point at which a predetermined path is to be changed to pass through a surrounding POI) located in the POI 405, and displays the retrieved POI on the display unit 405 ".

도 8C는 본 명세서에 개시된 일 실시예에 따른 네비게이션 기능과 관련된 화면을 표시한 예시도이다.8C is an exemplary diagram illustrating a screen associated with the navigation function according to an embodiment disclosed herein.

도 8C에 도시된 화면은 상기 이동 단말기(100), 상기 웨어러블 디바이스(200, 200') 또는 상기 차량 제어 장치(400)에 의해 표시되는 화면일 수 있다.The screen shown in FIG. 8C may be a screen displayed by the mobile terminal 100, the wearable device 200, 200 'or the vehicle control device 400.

상기 이동 단말기(100)가 사용자가 휴대 가능한 형태의 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 웨어러블 디바이스등의 형태로 구현된 경우, 도 8C에 도시된 구성요소 중 일부만이 표시되거나, 도 8C에 표시된 도시된 구성요소들 모두가 표시되지 않을 수 있다.The mobile terminal 100 may be a mobile phone, a smart phone, a laptop computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) 8C, only some of the components shown in FIG. 8C may be displayed, or all of the illustrated components shown in FIG. 8C may not be displayed.

도 8C에 도시된 바와 같이, 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 표시된 지도의 방위를 표시하는 아이콘(I1)을 표시할 수 있다. 상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 특정 방향(예를 들어 지구의 진북방향), 이동체의 진행방향, 목적지가 위치하는 방향 등이 화면의 상방향에 고정되어 표시되도록 지도를 표시할 수 있다.As shown in FIG. 8C, the display unit providing a screen related to the navigation function may display an icon I1 indicating the orientation of the map displayed in one area of the screen. The display unit providing a screen related to the navigation function may display a map such that a specific direction (for example, a true north direction of the earth), a moving direction of the moving object, a direction in which the destination is located, and the like are fixed and displayed in the upward direction of the screen.

상기 네비게이션 기능과 관련된 화면을 제공하는 디스플레이부는 화면의 일 영역에 상기 음향출력모듈(162)의 활성화 여부 및 볼륨설정을 나타내는 아이콘(I2)을 표시할 수 있다. 사용자는 상기 아이콘(I2)에 터치입력을 가하는 방법으로 상기 음향출력모듈(162)을 활성화 또는 비활성화시키거나 그 볼륨을 조절할 수 있다.The display unit providing the screen related to the navigation function may display an icon (I2) indicating whether the sound output module (162) is activated and volume setting in one area of the screen. The user can activate or deactivate the sound output module 162 or adjust the volume thereof by applying a touch input to the icon I2.

상기 디스플레이부는 화면의 일 영역에 TPEG(Transport Portal Experts Group)을 이용한 경로탐색 기능의 활성화 여부를 나타내는 아이콘(I3)을 표시할 수 있다. TPEG(Transport Portal Experts Group)은 본래 1997년에 유럽 방송 연합(European Broadcasting Union)에 의하여 설립된 교통정보 프로토콜 제정을 위한 그룹을 의미하나, 네비게이션 시스템에서는 실시간 교통상황 정보를 이용한 경로안내 기능으로 널리 알려져 있다.The display unit may display an icon (I3) indicating whether or not to activate a route search function using Transport Portal Experts Group (TPEG) in one area of the screen. TPEG (Transport Portal Experts Group) is a group for establishing a traffic information protocol established by the European Broadcasting Union in 1997. However, the navigation system is widely known as a route guidance function using real time traffic situation information have.

상기 디스플레이부는 화면의 일 영역에 상기 지도 데이터의 축척(scale)을 표시하는 아이콘(I4)을 표시할 수 있다.The display unit may display an icon (I4) indicating a scale of the map data in one area of the screen.

상기 디스플레이부는 화면의 일 영역에 현재시간을 표시하는 아이콘(I5)을 표시할 수 있다. 또한 디스플레이부(161)는 화면의 일 영역에 기 설정된 목적지에 도달하는 예상시간을 표시하는 아이콘(I6)을 표시할 수 있다. 이외에도, 기 설정된 목적지까지 도달하는데 예상되는 소요시간을 표시하는 아이콘이 표시될 수 있다.The display unit may display an icon (I5) indicating a current time in one area of the screen. In addition, the display unit 161 may display an icon I6 indicating an estimated time to reach a predetermined destination in one area of the screen. In addition, an icon indicating the expected time to reach the predetermined destination may be displayed.

상기 디스플레이부는 화면의 일 영역에 기 설정된 목적지까지 남은 거리를 표시하는 아이콘(I7)을 표시할 수 있다. The display unit may display an icon (I7) indicating a remaining distance to a predetermined destination in one area of the screen.

상기 디스플레이부는 화면의 일 영역에 표시된 지도를 확대하느 아이콘(I8) 또는 축소하는 아이콘(I8')을 표시할 수 있다.The display unit may display an icon (I8) for enlarging a map displayed in one area of the screen or an icon (I8 ') for zooming.

상기 디스플레이부는 화면의 일 영역에 상기 이동체의 위치 및 진행방향을 표시하는 아이콘(I9)을 표시할 수 있다. 지도상에 현재 이동체의 위치에 해당하는 지점에 상기 아이콘(I9)을 표시할 수 있다. 또한 이동체의 진행방향은 상기 아이콘(I9)에서 화살표의 꼭지점방향 등으로 표시할 수 있다.The display unit may display an icon (I9) indicating a position and a moving direction of the moving object in one area of the screen. The icon I9 may be displayed on the map at a position corresponding to the current position of the mobile unit. In addition, the moving direction of the moving object can be indicated by the arrow I9 in the direction of the vertex of the arrow or the like.

상기 디스플레이부는 화면의 일 영역에 이동체가 위치한 지역의 지명을 표시하는 아이콘(I10)을 표시할 수 있다.The display unit may display an icon (I10) indicating a place name of the area where the moving object is located in one area of the screen.

상기 디스플레이부는 화면의 일 영역에 상기 이동체가 진행하는 길이 차도인 경우, 차도의 차선구성을 나타내는 아이콘(I11)을 표시할 수 있다.The display unit may display an icon (I11) indicating a lane configuration of the traffic lane when the mobile body is a road lane on which a moving object travels in one area of the screen.

상기 디스플레이부는 상기 기 설정된 목적지(I12, 도8 참조)까지 도달하는데 필요한 경로를 표시할 수 있다. 상기 경로는 이동체의 목적지가 설정되지 않은경우 표시되지 않을 수 있다.The display unit may display a route necessary for reaching the predetermined destination (I12, see FIG. 8). The path may not be displayed if the destination of the moving object is not set.

전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능(예를 들어, 네비게이션 기능)은, 상기 차량 제어 장치(400)과 유선 또는 무선으로 연결된 이동 단말기(100) 또는 웨어러블 디바이스(200, 200')에 의해 모두 수행될 수 있다.All the functions (e.g., navigation function) performed by the vehicle control device 400 described above are performed by the mobile terminal 100 or the wearable device 200, 200 'connected to the vehicle control device 400 by wire or wirelessly, ). ≪ / RTI >

또는, 상기 차량 제어 장치(400) 및 상기 이동 단말기(100)이 서로 연동 또는 연계하여 상기 모든 기능을 수행할 수 있다.Alternatively, the vehicle control device 400 and the mobile terminal 100 may perform all the functions in conjunction with or in association with each other.

이를 위해, 이동 단말기(100) 또는 웨어러블 디바이스(200)는 상기 차량 제어 장치(400)에 포함된 구성 요소와 동일, 유사하거나 대응되는 구성요소를 포함할 수 있다.To this end, the mobile terminal 100 or the wearable device 200 may include components that are the same, similar or corresponding to those included in the vehicle control apparatus 400.

예를 들어, 상기 차량 제어 장치(400)에 포함된 가속도 센서의 역할을 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 구비된 가속도 센서가 할 수 있다.For example, the acceleration sensor included in the vehicle control apparatus 400 may be provided by the acceleration sensor provided in the mobile terminal 100 or the wearable device 200 or 200 '.

일 실시예에 따르면, 상기 차량 제어 장치(400) 및 상기 이동 단말기(100) 간의 연동 또는 연계를 위해 VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅) 방식이 적용될 수 있다.According to one embodiment, a VNC (Virtual Network Computing) scheme may be applied to interworking or linking the vehicle control apparatus 400 and the mobile terminal 100. [

VNC(Virtual Network Computing, 가상 네트워크 컴퓨팅)는 컴퓨터 환경에서 RFB 프로토콜을 이용하여 원격으로 다른 컴퓨터(또는 다른 단말)를 제어하는 그래픽 데스크톱 공유 시스템을 의미할 수 있다.VNC (Virtual Network Computing) may refer to a graphical desktop sharing system that remotely controls another computer (or other terminal) using a RFB protocol in a computer environment.

상기 VNC는 자판, 마우스 또는 터치 이벤트를 한 단말에서 다른 단말로 전송시켜서 네트워크를 거쳐 그래픽 화면을 갱신하는 방식을 제공할 수 있다.The VNC may provide a method of transmitting a keyboard, a mouse, or a touch event from one terminal to another and updating the graphic screen via the network.

또한, 전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능은, 상기 차량 제어 장치(400)와 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200') 나누어서 수행될 수 있다.In addition, all the functions performed by the vehicle control apparatus 400 described above can be performed by dividing the vehicle control apparatus 400 and the mobile terminal 100 or the wearable device 200, 200 '.

즉, 전술된 차량 제어 장치(400)에 의해 수행되는 모든 기능 중 특정 기능이 수행될 때, 상기 특정 기능 중 일부 기능은 상기 차량 제어 장치(400)에 의해 수행되고, 나머지 기능은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행될 수 있다.That is, when a specific function among all the functions performed by the vehicle control device 400 is performed, some of the specific functions are performed by the vehicle control device 400, and the remaining functions are performed by the mobile terminal 100) or the wearable device (200, 200 ').

예를 들어, 상기 차량에 대한 공조 기능의 경우, 차량 내에 구비된 공기 조화기에 대한 설정 온도에 대한 입력은 상기 이동 단말기(100) 또는 상기 웨어러블 디바이스(200, 200')에 의해 수행되고, 상기 입력된 설정 온도로 상기 공기 조화기를 제어하는 역할은 상기 차량 제어 장치(400)에 의해 수행될 수 있다.For example, in the case of the air conditioning function for the vehicle, an input to the set temperature for the air conditioner provided in the vehicle is performed by the mobile terminal 100 or the wearable device 200 or 200 ' The function of controlling the air conditioner at the set temperature may be performed by the vehicle control device 400. [

본 명세서에 개시된 차량 제어 장치에 대한 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있음은 당업자에게 자명하다.It will be apparent to those skilled in the art that the description of the vehicle control apparatus disclosed herein may be embodied in other specific forms without departing from the spirit of the invention disclosed herein.

이하에서는, 본 명세서에 개시된 일 실시예에 따라, 도 9A 내지 13을 참조하여, 운전자의 부주의를 판단하는 이동 단말기 또는 차량 제어 장치에 대해 자세히 상술한다.
Hereinafter, the mobile terminal or the vehicle control device for judging the carelessness of the driver will be described in detail with reference to Figs. 9A to 13, according to an embodiment disclosed herein.

운전자의 부주의를 판단하는 이동 단말기A mobile terminal for judging a carelessness of a driver

이하에서는 본 명세서에 개시된 일 실시예에 따라 운전자의 부주의를 판단하는 이동 단말기에 대하여 자세히 설명하되, 전술한 내용과 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.Hereinafter, a mobile terminal for judging a carelessness of a driver according to an embodiment of the present invention will be described in detail, and the contents overlapping with those described above will be omitted and a detailed description will be omitted.

본 명세서 개시된 일 실시예에 따른 이동 단말기는, 생체 정보 획득부(145), 위험 운전 상태를 검출하는 제어부(180), 위험 운전 상태의 피전송 대상을 선택하도록 모드 선택을 입력받는 사용자 입력부(130) 및 상기 위험 운전 상태를 타 단말기에 전송하는 통신부(110)를 포함한다.The mobile terminal according to one embodiment of the present invention includes a biometric information acquiring unit 145, a control unit 180 for detecting a dangerous driving state, a user input unit 130 for receiving a mode selection for selecting a to- And a communication unit 110 for transmitting the dangerous driving state to another terminal.

생체 정보 획득부(145)는 전술한 바와 같이, 사용자의 특정 신체 부위를 통해 생체 정보를 획득한다.The biometric information acquiring unit 145 acquires biometric information through a specific body part of the user as described above.

일 실시예에 따라, 생체 정보 획득부(145)는 인체의 생리학적 전위차에 의하여 발생되는 생체 신호를 측정할 수 있고, 일 예로, 전술한 바와 같이, PPG, ECG, GSR, EEG, EMG 및 EOG 센서 중 적어도 하나를 포함할 수 있다.
According to one embodiment, the bio-information acquiring unit 145 can measure a bio-signal generated by a physiological potential difference of the human body. For example, as described above, the bio-information acquiring unit 145 acquires bio-signals such as PPG, ECG, GSR, EEG, A sensor, and / or a sensor.

제어부(180)는 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 사용자에 대한 위험 운전 상태를 검출할 수 있다.The control unit 180 can detect a dangerous driving state for the user based on the biometric information acquired through the biometric information acquisition unit 145. [

여기서, 사용자에 대한 위험 운전 상태는, 사용자에 대한 졸음(drowsiness) 운전 상태, 시선 분산(driver distraction) 운전 상태 및 스트레스(stress) 상태 중 적어도 하나를 포함할 수 있다.Here, the dangerous driving state for the user may include at least one of a drowsiness driving state, a driver distraction driving state, and a stress state for the user.

특히, 제어부(180)는 상기 생체 정보를 근거로 사용자의 졸음 운전 상태 및/또는 스트레스 상태를 판단할 수 있다.In particular, the controller 180 may determine the drowsiness operation state and / or the stress state of the user based on the biometric information.

또한, 제어부(180)는 통신부(110)를 통해 영상획득장치로부터 수신한 사용자에 대한 영상 정보를 근거로 사용자의 졸음 운전 상태 및/또는 시선 분산 운전 상태를 판단할 수 있다.In addition, the control unit 180 can determine the drowsiness operation state and / or the eyeball dispersion operation state of the user based on the image information about the user received from the image acquisition apparatus through the communication unit 110. [

즉, 제어부(180)는 상기 영상 정보 및/또는 상기 생체 정보를 근거로 사용자의 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태를 판단할 수 있다.That is, the control unit 180 can determine the drowsiness operation state, the eyeball dispersion operation state, and the stress state of the user based on the image information and / or the biometric information.

또한, 제어부(180)는 상기 영상 정보 및/또는 상기 생체 정보를 근거로 상기 위험 운전 상태 각각에 대한 위험 레벨 정보를 생성할 수 있다.In addition, the controller 180 may generate risk level information for each of the dangerous driving states based on the image information and / or the biometric information.

즉, 제어부(180)가 사용자의 졸음 운전 상태에 대한 판단시, 상기 영상 정보 및 상기 생체 정보 모두를 근거로 판단하는 것이 바람직하다. 제어부(180)가 상기 영상 정보 및 상기 생체 정보 모두를 근거로 졸음 운전 상태에 대한 판단하는 경우, 사용자가 여러 단계로 구분된 졸음에 대한 평가 단계 중 어느 단계에 해당하는지 정확한 판단을 할 수 있기 때문이다.That is, when the controller 180 determines the drowsy driving state of the user, it is preferable that the controller 180 determines based on both the image information and the biometric information. When the controller 180 determines the drowsiness driving state based on both the image information and the biometric information, it is possible to accurately determine which of the evaluation steps for drowsiness is divided by the user to be.

한편, 제어부(180)는 사용자가 최초 차량에 탑승하는 경우, 상기 위험 운전 상태 및/또는 위험 레벨을 결정하기 전에, 일정 시간 동안 상기 영상 정보 및/또는 상기 생체 정보에 대한 초기값을 보정할 수 있고, 보정된 초기값을 기준으로 상기 영상 정보 및/또는 상기 생체 정보를 결정하는 것이 바람직하다.On the other hand, when the user boarding the first vehicle, the controller 180 may correct the initial value of the image information and / or the biometric information for a predetermined time before determining the dangerous driving state and / And determines the image information and / or the biometric information on the basis of the corrected initial value.

제어부(180)가 위험 운전 상태를 판단하는 구체적인 내용에 대해서는 후술하기로 한다.
The details of the control unit 180 determining the dangerous driving state will be described later.

통신부(110)는 이동 단말기(100)와 타 단말기 간의 통신 연결을 성립하기 위한 수단으로서, 상기 제어부(180)가 검출한 위험 운전 상태를 타 단말기에 전송한다.The communication unit 110 is a means for establishing a communication connection between the mobile terminal 100 and another terminal, and transmits the dangerous driving state detected by the controller 180 to another terminal.

이때, 사용자 입력부(130)는 통신부(110)를 통해 위험 운전 상태를 전송하려는 대상을 선택하도록 모드 선택 입력을 받는다.At this time, the user input unit 130 receives a mode selection input through the communication unit 110 to select an object to which a dangerous driving state is to be transmitted.

이에 따라, 제어부(180)는 상기 사용자 입력부(130)를 통해 입력받은 모드 선택 입력에 대응되는 타 단말기에 위험 운전 상태 정보를 전송한다.Accordingly, the control unit 180 transmits the dangerous driving condition information to the other terminal corresponding to the mode selection input received through the user input unit 130. [

여기서, 제어부(180)가 통신부(110)를 통해 위험 운전 상태 정보를 전송하는 상대 단말기는, 위험 운전 상태를 수신하고 이를 외부로 출력할 수 있는 단말기이면, 그 종류 및 형태를 한정하지 않으나, 일 예로, 시계형, 안경형 등과 같은 웨어러블 디바이스 형태 또는 바 형태의 이동 단말기(100), 차량 제어 장치(400) 또는 차량에 구비된 차량 출력부(미도시) 일 수 있다.Here, if the counterpart terminal that transmits the dangerous driving condition information through the communication unit 110 receives the dangerous driving condition and can output it to the outside, the type and form of the counterpart terminal are not limited, For example, it may be a mobile terminal 100, a vehicle control device 400, or a vehicle output unit (not shown) provided in a vehicle in the form of a wearable device such as a watch, a spectacle, or the like.

또한, 위험 운전 상태 정보는 이동 단말기(100)를 착용하고 있는 사용자가 졸음 운전 상태, 졸음 운전 상태 및 스트레스 상태 중 어느 하나의 상태에 있는지에 대한 정보를 포함하고, 각각의 위험 운전 상태가 어느 정도인지 위험 레벨 정보를 포함할 수 있다.In addition, the dangerous driving condition information includes information on whether the user wearing the mobile terminal 100 is in a drowsy driving state, a drowsy driving state, and a stressed state, And may include cognitive risk level information.

구체적인 일 예에 따라, 제어부(180)는 현재 운전자가 위험 운전 상태 중 졸음 운전 상태임을 검출한 경우, 통신부(110)를 통해 동승석에 탑승하고 있는 타 사용자의 이동 단말기에 상기 졸음 운전 상태에 대한 정보를 포함한 데이터를 전송할 수 있다.According to a specific example, when the controller 180 detects that the current driver is in the drowsy driving state during the dangerous driving state, the control unit 180 instructs the mobile terminal of the other user, Data including information can be transmitted.

이에 따라, 동승자는 착용하고 이동 단말기로부터의 현재 운전자가 졸음 운전 상태에 있음을 인지할 수 있고, 동승자는 직접 구두로 운전자에게 졸음 운전에 대한 경고를 할 수 있다.Accordingly, the passenger can recognize that the present driver from the mobile terminal is in the drowsy driving state, and the passenger can directly orally warn the driver of the drowsy driving.

이동 단말기(100)는 착용하고 있는 사용자에게 직접 제어부(180)가 판단한 위험 운전 상태 결과를 알릴 수 있으나, 위험 운전 상태에 빠져 있는 사용자는 이동 단말기(100)로부터의 알람을 인지하지 못할 우려가 있기 때문에, 제어부(180)는 위험 운전 상태에 있지 않은 타 사용자에게 위험 운전 상태를 알리고, 타 사용자로부터 위험 운전 상태에 빠진 사용자에 경고를 하도록 함으로써, 운전자가 상기 위험 운전 상태로부터 신속히 벗어날 수 있도록 할 수 있다.
The mobile terminal 100 may notify the wearer of the result of the dangerous driving state determined by the control unit 180 directly. However, the user who is not in the dangerous driving state may not recognize the alarm from the mobile terminal 100 Therefore, the control unit 180 notifies another user who is not in the dangerous driving state of the dangerous driving state and warns the user who is in the dangerous driving state from the other user so that the driver can quickly get out of the dangerous driving state have.

한편, 전술한 바와 같이, 본 발명의 일 실시예에 따른 제어부(180)는 차량에 구비된 영상획득장치로부터 사용자에 대한 영상 정보를 이용하여, 사용자에 대한 위험 운전 상태를 검출할 수 있다.Meanwhile, as described above, the controller 180 according to an exemplary embodiment of the present invention can detect a dangerous driving state for a user using image information about the user from an image acquisition device provided in the vehicle.

구체적으로, 제어부(180)는 상기 영상 정보를 근거로 사용자의 졸음 운전 상태 및/또는 시선 분산 운전 상태를 판단할 수 있다.Specifically, the control unit 180 can determine the drowsiness operation state and / or the eyeball dispersion operation state of the user based on the image information.

즉, 제어부(180)는 상기 영상 정보 및/또는 상기 생체 정보를 근거로 사용자의 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태를 판단할 수 있다.That is, the control unit 180 can determine the drowsiness operation state, the eyeball dispersion operation state, and the stress state of the user based on the image information and / or the biometric information.

또한, 제어부(180)가 사용자의 졸음 운전 상태에 대한 판단시, 졸음 정도를 정확히 판단하기 위해, 상기 영상 정보 및 상기 생체 정보 모두를 근거로 사용자의 위험 상태 정보를 판단하는 것이 바람직하다.In addition, when the controller 180 determines the drowsy driving state of the user, it is preferable to determine the user's risk information based on both the image information and the biometric information in order to accurately determine the degree of drowsiness.

이때, 생체 정보를 획득하기 위한 생체 정보 획득부(145)는 이동 단말기(100)에 다양한 형태로 구비될 수 있음을 전술한 바와 같으나, 영상 정보를 획득하기 위한 영상 획득 장치가 차량 내에 배치된 일 예를 자세히 살펴보기로 한다.In this case, although the biometric information acquisition unit 145 for acquiring biometric information may be provided in various forms in the mobile terminal 100, it is also possible that the image acquisition device for acquiring image information is arranged in the vehicle Let's take a closer look at the example.

도 9A 및 9B는 본 명세서에 개시된 일 실시예에 따른 영상획득장치가 차량에 설치된 예시도이다.9A and 9B are illustrations of an image acquisition device according to an embodiment disclosed herein installed in a vehicle.

영상획득장치(900)는 카메라와 같이 이미지 센서에 의해 얻어지는 정지 영상 또는 동영상 등의 화상 프레임을 처리할 수 있는 수단으로서, 사용자에 대한 영상을 획득한다.The image acquisition apparatus 900 acquires an image for a user as means for processing an image frame such as a still image or a moving image obtained by an image sensor such as a camera.

이때, 영상획득장치(900)는 사용자에 대한 영상을 획득하기 위해 사용자 또는 차량 내 탑승 좌석을 향하여 설치되는 것이 바람직하되, 상기 영상획득장치(900)는 차량의 내부 또는 외부에 위치할 수 있다.At this time, it is preferable that the image capturing apparatus 900 is installed toward the user or the passenger seat in the vehicle to acquire an image for the user, and the image capturing apparatus 900 may be located inside or outside the vehicle.

후술하는 바와 같이, 본 명세서에서 개시한 일 실시예에 따른 이동 단말기는 사용자의 졸음, 부주의 또는 스트레스 등을 판단할 때, 사용자의 생체 정보 이외에도 사용자의 표정을 근거로 하기 때문에, 상기 영상획득장치(900)는, 일 예로, 도 9에 도시한 바와 같이, 차량 내부에 설치되되, 상기 사용자의 얼굴을 향하도록 계기판 또는 그 주변(도 9A 참조)이나 조향 핸들의 회전 축 상(도 9B 참조)에 설치되는 것이 바람직하다.As will be described later, since the mobile terminal according to the embodiment disclosed herein is based on the user's facial expression in addition to the user's biometric information when determining the user's drowsiness, carelessness, stress, etc., 9), for example, as shown in Fig. 9, is provided inside the vehicle, and is mounted on the rotation axis (see Fig. 9B) of the instrument panel or its periphery .

물론, 상기 영상획득장치(900)는 차량 내부의 어느 일 면에 부착가능한 거치대에 의해 고정되되, 거치대에 고정된 영상획득장치(900)가 상기 사용자를 향하도록 고정 설치될 수 있다.Of course, the image capturing apparatus 900 may be fixed to one side of the vehicle by a mountable mount, and an image capturing apparatus 900 fixed to the mount may be fixedly installed to face the user.

사용자에 대한 영상을 획득하는 영상획득장치(900)는 하나 또는 복수일 수 있으나, 영상획득장치(900)가 복수인 경우, 제어부(180)는 복수의 영상획득장치(900)에 의해 획득한 영상 정보를 이용하여, 상기 사용자에 대한 3차원 영상 정보를 획득할 수 있다.The control unit 180 may control the image acquisition apparatus 900 to acquire images obtained by the plurality of image acquisition apparatuses 900. The image acquisition apparatus 900 may acquire images for the user, Information of the user can be obtained.

사용자에 대한 3차원 영상 정보를 획득하기 위해, 복수의 영상획득장치(900) 각각은 상기 사용자를 향하여 설치되되, 서로 다른 방향에서 상기 사용자를 향하도록 설치되는 것이 바람직하다.In order to acquire three-dimensional image information about the user, it is preferable that each of the plurality of image capturing apparatuses 900 is installed toward the user, and is installed to face the user in different directions.

후술하는 바와 같이, 제어부(180)가 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 및 시선 방향 등을 인식하기 위해, 이용하는 영상 정보는 복수의 영상획득장치(900)로부터 획득한 복수일 수 있으나, 일 실시예에 따라, 복수의 영상획득장치(900)로부터 사용자 얼굴(또는 머리)가 공간 내에 위치한 좌표 또는 얼굴의 방향을 산출하고, 복수의 영상획득장치(900) 중 사용자의 얼굴에 대한 인식률이 높은 어느 하나의 영상획득장치(900)를 선택하여, 선택된 영상획득장치(900)를 기준으로 획득한 영상 정보를 이용하여, 제어부(180)는 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 및 시선 방향 등을 인식할 수 있다.As will be described later, the image information to be used is recognized from the plurality of image capturing apparatuses 900 to recognize the face of the user, the eye open time, the eye flicker, the face direction, and the gaze direction, (Or head) from the plurality of image capturing apparatuses 900 may calculate the direction of the coordinates or the face located in the space, and may be a plurality of captured images among the plurality of image capturing apparatuses 900 The controller 180 selects one of the image acquiring apparatuses 900 having a high recognition rate for the user's face and uses the image information acquired on the basis of the selected image acquiring apparatus 900, Eye flicker, face direction, and gaze direction can be recognized.

또한, 사용자의 시선 좌표에 따른 ROI(Region Of Interest)의 영상을 획득하기 위해, 복수의 영상획득장치(900)는 차량 내외부의 복수 영역에 대한 영상 정보를 획득하도록 상기 복수 영역을 향하여 설치될 수 있다.Further, in order to acquire an image of ROI (Region Of Interest) according to the user's gaze coordinates, the plurality of image capturing apparatuses 900 may be installed toward the plurality of regions so as to acquire image information for a plurality of regions inside and outside the vehicle have.

또한, 영상획득장치(900)는 적은 수의 영상획득장치로 차량 내외부의 영역에 대한 영상 정보를 획득하거나, 사용자의 얼굴에 대한 인식률을 높이기 위해, 렌즈 혹은 영상획득장치(900) 자체를 상하좌우 방향으로 이동시키거나 회전시키기 위한 적어도 하나의 모터를 포함할 수 있다.The image acquisition device 900 may acquire image information of an area inside or outside the vehicle with a small number of image acquisition devices or may acquire image information of the lens or the image acquisition device 900 itself in up, And at least one motor for moving or rotating the motor in the direction of rotation.

영상획득장치(900)가 ROI를 향하지 않거나, 사용자의 얼굴을 인식하지 못하는 경우, 획득한 영상 정보로부터 사용자의 얼굴을 추출할 때까지 렌즈 혹은 영상획득장치(900) 자체를 틸팅(tilt)시킬 수 있다.
When the image capturing apparatus 900 does not face the ROI or does not recognize the user's face, the lens or the image capturing apparatus 900 itself can be tilted until the user's face is extracted from the acquired image information have.

이때, 통신부(110)는 차량에 구비된 영상획득장치(900)로부터 사용자에 대한 영상 정보를 수신할 수 있다.At this time, the communication unit 110 can receive image information about the user from the image acquisition apparatus 900 provided in the vehicle.

상기 영상획득장치(900)는 내장 또는 외장의 유선 또는 무선 통신부를 통하여, 상기 영상 정보를 이동 단말기(100) 또는 차량 제어 장치(400)에 직접 전송하거나, 이동 단말기(100) 또는 차량 제어 장치(400)가 상기 영상 정보를 수신하고, 수신한 영상 정보를 차량 제어 장치(400) 또는 이동 단말기(100)에 전달할 수 있다.
The image capturing apparatus 900 may directly transmit the image information to the mobile terminal 100 or the vehicle control apparatus 400 through a wired or wireless communication unit built in or external to the mobile terminal 100, 400 may receive the image information, and may transmit the received image information to the vehicle control device 400 or the mobile terminal 100.

이하, 위험 운전 상태 중 졸음 운전 상태, 스트레스 상태 및 시선 분산 운전 각각에 대해 구체적으로 설명한다.Hereinafter, the drowsy driving state, the stress state, and the line-of-sight dispersion operation in the dangerous driving state will be described in detail.

졸음 운전 상태Drowsy driving status

제어부(180)는 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태 중 졸음 운전 상태에 대한 판단이 가능하다.The control unit 180 can determine the drowsy driving state of the user in a dangerous driving state based on at least one of the image information and the biometric information.

우선, 졸음에 대한 평가 단계는, 일 예로, 하기의 표 1에 나타낸 바와 같이, HFC(Human Fatigue-Scale) 및 SSS(Stanford Sleepiness Scale)를 기준으로 하는 경우 총 7 단계로 나타낼 수 있고, KSS(Karolineska Sleepiness Scale)를 기준으로 하는 경우 총 9 단계로 나타낼 수 있다.First, as shown in Table 1 below, the evaluation step for drowsiness can be expressed in seven steps based on human fatigue-scale (HFC) and Stanford sleepiness scale (SSS) Karolineska Sleepiness Scale), it can be expressed in 9 steps.

Figure 112014086198911-pat00001
Figure 112014086198911-pat00001

제어부(180)가 상기 영상 정보를 이용하여, 사용자의 졸음 운전 상태에 대한 판단시, 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 중 어느 하나 또는 이들의 조합으로 판단할 수 있다.The control unit 180 determines whether the user's drowsy driving state is a user's facial expression, eye open time, blinking of eyes, or face direction, or a combination thereof, using the image information .

일 예로, 제어부(180)는 소정 시간 중 눈꺼풀이 떠있거나 감겨있는 시간이 차지하는 비율에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.For example, the control unit 180 can determine the drowsiness state of the user according to the ratio of the eyelids floating or winding time during a predetermined time.

여기서, 눈꺼풀이 감겨있는 시간은, 사용자 눈의 최대 크기와 최소 크기 간의 차이를 기준으로 눈꺼풀이 약 70% 또는 80% 정도 감겨져 있는 시간으로 할 수 있다.Here, the time during which the eyelid is wound can be a time at which the eyelid is wound by about 70% or 80% based on the difference between the maximum size and the minimum size of the user's eye.

또 다른 예로, 제어부(180)는 눈의 깜빡거림을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, the controller 180 may determine the drowsy driving state of the user based on blinking of the eyes.

구체적으로, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)를 제곱한 값들을 이용하여 눈이 깜빡거린 횟수로 평균한 값에 따라 사용자의 졸음 운전 상태를 판단하거나, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)를 이용하여 눈이 깜빡거린 횟수로 평균한 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.Specifically, the sleeping driving state of the user is determined according to a value obtained by averaging the number of blinks of the eyes using the values obtained by squaring the degree of closure of the eyelids that are determined to be blinking, or when the eyes are flickering The sleeping driving state of the user can be determined according to the average value of the number of blinks of the eyes by using the closure rate of the judged eyelid.

이때, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도는 왼쪽 눈과 오른쪽 눈 중 큰 값을 근거로 제곱하여 평균하거나, 단순히 평균한 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.At this time, the degree of winding of the eyelids judged to be blinking may be squared based on the larger value of the left eye or the right eye, or the user may be judged according to the averaged value.

또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 오래 걸리지 않으나 소정 시간(약 0.5초 또는 1초) 이상인 횟수에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, when the blinking of the eyes is determined, the control unit 180 determines the sleeping driving state of the user according to the number of times that the blinking of the eyes does not take long, but is longer than a predetermined time (about 0.5 seconds or 1 second) .

또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 상기 소정 시간 이상으로 오래 걸리는 경우에는 이를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, when the flickering of the eyes is determined, the control unit 180 may determine the drowsiness state of the user based on the time taken for the blinking of the eyes to take longer than the predetermined time.

또 다른 예로, 제어부(180)는 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 횟수의 합을 연속하여 발생한 횟수로 나눈 값에 따라 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, when the blinking of the eyes is determined, the control unit 180 determines whether the blinking of the eyes is divided by the number of consecutive occurrences, The state can be judged.

일 예로, 눈의 깜빡거림을 판단하고, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 경우, "1"로 나타내도록 가정하면, 0000110000111100001110000인 경우에, 산출되는 값은 (2+4+3)/3=3으로써, 이 값을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다. 즉, 제어부(180)는 상기와 같이 산출한 값의 크기에 따라 졸음에 대한 평가를 할 수 있고, 상기 산출한 값이 클수록 사용자의 졸음에 대한 평가 단계는 높다고 판단할 수 있다. For example, when the blinking of the eye is judged and it is assumed that the time for blinking of the eye is equal to or longer than a predetermined time (about 2 seconds), it is assumed to be represented by "1 ", and in the case of 0000110000111100001110000, 4 + 3) / 3 = 3, the drowsy driving state of the user can be determined based on this value. That is, the controller 180 can evaluate the drowsiness according to the magnitude of the calculated value as described above, and the greater the calculated value, the greater the degree of the drowsiness of the user.

또 다른 예로, 제어부(180)는 눈의 깜빡거림의 주기를 근거로 사용자의 졸음 운전 상태를 판단할 수 있고, 구체적으로 눈의 깜빡거림을 판단한 경우, 눈이 깜빡거리는 데 걸리는 시간이 소정 시간(약 2초) 이상인 횟수(n)을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, the controller 180 can determine the drowsy driving state of the user based on the period of flickering of the eyes. Specifically, when the flickering of the eyes is determined, About 2 seconds) or more (n).

또 다른 예로, 제어부(180)는 눈의 깜빡거림의 속도를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, the controller 180 can determine the drowsy driving state of the user based on the speed of blinking of the eyes.

구체적으로, 눈이 떠진 상태에서 감길때의 속도를 측정하고, 측정한 속도들의 총합을 눈을 깜빡거리는 횟수로 나누어 계산한 평균값(AECS)을 근거로 사용자의 졸음 운전 상태를 판단하거나, 이와 달리, 눈이 깜빡거린 것으로 판단한 눈꺼풀이 감겨진 정도(closure rate)값들 중 가장 큰 값을 눈이 떠진 상태에서 감길때의 최고 속도값으로 나눈 값(APCV)을 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.Specifically, the sleeping driving state of the user is determined based on the average value (AECS) calculated by measuring the speed at the time of winding while the eyes are left and dividing the sum of the measured velocities by the number of blinking times, The sleeping state of the user can be judged based on the APCV value obtained by dividing the largest value of the closure rate determined by the blinking of the eyelid by the maximum speed value when the eye is left unfurled have.

이때, APCV는 가장 최근 값을 근거로 하거나 복수 회 산출한 APCV들을 평균한 값을 근거로 할 수 있다.At this time, APCV can be based on the value obtained by averaging APCVs calculated based on the most recent value or a plurality of times.

또 다른 예로, 제어부(180)는 동공의 수축 여부(또는 홍채의 이완 여부)를 근거로 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, the controller 180 may determine the drowsy driving state of the user based on whether the pupil is contracted (or whether the iris is loosened).

또 다른 예로, 얼굴의 방향을 근거로 얼굴의 방향이 상하 방향으로 시간에 따라 변하는 경우, 제어부(180)는 사용자의 고개가 끄덕거려지는 것으로 판단하여, 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, when the direction of the face changes in the vertical direction based on the direction of the face, the controller 180 determines that the user's head is nodded and can determine the drowsy driving state of the user.

또 다른 예로, 제어부(180)는 사용자의 얼굴 표정을 근거로, 사용자가 하품(yawn)하는 것을 판단하여, 사용자의 졸음 운전 상태를 판단할 수 있다.As another example, the control unit 180 may determine that the user is yawned based on the facial expression of the user, and determine the drowsy driving state of the user.

상기와 같이, 제어부(180)는 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 중 어느 하나를 근거로 사용자의 졸음 운전 상태를 판단할 수 있으나, 사용자의 졸음 운전 상태가 어느 단계에 해당하는지 정확한 판단을 하기 위해, 상기 판단 근거를 조합하여 졸음 운전 상태를 판단하는 것이 바람직하다.As described above, the controller 180 can determine the drowsy driving state of the user based on any one of the facial expression of the user's face, the open time of the eyes, the blinking of the eyes, and the face direction, In order to make an accurate judgment as to which stage, it is preferable to determine the drowsy driving state by combining the judgment criteria.

이때, 제어부(180)가 복수의 판단 근거를 조합하여 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단하는 경우, 상기 복수의 판단 근거(일 예로, 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림 및 얼굴의 방향 등) 각각에 대한 가중치를 적용할 수 있다.At this time, when the control unit 180 determines the drowsiness driving state or the drowsiness driving evaluation level of the user by combining a plurality of judgment grounds, the plurality of judgment grounds (for example, the expression of the user's face, Flickering and direction of the face, etc.) can be applied.

여기서, 제어부(180)가 사용자 얼굴의 표정, 눈의 개방 시간, 눈의 깜빡거림, 얼굴의 방향 등과 같은 복수의 요소를 근거로 사용자에 대한 졸음 운전 상태 및 사용자의 졸음 운전 평가 레벨을 판단할 때, 판단 정확도를 향상시키기 위해, 상기 복수의 요소에 대한 가중치는 상기 요소에 대한 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.Here, when the control unit 180 determines the drowsiness driving state for the user and the drowsiness driving evaluation level for the user on the basis of a plurality of factors such as the face of the user, the open time of the eyes, the flickering of the eyes, In order to improve judgment accuracy, the weights for the plurality of elements are preferably set by learning based on a large amount of databases for the elements.

이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 제어부(180)는 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
At this time, the learning model can be generated based on the controller 180 classifying the image information and the biometric information of a general user including a user or a user into a database, and based on the generated learning model, Or the risk level.

한편, 제어부(180)는, 전술한 바와 같이, 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 상기 사용자에 대한 졸음 운전 상태를 판단할 수 있다.On the other hand, the control unit 180 can determine the drowsy driving state of the user based on the biometric information acquired through the biometric information acquisition unit 145, as described above.

제어부(180)는 EMG 센서를 통해 측정한 근전도에 대한 생체 신호를 근거로 하거나, GSR 센서를 통해 측정한 전기성 피부 반사 신호를 근거로 하여, 사용자에 대한 졸음 운전 상태를 판단할 수 있다.The control unit 180 may determine a drowsiness state of the user based on the bio-signal of the electromyogram measured through the EMG sensor or based on the electrical skin reflection signal measured by the GSR sensor.

제어부(180)가 생체 정보를 근거로 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단하는 경우, 상기 복수의 생체 정보 각각에 대한 가중치를 적용할 수 있다.When the control unit 180 determines the drowsiness operation state or the drowsiness operation evaluation level of the user on the basis of the biometric information, the weight value for each of the plurality of biometric information may be applied.

여기서, 제어부(180)가 EMG 및 GSR 센서 등에 의해 측정한 값과 같은 복수의 요소를 근거로 사용자에 대한 졸음 운전 상태 및 사용자의 졸음 운전 평가 레벨을 판단할 때도 마찬가지로, 판단 정확도를 향상시키기 위해, 상기 복수의 요소(일 예로, EMG 및 GSR 센서 등에 의해 측정한 값)에 대한 가중치는 상기 요소에 대한 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.Here, when the controller 180 determines the drowsiness operation state for the user and the drowsiness operation evaluation level for the user based on a plurality of factors such as the values measured by the EMG and GSR sensors, The weights for the plurality of elements (for example, the values measured by the EMG and the GSR sensor) are preferably set by learning based on a large amount of databases for the elements.

이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
At this time, the learning model can be generated based on the database of the image information and the biometric information of the general user including the user or the user by the control unit 180, and the risk driving state or the risk level is determined based on the generated learning model .

한편, 제어부(180)가 상기 영상 정보만으로 사용자에 대한 졸음 운전 상태를 판단하거나, 상기 생체 정보만으로 사용자에 대한 졸음 운전 상태를 판단하는 경우에는, 졸음 운전 상태에 대한 평가 단계의 범위가 제한되고, 사용자의 졸음 운전 상태에 대한 평가 레벨이 어느 정도인지 정확한 판단을 할 수 없는 문제가 있을 수 있다.On the other hand, when the control unit 180 determines the drowsiness driving state for the user based only on the image information or the drowsiness driving state for the user based only on the biometric information, the range of the evaluation step for the drowsiness driving state is limited, There may be a problem that it is not possible to accurately determine the evaluation level of the drowsy driving state of the user.

따라서, 상기의 문제를 해소하기 위해, 제어부(180)는 상기 영상 정보 이외에 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태를 판단하는 것이 바람직하다.Therefore, in order to solve the above problem, the controller 180 preferably determines the drowsiness state of the user based on the biometric information in addition to the image information.

제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.When the controller 180 determines the drowsy driving state or the like for the user based on the image information and the biometric information, the control unit 180 applies weights to the image information and the biometric information, It is desirable to determine which stage corresponds to which stage.

여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 영상 정보에 대한 가중치가 상기 생체 정보에 대한 가중치보다 큰 것이 바람직하다.Here, the relation between the weight for the image information and the weight for the biometric information may be changed according to the environment when the controller 180 evaluates the drowsy driving state. However, the weight for the image information is not limited Is larger than the weight for the biometric information.

상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 각각에 대하여 서로 다를 수 있고, 이에 따라, 각각의 위험 운전 상태에 따라 상기 영상 정보 및 상기 생체 정보 각각에 대한 가중치를 서로 다르게 적용하여, 어느 위험 운전 상태에 해당하는지 또는 구체적인 위험 운전 상태에 대한 평가 레벨을 결정하는 것이 바람직하다.
The relationship between the weight for the image information and the weight for the biometric information may be different for each of the drowsy driving state, the visually dispersed driving state, and the stress state, and accordingly, It is preferable to apply different weights to each of the biometric information to determine which dangerous driving state corresponds or an evaluation level for a specific dangerous driving state.

한편, 제어부(180)가 사용자에 대한 졸음 운전 상태 또는 사용자의 졸음 운전 평가 레벨을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).Meanwhile, when the control unit 180 determines the drowsiness driving state for the user or the drowsiness driving evaluation level for the user, it is preferable to consider both the image information and the biometric information as described above, The calculated sleepiness tendency line can be further considered by using at least one of the sleep state information and the biorhythm information for the user before boarding the vehicle (refer to FIG. 13).

도 13은 본 명세서에 개시된 일 실시예에 따른 졸음 운전 상태 또는 졸음 레벨을 결정하기 위한 과정을 나타내는 블록도이고, 도 10은 본 명세서에 개시된 일 실시예에 따라 사용자에 대한 졸음 추세선을 나타낸 도면이다.FIG. 13 is a block diagram illustrating a process for determining a drowsy driving state or a drowsiness level according to one embodiment disclosed herein, and FIG. 10 illustrates a drowsiness trend line for a user according to an embodiment disclosed herein .

도 10에 도시한 바와 같이, 제어부(180)는 시간에 따른 사용자의 졸음 운전 상태에 대한 평가 레벨 변화를 예측할 수 있다.As shown in FIG. 10, the control unit 180 can predict a change in the evaluation level with respect to the drowsy driving state of the user over time.

사용자가 이동 단말기(100)를 착용하고 있는 중에는, 상기 이동 단말기(100)는 생체 정보 획득부(145)를 이용하여 상기 사용자에 대한 생체 정보를 소정 시간 동안 지속적으로 혹은 일정 주기마다 획득할 수 있다.While the user is wearing the mobile terminal 100, the mobile terminal 100 can acquire biometric information for the user for a predetermined period of time or at regular intervals using the biometric information acquiring unit 145 .

이동 단말기(100)는 사용자가 차량 탑승 전에 사용자의 수면 패턴을 분석하고, 사용자가 차량 탑승 후 졸음 추세선을 유도할 수 있다.The mobile terminal 100 may analyze the user ' s sleep pattern before boarding the vehicle, and may induce a drowsiness trend line after the user has boarded the vehicle.

즉, 이동 단말기(100)는 센싱부(140)에 포함된 가속도 센서(acceleration sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor) 등을 이용하여 측정한 사용자의 움직임에 대한 정보와, 생체 정보 획득부(145)에 포함된 PPG, EMG 및 GSR 센서 등을 이용하여 측정된 사용자의 호흡, 맥박 변화, 근전도 등에 대한 정보를 근거로, 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 분석할 수 있다.That is, the mobile terminal 100 is measured using an acceleration sensor, a gravity sensor (G-sensor), a gyroscope sensor, a motion sensor, or the like included in the sensing unit 140 Based on the information on the movement of one user and information on the respiration, pulse change, and EMG of the user measured using the PPG, EMG, and GSR sensors included in the biometric information acquiring unit 145, State information, and biorhythm information.

구체적으로, 제어부(180)는 상기와 같이 소정 시간 동안 지속적으로 혹은 일정 주기마다 측정된 정보를 이용하여, 수면의 시작과 끝, 수면 중 움직임의 빈도, 움직임의 정도, 수면 단계(얕은 수면에서 깊은 수면까지의 단계), 수면의 리듬 및 수면의 패턴 등을 분석할 수 있고, 분석된 정보를 근거로, 도 10과 같은 졸음 추세선을 산출할 수 있다.Specifically, the control unit 180 may use information measured continuously or periodically for a predetermined period of time, such as at the beginning and end of the sleep, the frequency of the motion during sleep, the degree of motion, the sleep phase The sleeping phase), the rhythm of the sleeping surface, and the pattern of the sleeping surface. Based on the analyzed information, the sleepiness tendency line as shown in Fig. 10 can be calculated.

졸음 추세선은 사용자의 차량 탑승 여부 또는 차량 주행 여부를 기준으로 시간에 따른 졸음 레벨을 나타낸 그래프로서, 도 10에 도시한 바와 같이, 사용자가 차량에 탑승한 직후 또는 차량의 주행 직후의 사용자에 대한 초기 졸음 레벨, 졸음 레벨이 변화하기 전까지 상기 초기 졸음 레벨을 유지하는 시간 및 시간에 따른 졸음 레벨의 변화율을 포함할 수 있다.The drowsiness tendency line is a graph showing a drowsiness level according to time based on whether a user is riding a vehicle or running on a vehicle. As shown in Fig. 10, The sleeping level, the time to maintain the initial sleeping level until the sleeping level changes, and the rate of change of the sleeping level with time.

제어부(180)는 상기와 같이 산출한 졸음 추세선을 이용하여, 사용자에 대한 졸음 레벨을 예측할 수 있다.The controller 180 can predict the sleepiness level for the user by using the drowsiness trend line calculated as described above.

다시 말해, 이동 단말기(100)는 사용자의 차량 탑승 전 혹은 차량 주행 전에 획득한 생체 정보를 이용하여, 수면 상태 정보를 분석하고, 분석한 수면 상태 정보를 근거로 졸음 추세선을 산출함으로써, 사용자가 차량 탑승 후 혹은 차량 주행 후 시간에 따른 졸음 레벨을 예측할 수 있다.In other words, the mobile terminal 100 analyzes the sleep state information using the biometric information acquired before the user's boarding or driving the vehicle, calculates the sleepiness tendency line based on the analyzed sleep state information, You can predict the level of sleepiness over time after boarding or after driving.

이와 같이, 본 명세서에 개시된 일 실시예에 따른 이동 단말기(100)는 후술하는 바와 같이, 사용자의 졸음 레벨을 예측하고, 사용자의 졸음 정도가 심하여 차량 운행에 지장을 주기 전에 미리 사용자 또는 특히 타 사용자에게 각종 수단을 통해 경각심을 불러 일으키도록 함으로써, 졸음에 의해 발생할 수 있는 교통 사고를 미연에 방지할 수 있다.As described above, the mobile terminal 100 according to the embodiment of the present invention predicts the sleepiness level of the user and, before the user is disturbed by the degree of drowsiness of the user, Thereby making it possible to prevent a traffic accident caused by drowsiness.

제어부(180)가 사용자의 졸음 운전 평가 레벨을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 졸음 레벨과 상기 졸음 추세선을 근거로 산출된 제2 졸음 레벨을 조합함으로써, 정확한 사용자의 졸음 레벨을 산출할 수 있다.By combining the first sleeping level calculated based on the image information and the biometric information and the second sleeping level calculated based on the drowsiness trend line when the control unit 180 determines the drowsiness evaluation level of the user, The sleeping level of the user can be calculated.

상기 제1 졸음 레벨과 상기 제2 졸음 레벨 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 졸음 레벨을 최종적으로 산출할 수 있다.By applying a predetermined weight to each of the first sleeping level and the second sleeping level, the sleeping level of the user can be finally calculated.

이때, 제1 졸음 레벨 및 제2 졸음 레벨에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 졸음 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다. 즉, 최종적으로 판단된 사용자의 졸음 레벨이 3 레벨이나, 사용자 입력부(130)를 통해 입력받은 확인 입력이 3이 아닌 2인 경우에는 최종 판단된 사용자의 졸음 레벨이 2 레벨이 되도록 가중치를 변경할 수 있다.
At this time, the weights applied to the first sleeping level and the second sleeping level may be set in advance by user input, or may be adaptively changed according to a confirmation input of the finally determined sleeping level of the user. That is, if the finally determined sleeping level of the user is three levels but the confirmation input inputted through the user input unit 130 is 2 rather than 3, the weighted value can be changed so that the sleeping level of the finally determined user becomes two levels have.

시선 분산 운전 상태Eye-line dispersion operation state

한편, 제어부(180)는 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태 중 시선 분산 운전 상태에 대한 판단이 가능하다.On the other hand, the controller 180 can determine the visually dispersed driving state of the user in a dangerous driving state based on at least one of the image information and the biometric information.

제어부(180)가 상기 영상 정보를 이용하여, 사용자의 시선 분산 운전 상태에 대한 판단시, 사용자의 얼굴 방향 및 사용자의 시선 방향 중 어느 하나 또는 이들의 조합으로 판단할 수 있다.The control unit 180 may determine the user's face direction and the user's gaze direction or a combination thereof when determining the gaze dispersion operation state of the user using the image information.

일 예로, 제어부(180)는 하나 또는 복수의 영상획득장치(900)를 통해 획득한 영상 정보를 근거로, 사용자의 얼굴 방향 및 사용자의 시선 방향을 산출하고, 산출된 사용자의 얼굴 방향 및 사용자의 시선 방향을 근거로 사용자의 시선 분산 운전 상태에 대한 판단을 할 수 있다.For example, the controller 180 calculates the face direction of the user and the user's gaze direction based on the image information acquired through the one or more image capturing apparatuses 900, It is possible to judge the user's line-of-sight dispersion operation state based on the gaze direction.

제어부(180)가 사용자의 시선 분산 운전 상태를 판단하는 경우, 사용자의 시선이 향하는 방향, 시선의 변화 정도 및 시선의 머무는 시간 등을 고려하여, 사용자의 시선 분산 레벨을 결정할 수 있다.
When the control unit 180 determines the gaze dispersion operation state of the user, the gaze dispersion level of the user can be determined in consideration of the direction of the gaze of the user, the degree of change of the gaze, and the staying time of the gaze.

한편, 제어부(180)가 사용자의 얼굴 방향 및 사용자의 시선 방향 중 어느 하나 또는 이들의 조합으로 사용자가 시선 분산 운전 상태임을 판단한 경우, 제어부(180)는 복수의 영상획득장치(900) 중 사용자의 시선이 향하는 시선 좌표에 대응하는 적어도 하나의 영상획득장치(900)를 선택할 수 있다.If the controller 180 determines that the user is in the line-of-sight dispersing operation state by using any one of the face direction of the user and the user's gaze direction or a combination thereof, the controller 180 may control the user of the plurality of image capturing apparatuses 900 It is possible to select at least one image acquisition device 900 corresponding to the sight line coordinates to which the line of sight is directed.

즉, 사용자의 ROI를 향하고 있는 복수의 영상획득장치(900) 중 적어도 하나를 선택할 수 있다.That is, at least one of the plurality of image acquisition apparatuses 900 facing the user's ROI can be selected.

이에 따라, 제어부(180)는 상기 선택된 영상획득장치(900)에 의해 획득한 영상 정보로부터 적어도 하나의 대상을 인식할 수 있고, 인식한 대상에 따라 대응하는 제어 명령을 이동 단말기(100)가 수행하거나 상기 제어 명령을 타 이동 단말기(100) 또는 타 차량 제어 장치(400) 등으로 전송하여, 타 이동 단말기(100) 또는 타 차량 제어 장치(400)가 상기 제어 명령을 수행하도록 할 수 있다.Accordingly, the control unit 180 can recognize at least one object from the image information acquired by the selected image acquisition device 900, and the corresponding control command is performed by the mobile terminal 100 according to the recognized object Or the control command may be transmitted to another mobile terminal 100 or another vehicle control device 400 so that the other mobile terminal 100 or the other vehicle control device 400 may execute the control command.

일 예로, 도 11A에 도시한 바와 같이, 사용자의 시선이 룸미러(M)를 향하는 경우, 제어부(180)는 사용자의 시선이 전방을 주시하지 않은 것으로 인식하고, 사용자가 위험 운전 상태 중 시선 분산 운전 상태임을 판단할 수 있다.For example, as shown in FIG. 11A, when the user's gaze is directed to the room mirror M, the controller 180 recognizes that the user's gaze is not looking forward, It can be determined that the vehicle is in the driving state.

그리고, 제어부(180)는 사용자의 시선이 향하는 시선 좌표가 룸미러(M)인 것으로 판단하고, 룸미러(M)에 대응하는 후방향 영상획득장치(미도시)를 선택하여, 선택된 후방향 영상획득장치로부터 영상 정보를 획득할 수 있다.The control unit 180 determines that the eye coordinate pointed by the user's eyes is the room mirror M and selects the backward image acquisition device (not shown) corresponding to the room mirror M, And acquire image information from the acquiring device.

이에 따라, 제어부(180)는 후방향 영상획득장치로부터 획득한 영상 정보로부터 적어도 하나의 대상을 인식하되, 상기 대상(T1)이 사람인 경우에는 얼굴을 인식할 수 있다.Accordingly, the control unit 180 recognizes at least one object from the image information acquired from the backward image acquisition apparatus, and recognizes the face when the object T1 is a person.

상기 대상(T1)에 대응하는 제어 명령에 따라, 제어부(180)가 얼굴을 인식한 경우, 인식한 대상이 얼굴이므로 이에 대응하는 제어 명령을 수행할 수 있다. 구체적으로, 제어부(180)는 메모리(160)에 저장된 얼굴 데이터베이스를 이용하여, 인식한 얼굴에 대응하는 이름 정보 등을 추출할 수 있다.When the controller 180 recognizes a face according to a control command corresponding to the object T1, the controller 180 can perform a corresponding control command because the recognized object is a face. Specifically, the control unit 180 can extract the name information corresponding to the recognized face using the face database stored in the memory 160. [

또한, 제어부(180)는 인식한 얼굴의 표정 및/또는 인식한 얼굴에 대응하는 이동 단말기의 생체 정보 획득부로부터 상기 대상(T1)의 생체 정보 등을 수신하고, 대상에 대한 상태를 판단하여, 판단 결과를 출력부(150)를 통해 출력할 수 있다.The control unit 180 also receives the biometric information of the object T1 from the facial expression of the recognized face and / or the biometric information obtaining unit of the mobile terminal corresponding to the recognized face, determines the state of the object, And output the determination result through the output unit 150. [

따라서, 제어부(180)는 후방향 영상획득장치로부터 획득한 영상 정보를 근거로, 음향 출력부(153)를 통해 "캐빈이 잠자고 있습니다"라는 음성을 출력하거나, "캐빈의 호흡이 정상보다 빠릅니다"라는 음성을 출력하여, 사용자가 인식 대상의 상태에 따른 대응을 신속하게 취할 수 있도록 할 수 있다.Therefore, the control unit 180 outputs a voice saying " the cabin is sleeping "through the sound output unit 153 based on the image information acquired from the backward image acquisition apparatus, or" Quot ;, so that the user can quickly take the correspondence according to the state of the recognition object.

또 다른 예로, 도 11B에 도시한 바와 같이, 사용자의 시선이 차량의 운전자 측 창문 밖을 향하는 경우, 제어부(180)는 사용자의 시선이 전방을 주시하지 않은 것으로 인식하고, 사용자가 위험 운전 상태 중 시선 분산 운전 상태임을 판단할 수 있다.11B, when the user's gaze is directed to the outside of the driver's window of the vehicle, the control unit 180 recognizes that the user's gaze does not gaze forward, and if the user is in a dangerous driving state It can be determined that the visual line dispersion operation state.

그리고, 제어부(180)는 사용자의 시선이 향하는 시선 좌표가 즉, ROI가 차량의 운전자 측 창문 밖인 것으로 판단하고, 이에 대응하는 좌방향 영상획득장치(미도시)를 선택하여, 선택된 좌방향 영상획득장치로부터 영상 정보를 획득할 수 있다.Then, the control unit 180 determines that the eye coordinates of the user's gaze, that is, the ROI is outside the driver's side window of the vehicle, selects the corresponding left direction image acquisition device (not shown) It is possible to acquire image information from the apparatus.

이에 따라, 좌방향 영상획득장치로부터 획득한 영상 정보로부터 제어부(180)는 적어도 하나의 대상(T2, T3)을 인식하되, 상기 대상(T2, T3)이 문자열인 경우에는 문자열을 인식하고, 인식한 문자열로부터 인터넷 주소, 전화번호 또는 상호 등을 추출할 수 있다.Accordingly, the control unit 180 recognizes at least one object T2 and T3 from the image information acquired from the left-side image acquisition apparatus, recognizes the character string when the objects T2 and T3 are strings, You can extract Internet addresses, phone numbers, or reciprocals from a string.

따라서, 제어부(180)는 좌방향 영상획득장치로부터 획득한 영상 정보를 근거로, "COFFEE"의 상호와 "02-000-0000"의 전화번호를 추출하고, 추출한 정보에 대응하는 제어 명령에 따라 추출한 정보를 전화번호부에 저장할 수 있다.
Therefore, the control unit 180 extracts the mutual name of "COFFEE " and the telephone number of" 02-000-0000 "based on the image information acquired from the left- The extracted information can be stored in the telephone directory.

한편, 제어부(180)는 상기 영상 정보 이외에 EOG, EMG 센서 등을 포함한 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 사용자에 대한 시선 부주의 운전 상태를 판단할 수 있고, 제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 졸음 운전 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.Meanwhile, the control unit 180 can determine the invisible operation state of the user based on the biometric information acquired through the biometric information acquisition unit 145 including the EOG, the EMG sensor, etc., in addition to the image information, When determining the drowsiness driving state or the like for the user based on the image information and the biometric information, weighting is applied to each of the image information and the biometric information, It is preferable to judge whether it corresponds.

여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 영상 정보에 대한 가중치가 상기 생체 정보에 대한 가중치보다 큰 것이 바람직하다.Here, the relation between the weight for the image information and the weight for the biometric information may be changed according to the environment when the controller 180 evaluates the drowsy driving state. However, the weight for the image information is not limited Is larger than the weight for the biometric information.

이때, 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태 및 스트레스 상태에서 적용되는 가중치 관계와 다를 수 있다.
At this time, the relationship between the weight for the image information and the weight for the biometric information may be different from the weight relation applied for the drowsiness driving state and the stress state.

스트레스 상태Stress condition

한편, 제어부(180)는 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태 중 스트레스 상태에 대한 판단이 가능하다.On the other hand, the controller 180 can determine the stress state of the user in a dangerous driving state based on at least one of the image information and the biometric information.

제어부(180)가 상기 영상 정보를 이용하여, 사용자의 스트레스 상태에 대한 판단시, 사용자 얼굴의 표정으로 판단할 수 있다.The control unit 180 may determine the facial expression of the user's face when determining the stress state of the user by using the image information.

일 예로, 사용자의 얼굴 표정이 화난 것으로 판단하는 경우에는, 사용자의 스트레스 상태를 판단할 수 있다.For example, if the facial expression of the user is determined to be angry, the stress state of the user can be determined.

사용자의 얼굴 표정에 따라, 사용자의 스트레스 상태 레벨을 결정하되, 사용자 표정에 따른 스트레스 레벨을 저장한 다량의 데이터베이스를 이용할 수 있다.According to the facial expression of the user, a large amount of database storing the stress level according to the user's facial expression can be used while determining the stress level level of the user.

또한, 제어부(180)는, 상기 생체 정보 획득부(145)를 통해 획득한 생체 정보를 근거로 상기 사용자에 대한 스트레스 상태를 판단할 수 있다.In addition, the controller 180 can determine the stress state of the user based on the biometric information acquired through the biometric information acquiring unit 145. [

일 예로, 제어부(180)는 PPG 센서를 통해 측정한 심박수 및/또는 심박 변이도 등으로부터 사용자의 스트레스 정도를 판단할 수 있다. 이때, 스트레스 정도 측정에 정확도를 높이기 위해, 소정의 필터를 통과시키거나 잡음을 제거할 수 있다.For example, the controller 180 can determine the degree of stress of the user based on the heart rate and / or heart rate variability measured through the PPG sensor. At this time, in order to increase the accuracy of the stress level measurement, it is possible to pass through a predetermined filter or to remove noise.

제어부(180)가 복수의 생체 정보를 근거로 스트레스 상태 및 사용자의 스트레스 레벨을 판단하는 경우, 상기 복수의 생체 정보 각각에 대한 가중치를 적용할 수 있고, 스트레스 상태 및 스트레스 레벨에 대한 판단 정확도를 향상시키기 위해, 상기 복수의 요소에 대한 가중치는 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.When the controller 180 determines the stress level and the stress level of the user based on the plurality of pieces of biometric information, the control unit 180 can apply the weights to each of the plurality of biometric information and improve the determination accuracy of the stress state and the stress level , The weights for the plurality of elements are preferably weight values set by learning based on a large amount of databases.

이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
At this time, the learning model can be generated based on the database of the image information and the biometric information of the general user including the user or the user by the control unit 180, and the risk driving state or the risk level is determined based on the generated learning model .

한편, 제어부(180)가 상기 영상 정보만으로 사용자에 대한 스트레스 상태를 판단하거나, 상기 생체 정보만으로 사용자에 대한 스트레스 상태를 판단하는 경우에는, 스트레스 상태에 대한 평가 단계의 범위가 제한되고, 사용자의 스트레스 상태에 대한 평가 레벨이 어느 정도인지 정확한 판단을 할 수 없는 문제가 있을 수 있다.In the case where the controller 180 determines the stress state of the user based on only the image information or determines the stress state of the user based on only the biometric information, the range of the evaluation step for the stress state is limited, There may be a problem that it is not possible to make an accurate judgment on the evaluation level of the state.

따라서, 상기의 문제를 해소하기 위해, 제어부(180)는 상기 영상 정보 이외에 상기 생체 정보를 근거로 사용자에 대한 스트레스 상태를 판단하는 것이 바람직하다.Accordingly, in order to solve the above problem, the controller 180 may determine the stress state of the user based on the biometric information in addition to the image information.

제어부(180)가 상기 영상 정보 및 상기 생체 정보를 근거로 사용자에 대한 스트레스 상태 등을 판단할 때, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 사용자의 졸음 운전 상태에 대한 평가시 어느 단계에 해당하는지 판단하는 것이 바람직하다.When the controller 180 determines a stress state or the like based on the image information and the biometric information, the control unit 180 applies a weight to each of the image information and the biometric information, It is preferable to judge whether the step corresponds to the step.

여기서, 제어부(180)가 졸음 운전 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있는 것으로 특별히 한정하지 않으나, 상기 생체 정보에 대한 가중치가 상기 영상 정보에 대한 가중치보다 큰 것이 바람직하다.Here, the relationship between the weight for the image information and the weight for the biometric information in the evaluation of the drowsy driving state by the controller 180 is not particularly limited as long as it can be changed according to the environment. However, It is preferable that the weight of the image information is larger than the weight of the image information.

상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는, 졸음 운전 상태 및 시선 분산 운전 상태에 대한 가중치와 다를 수 있다.
The relationship between the weight for the image information and the weight for the biometric information may be different from the weight for the drowsiness driving state and the eyeball dispersion driving state.

한편, 제어부(180)가 사용자의 스트레스 상태 또는 사용자의 스트레스 레벨을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).Meanwhile, when the controller 180 determines the stress level of the user or the stress level of the user, it is preferable to consider both the image information and the biometric information as described above, but more preferably, The calculated sleepiness tendency line can be further considered by using at least one of the sleep state information and the biorhythm information for the user (see FIG. 13).

사용자의 스트레스 상태 및 스트레스 레벨은 사용자의 수면 상태에 영향을 받을 수 있기 때문에, 이동 단말기(100)가 산출한 졸음 추세선(도 10 참조)을 이용할 수 있다.The stress state and the stress level of the user may be affected by the sleep state of the user, so that the sleepiness tendency line (see FIG. 10) calculated by the mobile terminal 100 can be used.

즉, 제어부(180)가 사용자의 스트레스 레벨을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 스트레스 레벨과 상기 졸음 추세선을 근거로 산출된 졸음 레벨에 대응하는 제2 스트레스 레벨을 조합함으로써, 정확한 사용자의 스트레스 레벨을 산출할 수 있다.That is, when the control unit 180 determines the stress level of the user, the control unit 180 determines whether the stress level is lower than the first stress level calculated based on the image information and the biometric information, The stress level of the correct user can be calculated.

상기 제1 스트레스 레벨과 상기 제2 스트레스 레벨 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 스트레스 레벨을 최종적으로 산출할 수 있다.By applying a predetermined weight to each of the first stress level and the second stress level, the user can finally calculate the stress level.

이때, 제1 스트레스 레벨 및 제2 스트레스 레벨에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 스트레스 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다.
At this time, the weights applied to the first stress level and the second stress level may be set in advance by a user input, or may be adaptively changed according to a confirmation input on the finally determined stress level of the user.

위험 운전 상태 판단Judge dangerous driving condition

전술한 바와 같이, 본 명세서에서 개시한 일 실시예에 따라, 제어부(180)는 영상 정보 및 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태를 검출할 수 있다.As described above, according to one embodiment disclosed herein, the controller 180 can detect a dangerous driving state for a user based on at least one of image information and biometric information.

여기서, 상기 위험 운전 상태는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태를 포함할 수 있다.Here, the dangerous driving state may include a drowsy driving state, a visual line dispersion driving state, and a stress state.

또한, 제어부(180)는 각각의 위험 운전 상태에 대하여, 졸음 운전 정도, 시선 분산 정도 및 스트레스 정도를 나타내는 졸음 운전 레벨, 시선 분산 레벨 및 스트레스 레벨에 대한 위험 레벨 정보를 생성할 수 있다.Also, the control unit 180 can generate risk level information for the drowsiness level, the eyeball dispersion level, and the stress level, which indicate the degree of drowsiness, the degree of eyeball dispersion, and the degree of stress, for each dangerous driving condition.

이때, 제어부(180)가 영상 정보 및 생체 정보를 근거로 상기 위험 레벨 정보를 생성하는 경우, 상기 영상 정보 및 생체 정보 각각에 가중치를 적용하는 것이 바람직하다. 상기 가중치는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용될 수 있다.At this time, when the controller 180 generates the danger level information based on the image information and the biometric information, it is preferable to apply the weight to each of the image information and the biometric information. Different values may be applied depending on whether the weight is a drowsy driving state, a visually dispersed driving state, or a stress state.

전술한 바와 같이, 졸음 운전 상태 및 시선 분산 운전 상태의 경우에는 영상 정보에 생체 정보보다 높은 가중치를 적용하고, 스트레스 상태의 경우에는 생체 정보에 영상 정보보다 높은 가중치를 적용하여 위험 레벨 정보를 생성하는 것이 바람직하다.As described above, in the case of the drowsy driving state and the line-of-sight dispersing operation state, a weight higher than the biometric information is applied to the image information, and in the case of the stress state, the danger level information is generated by applying a weight higher than the image information to the biometric information .

여기서, 제어부(180)가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태에 대한 평가시 상기 영상 정보에 대한 가중치와 상기 생체 정보에 대한 가중치 간의 관계는 환경에 따라 변경될 수 있음은 전술한 바와 같다.Herein, it is noted that the relationship between the weight for the image information and the weight for the biometric information may be changed according to the environment when the control unit 180 evaluates the drowsy driving state, the visual dispersion operation state, and the stress state .

구체적으로, 제어부(180)는 공지의 각종 수단 또는 방법을 통해 적어도 하나의 영상획득장치(900)로부터 획득한 영상 정보에 노이즈가 포함되어 있거나 영상 정보의 적어도 일 부분에 오류가 있다고 판단할 수 있다.Specifically, the control unit 180 may determine that the image information acquired from the at least one image acquiring apparatus 900 includes noise or at least a part of the image information is erroneous through various known means or methods .

이때, 제어부(180)가 판단한 상기 영상 정보에 대한 신뢰도가 기 설정된 수준에 미치지 못한 경우에는, 위험 운전 상태에 대한 평가시 적용되는 가중치를 점차 혹은 기 설정된 값으로 일시에 낮추거나, 사용자에게 상기 영상 정보에 대한 이상이 있음을 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 시각적 및/또는 청각적으로 사용자에게 알릴 수 있다.At this time, when the reliability of the image information determined by the controller 180 does not reach a predetermined level, the weight applied at the time of the evaluation of the dangerous driving state may be gradually or temporarily set to a predetermined value, It is possible to visually and / or audibly notify the user of abnormality of the information through the output unit 150, the other mobile terminal 100, the vehicle and / or the vehicle control device 400. [

마찬가지로, 제어부(180)는 공지의 각종 수단 또는 방법을 통해 생체 정보 획득부(145)를 통해 획득한 생체 정보에 노이즈가 포함되어 있거나 생체 정보의 적어도 일 부분에 오류가 있다고 판단할 수 있다.Similarly, the control unit 180 can determine that the biometric information acquired through the biometric information acquiring unit 145 includes noise or at least a part of the biometric information is erroneous through various known means or methods.

이때, 제어부(180)가 판단한 상기 생체 정보에 대한 신뢰도가 기 설정된 수준에 미치지 못한 경우에는, 위험 운전 상태에 대한 평가시 적용되는 가중치를 점차 혹은 기 설정된 값으로 일시에 낮추거나, 사용자에게 상기 생체 정보에 대한 이상이 있음을 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 시각적 및/또는 청각적으로 사용자에게 알릴 수 있다.At this time, when the reliability of the biometric information determined by the controller 180 does not reach the preset level, the weight applied at the time of the evaluation of the dangerous driving state may be gradually or temporarily set to a predetermined value, It is possible to visually and / or audibly notify the user of abnormality of the information through the output unit 150, the other mobile terminal 100, the vehicle and / or the vehicle control device 400. [

일 예로, 영상획득장치(900)나 생체 정보 획득부(145) 중 하나에 고장이 발생한 경우, 위험 운전 상태에 대한 평가시 상기 영상 정보나 상기 생체 정보에 적용되는 가중치를 낮추거나, 사용자에게 영상획득장치(900)나 생체 정보 획득부(145) 중 이상이 있는 장치에 대한 정보를 출력부(150), 타 이동 단말기(100), 차량 및/또는 차량 제어 장치(400)를 통해 출력할 수 있다.
For example, when a failure occurs in one of the image acquiring apparatus 900 and the biometric information acquiring unit 145, a weight applied to the image information or the biometric information may be lowered in the evaluation of the dangerous driving state, It is possible to output information on the abnormality among the acquisition device 900 and the biometric information acquisition unit 145 through the output unit 150, the other mobile terminal 100, the vehicle and / or the vehicle control device 400 have.

한편, 제어부(180)는 영상 정보 및 생체 정보를 근거로 위험 레벨 정보를 생성할 때, 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 적어도 두 상태에 대한 위험 레벨 정보가 생성될 수 있다.Meanwhile, when generating the risk level information based on the image information and the biometric information, the control unit 180 may generate risk level information for at least two of the drowsiness operation state, the eyeball dispersion operation state, and the stress state.

이때, 제어부(180)가 사용자에 대한 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하는 경우, 각 위험 운전 상태의 위험 레벨 정보에 대응하는 우선 순위를 설정할 수 있다.At this time, when the control unit 180 determines which of the drowsy driving state, the visual field dispersion driving state, and the stressed state is the dangerous driving state for the user, it is possible to set a priority corresponding to the danger level information of each dangerous driving state .

따라서, 제어부(180)가 복수의 위험 레벨 정보를 생성한 경우, 제어부(180)는 각 위험 레벨 정보에 대응하는 우선 순위에 따라, 사용자에 대한 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정할 수 있다.
Accordingly, when the control unit 180 generates a plurality of risk level information, the control unit 180 determines whether or not the risky driving state for the user corresponds to the drowsy driving state, It is possible to determine which of the stress states.

출력Print

출력부(150)는 제어부(180)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 다양한 형태(사용자의 오감을 자극할 수 있는 각종 형태)로 출력할 수 있다.The output unit 150 may output the dangerous driving state determined by the controller 180 or the danger level information thereof in various forms (various types that can stimulate the user's five senses).

일 실시예에 따라, 출력부(150)는 위험 레벨 정보를 이동 단말기(100)의 본체 진동, 발광 소자나 화면의 출력, 또는 소리의 형태로 출력하되, 위험 레벨 정보가 변화함에 따라 출력 강도를 변화시킬 수 있다.According to one embodiment, the output unit 150 outputs the danger level information in the form of vibration of the main body of the mobile terminal 100, output of the light emitting device, screen, or sound, Can be changed.

도 12는 본 명세서에 개시된 일 실시예에 따른 위험 레벨 정보에 대한 다양한 출력 방식을 나타내는 예시도이다.12 is an exemplary diagram illustrating various output methods for the danger level information according to an embodiment disclosed herein.

일 예로, 도 12에 도시한 바와 같이, 이동 단말기(100)는 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 위험 레벨이 증가함에 따라 진동의 주파수를 증가시킨 알람(AS20)을 출력하거나, 진동의 진폭을 증가시킨 알람(AS30)을 출력하거나, 진동의 출력 주기를 짧게 출력할 수 있다.12, the mobile terminal 100 is provided with an alarm AS20 that increases the frequency of the vibration as the danger level increases, based on the vibration type alarm AS10 having the basic amplitude and the fundamental frequency, , An alarm AS30 with an increased amplitude of vibration, or a shorter output period of the vibration can be output.

또한, 상기 이동 단말기(200)는, 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 상기 위험 레벨 정보에 따라 진동의 주파수 또는 진폭이 시간에 따라 가변하는 알람(AS40)을 외부로 출력할 수도 있다.In addition, the mobile terminal 200 may be configured to generate an alarm AS40 in which the frequency or amplitude of the vibration varies with time based on the vibration level alarm AS10 having the basic amplitude and the fundamental frequency, And output it to the outside.

전술한 바와 같이, 위험 레벨 정보에 따라 진동의 주파수 또는 진폭을 달리하여 출력할 수 있으나, 또 다른 실시예에 따라, 음성(일 예로, "현재 졸음 운전 상태 5 레벨입니다") 또는 소리를 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.As described above, according to another embodiment, it is possible to output a sound (for example, "current drowsiness driving state is level 5") or a sound according to frequency, The amplitude and / or the output period, and the like.

이동 단말기(100)가 위험 레벨 정보에 따른 소리를 출력하되, 위험 운전 상태 별로 출력하는 소리의 종류는 다를 수 있다.The mobile terminal 100 outputs sounds according to the danger level information, but the types of sounds output according to the dangerous driving states may be different.

즉, 사용자에 대해 판단한 위험 운전 상태가 졸음 운전 상태인 경우, 출력부(150)를 통해 출력하는 소리는 졸음을 쫓을 수 있는 진폭이 크고 주파수가 높은 소리인 것이 바람직하나, 사용자에 대해 판단한 위험 운전 상태가 스트레스 상태인 경우, 출력부(150)를 통해 출력하는 소리는 마음을 진정시킬 수 있는 음악 따위인 것이 바람직하다.That is, when the dangerous driving state determined for the user is the drowsy driving state, it is preferable that the sound outputted through the output unit 150 is a sound having high amplitude and high frequency capable of chasing drowsiness, When the state is a stress state, it is preferable that the sound output through the output unit 150 is music that can calm the mind.

또 다른 실시예에 따라, 제어부(180)가 판단한 위험 운전 상태 및 이에 대한 위험 레벨 정보를 차량 제어 장치(400)로 전송하여, 차량 제어 장치(400)가 차량 제어 장치의 출력부(450)를 통해 상기 위험 레벨 정보를 영상 또는 음성 형태로 출력하거나, 차량 구동부(420)를 이용하여, 차량에 설치된 차량 출력부(미도시)를 통해 외부로 상기 위험 레벨 정보를 출력할 수 있다.According to another embodiment, the dangerous driving state and the danger level information determined by the control unit 180 may be transmitted to the vehicle control unit 400 so that the vehicle control unit 400 may control the output unit 450 of the vehicle control unit Or output the danger level information to the outside through a vehicle output unit (not shown) provided in the vehicle using the vehicle driving unit 420. [

차량 제어 장치의 출력부(450) 및 차량 출력부(미도시)도 이동 단말기(100)와 마찬가지로, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.As in the case of the mobile terminal 100, the output unit 450 and the vehicle output unit (not shown) of the vehicle control apparatus change output forms or output intensities as the dangerous operation state or the danger level information changes, can do.

일 실시예에 따라, 차량 제어 장치의 출력부(450) 및 차량 출력부가 전술한 바와 같이, 음성 또는 소리를 출력하는 경우, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 음성 또는 소리의 종류, 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.According to one embodiment, when the output unit 450 of the vehicle control apparatus and the vehicle output unit output voice or sound as described above, the type of voice or sound , Frequency, amplitude, and / or output period.

또한, 차량 출력부는 차량의 비상등, 계기판 또는 계기판 주변에 설치된 적어도 하나의 LED, 차량의 진동 시트 및 차량의 진동 가능한 조향 장치 중 적어도 하나 일 수 있으며, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라, 비상등의 출력 주기, LED의 색깔, LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 진폭, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 출력 주기 중 적어도 하나를 달리하여 출력할 수 있다.In addition, the vehicle output portion may be at least one of an emergency light of the vehicle, a dash panel, or at least one LED installed around the dash panel, a vibration sheet of the vehicle, and a vibration steerable device of the vehicle. Accordingly, the output period of the emergency light, the color of the LED, the output period of the LED, the vibration frequency of the vibration seat or the vibratable steering device, the vibration amplitude of the vibration seat or the vibratable steering device, And the output period may be differently output.

또한, 차량 제어 장치(400)가 직접적으로 차량 내부의 환기를 위해 차량에 설치된 적어도 하나의 창문을 열거나, 차량의 공기 조화기를 동작시켜, 사용자의 위험 운전 레벨을 낮추도록 유도할 수 있다.In addition, the vehicle control apparatus 400 can directly open at least one window installed in the vehicle for ventilation inside the vehicle, or operate the air conditioner of the vehicle to lower the dangerous driving level of the user.

또한, 위험 레벨이 기 설정된 레벨보다 높은 경우에는, 차량 제어 장치(400)가 차량의 운행을 직접 제어하도록 하는 것이 바람직하다.Further, when the danger level is higher than the predetermined level, it is preferable that the vehicle control device 400 directly controls the vehicle operation.

이때, 위험 운전 상태에 대한 위험 레벨에 대하여, 이동 단말기(100), 차량 제어 장치(400) 및 차량 출력부 중 적어도 하나가 상기와 같은 조치를 취한 후에 혹은 일정 시간 경과 후에 다시 위험 레벨에 대한 판단을 반복적으로 수행하여, 위험 레벨에 대한 판단과 그에 따른 조치를 지속적으로 반복하는 것이 바람직하다.At this time, after at least one of the mobile terminal 100, the vehicle control device 400, and the vehicle output unit performs the above-described action with respect to the dangerous level for the dangerous driving state, or after a predetermined time elapses, It is desirable to repeatedly perform the determination of the danger level and the action accordingly.

위험 레벨에 대한 조치에 대한 구체적인 예로, 제어부(180)가 위험 운전 상태를 졸음 운전 상태로 판단한 경우, 졸음 제1 레벨 내지 제3 레벨일 때, 차량 출력부 중 차량 계기판 주변의 적어도 하나의 LED를 녹색으로 점등할 수 있다.When the controller 180 determines that the dangerous driving state is the drowsy driving state, at least one LED in the vicinity of the vehicle instrument panel in the vehicle output section is in the first to third drowsiness levels It can be lit in green.

또한, 졸음 제4 내지 제5 레벨일 때, 상기 LED를 황색으로 점등하되, 출력부(150)는 음성으로 현재 사용자의 생체 정보를 근거로 판단한 운전 가능한 예상 시간(수면 상태 정보 및/또는 생체 리듬 정보를 근거로 산출한 졸음 주세선에 따라 판단될 수 있음)을 출력할 수 있다.In addition, when the sleep level is 4th to 5th level, the LED is turned on in yellow, and the output unit 150 outputs an operational predictable time (sleep state information and / or bodily rhythm Information can be judged according to the drowsiness main line calculated based on the information).

또한, 졸음 제6 레벨일 때, 상기 LED를 황색으로 점멸하되, 출력부(150)는 음성으로 운전 가능한 예상 시간을 출력할 수 있다.Also, at the sixth sleeping level, the LED flashes in yellow, and the output unit 150 can output a predicted time that can be operated by voice.

또한, 졸음 제7 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 5초 간격을 두고, 진동을 5초 동안 지속적으로 발생하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 졸음을 깨는 구체적인 방법(일 예로, "수분을 섭취하세요")을 안내할 수 있다.Also, when the seventh level of drowsiness, the LED is turned on in red, and the output unit 150 continuously generates vibration for 5 seconds at intervals of 5 seconds using the haptic module 155, (For example, "take water") for warning the user by using voice 153 and breaking the drowsiness.

또한, 졸음 제8 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 3초 간격을 두고, 진동을 3초 동안 지속적으로 발생하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 차량 제어 장치(400)가 현재 위치로부터 가까운 갓길 또는 휴게소를 목적지 또는 경유지로 안내할 수 있다.In addition, when the drowsy eighth level, the LED is turned on in red, and the output unit 150 continuously generates vibration for 3 seconds at intervals of 3 seconds using the haptic module 155, The vehicle control device 400 can alerts by voice using the control unit 153 and guide the shoulder or rest area close to the current position to the destination or the stopover.

또한, 졸음 제9 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 햅틱 모듈(155)을 이용하여, 0.5초 간격을 두고, 진동을 0.5초 동안 지속적으로 발생하고, 차량 제어 장치(400)를 통해 차량 출력부 중 차량 비상등을 점멸하토록 하고, 음향 출력부(153)를 이용하여, 음성으로 경고 하고, 차량 제어 장치(400)가 차량의 속도를 감속하거나 현재 위치로부터 정차 가능한 장소까지 차량이 이동하도록 제어할 수 있다.Also, when the drowsy ninth level, the LED is turned on in red, and the output unit 150 continuously generates vibration for 0.5 seconds at intervals of 0.5 seconds using the haptic module 155, The control unit 400 causes the vehicle emergency light to blink through the device 400 and warns by voice using the sound output unit 153. When the vehicle control apparatus 400 decelerates the vehicle speed or stops from the current position It is possible to control the vehicle to move to a possible place.

또 다른 예로, 제어부(180)가 위험 운전 상태를 스트레스 상태로 판단한 경우, 스트레스 제1 레벨일 때, 차량 출력부 중 차량 계기판 주변의 적어도 하나의 LED를 녹색으로 점등할 수 있다.As another example, when the control unit 180 determines that the dangerous driving state is a stressed state, at least one LED in the vicinity of the vehicle instrument panel in the vehicle output unit may be lit in green when the stress is at the first level.

또한, 스트레스 제2 레벨일 때, 상기 LED를 황색으로 점등할 수 있다.Also, when the stress is at the second level, the LED may be turned on in yellow.

또한, 스트레스 제3 레벨일 때, 상기 LED를 적색으로 점등하되, 출력부(150)는 음향 출력부(153)를 이용하여, 현재 사용자의 스트레스 상태를 음성으로 안내하거나, 스트레스를 완화시킬수 있는 호흡법을 유도할 수 있는 소리나 음성을 출력할 수 있다.In addition, when the stress level is the third level, the LED is turned on in red, and the output unit 150 uses the sound output unit 153 to guide the current user's stress state to the voice, And can output sound or voice that can induce the user.

이때, 제어부(180)는 생체 정보 획득부(145)를 통해 사용자의 호흡에 대한 생체 신호를 획득하여, 스트레스를 완화시킬 수 있는 호흡법에 따르는지 판단할 수 있고, 사용자가 유도한 호흡법에 따르지 않는 경우, 이동 단말기(100), 차량 제어 장치(400) 및/또는 차량 출력부를 통해 시청각적으로 출력하여 사용자에 호흡법에 따르지 않음을 경고할 수 있다.
At this time, the controller 180 can acquire the bio-signal for the respiration of the user through the bio-information acquiring unit 145 to determine whether it is in accordance with the breathing method that can alleviate the stress, , It can be audibly output through the mobile terminal 100, the vehicle control device 400, and / or the vehicle output unit to warn the user not to follow the breathing method.

타 단말기가 위험 운전 상태 출력Other terminal outputs dangerous operation status

이동 단말기(100)는 착용하고 있는 사용자에게 직접 제어부(180)가 판단한 위험 운전 상태 결과(위험 운전 상태의 종류 또는 정도 등)를 외부로 출력하도록 할 수 있으나, 위험 운전 상태에 빠져 있는 사용자는 이동 단말기(100)로부터의 출력된 위험 운전 상태에 대한 알람을 인지하지 못할 우려가 있다.The mobile terminal 100 may output a dangerous driving condition result (type or degree of the dangerous driving condition) determined by the control unit 180 directly to the wearer, There is a possibility that the alarm about the dangerous driving state output from the terminal 100 may not be recognized.

따라서, 이와 같은 문제를 해소하기 위해, 제어부(180)는 위험 운전 상태에 있지 않은 타 사용자에게 위험 운전 상태를 알리고, 타 사용자로부터 위험 운전 상태에 빠진 사용자에 경고를 하도록 함으로써, 운전자가 상기 위험 운전 상태로부터 신속히 벗어날 수 있도록 하는 것이 바람직하다.Therefore, in order to solve such a problem, the control unit 180 notifies another user who is not in a dangerous driving state of a dangerous driving state and warns a user who is in a dangerous driving state from another user, It is desirable to be able to quickly get out of the state.

전술한 바와 같이, 본 명세서에 개시된 일 실시예에 따라, 제어부(180)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 타 이동 단말기로 전송하여, 타 이동 단말기가 출력부를 통해 상기 위험 레벨 정보를 본체의 진동 또는 음성 형태로 출력하도록 할 수 있고, 타 이동 단말기를 휴대한 사람에 의해 운전자가 위험 운전 상태에서 벗어나도록 유도할 수 있다.As described above, according to one embodiment of the present invention, the dangerous driving state or the danger level information determined by the control unit 180 is transmitted to another mobile terminal, and the other mobile terminal transmits the danger level information through the output unit It can be outputted in the form of vibration or voice of the main body, and it is possible to induce the driver to move out of the dangerous driving state by the person carrying the other mobile terminal.

구체적으로, 제어부(180)가 운전자의 위험 운전 상태임을 판단하였고, 위험 운전 상태의 위험 레벨이 기 설정된 수준 이상임을 판단한 경우에는, 제어부(180)가 타 단말기로 위험 운전 상태의 종류 및/또는 위험 레벨을 포함하는 위험 운전 상태 정보를 타 단말기에 전송할 수 있다.Specifically, when the control unit 180 determines that the dangerous driving state of the driver is a dangerous driving state, the control unit 180 determines whether the dangerous driving state is a dangerous driving state and / Level to the other terminals.

즉, 운전자와 인접하여 있는 탑승자가 운전자에 대한 위험 운전 상태 정보를 자신이 휴대하고 있는 이동 단말기를 통해 수신한 경우, 상기 탑승자는 직접 운전자에 대하여 구두로 졸음을 깨도록 하거나, 전방을 주시하도록 하거나, 스트레스를 완화시키도록 할 수 있다.That is, when the occupant adjacent to the driver receives the dangerous driving condition information for the driver via the mobile terminal carried by the occupant, the occupant directly makes the driver wake up drowsy or gazes forward , So that the stress can be mitigated.

이때, 이동 단말기(100)의 제어부(180)는 상기 이동 단말기(100)를 착용하고 있는 사용자의 위험 운전 상태 종류 및/또는 위험 레벨을 판단할 수 있으나, 위험 운전 상태 정보를 전송하는 이동 단말기(100)는 차량 내 탑승자 중 운전자가 착용하고 있는 이동 단말기(100)인 것이 바람직하므로, 제어부(180)는 이동 단말기(100)가 착용된 사용자가 차량 운전자인지 여부를 공지된 각종 판단 방법에 따라 판단할 수 있다.At this time, the control unit 180 of the mobile terminal 100 can determine the type and / or the danger level of the dangerous driving state of the user wearing the mobile terminal 100, The control unit 180 determines whether the user wearing the mobile terminal 100 is a driver of the vehicle according to various known determination methods, can do.

일 예로, 이동 단말기(100)가 특정 패턴의 움직임을 인지하거나, 각종 생체 감지 센서를 통해 인식되는 생체 정보 또는 이의 변화를 인지하거나, 차량 제어 장치(400)와의 통신을 통해, 차량 제어 장치(400)가 영상획득장치(900)를 통해 획득한 특정 위치의 탑승자에 대한 영상 정보를 이용하여, 인식한 운전자에 대응하는 단말기를 운전자가 착용한 이동 단말기(100)로 판단할 수 있으나, 이에 한정하지 않고, 각종 판단 방법에 의해 이동 단말기(100)는 운전자에 착용된 이동 단말기임을 판단할 수 있다.For example, when the mobile terminal 100 recognizes the movement of a specific pattern, recognizes the biometric information or its change recognized through various biometric sensors, or recognizes a change of the biometric information through the communication with the vehicle control device 400 Can determine the terminal corresponding to the recognized driver as the mobile terminal 100 worn by the driver by using the image information of the occupant at the specific position acquired through the image acquisition device 900, The mobile terminal 100 can determine that the mobile terminal 100 is worn by the driver according to various determination methods.

한편, 상기 위험 운전 상태 정보를 수신한 타 단말기가 이동 단말기(100)인 경우, 타 단말기의 출력부(150)는 전술한 바와 같이, 위험 레벨 정도에 따라 본체의 진동 주파수, 본체의 진동 진폭 및 본체의 진동 주기 중 적어도 하나의 변경하여 출력할 수 있다. 또한, 위험 운전 상태의 종류 또는 위험 레벨 정도에 따라 출력하는 음성 또는 소리의 종류, 내용, 주파수, 진폭, 출력 주기 중 적어도 하나를 변경하여 출력할 수 있다.If the other terminal receiving the dangerous operation status information is the mobile terminal 100, the output unit 150 of the other terminal may determine the vibration frequency of the main body, the vibration amplitude of the main body, At least one of the vibration periods of the main body can be changed and output. In addition, it is possible to change at least one of the type, content, frequency, amplitude, and output period of the voice or sound to be output according to the type of the dangerous driving state or the degree of dangerous level.

또 다른 실시예에 따라, 상기 위험 운전 상태 정보를 수신한 타 단말기가 차량 제어 장치의 출력부(450) 또는 차량 출력부인 경우, 위험 운전 상태의 종류 또는 위험 레벨 정도에 따라 출력하는 차량 비상등의 출력 주기, 차량 내외부에 배치된 복수의 LED 중 점등되는 LED, LED의 출력 색상, LED의 출력 주기, 차량 진동 시트의 진동 주파수, 차량 진동 시트의 진동 진폭, 차량 진동 시트의 진동 주기, 차량의 진동 가능한 조향 장치의 진동 주파수, 차량의 진동 가능한 조향 장치의 진동 진폭, 차량의 진동 가능한 조향 장치의 진동 주기 중 적어도 하나를 변경하여 출력할 수 있다.According to another embodiment, when the other terminal receiving the dangerous driving state information is the output unit 450 or the vehicle output unit of the vehicle control apparatus, the output of the vehicle emergency light output in accordance with the type of dangerous driving state or the degree of danger level The output color of the LED, the output period of the LED, the vibration frequency of the vehicle vibration sheet, the vibration amplitude of the vehicle vibration sheet, the vibration period of the vehicle vibration sheet, the vibration of the vehicle At least one of a vibration frequency of the steering device, a vibration amplitude of the vibration-steerable device of the vehicle, and a vibration period of the vibration-steerable device of the vehicle.

이동 단말기 또는 차량 제어 장치가 위험 운전 상태의 종류 및/또는 위험 레벨에 따른 구체적인 출력 방법에 대해서는 전술한 실시예에 따를 수 있으므로, 이에 대한 자세한 설명은 생략하기로 한다.
The detailed output method according to the type and / or the danger level of the dangerous driving state of the mobile terminal or the vehicle control apparatus can be performed according to the embodiment described above, so a detailed description thereof will be omitted.

이와 같이, 이동 단말기(100)가 위험 운전 상태를 판단한 경우, 상기 위험 운전 상태 종류 및/또는 위험 레벨을 포함하는 위험 운전 상태 정보를 특정된 타 단말기에 출력하기 위해, 이동 단말기(100)는 사용자 입력부(130)를 통해, 위험 운전 상태를 전송하려는 대상에 대한 모드 선택 입력을 받을 수 있다.In this way, when the mobile terminal 100 determines the dangerous driving state, the mobile terminal 100 transmits the dangerous driving state information including the dangerous driving state type and / or the dangerous level to the specified other terminal, Through the input unit 130, a mode selection input for an object to which a dangerous driving state is to be transmitted can be received.

도 14는 본 명세서에 개시된 일 실시예에 따른 이동 단말기가 모드 선택 입력받기 위한 화면의 일 예시도이다.FIG. 14 is an exemplary view of a screen for receiving a mode selection input by a mobile terminal according to an embodiment disclosed herein.

도 14에 도시한 바와 같이, 일 실시예에 따른 이동 단말기(100)는 사용자로부터 자동 모드(M1), 개인 모드(M2), 공개 모드(M3) 및 커스텀 모드(M4) 중 적어도 하나에 대한 모드 선택 입력을 받을 수 있다.14, the mobile terminal 100 according to an exemplary embodiment of the present invention may include a mode for at least one of the automatic mode M1, the personal mode M2, the open mode M3, and the custom mode M4, You can receive a selection input.

일 실시예에 따라, 이동 단말기(100)가 사용자로부터 자동 모드(M1)에 대한 선택 입력을 받은 경우, 제어부(180)는 차량에 구비된 영상획득장치(900)에 의해 획득한 탑승자에 대한 영상 정보를 근거로 탑승자에 대응하는 단말기에 위험 운전 상태 정보를 전송하고, 상기 위험 운전 상태 정보를 수신한 타 단말기는 출력부를 통해 위험 운전 상태를 외부로 출력할 수 있다.According to one embodiment, when the mobile terminal 100 receives a selection input for the automatic mode M1 from the user, the control unit 180 controls the display of the image of the passenger acquired by the image acquisition apparatus 900 included in the vehicle The dangerous operation state information is transmitted to the terminal corresponding to the occupant based on the information, and the other terminal having received the dangerous operation state information can output the dangerous operation state to the outside via the output unit.

여기서, 제어부(180) 및/또는 차량제어장치(400)의 제어부(410)는 탑승자 또는 탑승 좌석을 향하여 차량 내외부에 설치된 영상획득장치(900)를 통해 획득한 영상 정보를 이용하여 탑승자를 인식할 수 있다. 구체적으로, 제어부(180) 및/또는 차량제어장치(400)의 제어부(410)는 탑승자 특히, 탑승자의 얼굴을 향하여 차량 내부에 설치된 영상 획득 장치(900)로부터 획득한 영상 정보를 근거로, 메모리(160) 및/또는 차량제어장치(400)의 메모리(440)에 저장된 얼굴 데이터베이스를 이용하여, 특정인을 인식하고, 인식된 특정인에 대응하는 단말기의 정보 또는 특정인의 정보(이름, 주소 등) 등을 추출할 수 있다.Here, the control unit 180 of the control unit 180 and / or the control unit 410 of the vehicle control device 400 recognizes the passenger using the image information acquired through the image acquisition device 900 installed inside or outside the vehicle toward the passenger or boarding seat . The control unit 410 of the control unit 180 and / or the vehicle control device 400 controls the operation of the control unit 180 based on the image information acquired from the image acquisition device 900 installed in the vehicle toward the passenger, (Name, address, etc.) of the terminal corresponding to the recognized specific person or information of the specific person (e.g., name, address, etc.) by using the face database stored in the memory 160 of the vehicle control apparatus 400 and / or the memory 440 of the vehicle control apparatus 400 Can be extracted.

도 15A에 도시한 바와 같이, 위험 운전 상태임을 판단한 제어부(180)는 이동 단말기(100)의 제어부(180) 및/또는 차량제어장치(400)의 제어부(410)가 인식한 운전자(D), 동승자(P1) 및 우측 뒷좌석의 탑승자(P2) 중 적어도 하나에 대응되는 타 단말기들에 위험 운전 상태 정보를 전송하여, 상기 적어도 하나의 타 단말기들이 위험 운전 상태를 외부로 출력할 수 있도록 할 수 있다.The controller 180 determines that the vehicle is in a dangerous driving state as shown in FIG. 15A. The controller 180 determines whether the driver D or the driver D recognized by the controller 180 of the mobile terminal 100 and / or the controller 410 of the vehicle controller 400, It is possible to transmit the dangerous driving condition information to the other terminals corresponding to at least one of the passenger P1 and the passenger P2 in the rear right seat so that the at least one other terminal can output the dangerous driving state to the outside .

이때, 이동 단말기(100)의 제어부(180) 및/또는 차량제어장치(400)의 제어부(410)가 인식한 탑승자들에 대응하는 적어도 하나의 타 단말기 중 운전자가 착용하고 있는 이동 단말기(100)의 위치로부터 소정 거리 범위 내에 있는 상기 타 단말기들에만 상기 위험 운전 상태 정보를 전송하는 것이 바람직하다.At least one of the at least one other terminal corresponding to the occupant recognized by the controller 180 of the mobile terminal 100 and / or the controller 410 of the vehicle controller 400 may be a mobile terminal 100 worn by a driver, And transmits the dangerous driving state information only to the other terminals within a predetermined distance from the position of the dangerous driving state information.

즉, 제어부(180)는 인식한 탑승자들에 대응하는 적어도 하나의 타 단말기 중 상기 타 단말기의 위치 정보(이동 단말기(100)와의 상대적인 위치 정보 포함)를 근거로 선별된 타 단말기에만 상기 위험 운전 상태 정보를 전송하는 것이 바람직하다.That is, the control unit 180 determines whether the at least one other terminal corresponding to the recognized occupants is in the dangerous driving state (i.e., the at least one other terminal) based on the position information of the other terminal (including the relative position information with respect to the mobile terminal 100) It is desirable to transmit information.

가정하여, 도 15A에 도시한 바와 같이, 제어부(180)가 운전자(D)의 위험 운전 상태임을 판단한 경우, 동승자(P1)에 대응하는 단말기가 이동 단말기(100)의 위치로부터 멀리 떨어져 있다면(동승자 P1이 자신의 단말기를 집이나 회사에 놓고 온 경우), 상기 제어부(180)는 우측 뒷좌석의 탑승자(P2)에 대응하는 단말기(102)에만 위험 운전 상태 정보를 전송하는 것이 바람직하다.If the controller 180 determines that the dangerous driving state of the driver D is present and the terminal corresponding to the passenger P1 is far from the position of the mobile terminal 100 as shown in FIG. The controller 180 transmits the dangerous driving state information only to the terminal 102 corresponding to the occupant P2 in the right rear seat.

이에 따라, 우측 뒷좌석 탑승자의 단말기(102)는 위험 운전 상태를 외부로 출력하여, 탑승자 P2가 위험 운전 상태에 있는 운전자(D)에 대해 조치를 취하도록 할 수 있다.Accordingly, the terminal 102 of the right rear seat occupant can output the dangerous driving state to the outside, so that the occupant P2 can take action against the driver D in the dangerous driving state.

이때, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.At this time, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal determines whether the dangerous driving state, the danger level, And an in-vehicle position of the other terminal.

일 예로, 타 단말기가 차량 내에 위치하여 운전자의 이동 단말기와 근접한 경우에는, 진동 및 소리의 출력 강도를 크게 하거나, 출력 주기를 짧게 할 수 있고, 또한 타 단말기가 차량 내 위치하고 있으나, 운전자의 이동 단말기와 상당한 거리가 있는 경우에는, 다른 타 단말기보다 진동 및 소리의 출력 강도를 작게 하거나, 출력 주기를 길게 할 수 있다.
For example, when the other terminal is located in the vehicle and is close to the driver's mobile terminal, the output intensity of the vibration and sound can be increased or the output period can be shortened. In addition, The output intensity of vibration and sound can be made smaller or the output period can be lengthened as compared with other terminals.

또 다른 실시예에 따라, 사용자로부터 자동 모드(M1)에 대한 선택 입력을 받은 이동 단말기(100)(바람직하게는 운전자가 착용하고 있는 이동 단말기)는, 차량 내 탑승자가 착용하고 있는 적어도 하나의 타 단말기를 인식할 수 있고, 운전자에 대하여 위험 운전 상태를 판단한 경우, 상기 인식된 타 단말기에 통신부(110)를 통하여 위험 운전 상태 정보를 전송할 수 있다.According to another embodiment, the mobile terminal 100 (preferably a mobile terminal worn by the driver) receiving a selection input from the user for the automatic mode M1 may be provided with at least one And can transmit the dangerous driving state information to the recognized other terminal through the communication unit 110 when the dangerous driving state is determined by the driver.

이때, 위험 운전 상태 정보를 수신한 타 단말기는 출력부를 통해 위험 운전 상태를 외부로 출력할 수 있다.At this time, the other terminal receiving the dangerous operation state information can output the dangerous operation state to the outside through the output unit.

제어부(180)는 전술한 실시예와 달리, 탑승자가 아닌 타 단말기를 인식하여, 인식된 타 단말기에 위험 운전 상태 정보를 전송할 수 있다.Unlike the above-described embodiment, the control unit 180 recognizes the other terminal, not the passenger, and transmits the dangerous operation status information to the recognized terminal.

타 단말기를 인식하는 방법은 공지된 다양한 방법에 의할 수 있으나, 일 예로, 통신부(110)를 통해 통신이 성립되었는지 여부로 타 단말기를 인식하거나, 통신부(110)를 통해 기 설정된 데이터를 송수신할 수 있는지 여부로 타 단말기를 인식할 수 있다.A method of recognizing another terminal may be performed by various known methods. For example, the terminal may recognize the other terminal whether communication has been established through the communication unit 110 or transmit / receive predetermined data through the communication unit 110 It is possible to recognize other terminals.

이때, 이동 단말기(100)가 인식한 타 단말기 중 위험 운전 상태 정보를 수신하는 상대 단말기는, 메모리(160)에 기 등록되어 있는 단말기에 한할 수 있으나, 이에 한하지 않고, 메모리(160)에 등록되어 있지 않은 단말기일 수도 있다.At this time, the counterpart terminal that receives the dangerous operation status information among other terminals recognized by the mobile terminal 100 may be limited to the terminal registered in the memory 160, It may be a terminal that is not registered.

한편, 제어부(180)가 인식한 타 단말기 중 위험 운전 상태 정보를 수신하는 타 단말기는, 운전자가 착용하고 있는 이동 단말기(100)를 중심으로 소정 거리 범위 내에 위치한 운전자 주변의 단말기인 것이 바람직하다.Meanwhile, it is preferable that the other terminal that receives the dangerous driving condition information from the other terminal recognized by the controller 180 is a terminal around the driver located within a predetermined distance range around the mobile terminal 100 worn by the driver.

즉, 제어부(180)는 인식한 타 단말기 중 상기 타 단말기의 위치 정보(이동 단말기(100)와의 상대적인 위치 정보 포함)를 근거로 선별된 타 단말기에 상기 위험 운전 상태 정보를 전송하는 것이 바람직하다.That is, the controller 180 transmits the dangerous driving state information to another terminal selected based on the position information of the other terminal (including the relative position information with respect to the mobile terminal 100) among other recognized terminals.

도 15A에 도시한 바와 같이, 위험 운전 상태임을 판단한 제어부(180)는 이동 단말기(100)가 인식한 단말기는 차량 밖에 위치한 단말기를 인식할 수도 있으나, 인식한 이동 단말기 중 소정 거리(R) 범위 내에 위치하여 차량 내에 위치한 단말기(102)에만 위험 운전 상태 정보를 전송하는 것이 바람직하다.As shown in FIG. 15A, the controller 180, which has determined that the mobile terminal 100 is in the dangerous driving state, can recognize the terminal located outside the vehicle, It is preferable to transmit the dangerous driving condition information only to the terminal 102 located in the vehicle.

이에 따라, 차량 내 탑승자 P2는 운전자(D)가 위험 운전 상태임을 인지하고, 위험 운전 상태에 있는 운전자(D)에 대해 조치를 취하도록 할 수 있다.Accordingly, the in-vehicle occupant P2 can recognize that the driver D is in the dangerous driving state and can take action against the driver D in the dangerous driving state.

이때, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.
At this time, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal determines whether the dangerous driving state, the danger level, And an in-vehicle position of the other terminal.

또 다른 실시예에 따라, 사용자 입력부(130)를 통해 사용자로부터 자동 모드(M1)에 대한 입력을 받은 이동 단말기(100)(바람직하게는 운전자가 착용하고 있는 이동 단말기)는, 위험 운전 상태를 판단한 경우, 복수의 디스플레이부를 가진 차량 제어 장치(400)에 상기 위험 운전 상태 정보를 전송하고, 상기 차량 제어 장치(400)는 상기 위험 운전 상태를 적어도 하나의 디스플레이부를 통해 출력할 수 있다.According to another embodiment, the mobile terminal 100 (preferably a mobile terminal worn by the driver) receiving an input for the automatic mode M1 from the user through the user input unit 130 may determine the dangerous driving state The dangerous driving state information is transmitted to the vehicle control device 400 having a plurality of display units, and the vehicle control device 400 can output the dangerous driving state through at least one display unit.

이때, 복수의 디스플레이부는 차량 내 탑승 좌석마다 설치되는 것이 바람직하다. 일 예로, 차량 제어 장치(400)의 디스플레이부는, 도 15B에 도시한 바와 같이, 센터페시아(center fascia) 부근(D100), 운전석 및 동승석 의자 뒷면(D101 및 D103)에 설치될 수 있다.At this time, it is preferable that a plurality of display portions are provided for each boarding seat in the vehicle. For example, the display unit of the vehicle control apparatus 400 may be installed near the center fascia D100, the driver's seat, and the backrests D101 and D103 of the passenger seat as shown in Fig. 15B.

이때, 위험 운전 상태를 출력하는 적어도 하나의 디스플레이부는, 차량 제어 장치(400)의 제어부(410)가 영상획득장치(900)에 의해 획득한 차량 내 탑승자에 대한 영상 정보를 근거로 인식되는 탑승자의 탑승 위치(또는 탑승 좌석)에 대응하는 위치에 설치된 디스플레이부일 수 있다. 일 예로, 제어부(410)는 상기 탑승자에 대한 영상 정보를 근거로 차량의 탑승 좌석에 탑승자의 존부를 판단할 수 있다.At least one display unit for outputting the dangerous driving state may be a display unit for displaying the dangerous driving state of the occupant recognized by the control unit 410 of the vehicle control device 400 based on the image information about the occupant in the vehicle And may be a display unit installed at a position corresponding to the boarding position (or boarding seat). For example, the control unit 410 may determine the presence or absence of an occupant on the seat of the vehicle based on the image information of the occupant.

일 예로, 도 15B에 도시한 바와 같이, 이동 단말기(100)의 제어부(180)가 운전자(D)에 대해 위험 운전 상태를 판단한 경우, 제어부(180)는 상기 위험 운전 상태 정보를 차량 제어 장치(400)로 전송하고, 차량 제어 장치(400)는 탑승자의 존부를 인식하여, 탑승자가 운전석, 동승석 및 우측 뒷좌석에 있음을 인식할 수 있다. 이에 따라, 차량 제어 장치(400)는 상기 탑승 위치에 대응하는 D100 및 D102의 디스플레이부에 상기 위험 운전 상태를 출력할 수 있다.15B, when the control unit 180 of the mobile terminal 100 determines the dangerous driving state for the driver D, the control unit 180 transmits the dangerous driving state information to the vehicle control device (for example, 400, and the vehicle control device 400 recognizes the presence or absence of the occupant and recognizes that the occupant is in the driver's seat, the driver's seat, and the rear-right seat. Accordingly, the vehicle control apparatus 400 can output the dangerous driving state to the display units D100 and D102 corresponding to the boarding position.

D100 및 D102의 디스플레이부에 출력된 위험 운전 상태 정보에 따라 운전자(D)가 위험 운전 상태임을 판단한 동승자 P1 및/또는 탑승자 P2는 위험 운전 상태에 있는 운전자(D)에 대해 조치를 취하도록 할 수 있다.The passenger P1 and / or the passenger P2, who have determined that the driver D is in the dangerous driving state, can take action against the driver D in the dangerous driving state in accordance with the dangerous driving state information outputted on the display portions of the driving wheels D100 and D102 have.

이때, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내 탑승자에 착용되었는지 여부, 상기 타 단말기가 운전자에 착용되었는지 여부 및 상기 타 단말기를 착용한 탑승자의 탑승 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.At this time, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal is able to determine the type of dangerous driving state, the degree of danger level, whether the other terminal is worn Whether or not the other terminal is worn by the driver, and the boarding position of the occupant wearing the other terminal.

한편, 도 15B에 나타낸 도면부호 C는 하나의 영상획득장치(900)가 차량 내 전 좌석에 대한 영상을 획득하기 위한 위치를 나타낸 일 예이다.
Reference numeral C in FIG. 15B is an example in which one image acquisition device 900 indicates a position for acquiring an image for all the seats in the vehicle.

제어부(180)가 사용자로부터 자동 모드(M1) 입력을 받은 경우, 상기와 같은 실시예에 따라, 탑승자에 대한 영상 정보를 근거로 인식한 탑승자에 대응하는 타 단말기 또는 이동 단말기(100) 주변에 인식된 타 단말기에 위험 운전 상태 정보를 전송할 수 있다.When the control unit 180 receives the input of the automatic mode M1 from the user, the control unit 180 recognizes, based on the image information about the occupant, the other terminal corresponding to the occupant recognized around the mobile terminal 100 The dangerous operation state information can be transmitted to the other terminal.

이때, 일 실시예에 따라 상기 위험 운전 상태 정보를 수신하는 타 단말기 중 적어도 하나 또는 위험 운전 상태 정보를 표시하는 차량 제어 장치의 디스플레이부 중 적어도 하나는 사용자 입력부(130)를 통해 선택 입력받을 수 있다.At this time, at least one of the other terminals receiving the dangerous driving status information or the display unit of the vehicle control apparatus displaying the dangerous driving status information may be selected and input through the user input unit 130 according to one embodiment .

이동 단말기(100)가 위험 운전 상태 정보를 출력하는 타 단말기를 선택하기 위해 출력부(150)를 통하여 출력하는 화면의 일 예로, 도 16에 도시한 바와 같이, 상기 출력부(150)는 탑승 좌석을 소정 영역으로 나타내는 그래픽 오브젝트(P1 내지 P4)를 구분하여 출력할 수 있다.As shown in FIG. 16, the output unit 150 may include an output unit 150 for outputting the dangerous operation state information through the output unit 150, (P1 to P4) representing a predetermined area, and outputs them.

이때, 사용자 입력에 의해 선택되어, 체크 버튼으로 표시된 S1 및 S2에 대응하는 운전석 및 조수석에 해당하는 차량 제어 장치의 디스플레이부, 또는 운전석 및 조수석에 탑승한 운전자 및 동승자에 대응하는 단말기에만 제어부(180)는 상기 위험 운전 상태 정보를 전송할 수 있다.At this time, only the display part of the vehicle control device corresponding to the driver's seat and the passenger seat corresponding to S1 and S2 selected by the user input and corresponding to S1 and S2, or the driver and the passenger on the driver's seat and passenger seat, May transmit the dangerous driving condition information.

바람직하게, 출력부(150)는 탑승 좌석에 대한 그래픽 오브젝트 출력시, 탑승자의 탑승 여부 또는 탑승자의 단말기의 착용 여부 등을 함께 출력할 수 있다. 일 예로, 도 16에 도시한 바와 같이, 탑승 좌석을 소정 영역으로 표시하는 경우, 탑승자가 존재하거나 탑승자가 단말기를 착용하고 있는 것으로 인식한 운전석, 조수석 및 우측 뒷좌석에 대한 영역을 소정 패턴 또는 소정 색깔로 표시하거나, 소정 그래픽 오브젝트를 상기 탑승자가 존재하는 것으로 인식한 영역에 추가하여 표시할 수 있다.
The output unit 150 may output the graphic object to the passenger seat when the passenger is on the passenger or the occupant's terminal. For example, as shown in Fig. 16, when a passenger seat is displayed as a predetermined area, the area for the driver's seat, the front passenger's seat and the rear-right seat recognized as being occupied by a passenger or occupants wearing a terminal, Or a predetermined graphic object may be added to an area recognized as the presence of the occupant and displayed.

제어부(180)는 사용자로부터 개인 모드(M2) 입력을 받은 경우, 위험 운전 상태를 검출한 이동 단말기(100) 자신이 출력부(150)를 통해 위험 운전 상태를 외부로 출력할 수 있다.When receiving the input of the personal mode (M2) from the user, the control unit 180 can output the dangerous driving state to the outside through the output unit 150 of the mobile terminal 100 itself which has detected the dangerous driving state.

개인 모드 입력을 받은 제어부(180)는 위험 운전 상태를 판단한 경우, 타 단말기에 위험 운전 상태 정보를 전송하지 않고, 위험 운전 상태를 출력부(150)를 통해 출력할 수 있다.Upon receiving the personal mode input, the control unit 180 can output the dangerous driving state through the output unit 150 without transmitting the dangerous driving state information to the other terminal when the dangerous driving state is determined.

개인 모드 입력을 받은 이동 단말기(100)의 경우, 출력부(150)는 음성 또는 소리로 위험 상태 정보를 출력하는 것보다 진동 또는 화면으로 상기 위험 상태 정보를 출력하는 것이 바람직하다.In the case of the mobile terminal 100 receiving the personal mode input, the output unit 150 preferably outputs the dangerous state information by vibration or a screen rather than outputting the dangerous state information by voice or sound.

다만, 개인 모드 입력을 받은 경우라도, 제어부(180)는 위험 운전 상태의 위험 레벨 정도가 기 설정된 레벨 이상인 경우에는, 강제적으로 자동 모드(M1), 공개 모드(M3) 또는 커스텀 모드(M4)로 전환하여, 주변의 타 단말기에 상기 위험 운전 상태 정보를 전송하고, 상기 타 단말기가 상기 위험 운전 상태 정보를 외부로 출력하는 것이 바람직하다.However, even when the personal mode input is received, the control unit 180 compulsorily selects the automatic mode M1, the open mode M3, or the custom mode M4, if the risk level of the dangerous driving state is equal to or higher than the predetermined level And transmits the dangerous driving state information to another peripheral terminal, and the other terminal outputs the dangerous driving state information to the outside.

이 경우, 일 실시예에 따라 상기 위험 운전 상태 정보를 수신하는 타 단말기 중 적어도 하나 또는 위험 운전 상태 정보를 표시하는 차량 제어 장치의 디스플레이부 중 적어도 하나는 사용자 입력부(130)를 통해 선택 입력받을 수 있다.In this case, at least one of the other terminals receiving the dangerous driving status information or the display unit of the vehicle control apparatus displaying dangerous driving status information according to one embodiment may receive selection input through the user input unit 130 have.

이동 단말기(100)가 위험 운전 상태 정보를 출력하는 타 단말기를 선택하기 위해 출력부(150)를 통하여 출력하는 화면의 일 예로, 도 16에 도시한 바와 같이, 상기 출력부(150)는 탑승 좌석을 소정 영역으로 나타내는 그래픽 오브젝트(P1 내지 P4)를 구분하여 출력할 수 있다.As shown in FIG. 16, the output unit 150 may include an output unit 150 for outputting the dangerous operation state information through the output unit 150, (P1 to P4) representing a predetermined area, and outputs them.

이때, 사용자 입력에 의해 선택되어, 체크 버튼으로 표시된 S1 및 S2에 대응하는 운전석 및 조수석에 해당하는 차량 제어 장치의 디스플레이부, 또는 운전석 및 조수석에 탑승한 운전자 및 동승자에 대응하는 단말기에만 제어부(180)는 상기 위험 운전 상태 정보를 전송할 수 있다.At this time, only the display part of the vehicle control device corresponding to the driver's seat and the passenger seat corresponding to S1 and S2 selected by the user input and corresponding to S1 and S2, or the driver and the passenger on the driver's seat and passenger seat, May transmit the dangerous driving condition information.

바람직하게, 출력부(150)는 탑승 좌석에 대한 그래픽 오브젝트 출력시, 탑승자의 탑승 여부 또는 탑승자의 단말기의 착용 여부 등을 함께 출력할 수 있다. 일 예로, 도 16에 도시한 바와 같이, 탑승 좌석을 소정 영역으로 표시하는 경우, 탑승자가 존재하거나 탑승자가 단말기를 착용하고 있는 것으로 인식한 운전석, 조수석 및 우측 뒷좌석에 대한 영역을 소정 패턴 또는 소정 색깔로 표시하거나, 소정 그래픽 오브젝트를 상기 탑승자가 존재하는 것으로 인식한 영역에 추가하여 표시할 수 있다.The output unit 150 may output the graphic object to the passenger seat when the passenger is on the passenger or the occupant's terminal. For example, as shown in Fig. 16, when a passenger seat is displayed as a predetermined area, the area for the driver's seat, the front passenger's seat and the rear-right seat recognized as being occupied by a passenger or occupants wearing a terminal, Or a predetermined graphic object may be added to an area recognized as the presence of the occupant and displayed.

한편, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.
On the other hand, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal determines whether the dangerous driving state, the danger level, And an in-vehicle position of the other terminal.

사용자로부터 공개 모드(M3) 입력을 받은 이동 단말기(100)가 위험 운전 상태를 판단한 경우, 도 15C에 도시한 바와 같이, 통신부(110)를 이용하여 통신 연결이 가능한 타 단말기(탑승자 P1 내지 P3가 착용하고 있는 이동 단말기 101 내지 103)에 위험 운전 상태 정보를 전송하고, 상기 위험 운전 상태 정보를 수신한 타 단말기는 출력부를 통해 위험 운전 상태를 외부로 출력할 수 있다.When the mobile terminal 100 receiving the input of the open mode (M3) from the user determines the dangerous driving state, as shown in FIG. 15C, the other terminals (the passengers P1 to P3 And transmits the dangerous driving state information to the worn mobile terminals 101 to 103. Upon receiving the dangerous driving state information, the other terminal can output the dangerous driving state through the output unit.

공개 모드 입력을 받은 제어부(180)가 위험 운전 상태를 판단한 경우, 통신부(110)를 통해 상기 위험 운전 상태 정보를 전송할 수 있는 모든 단말기에 브로드캐스트(broadcast) 할 수 있다.When the control unit 180 receiving the open mode input determines the dangerous driving state, the communication unit 110 may broadcast the dangerous driving state information to all terminals capable of transmitting the dangerous driving state information.

이때, 위험 운전 상태를 전송하는 상대 단말기는, 상기 이동 단말기(100) 주변에 인식된 타 단말기 이외에, 메모리(160) 또는 차량제어장치(400)의 메모리(440)에 저장되어 있는 단말기 리스트에 위험 운전 상태 정보를 전송할 수 있다.At this time, the counterpart terminal that transmits the dangerous driving state may transmit the dangerous operation state to the terminal list stored in the memory 160 of the memory 160 or the memory 440 of the vehicle control apparatus 400, in addition to the other terminals recognized around the mobile terminal 100 The operation state information can be transmitted.

또한, 상기 메모리(160) 또는 차량제어장치(400)의 메모리(440)는 상기 위험 운전 상태 정보를 수신 거부한 단말기 리스트를 저장할 수 있고, 이 경우 제어부(180)는 상기 수신 거부 단말기에는 상기 위험 운전 상태 정보를 전송하지 않을 수 있다.In addition, the memory 160 of the memory 160 or the memory 440 of the vehicle control unit 400 may store a list of the terminals that have denied the dangerous driving status information. In this case, The operation state information may not be transmitted.

이와 다른 양태에 따라 타 단말기는 상기 위험 운전 상태 정보를 수신하지 않도록 설정될 수 있으며, 이 경우, 타 단말기는 위험 운전 상태 정보를 수신하더라도 상기 위험 운전 상태 정보를 출력하지 않을 수 있다.According to another aspect of the present invention, the other terminal may be configured not to receive the dangerous operation state information, and in this case, the other terminal may not output the dangerous operation state information even though the dangerous operation state information is received.

한편, 상기 공개 모드 입력을 받은 이동 단말기(100)가 위험 운전 상태를 판단한 경우, 통신부(110)를 통해 원격의 단말기에 상기 위험 운전 상태 정보를 전송할 수 있다.Meanwhile, when the mobile terminal 100 receiving the open mode input determines the dangerous driving state, the dangerous driving state information may be transmitted to the remote terminal through the communication unit 110.

이에 따라, 원격의 단말기를 통해 수신받은 사용자는 상기 위험 운전 상태를 판단한 운전자의 이동 단말기, 동승한 탑승자의 이동 단말기 또는 차량제어장치에 전화를 걸거나 메세지 또는 제어명령을 전송함으로써, 위험 운전 상태의 운전자에게 직접 또는 탑승자를 통해 간접적으로 경각심을 일으켜 줄 수 있도록 할 수 있다. 또한, 원격에서 운전자의 위험 운전 상태 정보를 수신한 타 사용자는 차량 제어 장치(400)에 접속하여, 차량 구동부(420)를 통해 차량을 직접 근처의 안전한 장소로 이동시키도록 제어할 수도 있다.Accordingly, the user, who has received the signal through the remote terminal, makes a call to the mobile terminal of the driver, the mobile terminal or the vehicle control device of the passenger who has determined the dangerous driving state, or transmits a message or a control command, It is possible to cause the driver to be notified directly or indirectly through the passenger. In addition, the other user who has received the dangerous driving condition information of the driver from the remote may connect to the vehicle control device 400 and control the vehicle to move the vehicle directly to a nearby safe place through the vehicle driving unit 420. [

일 실시예에 따라, 원격의 단말기는 운전자의 이동 단말기(100)의 위치를 중심으로 차량의 크기보다 큰 소정 거리 범위 내에 위치한 단말기로 제한될 수 있고, 이에 따라 위험 운전 상태에 있는 운전자가 탑승한 차량의 주변에 위치한 다른 차량의 운전자가 상기 위험 운전 상태 정보를 수신하여, 차량 외부에서 경적을 울리거나 비상등을 점멸함으로써, 위험 운전 상태의 운전자에게 경각심을 일으켜 줄 수 있도록 할 수 있다.According to one embodiment, the remote terminal may be limited to a terminal located within a predetermined distance range larger than the size of the vehicle around the location of the mobile terminal 100 of the driver, A driver of another vehicle located in the vicinity of the vehicle can receive the dangerous driving condition information and sound a horn outside the vehicle or blink an emergency light so that the driver in a dangerous driving state can be alerted.

사용자로부터 공개 모드(M3) 입력을 받은 제어부(180)가 위험 운전 상태를 판단한 경우, 위험 운전 상태 정보를 전송할 대상을 사용자로부터 선택 입력을 받을 수 있다.When the control unit 180 receiving the input of the open mode (M3) from the user determines the dangerous driving state, the dangerous driving state information can be received from the user.

이동 단말기(100)가 위험 운전 상태 정보를 출력하는 타 단말기를 선택하기 위해 출력부(150)를 통하여 출력하는 화면의 일 예로, 도 16에 도시한 바와 같이, 상기 출력부(150)는 탑승 좌석을 소정 영역으로 나타내는 그래픽 오브젝트(P1 내지 P4)를 구분하여 출력할 수 있다.As shown in FIG. 16, the output unit 150 may include an output unit 150 for outputting the dangerous operation state information through the output unit 150, (P1 to P4) representing a predetermined area, and outputs them.

이때, 사용자 입력에 의해 선택되어, 체크 버튼으로 표시된 S1 및 S2에 대응하는 운전석 및 조수석에 해당하는 차량 제어 장치의 디스플레이부, 또는 운전석 및 조수석에 탑승한 운전자 및 동승자에 대응하는 단말기에만 제어부(180)는 상기 위험 운전 상태 정보를 전송할 수 있다.At this time, only the display part of the vehicle control device corresponding to the driver's seat and the passenger seat corresponding to S1 and S2 selected by the user input and corresponding to S1 and S2, or the driver and the passenger on the driver's seat and passenger seat, May transmit the dangerous driving condition information.

바람직하게, 출력부(150)는 탑승 좌석에 대한 그래픽 오브젝트 출력시, 탑승자의 탑승 여부 또는 탑승자의 단말기의 착용 여부 등을 함께 출력할 수 있다. 일 예로, 도 16에 도시한 바와 같이, 탑승 좌석을 소정 영역으로 표시하는 경우, 탑승자가 존재하거나 탑승자가 단말기를 착용하고 있는 것으로 인식한 운전석, 조수석 및 우측 뒷좌석에 대한 영역을 소정 패턴 또는 소정 색깔로 표시하거나, 소정 그래픽 오브젝트를 상기 탑승자가 존재하는 것으로 인식한 영역에 추가하여 표시할 수 있다.The output unit 150 may output the graphic object to the passenger seat when the passenger is on the passenger or the occupant's terminal. For example, as shown in Fig. 16, when a passenger seat is displayed as a predetermined area, the area for the driver's seat, the front passenger's seat and the rear-right seat recognized as being occupied by a passenger or occupants wearing a terminal, Or a predetermined graphic object may be added to an area recognized as the presence of the occupant and displayed.

또한, 원격지에 있는 단말기 중 상기 위험 운전 상태 정보를 전송하기 위한 단말기를 선택하기 위해, 메모리(160)에 저장되어 있는 주소록 리스트 중 적어도 일부를 선택하는 입력을 받고, 주소록 리스트 중 선택 입력된 단말기에만 상기 위험 운전 상태 정보를 전송할 수 있다.Also, in order to select a terminal for transmitting the dangerous driving status information among the terminals located at a remote location, the terminal receives an input for selecting at least a portion of the address book stored in the memory 160, And transmit the dangerous driving condition information.

한편, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.
On the other hand, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal determines whether the dangerous driving state, the danger level, And an in-vehicle position of the other terminal.

이동 단말기(100)가 사용자로부터 커스텀 모드(M4) 입력을 받은 경우, 통신부(110)를 이용하여 기 설정된 타 단말기에 위험 운전 상태 정보를 전송하고, 상기 위험 운전 상태 정보를 수신한 타 단말기는 출력부를 통해 위험 운전 상태를 외부로 출력할 수 있다.When the mobile terminal 100 receives the custom mode M4 input from the user, the mobile terminal 100 transmits the dangerous operation status information to another terminal that has been previously set using the communication unit 110, The dangerous driving state can be output to the outside through the load.

일 실시예에 따라, 제어부(180)는 사용자로부터 임의의 단말기에 대한 정보를 입력 받아서 메모리(160)에 저장할 수 있으나, 이와 달리, 제어부(180)가 기존에 일정 횟수 이상 위험 운전 상태 정보를 전송한 이력이 있거나, 주소록 등과 같이 단말기 정보를 저장한 목록으로부터 상기 위험 운전 상태 정보를 전송하려는 단말기를 적어도 하나를 선택하는 입력을 받아서 메모리(160)에 저장할 수도 있다.According to an embodiment, the controller 180 may receive information about an arbitrary terminal from a user and store the received information in the memory 160. Alternatively, the controller 180 may transmit dangerous operation state information over a predetermined number of times And may receive an input for selecting at least one terminal to transmit the dangerous driving status information from a list storing terminal information such as an address book, and may store it in the memory 160. [

제어부(180)는 임의로 입력받은 단말기에 대한 정보를 메모리(160)에 저장함으로써, 위험 운전 상태를 판단한 경우, 위험 운전 상태 정보를 상기 메모리(160)에 저장된 임의의 단말기에 전송하여, 상기 위험 운전 상태 정보를 수신한 임의의 단말기가 상기 위험 운전 상태 정보를 출력하도록 할 수 있다.The control unit 180 stores the information on the terminal arbitrarily inputted into the memory 160 so as to transmit the dangerous driving state information to any terminal stored in the memory 160 when the dangerous driving state is determined, So that any terminal that has received the state information can output the dangerous operation state information.

이때, 메모리(160)에 저장된 임의의 단말기는 단말기의 종류, 위치 또는 인체에 착용 여부 등과 무관할 수 있다.At this time, any terminal stored in the memory 160 may be irrelevant to the type, position, or whether the terminal is worn by the human body.

한편, 사용자로부터 커스텀 모드(M4) 입력을 받은 제어부(180)가 위험 운전 상태를 판단한 경우, 위험 운전 상태 정보를 전송할 대상을 사용자로부터 선택 입력을 받을 수 있다.On the other hand, when the control unit 180 receiving the custom mode M4 input from the user determines the dangerous driving state, the dangerous driving state information can be received from the user.

이동 단말기(100)가 위험 운전 상태 정보를 출력하는 타 단말기를 선택하기 위해 출력부(150)를 통하여 출력하는 화면의 일 예로, 도 16에 도시한 바와 같이, 상기 출력부(150)는 탑승 좌석을 소정 영역으로 나타내는 그래픽 오브젝트(P1 내지 P4)를 구분하여 출력할 수 있다.As shown in FIG. 16, the output unit 150 may include an output unit 150 for outputting the dangerous operation state information through the output unit 150, (P1 to P4) representing a predetermined area, and outputs them.

이때, 사용자 입력에 의해 선택되어, 체크 버튼으로 표시된 S1 및 S2에 대응하는 운전석 및 조수석에 해당하는 차량 제어 장치의 디스플레이부, 또는 운전석 및 조수석에 탑승한 운전자 및 동승자에 대응하는 단말기에만 제어부(180)는 상기 위험 운전 상태 정보를 전송할 수 있다.At this time, only the display part of the vehicle control device corresponding to the driver's seat and the passenger seat corresponding to S1 and S2 selected by the user input and corresponding to S1 and S2, or the driver and the passenger on the driver's seat and passenger seat, May transmit the dangerous driving condition information.

바람직하게, 출력부(150)는 탑승 좌석에 대한 그래픽 오브젝트 출력시, 탑승자의 탑승 여부 또는 탑승자의 단말기의 착용 여부 등을 함께 출력할 수 있다. 일 예로, 도 16에 도시한 바와 같이, 탑승 좌석을 소정 영역으로 표시하는 경우, 탑승자가 존재하거나 탑승자가 단말기를 착용하고 있는 것으로 인식한 운전석, 조수석 및 우측 뒷좌석에 대한 영역을 소정 패턴 또는 소정 색깔로 표시하거나, 소정 그래픽 오브젝트를 상기 탑승자가 존재하는 것으로 인식한 영역에 추가하여 표시할 수 있다.The output unit 150 may output the graphic object to the passenger seat when the passenger is on the passenger or the occupant's terminal. For example, as shown in Fig. 16, when a passenger seat is displayed as a predetermined area, the area for the driver's seat, the front passenger's seat and the rear-right seat recognized as being occupied by a passenger or occupants wearing a terminal, Or a predetermined graphic object may be added to an area recognized as the presence of the occupant and displayed.

한편, 위험 운전 상태 정보를 수신한 타 단말기는 상기 위험 운전 상태 정보를 출력할 수 있으나, 상기 타 단말기의 출력부는, 상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 타 단말기가 차량 내에 위치하였는지 여부 및 상기 타 단말기의 차량 내 위치 중 적어도 하나에 따라 출력을 달리할 수 있다.
On the other hand, the other terminal having received the dangerous driving state information can output the dangerous driving state information, but the output unit of the other terminal determines whether the dangerous driving state, the danger level, And an in-vehicle position of the other terminal.

운전자의 부주의를 판단하는 차량 제어 장치A vehicle control device for judging a driver's carelessness

이하에서는 본 명세서에 개시된 일 실시예에 따라 운전자의 부주의를 판단하는 차량 제어 장치에 대하여 자세히 설명하되, 전술한 운전자의 부주의를 판단하는 이동 단말기와 동일 또는 유사한 기능을 수행하므로, 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.Hereinafter, the vehicle control device for determining a carelessness of a driver according to an embodiment disclosed herein will be described in detail, and performs the same or similar function as the mobile terminal that determines the carelessness of the driver described above. And will not be described in detail.

본 명세서에 개시된 일 실시예에 따른 차량 제어 장치는, 통신부(431), 영상 정보 획득부(470) 및 제어부(410)를 포함한다.The vehicle control apparatus according to one embodiment of the present invention includes a communication unit 431, an image information acquisition unit 470, and a control unit 410.

통신부(431)는 도 6A를 기준으로 설명한 근거리 통신 모듈(431)에 대응하는 구성으로서, 근거로 통신 모듈(431)에 대한 설명과 중복되므로, 그에 갈음하고, 자세한 설명은 생략하기로 한다.The communication unit 431 corresponds to the short-range communication module 431 described with reference to FIG. 6A, and overlaps with the description of the communication module 431 on the grounds thereof, so that a detailed description thereof will be omitted.

또한, 영상 정보 획득부(470)는 영상획득장치(900)로부터 사용자에 대한 영상 정보를 획득한다.In addition, the image information acquisition unit 470 acquires image information about the user from the image acquisition device 900.

또한, 제어부(410)는 상기 통신부(431)를 제어하여, 사용자에 대한 생체 정보를 수신하거나, 영상 정보 획득부(470)를 통해 상기 영상 정보를 획득하고, 상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 사용자에 대한 위험 운전 상태를 검출한다.The control unit 410 controls the communication unit 431 to receive the biometric information for the user or acquire the image information through the image information acquisition unit 470. The control unit 410 may receive at least one of the image information and the biometric information And detects a dangerous driving state for the user based on one.

여기서, 사용자에 대한 위험 운전 상태는, 사용자에 대한 졸음(drowsiness) 운전 상태, 시선 분산(driver distraction) 운전 상태 및 스트레스(stress) 상태 중 적어도 하나를 포함할 수 있다.Here, the dangerous driving state for the user may include at least one of a drowsiness driving state, a driver distraction driving state, and a stress state for the user.

제어부(410)는 사용자가 상기 졸음 운전 상태, 시선 분산 상태 및 스트레스 상태 중 어느 상태인지 결정하거나, 상기 위험 운전 상태 각각에 대한 위험 레벨 정보를 생성할 수 있다.The control unit 410 may determine which of the drowsy driving state, the visually dispersed state, and the stress state the user is in, or may generate the danger level information for each of the dangerous driving states.

제어부(410)는 사용자의 위험 운전 상태 또는 위험 레벨 정보를 산출하기 위해, 영상 정보 및/또는 생체 정보를 근거로 판단할 때, 복수의 판단 요소들에 대한 가중치를 적용한다.In order to calculate the dangerous driving state or the danger level information of the user, the control unit 410 applies a weight to a plurality of determination factors when determining based on the image information and / or the biometric information.

이때, 상기 위험 운전 상태 또는 위험 레벨 정보에 대한 판단 정확도를 향상시키기 위해, 상기 복수의 판단 요소들에 대한 가중치는 다량의 데이터베이스를 근거로 학습하여 설정된 가중치인 것이 바람직하다.In this case, in order to improve the accuracy of the determination of the dangerous driving state or the danger level information, the weights for the plurality of determination factors may be weights determined by learning based on a large amount of databases.

이때, 학습 모델은 제어부(180)가 사용자 또는 사용자를 포함한 일반인들의 영상 정보 및 생체 정보를 데이터베이스화한 것을 근거로 생성할 수 있고, 이렇게 생성된 학습 모델을 근거로 위험 운전 상태 또는 위험 레벨을 결정할 수 있다.
At this time, the learning model can be generated based on the database of the image information and the biometric information of the general user including the user or the user by the control unit 180, and the risk driving state or the risk level is determined based on the generated learning model .

또한, 제어부(410)가 사용자에 대한 위험 운전 상태 또는 위험 운전 상태에 대한 위험 레벨 정보를 산출할 때, 상기 영상 정보 및 상기 생체 정보를 이용하되, 상기 영상 정보 및 상기 생체 정보 각각에 가중치를 적용하여, 제어부(410)의 위험 운전 상태 또는 위험 레벨 정보의 산출 정확도를 향상시킬 수 있다.In addition, when the control unit 410 calculates the risk level information for the dangerous driving state or the dangerous driving state for the user, the control unit 410 uses the image information and the biometric information, and applies a weight to each of the image information and the biometric information Thus, it is possible to improve the accuracy of calculating the dangerous driving state or the dangerous level information of the control unit 410.

이때, 상기 가중치는 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 여부에 따라 서로 다른 값이 적용될 수 있다.
At this time, different values may be applied depending on whether the weight is in a drowsy driving state, a visually dispersed driving state, or a stress state.

한편, 제어부(410)가 사용자의 졸음 운전 상태(스트레스 상태 포함) 또는 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 판단할 때, 전술한 바와 같이, 상기 영상 정보와 상기 생체 정보를 모두 고려하는 것이 바람직하나, 더욱 바람직하게는, 차량의 탑승 전 사용자에 대한 수면 상태 정보 및 생체 리듬 정보 중 적어도 하나를 이용하여, 산출한 졸음 추세선을 추가로 고려할 수 있다(도 13 참조).On the other hand, when the control unit 410 determines the drowsiness operation state (including the stress state) of the user or the drowsiness operation level (including the stress level) of the user, it is necessary to consider both the image information and the biometric information Preferably, more preferably, the drowsiness trend line calculated can be further considered by using at least one of the sleep state information and the biorhythm information for the user before boarding the vehicle (see Fig. 13).

즉, 제어부(410)가 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 판단할 때, 상기 영상 정보와 상기 생체 정보를 근거로 산출된 제1 졸음 운전 레벨(제1 스트레스 레벨 포함)과 상기 졸음 추세선을 근거로 산출된 졸음 레벨에 대응하는 제2 졸음 운전 레벨(제2 스트레스 레벨 포함)을 조합함으로써, 정확한 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 산출할 수 있다.That is, when the control unit 410 determines the sleeping operation level (including the stress level) of the user, the first sleep operation level (including the first stress level) calculated based on the image information and the biometric information, (Including the stress level) corresponding to the sleepiness level calculated on the basis of the sleepiness level of the user (including the second stress level).

상기 제1 졸음 운전 레벨(제1 스트레스 레벨 포함)과 상기 제2 졸음 운전 레벨(제2 스트레스 레벨 포함) 각각에 대해 기 설정된 가중치를 적용함으로써, 사용자의 졸음 운전 레벨(스트레스 레벨 포함)을 최종적으로 산출할 수 있다.By applying a predetermined weight to each of the first drowsiness operation level (including the first stress level) and the second drowsiness operation level (including the second stress level), the user's drowsiness level (including the stress level) Can be calculated.

이때, 제1 졸음 운전 레벨(제1 스트레스 레벨 포함) 및 제2 졸음 운전 레벨(제2 스트레스 레벨 포함)에 적용되는 가중치는 사용자 입력에 의해 미리 설정되거나, 최종적으로 판단된 사용자의 스트레스 레벨에 대한 확인 입력에 따라 적응적으로 가변될 수 있다.
At this time, the weight applied to the first drowsiness operation level (including the first stress level) and the second drowsiness operation level (including the second stress level) may be set in advance by user input, It can be adaptively changed according to the confirmation input.

한편, 출력부(450)는 제어부(410)가 판단한 위험 운전 상태 또는 이에 대한 위험 레벨 정보를 다양한 형태(사용자의 오감을 자극할 수 있는 각종 형태)로 출력할 수 있다.Meanwhile, the output unit 450 may output the dangerous driving state determined by the controller 410 or the danger level information thereof in various forms (various types that can stimulate the user's five senses).

출력부(450)는 위험 레벨 정보를 영상 또는 음성 형태로 출력할 수 있고, 차량 제어 장치의 출력부(450)는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.The output unit 450 may output the danger level information in the form of image or voice and the output unit 450 of the vehicle control apparatus changes the output type or output intensity as the danger level information changes .

차량 제어 장치의 출력부(450)가 전술한 바와 같이, 음성 또는 소리를 출력하는 경우, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 영상을 달리하여 출력하거나, 음성 또는 소리의 종류, 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.When the output unit 450 of the vehicle control apparatus outputs sound or sound as described above, the dangerous driving state or the danger level information is changed to output different images, , The amplitude and / or the output period, and the like.

또한, 제어부(410)는 차량에 설치된 차량 출력부(미도시)를 통해 상기 위험 레벨 정보를 출력할 수 있다. 차량 출력부(미도시)도 차량 제어 장치의 출력부(450)와 마찬가지로, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라 출력 형태 또는 출력 강도를 변화시켜 외부로 출력할 수 있다.Also, the control unit 410 may output the danger level information through a vehicle output unit (not shown) installed in the vehicle. Similarly to the output unit 450 of the vehicle control device, the vehicle output unit (not shown) may output the output mode or output intensity to the outside as the dangerous driving state or the dangerous level information changes.

이때, 차량 출력부는 차량의 비상등, 계기판, 계기판 주변 또는 탑승 좌석별로 설치된 적어도 하나의 LED, 차량의 진동 시트 및 차량의 진동 가능한 조향 장치 중 적어도 하나 일 수 있으며, 상기 위험 운전 상태 또는 상기 위험 레벨 정보가 변화함에 따라, 비상등의 출력 주기, LED의 색깔, LED의 출력 주기, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 주파수, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 진폭, 상기 진동 시트 또는 진동 가능한 조향 장치의 진동 출력 주기 중 적어도 하나를 달리하여 출력할 수 있다.At this time, the vehicle output portion may be at least one of an emergency light, an instrument panel, a perimeter of the vehicle, or at least one LED installed for each seat, a vibrating seat of the vehicle, and a vibration steerable device of the vehicle. The output period of the emergency light, the color of the LED, the output period of the LED, the vibration frequency of the vibration sheet or the vibration-capable steering apparatus, the vibration amplitude of the vibration sheet or the vibration-capable steering apparatus, At least one of the oscillation output periods of the apparatus may be outputted in different manners.

또한, 차량 제어 장치(400)가 직접적으로 차량 내부의 환기를 위해 차량에 설치된 적어도 하나의 창문을 열거나, 차량의 공기 조화기를 동작시켜, 사용자의 위험 운전 레벨을 낮추도록 유도할 수 있다.In addition, the vehicle control apparatus 400 can directly open at least one window installed in the vehicle for ventilation inside the vehicle, or operate the air conditioner of the vehicle to lower the dangerous driving level of the user.

또한, 위험 레벨이 기 설정된 레벨보다 높은 경우에는, 차량 제어 장치(400)가 차량의 운행을 직접 제어하도록 하는 것이 바람직하다.Further, when the danger level is higher than the predetermined level, it is preferable that the vehicle control device 400 directly controls the vehicle operation.

위험 운전 상태에 대한 위험 레벨에 대하여, 이동 단말기(100), 차량 제어 장치(400) 및 차량 출력부 중 적어도 하나가 상기와 같은 조치를 취한 후에 혹은 일정 시간 경과 후에 다시 위험 레벨에 대한 판단을 반복적으로 수행하여, 위험 레벨에 대한 판단과 그에 따른 조치를 지속적으로 반복하는 것이 바람직하다.
After at least one of the mobile terminal 100, the vehicle control device 400, and the vehicle output unit has performed the above-described action with respect to the dangerous level with respect to the dangerous driving condition, or after a predetermined time has elapsed, , It is desirable to continuously repeat the determination of the risk level and the action accordingly.

일 실시예에 따라, 제어부(410)가 판단한 위험 운전 상태 및 이에 대한 위험 레벨 정보를 이동 단말기(100)로 전송하여, 이동 단말기(100)가 출력부(150)를 통해 본체 진동 또는 소리의 형태로 출력하되, 위험 레벨 정보가 변화함에 따라 출력 강도를 변화시킬 수 있다.The dangerous driving state and the danger level information of the dangerous driving state determined by the controller 410 may be transmitted to the mobile terminal 100 so that the mobile terminal 100 can transmit the dangerous driving state and the danger level information to the mobile terminal 100 through the output unit 150, The output intensity can be changed as the danger level information changes.

일 예로, 도 12에 도시한 바와 같이, 이동 단말기(100)는 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 위험 레벨이 증가함에 따라 진동의 주파수를 증가시킨 알람(AS20)을 출력하거나, 진동의 진폭을 증가시킨 알람(AS30)을 출력하거나, 진동의 출력 주기를 짧게 출력할 수 있다.12, the mobile terminal 100 is provided with an alarm AS20 that increases the frequency of the vibration as the danger level increases, based on the vibration type alarm AS10 having the basic amplitude and the fundamental frequency, , An alarm AS30 with an increased amplitude of vibration, or a shorter output period of the vibration can be output.

또한, 상기 이동 단말기(100)는, 기본 진폭 및 기본 주파수를 가지는 진동 형태의 알람(AS10)을 기준으로, 상기 위험 레벨 정보에 따라 진동의 주파수 또는 진폭이 시간에 따라 가변하는 알람(AS40)을 외부로 출력할 수도 있다.The mobile terminal 100 further includes an alarm AS40 in which the frequency or amplitude of the vibration varies with time based on the vibration level alarm AS10 having the basic amplitude and the fundamental frequency And output it to the outside.

전술한 바와 같이, 위험 레벨 정보에 따라 진동의 주파수 또는 진폭을 달리하여 출력할 수 있으나, 또 다른 실시예에 따라, 음성(일 예로, "현재 졸음 운전 상태 5 레벨입니다") 또는 소리를 주파수, 진폭 및/또는 출력 주기 등을 달리하여 출력할 수 있다.As described above, according to another embodiment, it is possible to output a sound (for example, "current drowsiness driving state is level 5") or a sound according to frequency, The amplitude and / or the output period, and the like.

이동 단말기(100)가 위험 레벨 정보에 따른 소리를 출력하되, 위험 운전 상태 별로 출력하는 소리의 종류는 다를 수 있다.The mobile terminal 100 outputs sounds according to the danger level information, but the types of sounds output according to the dangerous driving states may be different.

한편, 차량 제어 장치(400)가 판단한 위험 운전 상태 정보를 이동 단말기(100)의 출력부(150)를 통해 위험 운전 상태 정보를 외부로 출력할 때, 사용자 입력에 따라 위험 운전 상태를 전송하려는 이동 단말기(100)에 대한 모드 선택 입력을 받을 수 있다.Meanwhile, when the dangerous driving state information determined by the vehicle control device 400 is output to the outside via the output unit 150 of the mobile terminal 100, And can receive a mode selection input for the terminal 100. FIG.

본 명세서에 개시된 일 실시예에 따라, 자동 모드(M1), 개인 모드(M2), 공개 모드(M3) 또는 커스텀 모드(M4)에 따른 타 단말기에 상기 위험 운전 상태 정보를 전송할 수 있다. 각 모드에 대한 자세한 설명은, 전술한 내용과 동일하므로, 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.
The dangerous driving state information may be transmitted to another terminal according to the automatic mode M1, the personal mode M2, the open mode M3, or the custom mode M4 according to an embodiment disclosed herein. Since the detailed description of each mode is the same as that described above, the redundant contents are replaced with the detailed description, and a detailed description will be omitted.

이동 단말기 또는 차량 제어 장치의 제어 방법A control method of a mobile terminal or a vehicle control device

이하에서는, 본 발명의 일 실시예에 따른 이동 단말기의 제어 방법에 대하여 자세히 설명하기로 한다. 이하에서는, 이동 단말기를 중심으로 설명하나, 차량 제어 장치에도 동일하게 적용될 수 있음은 물론이다.Hereinafter, a method of controlling a mobile terminal according to an embodiment of the present invention will be described in detail. Hereinafter, the mobile terminal will be mainly described, but it goes without saying that the present invention can be similarly applied to a vehicle control apparatus.

전술한 이동 단말기 또는 차량 제어 장치에 대한 설명과 중복되는 내용은 그에 갈음하고, 자세한 설명은 생략하기로 한다.The contents overlapping with those of the above-described mobile terminal or the vehicle control device are replaced with the detailed description.

본 발명의 일 실시예에 따른 이동 단말기의 제어 방법은, 도 18에 도시한 바와 같이, 모드 선택 입력을 받는 단계(S10), 위험 운전 상태를 판단하는 단계(S30), 모드별 대응되는 타 단말기에 운전 상태 정보를 전송하는 단계(S50) 및 타 단말기가 상기 위험 운전 상태 정보를 출력하는 단계(S60)를 포함할 수 있다.As shown in FIG. 18, the control method of a mobile terminal according to an exemplary embodiment of the present invention includes steps of receiving a mode selection input (S10), determining a dangerous driving state (S30) (S50) of transmitting the driving state information to the other terminal (S60) and outputting the dangerous driving state information by the other terminal (S60).

모드 선택 입력을 받는 단계(S10)는 이동 단말기(100)가 사용자(바람직하게는 운전자)에 대한 위험 운전 상태를 전송하려는 대상을 선택하도록 모드 선택 입력을 받을 수 있다.The step S10 of receiving the mode selection input may receive the mode selection input so that the mobile terminal 100 selects an object to which the dangerous driving state for the user (preferably the driver) is to be transmitted.

이때, 이동 단말기(100)는 사용자 입력부(130)를 통해, 도 14에 도시한 바와 같이, 사용자로부터 자동 모드(M1), 개인 모드(M2), 공개 모드(M3) 및 커스텀 모드(M4) 중 적어도 하나에 대한 모든 선택 입력을 받을 수 있다.At this time, the mobile terminal 100 receives, from the user through the user input unit 130, an automatic mode M1, a personal mode M2, a public mode M3, and a custom mode M4 At least one can receive all of the selection inputs.

이후, 이동 단말기(100)는 사용자(바람직하게는 운전자)의 특정 신체 부위로부터 생체 정보를 획득(S21)하고, 이동 단말기(100) 또는 차량 제어 장치(400)는 상기 생체 정보를 근거로 위험 운전 상태를 판단할 수 있다(S30).Then, the mobile terminal 100 acquires biometric information from a specific body part of a user (preferably a driver) (S21), and the mobile terminal 100 or the vehicle control device 400 acquires biometric information based on the biometric information (S30).

이때, 차량 내외에 사용자(바람직하게는 운전자)를 향해 설치된 영상획득장치(900)를 통해 획득한 영상 정보 및 상기 생체 정보를 근거로 위험 운전 상태를 판단할 수 있다.At this time, the dangerous driving state can be determined based on the image information acquired through the image acquisition device 900 installed toward the user (preferably the driver) inside and outside the vehicle and the biometric information.

이동 단말기(100) 또는 차량 제어 장치(400)는 상기 영상 정보 및 생체 정보를 근거로 운전자에 대한 졸음(drowsiness) 운전 상태, 시선 분산(driver distraction) 운전 상태 및 스트레스(stress) 상태 중 적어도 하나를 포함하는 위험 운전 상태 및 이에 대한 위험 레벨 정도를 정확히 판단할 수 있다.The mobile terminal 100 or the vehicle control apparatus 400 may control at least one of a drowsiness operation state, a driver distraction operation state and a stress state for the driver based on the image information and the biometric information It is possible to accurately determine the dangerous driving condition and the level of the risk level.

위험 운전 상태를 판단한 이동 단말기(100) 또는 차량 제어 장치(400)는 사용자 입력부(130)를 통해 입력받은 모드 선택 입력에 따라, 이에 대응되는 타 단말기에 상기 위험 운전 상태 정보를 타 단말기에 전송할 수 있다(S50).The mobile terminal 100 or the vehicle control device 400 that has determined the dangerous driving state may transmit the dangerous driving state information to another terminal corresponding to the mode selection input received through the user input unit 130 (S50).

일 예로, 이동 단말기(100)의 제어부(180)는 사용자 입력부(130)를 통해 자동 모드 선택 입력이 있는지(S41), 개인 모드 선택 입력이 있는지(S42), 공개 모드 선택 입력이 있는지(S43) 또는 커스텀 모드 선택 입력이 있는지(S44)를 판단하고, 그에 따라 대응되는 타 단말기에 상기 위험 운전 상태 정보를 전송할 수 있다.For example, the control unit 180 of the mobile terminal 100 determines whether there is an automatic mode selection input through the user input unit 130 (S41), whether there is a personal mode selection input (S42) Or whether there is a custom mode selection input (S44), and transmit the dangerous driving state information to the corresponding other terminal accordingly.

이에 따라, 상기 위험 운전 상태 정보를 수신한 타 단말기는 위험 운전 상태 정보를 출력할 수 있다(S60).
Accordingly, the other terminal having received the dangerous operation state information may output the dangerous operation state information (S60).

한편, 본 발명의 일 실시예에 따라, 이동 단말기(100) 또는 차량 제어 장치(400)는 사용자로부터 모드 선택 입력을 받더라도, 상기 위험 운전 상태 정보를 출력하는 타 단말기를 선택하기 위한 사용자의 선택 입력을 받을 수 있다.According to an embodiment of the present invention, the mobile terminal 100 or the vehicle control device 400 may receive a mode selection input from a user, .

이때, 이동 단말기(100) 또는 차량 제어 장치(400)가 탑승자의 탑승 여부 또는 탑승자의 단말기의 착용 여부 등을 출력하여, 운전자가 직관적으로 상기 타 단말기를 선택할 수 있도록 할 수 있다.
At this time, the mobile terminal 100 or the vehicle control device 400 may output whether the passenger is boarding or wearing the occupant's terminal, so that the driver can intuitively select the other terminal.

본 명세서에 개시된 기술이 적용 가능한 차량The techniques disclosed herein may be applied to vehicles

이하에서는 도 17를 참조하여 본 명세서에 개시된 기술이 적용 가능한 차량에 대해 설명한다.Hereinafter, a vehicle to which the technique disclosed in this specification is applicable will be described with reference to Fig.

도 17에서는 전기차량에 대해 기술하지만, 본 명세서에 개시된 기술은 본 명세서에 개시된 기술적 사상이 벗어나지 않는 한도에서 다른 종류의 차량(예를 들어, 가솔린 엔진, 디젤 엔진 또는 LPG 엔진을 구비한 차량)에도 적용 가능함이 본 기술분야에 당업자에게 자명하다.Although the electric vehicle is described in Fig. 17, the techniques disclosed herein may be applied to other types of vehicles (for example, a vehicle having a gasoline engine, a diesel engine, or an LPG engine) without departing from the technical idea disclosed in this specification Applicable to those skilled in the art.

도 17는 본 명세서에 개시된 일 실시예에 따른 배터리 충전장치를 구비한 전기차량의 개략적인 구성도이다.17 is a schematic configuration diagram of an electric vehicle having a battery charging device according to an embodiment disclosed herein.

도 17에 도시된 바와 같이, 본 발명의 일 실시예에 따른 배터리 충전장치를 구비한 전기차량(600)은, 차량바디(610)와, 상기 차량바디(610)에 구비되는 배터리(625)와, 상기 차량바디(610)에 구비되고 외부 전원과 연결되어 상기 배터리(625)를 충전시키는 배터리 충전장치(640)를 포함하여 구성될 수 있다. 17, an electric vehicle 600 having a battery charging device according to an embodiment of the present invention includes a vehicle body 610, a battery 625 provided in the vehicle body 610, And a battery charging device 640 provided in the vehicle body 610 and connected to an external power source to charge the battery 625.

상기 차량바디(610)의 상부영역에는 도면에는 도시하지 아니하였으나 운전자 또는 승객이 탑승하는 탑승공간이 구비될 수 있다. 예를 들면, 상기 차량바디(610)는 내부에 탑승공간이 형성되는 캐빈(cabin)(미도시)이 구비될 수 있다. In the upper region of the vehicle body 610, although not shown, a passenger space on which the driver or the passenger can ride may be provided. For example, the vehicle body 610 may include a cabin (not shown) in which a boarding space is formed.

상기 차량바디(610)는 주행이 가능하게 복수의 휠(615)을 구비하여 구성될 수 있다. 상기 차량바디(610)와 상기 각 휠(615) 사이에는 현가장치(620)가 각각 구비될 수 있다. 이에 의해, 상기 차량바디(610)의 노면 주행 시 발생하는 진동 및 충격이 완화될 수 있다. The vehicle body 610 may include a plurality of wheels 615 so that the vehicle body 610 can travel. A suspension 620 may be provided between the vehicle body 610 and the wheels 615, respectively. Accordingly, vibrations and shocks generated when the vehicle body 610 travels on the road surface can be alleviated.

상기 휠(615)은 상기 차량바디(610)의 전, 후 양 측에 각각 배치될 수 있다.The wheels 615 may be disposed on both the front and rear sides of the vehicle body 610, respectively.

상기 차량바디(610)에는 전원 공급을 위한 배터리(625)가 구비될 수 있다.The vehicle body 610 may be provided with a battery 625 for supplying power.

상기 배터리(625)는 충전이 가능하게 2차 전지로 구성될 수 있다.The battery 625 may be a rechargeable battery.

상기 차량바디(610)의 일 측에는 상기 휠(615)에 구동력을 제공하는 전동기(630)가 마련될 수 있다. An electric motor 630 may be provided on one side of the vehicle body 610 to provide a driving force to the wheel 615.

상기 차량바디(610)에는 상기 전동기(630)에 구동 전원을 제공하는 인버터장치(635)가 구비될 수 있다. 상기 인버터장치(635)는 상기 배터리(625) 및 상기 전동기(630)에 각각 연결될 수 있다. The vehicle body 610 may be provided with an inverter device 635 for providing driving power to the electric motor 630. The inverter device 635 may be connected to the battery 625 and the motor 630, respectively.

상기 인버터장치(635)는 상기 배터리(125)에 연결되어 직류 전원을 공급받고, 직류 전원을 상기 전동기(630)의 구동에 적합한 전원으로 변환하여 상기 전동기(130)에 제공할 수 있다.The inverter unit 635 is connected to the battery 125 and receives DC power and converts the DC power to a power suitable for driving the motor 630 and provides the power to the motor 130.

상기 차량바디(610)에는 상기 배터리(625)를 충전할 수 있게 배터리 충전장치(640)가 구비될 수 있다. 상기 배터리 충전장치(640)는 외부 상용 전원(AC)과 연결되어 상용 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 상기 배터리(625)에 제공하는 충전회로(660)를 구비하여 구성될 수 있다. 여기서, 상기 충전회로(660)는, 구체적으로 도시하지 아니하였으나, 상용 전원과 연결되어 상용 전원이 입력되는 상용전원입력부, 상기 상용전원입력부를 통해 입력된 상용 전원을 직류로 변환하는 정류부 및 평활부, 변환된 직류 전원을 상기 배터리(625)의 충전에 적합한 전원으로 변환하여 출력하는 전력변환부를 포함하여 구성될 수 있다.
The vehicle body 610 may be provided with a battery charging device 640 to charge the battery 625. The battery charging device 640 includes a charging circuit 660 connected to an external commercial power supply AC to convert commercial power into a power suitable for charging the battery 625 and providing the power to the battery 625, . The charging circuit 660 includes a commercial power input unit connected to a commercial power source and receiving commercial power, a rectifying unit converting a commercial power input through the commercial power input unit to DC, And a power conversion unit converting the converted DC power into a power suitable for charging the battery 625 and outputting the converted power.

본 발명의 범위는 본 명세서에 개시된 실시 예들로 한정되지 아니하고, 본 발명은 본 발명의 사상 및 특허청구범위에 기재된 범주 내에서 다양한 형태로 수정, 변경, 또는 개선될 수 있다.
The scope of the present invention is not limited to the embodiments disclosed herein, and the present invention can be modified, changed, or improved in various forms within the scope of the present invention and the claims.

100: 이동 단말기 110: 통신부
130: 사용자 입력부 145: 생체 정보 획득부
150: 출력부 160: 메모리
180: 제어부 400: 차량 제어 장치
410: 제어부 431: 통신부
420: 차량 구동부 450: 출력부
470: 영상 정보 획득부 900: 영상 획득 장치
100: mobile terminal 110:
130: user input unit 145: biometric information obtaining unit
150: output unit 160: memory
180: control unit 400: vehicle control device
410: control unit 431:
420: vehicle drive unit 450: output unit
470: Image information acquisition unit 900: Image acquisition device

Claims (20)

사용자의 특정 신체 부위에 착용 가능하도록 형성된 본체;
타 단말기와 무선통신이 가능하도록 형성되는 통신부;
상기 타 단말기 중 상기 사용자의 위험 운전 상태의 전송 대상을 결정하는 모드의 선택 입력을 받는 사용자 입력부;
상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부; 및
상기 생체 정보를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하고, 상기 사용자 입력부를 통하여 선택된 모드에 근거하여 결정된 타 단말기에서 상기 사용자의 위험 운전 상태 정보를 출력시키기 위한 제어명령을 형성하는 제어부를 포함하고,
상기 제어부는,
상기 사용자 입력부에 의하여 자동 모드가 선택된 경우, 상기 사용자가 탑승한 차량에 구비된 영상획득장치에 의하여 획득된 상기 차량 내 탑승자에 대한 영상 정보로부터 상기 사용자의 동승자를 인식하고, 상기 통신부와 무선 통신이 가능한 타 단말기 중 상기 동승자에 대응되는 타 단말기로 상기 제어명령이 전송되도록 상기 통신부를 제어하는 것을 특징으로 하는 이동 단말기.
A body formed to be wearable on a specific body part of the user;
A communication unit configured to enable wireless communication with another terminal;
A user input unit for receiving a selection input of a mode for determining a transmission target of the dangerous driving state of the user among the other terminals;
A biometric information obtaining unit for obtaining biometric information for the user from the specific body part; And
And a control unit for detecting a dangerous driving state for the user based on the biometric information and forming a control command for outputting the dangerous driving state information of the user from the other terminal determined based on the selected mode through the user input unit and,
Wherein,
And a controller for recognizing the passenger of the user from the image information of the occupant in the vehicle obtained by the image capturing apparatus provided in the vehicle on which the user is boarding when the automatic mode is selected by the user input unit, And controls the communication unit such that the control command is transmitted to another terminal corresponding to the passenger among other terminals available.
제 1 항에 있어서,
상기 사용자의 위험 운전 상태 정보를 출력하는 것이 가능한 상기 타 단말기의 종류는, 웨어러블 타입의 디바이스, 바(bar) 타입의 이동 단말기, 상기 차량의 제어 장치 및 상기 차량에 구비된 차량 출력부 중 적어도 하나인 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein the type of the other terminal capable of outputting the dangerous driving condition information of the user is at least one of a wearable type device, a bar type mobile terminal, a vehicle control device, The mobile terminal comprising:
제 1 항에 있어서,
상기 위험 운전 상태는,
상기 사용자의 졸음 운전 상태 및 스트레스 상태 중 적어도 하나인 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
In the dangerous driving state,
Wherein the user is at least one of a drowsy driving state and a stress state of the user.
제 1 항에 있어서,
상기 통신부는,
상기 영상획득장치로부터 상기 영상 정보를 수신하고,
상기 제어부는,
상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태를 검출하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
Receiving the image information from the image acquiring device,
Wherein,
And detects the dangerous driving state based on at least one of the image information and the biometric information.
제 4 항에 있어서,
상기 제어부는,
상기 영상 정보 및 상기 생체 정보 중 적어도 하나를 근거로 상기 위험 운전 상태가 졸음 운전 상태, 시선 분산 운전 상태 및 스트레스 상태 중 어느 상태인지 결정하는 것을 특징으로 하는 이동 단말기.
5. The method of claim 4,
Wherein,
Wherein the mobile terminal determines whether the dangerous driving state is a drowsy driving state, a visual line dispersion driving state, or a stressed state based on at least one of the image information and the biometric information.
제 1 항에 있어서,
상기 제어부는,
상기 위험 운전 상태에 대한 위험 정도를 나타내는 위험 레벨 정보를 생성하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
And generates risk level information indicating a risk level with respect to the dangerous driving condition.
삭제delete 삭제delete 제1항에 있어서,
상기 동승자에 대응되는 타 단말기는,
상기 타 단말기 중 상기 사용자 입력부를 통해 선택된 적어도 하나의 단말기인 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
The other terminal corresponding to the passenger,
And the at least one terminal is selected through the user input unit of the other terminal.
제 1항에 있어서,
상기 제어부는,
상기 동승자에 대응되는 타 단말기 중 상기 이동 단말기와의 거리가 소정 거리 범위 내인 타 단말기로 상기 제어명령이 전송되도록 상기 통신부를 제어하는 것을 특징으로 하는 이동단말기.
The method according to claim 1,
Wherein,
Wherein the control unit controls the communication unit such that the control command is transmitted to another terminal of the other terminal corresponding to the passenger within a predetermined distance from the mobile terminal.
사용자의 특정 신체 부위에 착용 가능하도록 형성된 본체;
복수의 디스플레이부를 구비하는 차량 제어 장치와 무선통신이 가능하도록 형성되는 통신부;
상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 생체 정보 획득부; 및
상기 생체 정보를 근거로 상기 사용자에 대한 위험 운전 상태를 검출하고, 상기 복수의 디스플레이부 중 적어도 하나에서 상기 사용자의 위험 운전 상태 정보를 출력하기 위한 제어명령이 상기 차량 제어 장치로 전송되도록 상기 통신부를 제어하는 제어부를 포함하고,
상기 제어부는,
상기 차량에 구비된 영상획득장치에 의하여 획득된 상기 차량 내 탑승자에 대한 영상 정보로부터, 상기 차량에 구비된 탑승 좌석 중 상기 탑승자가 존재하는 탑승 좌석의 위치를 인식하고, 상기 복수의 디스플레이부 중 상기 인식된 탑승 좌석의 위치에 대응되는 디스플레이부에서 상기 사용자의 위험 운전 상태 정보가 출력되도록 상기 제어명령을 형성하는 것을 특징으로 하는 이동 단말기.
A body formed to be wearable on a specific body part of the user;
A communication unit configured to be capable of wireless communication with a vehicle control apparatus having a plurality of display units;
A biometric information obtaining unit for obtaining biometric information for the user from the specific body part; And
A control unit for detecting a dangerous driving state for the user based on the biometric information and transmitting a control command for outputting dangerous driving state information of the user from at least one of the plurality of display units to the vehicle control device, And a control unit for controlling the control unit,
Wherein,
The control unit recognizes the position of the boarding seat in which the occupant is present among the boarding seats provided in the vehicle from the image information of the occupant in the vehicle obtained by the image capturing apparatus provided in the vehicle, Wherein the controller forms the control command so that the dangerous driving state information of the user is output from the display unit corresponding to the position of the recognized boarding seat.
제 1 항에 있어서,
출력부를 더 포함하고,
상기 제어부는,
상기 사용자 입력부에 의하여 개인 모드가 선택된 경우,
상기 이동 단말기의 외부로 상기 사용자의 위험 운전 상태 정보가 출력되도록 상기 출력부를 제어하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Further comprising an output section,
Wherein,
When the personal mode is selected by the user input unit,
Wherein the control unit controls the output unit so that the dangerous operation state information of the user is output to the outside of the mobile terminal.
제 1 항에 있어서,
상기 제어부는,
상기 사용자 입력부에 의하여 공개 모드가 선택된 경우,
상기 타 단말기 중 상기 차량의 제어장치, 상기 이동 단말기로부터 기 설정된 거리 이내에 위치한 타 단말기 및 상기 이동 단말기나 상기 차량의 제어장치에 기 등록된 타 단말기에서 상기 사용자의 위험 운전 상태 정보가 출력되도록, 상기 통신부를 이용하여, 상기 사용자의 위험 운전 상태 정보를, 상기 차량의 제어장치, 상기 이동 단말기로부터 기 설정된 거리 이내에 위치한 타 단말기 및 상기 기 등록된 타 단말기로 전송하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
If the disclosure mode is selected by the user input,
The dangerous operation state information of the user is output from the control device of the vehicle, the other terminal located within a predetermined distance from the mobile terminal, and the other terminal registered in the mobile terminal or the control device of the vehicle, And transmits the dangerous driving condition information of the user to the control device of the vehicle, another terminal located within a predetermined distance from the mobile terminal, and the other terminal registered in advance, using the communication unit.
제 13 항에 있어서,
상기 기 설정된 거리 이내에 위치한 타 단말기 및 상기 기 등록된 타 단말기는,
상기 사용자 입력부를 통해 선택된 적어도 하나의 단말기인 것을 특징으로 하는 이동 단말기.
14. The method of claim 13,
The other terminal located within the predetermined distance and the other terminal registered in advance,
Wherein the at least one terminal is selected through the user input unit.
제 1 항에 있어서,
상기 제어부는,
상기 사용자 입력부에 의하여 커스텀 모드가 선택된 경우,
상기 타 단말기 중 상기 이동 단말기에 기 설정된 타 단말기로 상기 사용자의 위험 운전 상태 정보가 출력되도록, 상기 통신부를 이용하여 상기 사용자의 위험 운전 상태 정보를 상기 이동 단말기에 기 설정된 타 단말기로 전송하는 것을 특징으로 하는 이동 단말기.
The method according to claim 1,
Wherein,
When the custom mode is selected by the user input unit,
And the dangerous driving state information of the user is transmitted to another terminal set in the mobile terminal by using the communication unit so that the dangerous driving state information of the user is outputted to another terminal set in the mobile terminal among the other terminals .
제 15 항에 있어서,
상기 이동 단말기에 기 설정된 타 단말기는,
상기 사용자 입력부를 통해 선택된 적어도 하나의 단말기인 것을 특징으로 하는 이동 단말기.
16. The method of claim 15,
The other terminal, which is preset in the mobile terminal,
Wherein the at least one terminal is selected through the user input unit.
제 9 항, 제 14 항 및 제 16 항 중 어느 한 항에 있어서,
출력부를 더 포함하고.
상기 제어부는,
상기 사용자 입력부를 통해 상기 적어도 하나의 단말기에 대한 선택 입력을 받는 경우,
상기 차량에 구비된 탑승 좌석에 대한 그래픽 오브젝트 이외에 상기 탑승자의 탑승 여부 및 상기 탑승자의 단말기 착용 여부 중 적어도 하나에 대한 정보가 함께 출력되도록 상기 출력부를 제어하는 것을 특징으로 하는 이동 단말기.
17. The method according to any one of claims 9 to 16,
And an output unit.
Wherein,
When receiving a selection input for the at least one terminal through the user input unit,
Wherein the control unit controls the output unit so that information on at least one of whether a passenger is boarding the passenger and whether the passenger is wearing the terminal is output together with the graphical object for the boarding seat provided in the vehicle.
제 12 항, 제 13 항 및 제15 항 중 어느 한 항에 있어서,
상기 사용자의 위험 운전 상태 정보는,
상기 위험 운전 상태의 종류, 위험 레벨 정도, 상기 이동 단말기 및 타 단말기가 상기 차량 내에 위치하였는지 여부 및 상기 이동 단말기 및 타 단말기의 차량 내 위치 중 적어도 하나에 따라 서로 다르게 출력되는 것을 특징으로 하는 이동 단말기.
16. A method according to any one of claims 12, 13 and 15,
The dangerous driving condition information of the user may include:
Wherein the mobile terminal is differently output according to at least one of the type of the dangerous driving state, the level of the danger level, whether the mobile terminal and the other terminal are located in the vehicle, and the vehicle position of the mobile terminal and the other terminal. .
제 18 항에 있어서,
상기 사용자의 위험 운전 상태 정보가 상기 이동 단말기에서 출력되는 경우, 상기 위험 운전 상태의 종류 또는 위험 레벨 정도에 따라 상기 본체의 진동 주파수, 진폭, 주기, 음성 또는 소리의 종류, 내용, 주파수, 진폭, 주기 중 적어도 하나가 변경되어 출력되고,
상기 사용자의 위험 운전 상태 정보가 상기 차량의 제어 장치에서 출력되는 경우,
상기 차량 비상등의 출력 주기, 차량 내외부에 배치된 복수의 LED 중 점등되는 LED, LED의 출력 색상, LED의 출력 주기, 차량 진동 시트의 진동 주파수, 상기 차량 진동 시트의 진동 진폭, 상기 차량 진동 시트의 진동 주기, 차량의 진동 가능한 조향 장치의 진동 주파수, 상기 조향 장치의 진동 진폭 및 상기 조향 장치의 진동 주기 중 적어도 하나가 변경되어 출력되는 것을 특징으로 하는 이동 단말기.
19. The method of claim 18,
The vibration frequency, the amplitude, the cycle, the type of the voice or sound, the content, the frequency, the amplitude, the frequency, and the like of the main body according to the type of the dangerous driving state or the level of the dangerous level when the dangerous driving state information of the user is outputted from the mobile terminal, At least one of the periods is changed and output,
When the dangerous driving condition information of the user is outputted from the control device of the vehicle,
An output period of the LED, an oscillation frequency of the vehicle vibration sheet, a vibration amplitude of the vehicle vibration sheet, and an output period of the vehicle vibration sheet, wherein the output period of the vehicle emergency light, the LEDs of the plurality of LEDs arranged inside and outside the vehicle, Wherein at least one of a vibration period, a vibration frequency of the vibration-steerable device of the vehicle, a vibration amplitude of the steering device, and a vibration period of the steering device is changed and output.
사용자의 특정 신체 부위에 착용되어 사용되는 이동 단말기의 제어 방법에 있어서,
타 단말기 중 상기 사용자에 대한 위험 운전 상태의 전송 대상을 결정하는 모드의 선택 입력을 받는 단계;
상기 특정 신체 부위로부터 상기 사용자에 대한 생체 정보를 획득하는 단계;
상기 생체 정보를 근거로 상기 위험 운전 상태를 검출하는 단계;
상기 모드가 자동 모드로 선택된 경우, 상기 사용자가 탑승한 차량에 구비된 영상획득장치에 의하여 획득된 상기 차량 내 탑승자에 대한 영상 정보로부터 상기 사용자의 동승자를 인식하는 단계; 및
상기 타 단말기 중 상기 동승자에 대응되는 타 단말기로 상기 사용자의 위험 운전 상태 정보를 출력시키기 위한 제어명령을 전송하는 단계를 포함하는 이동 단말기의 제어 방법.
A method of controlling a mobile terminal that is worn on a specific body part of a user,
Receiving a selection input of a mode for determining a transmission target of a dangerous driving state for the user among other terminals;
Obtaining biometric information for the user from the specific body part;
Detecting the dangerous driving condition based on the biometric information;
If the mode is selected as the automatic mode, recognizing the passenger of the user from the image information of the occupant in the vehicle obtained by the image acquisition device provided in the vehicle; And
And transmitting a control command for outputting the dangerous driving state information of the user to another terminal corresponding to the passenger of the other terminal.
KR1020140120355A 2014-09-11 2014-09-11 Mobile terminal and method for controlling the same KR101602265B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140120355A KR101602265B1 (en) 2014-09-11 2014-09-11 Mobile terminal and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140120355A KR101602265B1 (en) 2014-09-11 2014-09-11 Mobile terminal and method for controlling the same

Publications (1)

Publication Number Publication Date
KR101602265B1 true KR101602265B1 (en) 2016-03-10

Family

ID=55539295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140120355A KR101602265B1 (en) 2014-09-11 2014-09-11 Mobile terminal and method for controlling the same

Country Status (1)

Country Link
KR (1) KR101602265B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014198A1 (en) * 2020-07-13 2022-01-20 株式会社デンソー Vehicle display control device, vehicle display control system, and vehicle display control method
US20230249588A1 (en) * 2022-02-10 2023-08-10 Matthew BAYES Vehicle seat adjustment system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060072155A (en) * 2004-12-22 2006-06-27 주식회사 팬택 Wireless telecommunication terminal and method for informing drive asleep using bluetooth
KR20100084762A (en) * 2009-01-19 2010-07-28 한원흠 A drowse prevention neck-let and its fabrication method
KR20130009158A (en) * 2011-07-14 2013-01-23 에스케이플래닛 주식회사 System, apparatus and method for providing safe driving
KR20130050683A (en) * 2011-11-08 2013-05-16 현대자동차주식회사 Apparatus for warning trouble of driver and vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060072155A (en) * 2004-12-22 2006-06-27 주식회사 팬택 Wireless telecommunication terminal and method for informing drive asleep using bluetooth
KR20100084762A (en) * 2009-01-19 2010-07-28 한원흠 A drowse prevention neck-let and its fabrication method
KR20130009158A (en) * 2011-07-14 2013-01-23 에스케이플래닛 주식회사 System, apparatus and method for providing safe driving
KR20130050683A (en) * 2011-11-08 2013-05-16 현대자동차주식회사 Apparatus for warning trouble of driver and vehicles

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014198A1 (en) * 2020-07-13 2022-01-20 株式会社デンソー Vehicle display control device, vehicle display control system, and vehicle display control method
US20230249588A1 (en) * 2022-02-10 2023-08-10 Matthew BAYES Vehicle seat adjustment system and method

Similar Documents

Publication Publication Date Title
KR101659027B1 (en) Mobile terminal and apparatus for controlling a vehicle
US9530265B2 (en) Mobile terminal and vehicle control
US9869556B2 (en) Mobile terminal and control method therefor
US9800717B2 (en) Mobile terminal and method for controlling the same
US10604089B2 (en) Vehicle and method of controlling a display therein
CN105303793B (en) Use the accident of mobile terminal processing vehicle
CN104691449A (en) Vehicle control apparatus and method thereof
US20160061588A1 (en) Proximity sensor and control method thereof
KR20160128119A (en) Mobile terminal and controlling metohd thereof
KR101879334B1 (en) Apparatus for indentifying a proximity object and method for controlling the same
CN110531850A (en) Wearable device and the method for controlling it
KR101737800B1 (en) Vehicle terminal and control method thereof
JP7049453B2 (en) Seamless driver authentication using in-vehicle cameras in relation to trusted mobile computing devices
KR20160016560A (en) Wearable device and method for controlling the same
KR101659033B1 (en) Mobile terminal and method for controlling the same
KR101698102B1 (en) Apparatus for controlling vehicle and method for controlling the same
KR101602265B1 (en) Mobile terminal and method for controlling the same
CN115185080A (en) Wearable AR (augmented reality) head-up display system for vehicle
KR101578741B1 (en) Mobile terminal and method for controlling the same
KR20160023755A (en) Mobile terminal and method for controlling the same
US11568758B2 (en) Terminal
KR102220367B1 (en) Mobile terminal and method for controlling the same
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190214

Year of fee payment: 4