KR101892009B1 - User recognition apparatus and method thereof - Google Patents

User recognition apparatus and method thereof Download PDF

Info

Publication number
KR101892009B1
KR101892009B1 KR1020160092819A KR20160092819A KR101892009B1 KR 101892009 B1 KR101892009 B1 KR 101892009B1 KR 1020160092819 A KR1020160092819 A KR 1020160092819A KR 20160092819 A KR20160092819 A KR 20160092819A KR 101892009 B1 KR101892009 B1 KR 101892009B1
Authority
KR
South Korea
Prior art keywords
image
face
vehicle
memory
photographed
Prior art date
Application number
KR1020160092819A
Other languages
Korean (ko)
Other versions
KR20180010548A (en
Inventor
박민식
김민재
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020160092819A priority Critical patent/KR101892009B1/en
Publication of KR20180010548A publication Critical patent/KR20180010548A/en
Application granted granted Critical
Publication of KR101892009B1 publication Critical patent/KR101892009B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • G06K9/00248
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K28/00Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
    • B60K28/02Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0809Driver authorisation; Driver identical check
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means

Abstract

본 발명은, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 사용자 인식 장치 및 그 방법에 관한 것으로서, 본 명세서의 실시예들에 따른 사용자 인식 장치는, 카메라와; 저장부와; 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.The present invention relates to a user recognition apparatus and method for accurately recognizing a user's face even when a user's face angle changes, and a user recognition apparatus according to embodiments of the present invention includes a camera; A storage unit; Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance, And a controller for automatically registering the photographed first image in the storage unit.

Description

사용자 인식 장치 및 그 방법{USER RECOGNITION APPARATUS AND METHOD THEREOF}[0001] USER RECOGNITION APPARATUS AND METHOD THEREOF [0002]

본 발명은 사용자 인식 장치 및 그 방법에 관한 것이다. The present invention relates to a user recognition apparatus and a method thereof.

일반적으로, 개인 정보 보호나 사용자 인증 등을 위해 사용되는 생체 인식 기술에는 지문 인식, 홍채 인식, 정맥 인식 등이 있다. 이러한 생체 인식 기술 중에서도 얼굴 인식기술은 다른 생체 정보에 비해 사용자에 대해 강제성이 적으며, 비접촉식으로 거부감이 덜하기 때문에 각광을 받고 있다.In general, biometrics technologies used for personal information protection and user authentication include fingerprint recognition, iris recognition, vein recognition, and the like. Of these biometrics technologies, face recognition technology is less intrusive to users than other biometrics information, and it receives a lot of attention because it has less sense of rejection because of non-contact type.

광의의 얼굴 인식 과정은 크게 얼굴 검출과 협의의 얼굴 인식과정으로 분류할 수 있다. 이 중 얼굴 검출 과정은 입력 영상으로부터 사람의 얼굴영역을 추출하는 단계로서, 일반적인 상황에서 획득되어지는 다양한 배경과 여러 사람의 얼굴이 함께 나타날 수 있는 영상에서 인식하고자 하는 특정 사람의 얼굴을 추출하기 위해 필요한 과정이다.Wide - area face recognition process can be divided into face detection and face recognition process. The face detection process is a step of extracting a face region of a person from an input image. In order to extract a face of a specific person to be recognized in an image in which various faces acquired in a general situation and a plurality of faces can be displayed together It is a necessary process.

현재까지 연구된 얼굴 영역 검출 방법은 얼굴의 저수준 특징들을 사용하는 지식(knowledge) 기반 방법, 특정 템플릿 형태에 기반을 둔 형판(template) 기반 얼굴 검출 방법, 얼굴의 변하지 않는 구조적 특징을 사용하는 특징(feature) 기반 방법, 그리고 얼굴의 통계적인 특징을 이용한 외형(appearance) 기반 방법으로 분류할 수 있다.The face area detection method that has been studied so far includes a knowledge based method using low level features of a face, a template based face detection method based on a specific template type, a feature using unchanging structural features of a face feature-based methods, and appearance-based methods using statistical features of faces.

또한, 종래에는 얼굴인증 시 정면기준 검출만 이루어져 운전자가 탑승 후 운전자의 동작을 제한하고, 운전자 얼굴의 회전에 따른 얼굴 인증에 대응이 불가능하거나, 정면 얼굴 기준 가상 회전 데이터 제작으로 인해 얼굴 인식률이 저하되었다.In addition, conventionally, only the front reference detection is performed at the time of face authentication so that the driver restricts the operation of the driver after boarding, and it is impossible to cope with the face authentication due to the rotation of the driver's face, or the face recognition rate .

본 발명의 목적은, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 사용자 인식 장치 및 그 방법을 제공하는 데 있다.An object of the present invention is to provide a user recognition apparatus and method which can accurately recognize a user's face even if the user's face angle changes.

본 명세서의 실시예들에 따른 사용자 인식 장치는, 카메라와; 저장부와; 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.A user recognition apparatus according to embodiments of the present invention includes: a camera; A storage unit; Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance, And a controller for automatically registering the photographed first image in the storage unit.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 다수의 서로 다른 얼굴 각도에 대응하는 얼굴 이미지들을 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.In an embodiment of the present invention, the control unit may include a controller for photographing face images corresponding to a plurality of different face angles through the camera, and automatically registering the photographed face images in the storage unit .

본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 얼굴 이미지들의 서로 다른 각 얼굴 각도가 서로 다른 각 얼굴 각도에 대응하는 각 기준 허용 범위 내에 위치할 때 상기 각 기준 허용 범위 내에 위치하는 각 얼굴의 이미지를 촬영하고, 상기 각각 촬영된 이미지를 상기 저장부에 자동으로 등록할 수 있다.As an example related to the present invention, the control unit may be configured such that when each of the different facial angles of the photographed face images is within a respective reference permissible range corresponding to each of different facial angles, Images can be captured, and the photographed images can be automatically registered in the storage unit.

본 발명과 관련된 일 예로서, 상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.As an example related to the present invention, the reference permissible range may be a plurality of different reference permissible ranges corresponding to different face angles.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 제1 이미지를 상기 저장부에 일시적으로 등록할 수 있다.As an example related to the present invention, the control unit may temporarily register the photographed first image in the storage unit.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 제1 이미지를 상기 저장부에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 저장부에 등록할 수 있다.In one embodiment of the present invention, the control unit temporarily registers the photographed first image in the storage unit, and then matches the first angle when the monitored face angle is matched with the first angle within the reference tolerance range And register the captured second image in the storage unit instead of the first image.

본 발명과 관련된 일 예로서, 상기 제1 각도는 상기 기준 허용 범위에 속하는 고정 각도일 수 있다.As an example related to the present invention, the first angle may be a fixed angle belonging to the reference tolerance range.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 촬영된 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭하지 않으면 상기 특정 저장 영역에 이미 등록된 이미지를 오류 이미지로서 간주하고, 상기 오류 이미지 대신에 상기 카메라를 통해 촬영된 제1 이미지를 상기 특정 저장 영역에 등록할 수 있다.As an example related to the present invention, when the first image photographed through the camera does not match an image already registered in a specific storage area of the memory, the control unit regards the image already registered in the specific storage area as an error image And register the first image photographed by the camera in the specific storage area instead of the error image.

본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 촬영된 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 카메라를 통해 촬영된 제1 이미지를 등록할 것인지를 문의하는 메시지를 디스플레이부에 표시하고, 상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 제1 이미지를 상기 저장부에 등록할 수 있다.As an example related to the present invention, when the vehicle stops for a preset time after a point in time when a first image photographed through the camera does not match an image already registered in a specific storage area of the memory, A message inquiring whether to register a first image photographed through a camera is displayed on the display unit and the first image can be registered in the storage unit when an input requesting to register the first image is received have.

본 명세서의 실시예들에 따른 사용자 인식 방법은, 차량에 장착된 사용자 인식 장치의 사용자 인식 방법에 있어서, 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하는 단계와; 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하는 단계와; 상기 촬영된 제1 이미지를 저장부에 자동으로 등록하는 단계를 포함할 수 있다.A user recognition method according to embodiments of the present invention is a user recognition method of a user recognition device mounted on a vehicle, the method comprising: monitoring a face angle of a user in the vehicle through the camera when the vehicle is traveling; Capturing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance; And automatically registering the photographed first image in a storage unit.

본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 서로 다른 방향에서 촬영된 사용자 얼굴 이미지들을 근거로 사용자 얼굴을 인식함으로써, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있다.The user recognition apparatus and method according to embodiments of the present invention recognize a user's face based on user's face images photographed in different directions so that the user's face can be recognized accurately even if the user's face angle changes.

도 1은 본 발명의 실시예들을 설명하기 위한 차량을 나타낸 블록도 이다.
도 2는 본 발명의 실시예들을 설명하기 위한 차량(100)의 구성을 나타낸 구성도이다.
도 3은 본 발명의 실시예들에 따른 제1 및 제2 카메라의 설치 위치를 나타낸 예시도 이다.
도 4a-4b는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 예시도들이다.
도 4c-4d는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 다른 예시도들이다.
도 5는 본 발명의 실시예들에 따른 카메라의 설치 위치를 나타낸 예시도 이다.
도 6은 본 발명의 실시예에 따른 사용자 인식 방법을 나타낸 흐름도이다.
도 7은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 방법을 나타낸 예시도이다.
도 8은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 다른 방법을 나타낸 예시도이다.
도 9는 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.
도 10은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.
1 is a block diagram showing a vehicle for explaining embodiments of the present invention.
2 is a configuration diagram showing the configuration of a vehicle 100 for explaining embodiments of the present invention.
3 is an exemplary view showing installation positions of the first and second cameras according to the embodiments of the present invention.
4A-4B are exemplary diagrams illustrating first and second user face images taken according to embodiments of the present invention.
Figures 4C-4D are further illustrations of first and second user face images taken in accordance with embodiments of the present invention.
5 is an exemplary view showing an installation position of a camera according to embodiments of the present invention.
6 is a flowchart illustrating a method of recognizing a user according to an embodiment of the present invention.
7 is a diagram illustrating an example of a method of registering an operator's face image according to an exemplary embodiment of the present invention.
8 is a diagram illustrating another method of registering an operator's face image according to an embodiment of the present invention.
9 is a diagram illustrating another method of registering an operator's face image according to an exemplary embodiment of the present invention.
FIG. 10 is an exemplary view showing another method of registering an operator's face image according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar components are denoted by the same reference numerals, and redundant explanations thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

도 1은 본 발명의 실시예들을 설명하기 위한 차량을 나타낸 블록도 이다. 1 is a block diagram showing a vehicle for explaining embodiments of the present invention.

도 1에 도시한 바와 같이, 차량(100)은, 정보 제공 센터(30)로부터 교통 정보 및 각종 데이터(예를 들면, 프로그램, 실행 파일 등)를 수신하고, 원거리 무선 통신망(20) 및/또는 근거리 무선 통신망을 통해 교통 정보를 수신하고, 인공위성(10)을 통해 수신된 GPS 신호 및 상기 교통 정보를 근거로 길 안내 서비스를 제공한다. 여기서, 상기 통신망은 LAN(Local Area Network), WAN(Wide Area Network)과 같은 유무선 통신 네트워크를 더 포함할 수도 있다.1, the vehicle 100 receives traffic information and various data (for example, a program, an executable file, and the like) from the information providing center 30, and communicates with the remote wireless communication network 20 and / Receives the traffic information through the short-range wireless communication network, and provides the guidance service based on the GPS signal received through the satellite 10 and the traffic information. Here, the communication network may further include a wired / wireless communication network such as a LAN (Local Area Network) and a WAN (Wide Area Network).

상기 통신망을 통해서는 신호등 정보를 비롯한 각종 교통정보(ex: 도로 교통 정보, 관심지역 정보)가 수집되며, 수집된 정보는 정보 제공 센터(30)(예를 들면, 서버)에서 TPEG(Transport Protocol Expert Group) 규격에 따라 처리되어 방송국으로 전송된다. 이에 따라 방송국에서는 신호등 정보를 포함하는 교통정보를 방송신호에 삽입하여 차량(100)으로 방송한다.Traffic information such as traffic light information (eg, road traffic information, interest area information) is collected through the communication network and the collected information is transmitted from the information providing center 30 (for example, a server) Group) standard and transmitted to the broadcasting station. Accordingly, the broadcasting station inserts the traffic information including the traffic light information into the broadcast signal and broadcasts the traffic information to the vehicle 100.

상기 서버는 통신망에 연결된 여러 가지 경로, 예를 들어 운영자 입력, 유무선 인터넷, TDC(Transparent Data Channel), MOC(Multimedia Object Transport)와 같은 디지털 방송 서비스, 타 서버 또는 검증 카(probe car)로부터 수집되는 각종 교통정보를, 예를 들면 교통정보 서비스를 위한 규격인 TPEG(Transport ProtocolThe server is connected to various networks connected to a communication network, for example, an operator input, a wired / wireless Internet, a Transparent Data Channel (TDC), a digital broadcasting service such as a Multimedia Object Transport (MOC) Various traffic information, for example, TPEG (Transport Protocol

Expert Group) 규격에 따른 포맷과 같은 교통정보 포맷으로 재구성하여 방송국으로 전송한다.Expert Group) format and transmits it to the broadcasting station.

상기 서버는 신호등 정보를 포함하는 TPEG 규격의 교통정보 포맷을 생성하여 The server generates a traffic information format of the TPEG standard including the traffic light information

방송국으로 전송할 수 있다.To a broadcasting station.

방송국은 차량(100) 등에 탑재된 교통정보 수신 단말기, 예를 들어 내비게이션 장치가 수신할 수 있도록 서버로부터 수신한 신호등 정보를 포함하는 교통 정보를 방송신호에 실어 무선으로 송출한다. 상기 교통정보는 신호등 정보를 포함하며, 그 밖에 사고, 도로 상황, 교통 혼잡, 도로 건설, 도로 폐쇄, 공공 교통망 지연, 항공 운항 지연과 같은 도로, 해양, 항공 운항을 위해 필요한 각종 교통 조건에 대한 정보를 포함할 수 있다.A broadcasting station transmits traffic information including traffic signal information received from a server to a traffic information receiving terminal mounted on the vehicle 100, for example, a navigation device, on a broadcasting signal and wirelessly transmits the traffic information. The traffic information includes traffic light information and information on various traffic conditions necessary for roads, marine, and air navigation such as accidents, road conditions, traffic congestion, road construction, road shutdown, . ≪ / RTI >

상기 방송국은 서버로부터 처리된 신호등 정보를 포함하는 교통정보를 수신하여, 다양한 디지털 방송 규격에 따른 디지털 신호를 통해 차량(100)에 전송한다. 이 경우, 방송 규격으로는 유레카-147[ETSI EN 300 401]에 기반한 유럽향 디지털 오디오 방송 (Digital Audio Broadcasting: DAB) 규격, 지상파 또는 위성 디지털 멀티미디어 방송(Digital Multimedia Broadcasting: DMB), 지상파 디지털 비디오 방송(Digital Video Broadcasting: DVB-T) 규격, 휴대용 디지털 비디오 방송(Digital Video Broadcasting-Handheld: DVB-H) 규격, MFLO(Media Forward Link Only) 규격과 같은 각종 디지털 방송 규격을 포함한다.The broadcasting station receives traffic information including traffic signal information processed from a server, and transmits the traffic information to the vehicle 100 through a digital signal according to various digital broadcasting standards. In this case, the broadcasting standard may be a digital audio broadcasting (DAB) standard based on Eureka-147 [ETSI EN 300 401], terrestrial or satellite digital multimedia broadcasting (DMB), terrestrial digital video broadcasting A Digital Video Broadcasting (DVB-T) standard, a Digital Video Broadcasting-Handheld (DVB-H) standard, and an MFLO (Media Forward Link Only) standard.

또한, 상기 방송국은 신호등 정보를 포함하는 교통정보를 유무선 인터넷과 같은 유무선 네트워크를 통해 전송할 수 있다.Also, the broadcasting station can transmit traffic information including traffic light information through a wired / wireless network such as wired / wireless Internet.

상기 차량(100)은 일반적인 승용차, 버스, 기차, 선박, 항공기 등 사람이나 물건의 이동을 목적으로 기계, 전자 장치를 이용하여 구현된 가능한 모든 운반체를 의미한다. The vehicle 100 refers to all possible carriers that are implemented using mechanical or electronic devices for the purpose of moving people or objects, such as a general passenger car, a bus, a train, a ship, or an aircraft.

상기 차량(100)은 교통정보 수신 단말기를 탑재하며, 탑재된 교통정보 수신 단말기를 이용하여 방송국으로부터 신호등 정보를 수신하고, 신호등 정보를 처리하여, 처리된 신호등 정보를 그래픽, 텍스트 및/또는 오디오를 통해 사용자에게 전달한다.The vehicle 100 mounts a traffic information reception terminal, receives traffic light information from a broadcasting station using the installed traffic information reception terminal, processes the traffic light information, and outputs the processed traffic light information to graphics, text and / or audio To the user.

도 2는 본 발명의 실시예들을 설명하기 위한 차량(100)의 구성을 나타낸 구성도이다.2 is a configuration diagram showing the configuration of a vehicle 100 for explaining embodiments of the present invention.

도 2에 도시한 바와 같이, 차량(100)은 통신부(120), 입력부(130), 센싱부(150), 출력부(170), 차량 구동부(180), 메모리(190), 인터페이스부(196), 제어부(110), 전원부(160), 조향 장치(140), DSM(Driver Status Monitoring) 시스템 및 차량용 디스플레이 장치(195)를 포함할 수 있다.2, the vehicle 100 includes a communication unit 120, an input unit 130, a sensing unit 150, an output unit 170, a vehicle driving unit 180, a memory 190, an interface unit 196 A control unit 110, a power supply unit 160, a steering device 140, a DSM (Driver Status Monitoring) system, and a vehicle display device 195.

통신부(120)는, 차량(100)과 이동 단말기(200) 사이, 차량(100)과 외부 서버(300) 사이 또는 차량(100)과 타차량(402)과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(120)는 차량(100)을 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.The communication unit 120 is connected to the vehicle 100 and the other vehicle 300 to allow wireless communication between the vehicle 100 and the mobile terminal 200, between the vehicle 100 and the external server 300, Modules. In addition, the communication unit 120 may include one or more modules that connect the vehicle 100 to one or more networks.

통신부(120)는, 방송 수신 모듈(121), 무선 인터넷 모듈(122), 근거리 통신 모듈(123), 위치 정보 모듈(124), 광통신 모듈(125) 및 V2X 통신 모듈(126)을 포함할 수 있다.The communication unit 120 may include a broadcast receiving module 121, a wireless Internet module 122, a short distance communication module 123, a location information module 124, an optical communication module 125, and a V2X communication module 126 have.

통신부(120)는, 날씨 정보를 수신할 수 있다. 통신부(120)는, 방송 수신 모듈(121), 무선 인터넷 모듈(122) 또는 V2X 통신 모듈(126)을 통해, 외부로부터 날씨 정보를 수신할 수 있다.The communication unit 120 can receive weather information. The communication unit 120 can receive weather information from the outside through the broadcast receiving module 121, the wireless Internet module 122, or the V2X communication module 126. [

통신부(120)는 주행 도로 정보를 수신할 수 있다. 통신부(120)는, 위치 정보 모듈(124)을 통해, 차량(100)의 위치를 파악하고, 무선 인터넷 모듈(122) 또는 V2X 통신 모듈(126)을 통해, 차량(100)의 위치에 대응되는 도로 정보를 수신할 수 있다.The communication unit 120 can receive the running road information. The communication unit 120 recognizes the position of the vehicle 100 via the position information module 124 and transmits the position of the vehicle 100 corresponding to the position of the vehicle 100 via the wireless Internet module 122 or the V2X communication module 126 Road information can be received.

통신부(120)는, V2X 통신 모듈(126)을 통해, 외부 서버(300)로부터 신호등 변경 정보를 수신할 수 있다. 여기서, 외부 서버(300)는 교통을 관제하는 교통 관제소에 위치하는 서버일 수 있다.The communication unit 120 can receive the traffic light change information from the external server 300 via the V2X communication module 126. [ Here, the external server 300 may be a server located in a traffic control station that controls traffic.

방송 수신 모듈(121)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.The broadcast receiving module 121 receives broadcast signals or broadcast-related information from an external broadcast management server through a broadcast channel. Here, the broadcast includes a radio broadcast or a TV broadcast.

무선 인터넷 모듈(122)은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(122)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 122 is a module for wireless Internet access, and may be embedded in the vehicle 100 or externally. The wireless Internet module 122 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.

무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(122)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(122)은 외부 서버(300)와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(122)은 외부 서버(300)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA, WiBro World Wide Interoperability for Microwave Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), and Long Term Evolution-Advanced (LTE-A) (122) transmits and receives data according to at least one wireless Internet technology in a range including internet technologies not listed above. For example, the wireless Internet module 122 can exchange data with the external server 300 wirelessly. The wireless Internet module 122 can receive weather information and road traffic situation information (for example, TPEG (Transport Protocol Expert Group)) information from the external server 300. [

근거리 통신 모듈(123)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short-range communication module 123 is for short-range communication and may be a Bluetooth ™, a Radio Frequency Identification (RFID), an Infrared Data Association (IrDA), a UWB (Ultra Wideband) It is possible to support near-field communication using at least one of Near Field Communication (NFC), Wireless-Fidelity (Wi-Fi), Wi-Fi Direct and Wireless USB (Universal Serial Bus)

이러한, 근거리 통신 모듈(123)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(123)은 이동 단말기(200)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(123)은 이동 단말기(200)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기(200)와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.The short distance communication module 123 may form short range wireless communication networks to perform short distance communication between the vehicle 100 and at least one external device. For example, the short-range communication module 123 can exchange data with the mobile terminal 200 wirelessly. The short distance communication module 123 may receive weather information and traffic situation information (e.g., TPEG (Transport Protocol Expert Group)) from the mobile terminal 200. For example, when the user has boarded the vehicle 100, the user's mobile terminal 200 and the vehicle 100 can perform pairing with each other automatically or by execution of the user's application.

위치 정보 모듈(124)은, 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.The position information module 124 is a module for obtaining the position of the vehicle 100, and a representative example thereof is a Global Positioning System (GPS) module. For example, when the vehicle utilizes a GPS module, it can acquire the position of the vehicle using a signal sent from the GPS satellite.

광통신 모듈(125)은 광발신부 및 광수신부를 포함할 수 있다.The optical communication module 125 may include a light emitting portion and a light receiving portion.

광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.The light receiving section can convert the light signal into an electric signal and receive the information. The light receiving unit may include a photodiode (PD) for receiving light. Photodiodes can convert light into electrical signals. For example, the light receiving section can receive information of the front vehicle through light emitted from the light source included in the front vehicle.

광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(100)에 구비된 램프와 일체화될 수 있다.The light emitting unit may include at least one light emitting element for converting an electric signal into an optical signal. Here, the light emitting element is preferably an LED (Light Emitting Diode). The optical transmitter converts the electrical signal into an optical signal and transmits it to the outside. For example, the optical transmitter can emit the optical signal to the outside through the blinking of the light emitting element corresponding to the predetermined frequency. According to an embodiment, the light emitting portion may include a plurality of light emitting element arrays. According to the embodiment, the light emitting portion can be integrated with the lamp provided in the vehicle 100. [

예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. 예를 들면, 광통신 모듈(125)은 광 통신을 통해 타차량(400)과 데이터를 교환할 수 있다.For example, the light emitting portion may be at least one of a headlight, a tail light, a brake light, a turn signal lamp, and a car light. For example, the optical communication module 125 can exchange data with another vehicle 400 via optical communication.

V2X 통신 모듈(126)은, 서버(300) 또는 타차량(400)과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(126)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(126)을 통해, 외부 서버(300) 및 타 차량(400)과 무선 통신을 수행할 수 있다.The V2X communication module 126 is a module for performing wireless communication with the server 300 or the other vehicle 400. V2X module 126 includes modules capable of implementing inter-vehicle communication (V2V) or vehicle-to-infrastructure communication (V2I) protocols. The vehicle 100 can perform wireless communication with the external server 300 and the other vehicle 400 via the V2X communication module 126. [

입력부(130)는, 카메라, 운전자 조작 장치(131), 마이크로 폰(132) 및 사용자 입력부(133)를 포함할 수 있다.The input unit 130 may include a camera, a driver's operation unit 131, a microphone 132, and a user input unit 133.

마이크로 폰(132)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(132)은 사용자의 음성 명령을 전기적인 데이터로 전환하고, 그 전환된 전기적인 데이터는 제어부(110)에 전달될 수 있다.The microphone 132 can process an external sound signal as electrical data. The processed data can be utilized variously according to functions performed in the vehicle 100. The microphone 132 converts the voice command of the user into electrical data, and the converted electrical data can be transmitted to the control unit 110.

한편, 실시예에 따라, 카메라 또는 마이크로폰(132)는 입력부(130)에 포함되는 구성요소가 아닌, 센싱부(150)에 포함되는 구성요소일 수도 있다.According to the embodiment, the camera or the microphone 132 may be a component included in the sensing unit 150, not a component included in the input unit 130. [

사용자 입력부(133)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(133)를 통해, 정보가 입력되면, 제어부(110)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(133)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(133)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(133)를 조작할 수 있다.The user input unit 133 is for receiving information from a user. When information is inputted through the user input unit 133, the control unit 110 can control the operation of the vehicle 100 to correspond to the input information. The user input unit 133 may include a touch input means or a mechanical input means. According to an embodiment, the user input 133 may be located in one area of the steering wheel. In this case, the driver can operate the user input unit 133 with his / her finger while holding the steering wheel.

사용자 입력부(133)는 턴 시그널 입력을 수신할 수 있다.The user input unit 133 may receive a turn signal input.

센싱부(150)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센싱부(150)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 가속도 센서, 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 레인(rain) 센서, 조도 센서, 타이어 공기압 센서, 초음파 센서, 레이더, 라이더(LiADAR: Light Detection And Ranging), 등을 포함할 수 있다.The sensing unit 150 senses a signal relating to the running of the vehicle 100 or the like. To this end, the sensing unit 150 may include a sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight sensor, a heading sensor, a yaw sensor, an acceleration sensor, a gyro sensor a gyro sensor, a position module, a vehicle forward / backward sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a vehicle interior temperature sensor, a vehicle interior humidity sensor, A sensor, a tire air pressure sensor, an ultrasonic sensor, a radar, a light detection and ranging (LiADAR), and the like.

이에 의해, 센싱부(150)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량의 주행 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 비가 오는지에 대한 정보, 스티어링 휠 회전 각도, 주변 조도 정보, 타이어 공기압 정보, 등에 대한 센싱 신호를 획득할 수 있다.Thus, the sensing unit 150 can detect the vehicle collision information, the vehicle direction information, the vehicle position information (GPS information), the vehicle angle information, the running speed information of the vehicle, the vehicle acceleration information, It is possible to acquire a sensing signal for battery information, fuel information, tire information, vehicle lamp information, vehicle interior temperature information, vehicle interior humidity information, information on rain, steering wheel rotation angle, ambient illuminance information, tire air pressure information, have.

한편, 센싱부(150)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.The sensing unit 150 may include an acceleration pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor AFS, an intake air temperature sensor ATS, a water temperature sensor WTS, A position sensor (TPS), a TDC sensor, a crank angle sensor (CAS), and the like.

한편, 초음파 센서, 레이더 또는 라이더는, 오브젝트를 검출하고, 트래킹할 수 있다. 초음파 센서, 레이더 또는 라이더는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다.On the other hand, an ultrasonic sensor, a radar or a rider can detect and track an object. The ultrasonic sensor, the radar or the rider can calculate the distance to the detected object and the relative speed.

초음파 센서, 레이더 또는 라이더는, 위험 상황을 감지할 수 있다. 초음파 센서, 레이더 또는 라이더에 포함된 프로세서는, 오브젝트와의 거리를 기초로 위험 상황을 감지할 수 있다.Ultrasonic sensors, radar or riders can detect dangerous situations. A processor included in an ultrasonic sensor, radar or rider can detect a dangerous situation based on the distance to the object.

센싱부(150)는, 자세 감지 센서를 포함할 수 있다. 자세 감지 센서는 차량의 자세를 감지할 수 있다. 자세 감지 센서는, 차량의 자세 정보를 생성할 수 있다.The sensing unit 150 may include an orientation sensor. The attitude sensor can detect the attitude of the vehicle. The attitude detection sensor can generate attitude information of the vehicle.

자세 감지 센서는, 상술한, 요 센서, 가속도 센서, 자이로 센서, 차체 경사 감지센서를 포함할 수 있다.The attitude detection sensor may include the yaw sensor, the acceleration sensor, the gyro sensor, and the vehicle body inclination sensor described above.

센싱부(150)는, 바람 센서를 포함할 수 있다. 바람 센서는, 풍향 또는 풍속을 감지할 수 있다. 바람 센서는 풍향 정보 또는 풍속 정보를 생성할 수 있다. 바람 센서는, 초음파 풍향/풍속계(ultrasonic type wind sensor)를 포함할 수 있다. 바람 센서는 공기매질을 통해 전달되는 초음파의 전달속도가 바람에 의해 증가하거나 감소하는 성질을 이용하여 바람의 속도와 방향을 측정할 수 있다.The sensing unit 150 may include a wind sensor. The wind sensor can sense wind direction or wind speed. The wind sensor can generate wind direction information or wind velocity information. The wind sensor may include an ultrasonic type wind sensor. The wind sensor can measure the speed and direction of the wind using the property that the transmission speed of the ultrasonic wave transmitted through the air medium increases or decreases by the wind.

센싱부(150)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승객의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승객의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 내부 카메라 및 마이크로폰(132)이 센서로 동작할 수 있다. 생체 인식 정보 감지부는 내부 카메라를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다.The sensing unit 150 may include a biometric information sensing unit. The biometric information sensing unit senses and acquires the biometric information of the passenger. The biometric information may include fingerprint information, iris-scan information, retina-scan information, hand geo-metry information, facial recognition information, Voice recognition information. The biometric information sensing unit may include a sensor for sensing passenger ' s biometric information. Here, the internal camera and the microphone 132 may be operated as sensors. The biometric information sensing unit can acquire hand shape information and facial recognition information through an internal camera.

출력부(170)는, 제어부(110)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(171), 음향 출력부(172) 및 햅틱 출력부(173)를 포함할 수 있다.The output unit 170 is for outputting information processed by the control unit 110 and may include a display unit 171, an acoustic output unit 172, and a haptic output unit 173.

디스플레이부(171)는 제어부(110)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(171)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.The display unit 171 can display information processed by the control unit 110. [ For example, the display unit 171 can display the vehicle-related information. Here, the vehicle-related information may include vehicle control information for direct control of the vehicle, or vehicle driving assistance information for a driving guide to the vehicle driver. Further, the vehicle-related information may include vehicle state information indicating the current state of the vehicle or vehicle driving information related to the driving of the vehicle.

디스플레이부(171)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(eink display) 중에서 적어도 하나를 포함할 수 있다.The display unit 171 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) display, a 3D display, and an electronic ink display.

디스플레이부(171)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(133)로써 기능함과 동시에, 차량(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(171)는 터치 방식에 의하여 제어 명령을 입력받을 수 있도록, 디스플레이부(171)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(171)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(110)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The display unit 171 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen. Such a touch screen may function as a user input 133 that provides an input interface between the vehicle 100 and the user and may provide an output interface between the vehicle 100 and the user. In this case, the display unit 171 may include a touch sensor that senses a touch with respect to the display unit 171 so that a control command can be received by a touch method. When a touch is made to the display unit 171, the touch sensor senses the touch, and the control unit 110 generates a control command corresponding to the touch based on the touch. The content input by the touch method may be a letter or a number, an instruction in various modes, a menu item which can be designated, and the like.

한편, 디스플레이부(171)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.On the other hand, the display unit 171 may include a cluster so that the driver can check the vehicle state information or the vehicle driving information while driving. Clusters can be located on the dashboard. In this case, the driver can confirm the information displayed in the cluster while keeping the line of sight ahead of the vehicle.

한편, 실시예에 따라, 디스플레이부(171)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(171)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(171)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to the embodiment, the display unit 171 may be implemented as a Head Up Display (HUD). When the display unit 171 is implemented as a HUD, information can be output through a transparent display provided in the windshield. Alternatively, the display unit 171 may include a projection module to output information through an image projected on the windshield.

음향 출력부(172)는 제어부(110)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(172)는 스피커 등을 구비할 수 있다. 음향 출력부(172)는, 사용자 입력부(133) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The sound output unit 172 converts an electric signal from the control unit 110 into an audio signal and outputs the audio signal. For this purpose, the sound output unit 172 may include a speaker or the like. It is also possible for the sound output section 172 to output a sound corresponding to the operation of the user input section 133. [

햅틱 모듈(햅틱 출력부)(173)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(173)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic module (haptic output unit) 173 generates a tactile output. For example, the haptic output section 173 may operate to vibrate the steering wheel, the seat belt, and the seat so that the user can recognize the output.

차량 구동부(180)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(180)는, 조향 장치(140)로부터 제어 신호를 제공받을 수 있다. 차량 구동부(180)는 상기 제어 신호를 기초로 각 장치를 제어할 수 있다.The vehicle drive unit 180 can control the operation of various devices of the vehicle. The vehicle drive unit 180 may be provided with a control signal from the steering apparatus 140. The vehicle drive unit 180 can control each device based on the control signal.

차량 구동부(180)는 동력원 구동부(181), 조향 구동부(182), 브레이크 구동부(183), 램프 구동부(184), 공조 구동부(185), 윈도우 구동부(186), 에어백 구동부(187), 썬루프 구동부(188), 와이퍼 구동부(189) 및 서스펜션 구동부를 포함할 수 있다.The vehicle driving unit 180 includes a power source driving unit 181, a steering driving unit 182, a brake driving unit 183, a lamp driving unit 184, an air conditioning driving unit 185, a window driving unit 186, an airbag driving unit 187, A driving unit 188, a wiper driving unit 189, and a suspension driving unit.

동력원 구동부(181)는 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.The power source driving unit 181 may perform electronic control of the power source in the vehicle 100. [

예를 들면, 내연 기관의 엔진이 동력원인 경우, 동력원 구동부(181)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(181)가 엔진인 경우, 제어부(110)의 제어에 따라 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when the engine of the internal combustion engine is a power source, the power source driving section 181 can perform electronic control on the engine. Thus, the output torque of the engine and the like can be controlled. When the power source driving unit 181 is an engine, the speed of the vehicle can be limited by limiting the engine output torque under the control of the control unit 110. [

다른 예로, 전기 기반의 모터가 동력원인 경우, 동력원 구동부(181)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when the electric-based motor is a power source, the power source driving section 181 can perform control on the motor. Thus, the rotation speed, torque, etc. of the motor can be controlled.

동력원 구동부(181)는, 조향 장치(140)로부터 가속 제어 신호를 수신할 수 있다. 동력원 구동부(181)는 수신된 가속 제어 신호에 따라 동력원을 제어할 수 있다.The power source drive section 181 can receive the acceleration control signal from the steering apparatus 140. [ The power source driving unit 181 can control the power source in accordance with the received acceleration control signal.

조향 구동부(182)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The steering driver 182 may perform electronic control of the steering apparatus in the vehicle 100. Thus, the traveling direction of the vehicle can be changed.

조향 구동부(182)는 조향 장치(140)로부터 스티어링 제어 신호를 수신할 수 있다.The steering driver 182 may receive the steering control signal from the steering device 140. [

조향 구동부(182)는 수신된 스티어링 제어 신호에 따라 조향되도록 조향 장치를 제어할 수 있다.The steering driver 182 may control the steering device to be steered according to the received steering control signal.

브레이크 구동부(183)는 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크(또는 브레이크 장치)의 동작을 제어하여, 차량(100)의 속도를 줄이거나, 차량을 움직이지 못하게 할 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크(브레이크 장치)의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다. 브레이크 구동부(183)는 조향 장치(140)로부터 감속 제어 신호를 수신할 수 있다. 브레이크 구동부(183)는 수신된 감속 제어 신호에 따라 브레이크 장치를 제어할 수 있다.The brake driver 183 may perform electronic control of the brake apparatus in the vehicle 100. [ For example, it is possible to control the operation of the brake (or brake device) disposed on the wheel, thereby reducing the speed of the vehicle 100 or preventing the vehicle from moving. As another example, it is possible to adjust the traveling direction of the vehicle 100 to the left or right by differently operating the brakes (brake devices) respectively disposed on the left wheel and the right wheel. The brake driver 183 may receive the deceleration control signal from the steering device 140. [ The brake driver 183 may control the brake device in accordance with the received deceleration control signal.

램프 구동부(184)는, 차량에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driver 184 can control the turn-on / turn-off of the lamp disposed in the vehicle. Also, the intensity, direction, etc. of the light of the lamp can be controlled. For example, it is possible to perform control on a direction indicating lamp, a brake lamp, and the like.

공조 구동부(185)는 차량(100) 내의 공조 장치(air conditioner)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.The air conditioning driving unit 185 may perform electronic control on the air conditioner in the vehicle 100. For example, when the temperature inside the vehicle is high, the air conditioner can be operated to control the cool air to be supplied to the inside of the vehicle.

윈도우 구동부(186)는 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.The window driving unit 186 may perform electronic control of a window apparatus in the vehicle 100. [ For example, it is possible to control the opening or closing of the side of the vehicle with respect to the left and right windows.

에어백 구동부(187)는 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.The airbag drive 187 may perform electronic control of the airbag apparatus in the vehicle 100. [ For example, in case of danger, the airbag can be controlled to fire.

썬루프 구동부(188)는 차량(100) 내의 썬루프 장치(sunroof apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The sunroof driving unit 188 may perform electronic control of the sunroof apparatus in the vehicle 100. [ For example, the opening or closing of the sunroof can be controlled.

서스펜션 구동부는, 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다. 서스펜션 구동부는, 조향 장치(140)로부터 서스펜션 제어 신호를 수신할 수 있다. 서스펜션 구동부는 수신된 서스펜션 제어 신호에 따라 서스펜션 장치를 제어할 수 있다.The suspension driving unit may perform electronic control of suspension apparatus in the vehicle 100. [ For example, when there is a curvature on the road surface, it is possible to control the suspension device so as to reduce the vibration of the vehicle 100. [ The suspension driving section can receive the suspension control signal from the steering apparatus 140. [ The suspension driving unit may control the suspension device according to the received suspension control signal.

메모리(190)는 제어부(110)와 전기적으로 연결된다. 메모리(190)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(190)는 제어부(110)의 처리 또는 제어를 위한 프로그램 등, 차량(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The memory 190 is electrically connected to the control unit 110. The memory 190 may store basic data for the unit, control data for controlling the operation of the unit, and input / output data. The memory 190 may store various data for operation of the vehicle 700, such as a program for processing or controlling the control unit 110. [

메모리(190)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량(100)은 인터넷(internet)상에서 상기 메모리(190)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The memory 190 may be a flash memory type, a hard disk type, a solid state disk type, an SDD type (Silicon Disk Drive type), a multimedia card micro type ), Card type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read memory, a programmable read-only memory (PROM), a magnetic memory, a magnetic disk, and / or an optical disk. The vehicle 100 may be operated in association with a web storage that performs the storage function of the memory 190 on the Internet.

메모리(190)는 제어부(110)와 일체화되게 형성될 수 있다.The memory 190 may be formed integrally with the controller 110.

인터페이스부(196)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(196)는 이동 단말기(200)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(200)와 연결할 수 있다. 이경우, 인터페이스부(196)는 이동 단말기(200)와 데이터를 교환할 수 있다.The interface unit 196 may serve as a pathway to various kinds of external devices connected to the vehicle 100. For example, the interface unit 196 may include a port that can be connected to the mobile terminal 200, and may be connected to the mobile terminal 200 through the port. In this case, the interface unit 196 can exchange data with the mobile terminal 200.

한편, 인터페이스부(196)는 연결된 이동 단말기(200)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(200)가 인터페이스부(196)에 전기적으로 연결되는 경우, 제어부(110)의 제어에 따라, 인터페이스부(196)는 전원부(160)에서 공급되는 전기 에너지를 이동 단말기(200)에 제공한다.Meanwhile, the interface unit 196 may serve as a path for supplying electrical energy to the connected mobile terminal 200. The interface unit 196 provides the electric energy supplied from the power supply unit 160 to the mobile terminal 200 under the control of the control unit 110 when the mobile terminal 200 is electrically connected to the interface unit 196 do.

인터페이스부(196)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(196)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 차량(100)에서는, 상기 인터페이스부(196)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 196 serves as a pathway to various kinds of external devices connected to the vehicle 100. The interface unit 196 is connected to a device having a wired / wireless headset port, an external charger port, a wired / wireless data port, a memory card port, And may include at least one of a port, an audio I / O port, a video I / O port, and an earphone port. In the vehicle 100, corresponding to the connection of the external device to the interface 196, it is possible to perform appropriate control relating to the connected external device.

제어부(110)는 차량(100) 내의 각 유닛, 장치, 또는 각 구송요소의 전반적인 동작을 제어할 수 있다.The control unit 110 can control the overall operation of each unit, device, or each feed element in the vehicle 100. [

제어부(110)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 제어부(110)는 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(microcontrollers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The control unit 110 may be referred to as an ECU (Electronic Control Unit). The controller 110 may be implemented in hardware as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs) ), Controllers, microcontrollers, microprocessors, and other electronic units for performing other functions.

전원부(160)는, 제어부(110)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(160)는 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 160 can supply power necessary for the operation of each component under the control of the control unit 110. [ In particular, the power supply unit 160 can receive power from a battery (not shown) in the vehicle.

조향 장치(140)는 제어부(110)와 데이터를 교환할 수 있다. 조향 장치(140)에서 생성되는 각종 정보, 데이터 또는 제어 신호는 제어부(110)로 출력될 수 있다. The steering apparatus 140 can exchange data with the control unit 110. [ The various information, data, or control signals generated by the steering apparatus 140 may be output to the controller 110.

상기 차량(100)은 DSM(Driver Status Monitoring) 시스템(미도시)을 더 포함할 수 있다.The vehicle 100 may further include a Driver Status Monitoring (DSM) system (not shown).

DSM(Driver Status Monitoring) 시스템은, 운전자 상태를 감지하고, 운전자 상태에 따라 차량(100)을 제어하는 시스템이다. DSM 시스템은 내부 카메라, 마이크로 폰 등의 입력장치를 포함할 수 있다.The DSM (Driver Status Monitoring) system is a system that detects the driver's state and controls the vehicle 100 according to the driver's state. The DSM system may include an input device such as an internal camera, a microphone, and the like.

DSM 시스템은, 운전자가 전방을 응시하는지, 졸고 있는지, 음식물을 섭취하는지, 디바이스를 조작하는지 등의 운전자 상태를 감지할 수 있다. 또한, DSM시스템은, 주행 시 운전자의 운전 집중도를 감지할 수 있다.The DSM system can sense driver conditions such as whether the driver looks ahead, is sleeping, consumes food, manipulates the device, and the like. In addition, the DSM system can detect the driving concentration of the driver during driving.

DSM 시스템은, PPG(Photoplenthysmogram)센서를 포함할 수 있다. PPG 센서는, 사용자(예를 들면, 운전자) 신체와 접촉이 가능한 스티어링 휠 일 영역에 배치될 수 있다. PPG 센서는 스티어링 휠 림의 일 영역에 배치될 수 있다. DSM 시스템은, PPG 센서를 통해 운전자의 생체 신호를 획득하여 분석할 수 있다.The DSM system may include a PPG (Photoplethysmogram) sensor. The PPG sensor may be disposed in a region of the steering wheel that is in contact with the user (e.g., driver) body. The PPG sensor may be disposed in one region of the steering wheel rim. The DSM system can acquire and analyze the driver's bio-signal through the PPG sensor.

예를 들면, DSM 시스템은, 생체 신호를 획득하여, 운전자 상태 정보로 운전자의 몸 상태 정보를 생성할 수 있다.For example, the DSM system can acquire the biological signal and generate the driver's body condition information using the driver's condition information.

예를 들면, DSM 시스템은, 생체 정보를 획득하여, 운전자 상태 정보로 운전자의 흥분 상태 정보를 생성할 수 있다.For example, the DSM system can acquire biometric information and generate driver's excitement status information using driver status information.

예를 들면, DSM 시스템은, 내부 카메라에서 획득된 운전자 이미지를 분석하여, 운전자 상태 정보로 운전자의 졸음 상태 정보를 생성할 수 있다.For example, the DSM system can analyze the driver image acquired from the internal camera and generate driver's drowsiness status information using driver status information.

예를 들면, DSM 시스템은, 내부 카메라에서 획득된 운전자 이미지를 분석하여, 운전자 디바이스 조작 상태 정보를 생성할 수 있다.For example, the DSM system can analyze the driver image acquired from the internal camera and generate driver device operation status information.

DSM 시스템은, 운전자 상태 정보를 조향 장치(140)에 제공할 수 있다.The DSM system can provide driver status information to the steering device 140. [

차량용 디스플레이 장치(195)는 제어부(110)와 데이터를 교환할 수 있다. 제어부(110)는 차량용 디스플레이 장치(195) 또는 별도의 내비게이션 장치(미도시)로부터 내비게이션 정보를 수신할 수 있다. 여기서, 여기서, 내비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보 또는 차량 위치 정보를 포함할 수 있다.The vehicle display device 195 can exchange data with the control unit 110. [ The control unit 110 may receive navigation information from the vehicle display device 195 or a separate navigation device (not shown). Here, the navigation information may include set destination information, route information according to the destination, map information about the vehicle driving, or vehicle location information.

한편, 본 발명과 관련된 차량(100)은 다양한 램프를 포함할 수 있다. 상기 다양한 램프는, 예를 들어, 차량의 전방으로 가시광(빛)을 조사하도록 형성된 헤드램프(head lamp), 차량의 후방으로 가시광(빛)을 조사하도록 형성된 리어램프(rear lamp), 방향 지시 램프 등을 포함할 수 있다.Meanwhile, the vehicle 100 related to the present invention may include various lamps. The various lamps include, for example, a head lamp formed to irradiate visible light (light) to the front of the vehicle, a rear lamp configured to irradiate visible light (light) to the rear of the vehicle, And the like.

상기 리어 램프는 전조등, 브레이크 장치가 작동되는 경우 발광하는 브레이크 램프 및 방향 지시 램프가 하나 또는 그 이상이 조합되어 형성될 수 있다. 상기 리어 램프는, 다양한 기능을 수행하는 램프들이 조합되어 있다는 측면에서 볼 때, 리어 콤비네이션 램프(Rear Combination Lamp)(부, 모듈)로 명명될 수 있다. The rear lamp may be formed of one or more of a head lamp, a brake lamp that emits light when the brake device is operated, and a direction indicating lamp. The rear lamp may be referred to as a rear combination lamp (sub-module) in view of the combination of lamps that perform various functions.

이하에서는, 차량(100) 내의 서로 다른 방향에서 촬영된 사용자(예를 들면, 운전자) 얼굴 이미지들의 특징점들(특징 영역들)을 검출하고, 상기 검출한 특징점들을 근거로 사용자를 인식하고, 상기 인식된 사용자에 연관된 다양한 서비스 및/또는 콘텐츠 등을 제공할 수 있는 사용자 인식 장치 및 그 방법을 설명한다. 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 이동 통신 단말기(200), 텔레매틱스 단말기, 내비게이션(차량 내비게이션) 장치, 텔레비전 등에 다양하게 적용될 수 있다. Hereinafter, the feature points (feature areas) of face images of users (e.g., driver) photographed in different directions in the vehicle 100 are detected, the user is recognized based on the detected feature points, A user recognition apparatus and a method thereof capable of providing various services and / The user recognition apparatus and method according to embodiments of the present invention can be variously applied to the mobile communication terminal 200, the telematics terminal, the navigation (vehicle navigation) device, the television, and the like.

도 3은 본 발명의 실시예들에 따른 제1 및 제2 카메라의 설치 위치를 나타낸 예시도 이다. 3 is an exemplary view showing installation positions of the first and second cameras according to the embodiments of the present invention.

도 3에 도시한 바와 같이, 상기 제1 카메라(301)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치될 수 있고, 상기 사용자(예를 들면, 운전자)의 얼굴을 위 방향(제1 방향)에서 촬영(캡처)할 수 있다. 상기 제2 카메라(302)는, 차량의 클러스터, 대시보드(Dashboard) 또는 윈드쉴드(Wind Shield) 하단부 등에 고정되게 설치될 수 있고, 상기 사용자(예를 들면, 운전자)의 얼굴을 아래 방향(제2 방향)에서 촬영(캡처)할 수 있다. 3, the first camera 301 may be fixedly mounted on a ceiling of a vehicle or a side surface of a room mirror, and may face the user (for example, a driver) (Capturing) in a direction (direction). The second camera 302 may be fixedly installed on a cluster of a vehicle, a dashboard or a lower end of a windshield, and may face the user (for example, a driver) (Two directions).

상기 제어부(110)는 차량의 잠금 해제 신호가 상기 통신부(120)를 통해 수신되거나, 운전자가 운전석에 착석할 때 운전석에 장착된 운전자 감시 센서로부터 발생하는 운전자 감지 신호를 근거로 상기 제1 카메라(301) 및 상기 제2 카메라(302)를 제어(예를 들면, 턴-온)할 수 있다. The control unit 110 controls the first camera (not shown) based on a driver detection signal generated from a driver's surveillance sensor mounted on the driver's seat when a driver's unlock signal is received through the communication unit 120, 301) and the second camera 302 (for example, turn on).

상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 의해 미리설정된 설정 정보(차량 정보)를 근거로 상기 차량의 운전석 좌석의 자세(위치), 핸들(steering wheel)의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등을 자동 제어할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 좌석 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 좌석 자세 정보를 근거로 상기 차량의 운전석 좌석의 자세를 제어하기 위한 구동부를 제어한다. 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 사이드 미러 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 사이드 미러 자세 정보를 근거로 상기 사이드 미러의 자세(위치)를 제어하기 위한 구동부를 제어한다. The control unit 110 recognizes the user (e.g., a driver) based on the first and second user face images, and based on the setting information (vehicle information) preset by the recognized user, The position of the driver's seat in the driver's seat, the height of the steering wheel, the side mirror, and the room mirror. For example, the control unit 110 reads out the seat posture information previously set by the recognized user from the memory 190, and based on the read seat posture information, As shown in FIG. The control unit 110 reads the side mirror posture information previously set by the recognized user from the memory 190 and determines the posture of the side mirror based on the read side mirror posture information And controls a driving unit for controlling the driving unit.

상기 제어부(110)는 상기 제1 및/또는 제2 사용자 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 연관된 콘텐츠(예를 들면, 사진, 동영상, 내비게이션 정보 등)을 차량용 인포테인먼트 시스템(in-vehicle infotainment system)을 통해 제공하거나 통신망을 통해 수신할 수 있다. The control unit 110 recognizes the user (e.g., a driver) based on the first and / or second user face images, and displays contents (e.g., photographs, moving images, Information, etc.) may be provided via an in-vehicle infotainment system or via a communication network.

상기 제1 카메라(301)는 사용자(예를 들면, 운전자)의 얼굴을 제1 방향(예를 들면, 사용자 얼굴의 위 방향)에서 촬영(캡처)한 제1 사용자 얼굴 이미지를 상기 제어부(110)에 출력한다. 예를 들면, 상기 제1 카메라(301)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치되, 상기 사용자(예를 들면, 운전자)의 얼굴을 위 방향(제1 방향)에서 촬영(캡처)한다. The first camera 301 transmits a first user's face image obtained by capturing (capturing) a face of a user (for example, a driver) in a first direction (for example, . For example, the first camera 301 is fixedly installed on a ceiling of a vehicle or on a side of a room mirror, and photographs the face of the user (for example, a driver) in an upward direction (first direction) )do.

상기 제2 카메라(302)는 사용자(예를 들면, 운전자)의 얼굴을 제2 방향(예를 들면, 사용자 얼굴의 아래 방향)에서 촬영(캡처)한 제2 사용자 얼굴 이미지를 상기 제어부(110)에 출력한다. 예를 들면, 상기 제2 카메라(302)는, 차량의 클러스터, 데쉬보드, 윈드쉴드 하단부 등에 고정되게 설치되고, 상기 사용자(예를 들면, 운전자)의 얼굴을 아래 방향(제2 방향)에서 촬영(캡처)한다. The second camera 302 transmits a second user face image obtained by capturing (capturing) the face of a user (e.g., a driver) in a second direction (e.g., downward direction of the user's face) . For example, the second camera 302 is fixedly installed on a vehicle cluster, a dashboard, a windshield lower end, etc., and detects the face of the user (for example, a driver) (Capture).

상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지의 공통 특징점(들) 및 비공통 특징점(들)을 검출한다. 예를 들면, 상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지 각각에서 얼굴의 기본 특징점인 눈, 코, 입 등의 위치(2차원 좌표)를 검출한다. 상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지의 기본 특징점을 근거로 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 이미지가 얼굴 이미지인지 아닌지를 구분할 수 있다.The controller 110 detects common feature point (s) and non-common feature point (s) of the first and second user face images. For example, the controller 110 detects positions (two-dimensional coordinates) of eye, nose, mouth, etc. as basic feature points of a face in each of the first and second user face images. The control unit 110 can distinguish whether the images photographed by the first and second cameras 301 and 302 are face images based on the basic feature points of the first and second user face images.

상기 제어부(110)는, 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 이미지가 얼굴 이미지이면, 상기 제1 및 제2 사용자 얼굴 이미지에서 얼굴의 고유 특징점(들)을 검출한다. 상기 얼굴의 고유 특징점(들)은 코끝을 기준으로 눈의 시작 위치, 눈의 큰 위치, 눈썹 위치, 눈썹 형상, 입술, 턱선, 인중, 수염, 점, 흉터 등과 같은 얼굴의 특정 부분이 될 수 있으며, 이는 이미 공지된 특징 검출기(Feature detector) 등을 이용해서 검출 가능하다.The control unit 110 detects intrinsic feature points (s) of the face from the first and second user face images, if the image photographed by the first and second cameras 301 and 302 is a face image. The characteristic feature point (s) of the face may be a specific part of the face such as the starting position of the eye, the large position of the eye, the eyebrow position, the eyebrow shape, the lip, the jaw line, the eye, the whisker, , Which can be detected using a known feature detector or the like.

상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들과 상기 제2 사용자 얼굴 이미지의 고유 특징점들 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. The control unit 110 detects intrinsic feature points (matching intrinsic feature points) common to the intrinsic feature points of the first user face image and the second user face image.

상기 제어부(110)는 상기 검출된 공통 고유 특징점들(공통 고유 특징 영역들)에 대한 위치를 검출한다. 예를 들면, 상기 제어부(110)는 스테레오 매칭 기법 등을 이용해서 상기 검출된 공통 고유 특징점들에 대한 3차원의 좌표(실제 공간 좌표계)를 구한다. The controller 110 detects a position of the detected common intrinsic feature points (common intrinsic feature regions). For example, the control unit 110 obtains three-dimensional coordinates (actual spatial coordinate system) of the detected common inherent characteristic points using a stereo matching technique or the like.

상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들과 상기 제2 사용자 얼굴 이미지의 고유 특징점들 중에서 서로 비공통인 고유 특징점들(정합 불가능한 고유 특징점들)(비공통 고유 특징 영역들)의 위치를 검출한다. 예를 들면, 상기 제어부(110)는 상기 검출된 비공통 고유 특징점들에 대한 2차원 좌표(이미지 좌표계)만을 구한다. The control unit 110 generates unique feature points (non-common intrinsic feature points) (non-common intrinsic feature regions) that are uncommon among the intrinsic feature points of the first user face image and the second user face image, As shown in FIG. For example, the controller 110 obtains only the two-dimensional coordinates (image coordinate system) of the detected non-common unique feature points.

도 4a-4b는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 예시도로서, 사용자가 똑바른 자세를 취했을 때 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸다. Figures 4A-4B illustrate first and second user face images taken according to embodiments of the present invention, illustrating first and second user face images taken when the user is in a straight posture.

도 4a-4b에 도시한 바와 같이, 상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들(4-1)과 상기 제2 사용자 얼굴 이미지의 고유 특징점들(4-2) 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. As shown in FIGS. 4A and 4B, the controller 110 determines whether common feature points 4-1 of the first user face image 4-1 and unique feature points 4-2 of the second user face image are common to each other (Inherent feature points that can be matched).

도 4c-4d는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 다른 예시도로서, 사용자가 똑바른 자세를 취하지 않고, 특정 방향으로 얼굴을 돌렸을 때 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸다. FIGS. 4C-4D are diagrams showing another example of the first and second user face images taken according to the embodiments of the present invention. In this case, And a second user face image.

도 4c-4d에 도시한 바와 같이, 상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들(4-3)과 상기 제2 사용자 얼굴 이미지의 고유 특징점들(4-4) 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. As shown in FIGS. 4C-4D, the controller 110 determines whether or not the intrinsic feature points 4-3 of the first user face image and the intrinsic feature points 4-4 of the second user face image are common to each other (Inherent feature points that can be matched).

상기 제어부(110)는, 상기 제1 사용자 얼굴 이미지의 공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제1 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제1 차이값을 구하고, 상기 제2 사용자 얼굴 이미지의 공통 고유 특징점들 간의 거리 값들과 상기 메모리(110)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제2 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제2 차이값을 구하고, 상기 제1 차이값과 제2 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식한다. The controller 110 may calculate distances between common intrinsic feature points of the first user face image and unique feature points of the user face previously stored in the memory 190 The distance values between the common intrinsic feature points of the second user face image and the intrinsic feature points of the user face previously stored in the memory 110 The feature points of the user's face previously photographed in two directions), and if the average value of the first difference value and the second difference value is less than a preset reference value, The user who is photographed by the cameras 301 and 302 is recognized as an authenticated user.

상기 제어부(110)는, 상기 제1 사용자 얼굴 이미지의 비공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제1 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제3 차이값을 구하고, 상기 제2 사용자 얼굴 이미지의 비공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제2 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제4 차이값을 구하고, 상기 제3 차이값과 제4 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다.The controller 110 may calculate distance values between the uncommon intrinsic feature points of the first user face image and unique feature points of the user face previously stored in the memory 190 Of the second user facial image and the distance values between the distance values between the uncommon intrinsic feature points of the second user facial image and the unique feature points The feature points of the user's face photographed in the second direction), and if the average value of the third difference value and the fourth difference value is less than a preset reference value, The user photographed by the second camera 301 or 302 may be recognized as an authenticated user.

상기 제어부(110)는, 상기 제1 내지 제4 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다. 즉, 상기 제어부(110)는 상기 검출한 공통 및 비공통 특징점들을 미리저장된 다수의 사용자 특징점들과 비교하고, 그 비교 결과를 근거로 상기 사용자를 인증된 사용자인 것으로 인식한다.If the average value of the first to fourth difference values is less than a preset reference value, the control unit 110 may recognize that the user photographed by the first and second cameras 301 and 302 is an authenticated user have. That is, the controller 110 compares the detected common and non-common feature points with a plurality of user feature points stored in advance, and recognizes the user as an authenticated user based on the comparison result.

상기 제어부(110)는 수학식 1을 통해 제1 및 제2 얼굴 이미지의 고유 특징점들과 상기 미리저장된 고유 특징점들 간의 유사도(K)를 구할 수도 있다. The controller 110 may calculate the similarity K between the unique feature points of the first and second face images and the previously stored unique feature points using Equation (1).

Figure 112016071117277-pat00001
Figure 112016071117277-pat00001

여기서, di는 제1 또는 제2 사용자 얼굴 이미지의 고유 특징점들간의 거리값을 나타내며, ei 는 제2 또는 제1 사용자 얼굴 이미지의 고유 특징점들간의 거리값을 나타내며, Di는 제1 또는 제2 사용자 얼굴 이미지의 미리저장된 고유 특징점들간의 거리값을 나타내며, Ei 는 제2 또는 제1 사용자 얼굴 이미지의 미리저장된 고유 특징점들간의 거리값을 나타낸다. ai, bj는 각각 3차원, 2차원에 대응하는 상수값으로서, 설계자의 의도에 따라 변경될 수 있다. Here, d i represents a distance value between unique feature points of the first or second user face image, and e i D i represents a distance value between pre-stored unique feature points of the first or second user face image, E i Quot; represents a distance value between pre-stored unique feature points of the second or first user face image. a i and b j are constant values corresponding to three-dimensional and two-dimensional, respectively, and can be changed according to the designer's intention.

상기 제어부(110)는 상기 고유 특징점들간의 거리(di, ei)와 상기 미리저장된 고유 특징점들간의 거리(Di, Ei)와의 차이를 구하고, 이 차이 절대값의 평균값을 더함으로써 상기 유사도(K)를 구하고, 상기 유사도(K)가 미리 정의된 문턱치(Threshold)보다 높을 때만 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다. The controller 110 obtains the difference between the distances d i and e i between the intrinsic feature points and the distance D i and E i between the intrinsic feature points previously stored, The similarity degree K may be obtained and the user photographed by the first and second cameras 301 and 302 may be recognized as an authenticated user only when the similarity degree K is higher than a predefined threshold value .

따라서, 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 사용자가 똑바른 자세를 취하지 않고, 어느 방향으로 얼굴을 돌려도, 최소한 얼굴의 한쪽면을 획득할 수 있기에 고유 특징을 통한 신뢰성 있는 사용자 인증을 수행할 수 있다. Therefore, the user recognition apparatus and method according to embodiments of the present invention can acquire one face of a face at least irrespective of the direction in which the user faces, without taking a straight posture, User authentication can be performed.

이하에서는, 차량의 클러스터, 대쉬보드 등에 설치된 하나의 카메라(또는 다수의 카메라)를 사용하여 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 다른 사용자 인식 장치 및 그 방법을 설명한다. 예를 들면, 운전자가 차량 운행 중일 때 운전자의 자유로운 얼굴 포즈 정보를 모니터링하여 다양한 각도에서의 얼굴 이미지를 사용자 얼굴 인증 데이터베이스(DB)에 자동으로 등록 및 삭제하고, 얼굴 인식 학습을 통한 최적 사용자 얼굴 인증 데이터베이스를 업데이트하는 방법을 설명한다.Hereinafter, another user recognizing apparatus and method for accurately recognizing a user's face even if the face angle of the user changes using one camera (or a plurality of cameras) installed in a cluster of vehicles or a dashboard will be described. For example, when a driver is operating a vehicle, free face pose information of a driver is monitored to automatically register and delete face images at various angles in a user face authentication database (DB) Describes how to update the database.

도 5는 본 발명의 실시예들에 따른 카메라의 설치 위치를 나타낸 예시도 이다. 5 is an exemplary view showing an installation position of a camera according to embodiments of the present invention.

도 5에 도시한 바와 같이, 상기 카메라(501)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치되거나, 차량의 클러스터, 대시보드(Dashboard) 또는 윈드쉴드(Wind Shield) 하단부 등에 고정되게 설치될 수 있다.5, the camera 501 may be fixedly installed on a ceiling of a vehicle or a side surface of a room mirror, or may be fixedly installed on a lower portion of a cluster, a dashboard, or a wind shield of a vehicle .

도 6은 본 발명의 실시예에 따른 사용자 인식 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a method of recognizing a user according to an embodiment of the present invention.

먼저, 상기 제어부(110)는 차량의 잠금 해제 신호가 상기 통신부(120)를 통해 수신되거나, 운전자가 운전석에 착석할 때 운전석에 장착된 운전자 감시 센서로부터 발생하는 운전자 감지 신호를 근거로 상기 카메라(501))를 제어(예를 들면, 턴-온)할 수 있다. First, the controller 110 controls the camera (not shown) based on a driver detection signal generated from a driver's surveillance sensor mounted on the driver's seat when a driver's unlock signal is received through the communication unit 120, 501) can be controlled (for example, turned on).

상기 제어부(110)는 상기 카메라(501)를 통해 운전자의 얼굴을 촬영하고, 그 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지를 비교함으로써 운전자 얼굴을 검증한다(S11). 예를 들면, 상기 제어부(110)는 상기 카메라(501)를 통해 운전자의 얼굴을 촬영하고, 그 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지를 비교하고, 그 비교결과 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭하는지를 결정한다.The control unit 110 photographs the face of the driver through the camera 501, and compares the photographed face image with the face image registered in advance (S11). For example, the control unit 110 photographs the driver's face through the camera 501, compares the photographed face image with a previously registered face image, and compares the photographed face image with the registered face image in advance And determines whether the facial images match each other.

상기 제어부(110)는 상기 얼굴 검증 결과를 근거로 차량의 운전석에 착석한 사용자가 유효한 운전자인지 여부를 검출한다(S12). 예를 들면, 상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되면 차량의 운전석에 착석한 사용자가 유효한 운전자인 것으로 결정하고, 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되지 않으면 차량의 운전석에 착석한 사용자가 유효하지 않은 운전자인 것으로 결정한다.The controller 110 detects whether the user who is seated in the driver's seat of the vehicle is a valid driver based on the face verification result (S12). For example, when the photographed face image and the previously registered face image are matched with each other, the control unit 110 determines that the user who is seated in the driver's seat of the vehicle is a valid driver, If the images do not match each other, it is determined that the user who is seated in the driver's seat of the vehicle is an invalid driver.

상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되지 않으면 상기 촬영된 얼굴 이미지를 새로운 얼굴 이미지로서 등록할 수도 있으며, 이를 도 7 및 도 8을 참조하여 설명한다.The control unit 110 may register the photographed face image as a new face image if the photographed face image and the previously registered face image do not match with each other, and will be described with reference to FIGS. 7 and 8. FIG.

도 7은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 방법을 나타낸 예시도이다.7 is a diagram illustrating an example of a method of registering an operator's face image according to an exemplary embodiment of the present invention.

도 7에 도시한 바와 같이, 상기 제어부(110)는 상기 카메라(501)를 통해 정중앙 얼굴 이미지(e), 중앙위 얼굴 이미지(b), 중앙아래 얼굴 이미지(h), 왼쪽위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 미리 등록할 수 있다.7, the control unit 110 controls the camera 501 to receive the center image f, the central bottom face image b, the center lower face image h, the upper left face image a, , A left center face image (d), a left lower face image (g), a right upper face image (c), a right center face image (f), and a lower right face image (i) Can be registered in the memory 190 in advance.

상기 제어부(110)는 메모리(190)에 등록된 이미지가 전혀 존재하지 않을 때 운전자가 차량에 탑승하면 운전자의 얼굴을 메모리(190)에 등록한다. 예를 들면, 상기 제어부(110)는 메모리(190)의 특정 저장 영역(7-1)에 등록된 얼굴 이미지가 전혀 존재하지 않을 때 운전자가 차량에 탑승하면 운전자의 얼굴을 메모리(190)에 등록하기 위해 얼굴 등록 안내 메시지(예를 들면, 정면을 보세요~)를 디스플레이부(171, 195)에 표시하고, 얼굴 등록 안내 메시지에 따라 얼굴을 촬영하고, 그 촬영된 얼굴 이미지(7-2)를 식별 정보(예를 들면, 촬영된 얼굴에 대응하는 고유 이름, 번호 등)와 함께 메모리(190)에 등록(저장)한다.The control unit 110 registers the face of the driver in the memory 190 when the driver boarded the vehicle when no image registered in the memory 190 exists at all. For example, when the face image registered in the specific storage area 7-1 of the memory 190 is not present at all, the controller 110 registers the face of the driver in the memory 190 The face registration guide message (for example, see front) is displayed on the display units 171 and 195, the face is photographed in accordance with the face registration guide message, and the photographed face image 7-2 (Stored) in the memory 190 together with identification information (e.g., unique name, number, etc. corresponding to the photographed face).

반면, 상기 제어부(110)는 상기 촬영된 얼굴 이미지(예를 들면, 정중앙 얼굴 이미지)와 미리등록된 얼굴 이미지(예를 들면, 미리등록된 정중앙 얼굴 이미지)가 서로 매칭되지 않으면 상기 촬영된 얼굴 이미지를 새로운 얼굴 이미지로서 등록할 수도 있다.On the other hand, if the photographed face image (for example, the center face image) and the registered face image (for example, the registered central face image in advance) do not match each other, May be registered as a new face image.

도 8은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 다른 방법을 나타낸 예시도이다.8 is a diagram illustrating another method of registering an operator's face image according to an embodiment of the present invention.

도 8에 도시한 바와 같이, 상기 제어부(110)는 상기 카메라(501)를 통해 정중앙 얼굴 이미지(e), 중앙위 얼굴 이미지(b), 중앙 아래 얼굴 이미지(h), 왼쪽 위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽 아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 미리 등록할 수 있다.8, the control unit 110 controls the camera 501 to receive the center image f, the central bottom face image b, the center lower face image h, the upper left face image a, , A left center face image (d), a left lower face image (g), a right upper face image (c), a right center face image (f), and a lower right face image (i) Can be registered in the memory 190 in advance.

상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하면 그 특정 저장 영역(8-1)에 이미 등록된 이미지를 그대로 유지한다.If the face image of the specific direction (for example, the center) photographed through the camera 501 matches the image already registered in the specific storage area 8-1 of the memory 190, And retains the image already registered in the storage area 8-1.

상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않으면 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지가 오류 이미지인 것으로 간주하고, 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.If the face image of the specific direction (for example, the center) photographed through the camera 501 does not match the image already registered in the specific storage area 8-1 of the memory 190, It is assumed that the image already registered in the specific storage area 8-1 of the camera 190 is an error image and the face of the specific direction (e.g., center) photographed through the camera 501 You can also register images.

상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 차량이 정차할 때 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것인지를 문의하는 문의 메시지를 디스플레이부(171, 195)에 표시하고, 그 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것을 요청하는 사용자 입력이 수신될 때 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.The control unit 110 determines whether or not the face image of the specific direction (for example, the center) photographed through the camera 501 matches the image already registered in the specific storage area 8-1 of the memory 190 A display unit 171 or 195 displays an inquiry message for inquiring whether to register a face image of a specific direction (for example, center) photographed through the camera 501 in place of the error image when the vehicle is stopped. (For example, in the middle) photographed through the camera 501 instead of the error image when a user input requesting registration of the face image in place of the error image is received May be registered.

상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 차량이 미리설정된 시간 (예를 들면, 10초) 동안 정차할 때 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것인지를 문의하는 문의 메시지를 디스플레이부(171, 195)에 표시하고, 그 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것을 요청하는 사용자 입력이 수신될 때 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.The control unit 110 determines whether or not the face image of the specific direction (for example, the center) photographed through the camera 501 matches the image already registered in the specific storage area 8-1 of the memory 190 It is determined whether or not to register the face image of a specific direction (for example, center) photographed by the camera 501 in place of the error image when the vehicle stops for a predetermined time (for example, 10 seconds) When a user input requesting registration of the face image in place of the error image is received, the inquiry message inquiring is displayed on the display units 171 and 195, It is possible to register a face image in a specific direction (e.g., center).

상기 제어부(110)는 운전자의 얼굴 이미지가 유효하면 그 유효한 얼굴 이미지를 근거로 상기 차량의 운전석 좌석의 자세(위치), 핸들(steering wheel)의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등을 자동 제어할 수도 있다. 예를 들면, 상기 제어부(110)는 인식된 사용자(유효한 운전자)에 의해 미리설정된 좌석 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 좌석 자세 정보를 근거로 상기 차량의 운전석 좌석의 자세를 제어하기 위한 구동부를 제어한다. 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 사이드 미러 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 사이드 미러 자세 정보를 근거로 상기 사이드 미러의 자세(위치)를 제어하기 위한 구동부를 제어한다. The control unit 110 controls the posture of the driver's seat of the vehicle, the height of the steering wheel, the side mirror, the room mirror, Mirror) can be automatically controlled. For example, the control unit 110 reads out predetermined seat posture information from the memory 190 by a recognized user (valid driver), and based on the read seat posture information, And controls a driving unit for controlling the posture of the seat. The control unit 110 reads the side mirror posture information previously set by the recognized user from the memory 190 and determines the posture of the side mirror based on the read side mirror posture information And controls a driving unit for controlling the driving unit.

상기 제어부(110)는 상기 유효한 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 연관된 콘텐츠(예를 들면, 사진, 동영상, 내비게이션 정보, 선호 채널 등)을 차량용 인포테인먼트 시스템(in-vehicle infotainment system)을 통해 제공하거나 통신망을 통해 수신할 수 있다. The control unit 110 recognizes the user (e.g., a driver) based on the valid face image, and stores contents (e.g., photographs, moving pictures, navigation information, preference channels, etc.) And may be provided through an in-vehicle infotainment system or received via a communication network.

상기 제어부(110)는 상기 유효한 얼굴 이미지에서 얼굴의 기본 특징점인 눈, 코, 입 등의 위치(2차원 좌표)를 검출한다. 상기 제어부(110)는 상기 얼굴 이미지의 기본 특징점을 근거로 상기 카메라(501)에 의해 촬영된 이미지가 얼굴 이미지인지 아닌지를 구분할 수 있다.The controller 110 detects positions (two-dimensional coordinates) of eyes, nose, mouth, etc. as basic feature points of the face from the valid face image. The control unit 110 can discriminate whether or not the image photographed by the camera 501 is a face image based on the basic feature points of the face image.

상기 제어부(110)는, 상기 카메라(501)에 의해 촬영된 이미지가 유효한 얼굴 이미지이면, 상기 얼굴 이미지에서 얼굴의 고유 특징점(들)을 검출한다. 상기 얼굴의 고유 특징점(들)은 코끝을 기준으로 눈의 시작 위치, 눈의 큰 위치, 눈썹 위치, 눈썹 형상, 입술, 턱선, 인중, 수염, 점, 흉터 등과 같은 얼굴의 특정 부분이 될 수 있으며, 이는 이미 공지된 특징 검출기(Feature detector) 등을 이용해서 검출 가능하다.If the image photographed by the camera 501 is a valid face image, the control unit 110 detects intrinsic feature points (s) of the face in the face image. The characteristic feature point (s) of the face may be a specific part of the face such as the starting position of the eye, the large position of the eye, the eyebrow position, the eyebrow shape, the lip, the jaw line, the eye, the whisker, , Which can be detected using a known feature detector or the like.

상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되면 차량의 운전석에 착석한 사용자가 유효한 운전자인 것으로 결정한 후, 차량이 주행 중인지를 결정한다(S13).If the photographed face image and the previously registered face image are matched with each other, the controller 110 determines that the user who is seated in the driver's seat of the vehicle is a valid driver, and then determines whether the vehicle is running (S13).

상기 제어부(110)는 차량이 주행 중이면 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고(S14), 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)한다(S15). 예를 들면, 상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록한다.If the vehicle is running, the control unit 110 shoots a face image corresponding to different face angles through the camera 501 (S14), and stores the captured face images in the memory (storage unit) 190 (Stored) (S15). For example, the control unit 110 may monitor the face angle of the user in the vehicle in real time through the camera 501 when the vehicle is running, and when the monitored face angle is within the reference allowable range, Captures a first image of a face located within an allowable range, and automatically registers the captured first image in the memory (storage unit) 190.

상기 제어부(110)는 차량이 정차 중일 때 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 차량이 정차 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록할 수도 있다.The control unit 110 photographs a face image corresponding to different face angles through the camera 501 when the vehicle is stationary, and automatically registers the photographed face images in the memory (storage unit) 190 (Stored). For example, when the vehicle is stationary, the control unit 110 monitors the face angle of the user in the vehicle through the camera 501 in real time, and when the monitored face angle is within the reference allowable range, The first image of the face located within the allowable range may be photographed, and the photographed first image may be automatically registered in the memory (storage unit) 190. [

상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.The reference tolerance range may be a plurality of different reference tolerances corresponding to different face angles.

상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록할 수 있다.The control unit 110 may temporarily register the photographed first image in the memory 190. FIG.

상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 메모리(190)에 등록(저장)한다.The control unit 110 temporarily registers the photographed first image in the memory 190, and then, when the monitored face angle is matched with the first angle within the reference allowable range, The second image is captured, and the captured second image is registered (stored) in the memory 190 instead of the first image.

도 9는 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.9 is a diagram illustrating another method of registering an operator's face image according to an exemplary embodiment of the present invention.

도 9에 도시한 바와 같이, 상기 제어부(110)는 차량의 운전석에 착석한 사용자가 유효한 운전자이고, 차량이 주행 중이면, 서로 다른 얼굴 각도에 대응하는 얼굴 이미지들을 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 자동으로 등록한다.9, when the user who is seated in the driver's seat of the vehicle is an effective driver and the vehicle is running, the control unit 110 photographs face images corresponding to different face angles through the camera 501 , And automatically registers the photographed face images in the memory 190.

예를 들면, 상기 제어부(110)는 운전자의 정중앙 얼굴 이미지(e)만이 메모리(190)에 등록되었다고 가정할 때, 차량의 운전석에 착석한 사용자가 유효한 운전자이면서 차량이 주행 중이면 중앙위 얼굴 이미지(b), 중앙 아래 얼굴 이미지(h), 왼쪽위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽 아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 순차적 또는 랜덤으로 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 자동으로 등록한다.For example, when it is assumed that only the central image (e) of the driver's face is registered in the memory 190, the control unit 110 determines whether the user sitting on the driver's seat of the vehicle is a valid driver, b), a center-down face image (h), a left-side face image (a), a left-center face image (d), a left- , The right lower face image (i), and the like, and registers the captured face images in the memory 190 automatically.

상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 미리설정된 왼쪽 위 얼굴 이미지(a)(9-1)의 기준 허용 범위(예를 들면, 왼쪽 위 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도)(9-2) 내에 위치할 때 상기 기준 허용 범위(9-2) 내에 위치하는 얼굴의 제1 이미지(9-5)를 촬영하고, 상기 촬영된 제1 이미지(9-5)를 상기 메모리(저장부)(190)에 자동으로 등록한다.The controller 110 monitors the face angle of the user in the vehicle in real time through the camera 501 when the vehicle is running, and if the monitored face angle is in the preset upper left face image (a) 9-1 (9-2) when the reference angular range (e.g., the face angle of the upper left face image (head angle) is within 30 degrees to 60 degrees) And automatically registers the photographed first image (9-5) in the memory (storage unit) 190. The first image (9-5)

상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 미리설정된 오른쪽 아래 얼굴 이미지(i)의 기준 허용 범위(예를 들면, 오른쪽 아래 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도) 내에 위치할 때 상기 기준 허용 범위(예를 들면, 오른쪽 아래 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도) 내에 위치하는 얼굴의 제2 이미지를 촬영하고, 상기 촬영된 제2 이미지를 상기 메모리(저장부)(190)에 자동으로 등록한다.The control unit 110 monitors the face angle of the user in the vehicle in real time through the camera 501 when the vehicle is running, and if the monitored face angle is within the reference allowable range of the preset lower right face image (i) (For example, the face angle of the lower right face image (head angle) is 30 degrees when the face angle of the lower right face image (head angle) is within 30 degrees to 60 degrees) To 60 degrees), and automatically registers the captured second image in the memory (storage unit)

상기 제어부(110)는 차량이 정차 중일 때 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 차량이 정차 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록할 수도 있다.The control unit 110 photographs a face image corresponding to different face angles through the camera 501 when the vehicle is stationary, and automatically registers the photographed face images in the memory (storage unit) 190 (Stored). For example, when the vehicle is stationary, the control unit 110 monitors the face angle of the user in the vehicle through the camera 501 in real time, and when the monitored face angle is within the reference allowable range, The first image of the face located within the allowable range may be photographed, and the photographed first image may be automatically registered in the memory (storage unit) 190. [

상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.The reference tolerance range may be a plurality of different reference tolerances corresponding to different face angles.

상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록할 수 있다.The control unit 110 may temporarily register the photographed first image in the memory 190. FIG.

상기 제어부(110)는 상기 촬영된 제1 이미지(9-5)를 상기 메모리(190)에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위(예를 들면, 30도 내지 60도) 내의 제1 각도(제1 고정 각도)(예를 들면, 45도)와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 메모리(190)에 등록(저장)한다.The control unit 110 temporarily registers the photographed first image 9-5 in the memory 190 and then the monitored face angle is within the reference tolerance range (for example, 30 degrees to 60 degrees) A second image of a face matched to the first angle when matched with a first angle (first fixed angle) (e.g., 45 degrees), and to capture the second captured image instead of the first image (Stored) in the memory 190.

도 10은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.FIG. 10 is an exemplary view showing another method of registering an operator's face image according to an embodiment of the present invention.

도 10에 도시한 바와 같이, 상기 제어부(110)는 상기 촬영된 제1 이미지(9-5)를 상기 메모리(190)에 일시적으로 등록한 후에도 운전자의 얼굴 각도를 실시간 모니터링하고, 그 모니터링된 현재 얼굴 각도(9-3)가 상기 기준 허용 범위(예를 들면, 30도 내지 60도) 내의 제1 각도(제1 고정 각도)(예를 들면, 45도)(9-4)와 매칭될 때 상기 제1 각도(9-4)에 매칭되는 얼굴의 제2 이미지(10-1)를 촬영하고, 상기 제1 이미지(9-5) 대신에 상기 촬영된 제2 이미지(10-1)를 상기 메모리(190)에 최종이미지로서 등록(저장)하며, 이때 최종 이미지를 등록한 후 더 이상의 얼굴 이미지 업데이트가 불가하도록 메모리190)를 제어한다.As shown in FIG. 10, the controller 110 monitors the face angle of the driver in real time even after temporarily registering the photographed first image 9-5 in the memory 190, When the angle 9-3 is matched with the first angle (the first fixed angle) (for example, 45 degrees) 9-4 within the reference tolerance range (for example, 30 degrees to 60 degrees) The second image 10-1 of the face matched with the first angle 9-4 is photographed and the photographed second image 10-1 is photographed in the memory 10-1 instead of the first image 9-5. (Stored) in the memory 190 as a final image. At this time, the final image is registered, and then the memory 190 is controlled so that no further updating of the face image is possible.

이상에서 상세히 설명한 바와 같이, 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 서로 다른 방향으로 촬영된 사용자 얼굴 이미지들을 근거로 사용자 얼굴을 인식함으로써, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있다.As described above, the user recognition apparatus and method according to embodiments of the present invention recognize a user face based on user face images photographed in different directions, so that even if the user's face angle changes, Can be accurately recognized.

본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 얼굴 이미지 내의 공통 및/또는 비공통 고유 특징점들을 근거로 사용자가 똑바른 자세를 취하지 않아도 정확하게 사용자를 인식할 수 있으며, 상기 인식된 사용자에 의해 미리설정된 차량 정보를 근거로 차량의 운전석 좌석의 자세(위치), 핸들의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등의 자세(위치)를 정확하게 설정(제어)할 수도 있다. The user recognition apparatus and method according to embodiments of the present invention can accurately recognize a user even if the user does not take a straight posture based on common and / or non-common unique feature points in a face image, (Position) of the driver's seat of the vehicle, the height of the handle, the side mirror, the room mirror, etc., based on the vehicle information previously set by the driver have.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (10)

차량에 장착된 사용자 인식 장치에 있어서, 상기 사용자 인식 장치는,
카메라와;
메모리와;
디스플레이부와;
상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 이미지를 촬영하고, 상기 촬영된 이미지를 상기 메모리에 자동으로 등록하는 제어부를 포함하며,
상기 제어부는,
상기 메모리에 등록될 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들 중에서 일부 이미지만이 상기 메모리에 등록되었을 때 상기 카메라를 통해 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들을 상기 차량이 주행 중일 때 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 메모리에 자동으로 등록하고,
상기 카메라를 통해 촬영된 얼굴 이미지들 중에서 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭되지 않으면, 그 매칭되지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 제1 이미지를 등록할 것인지를 문의하는 메시지를 상기 디스플레이부에 표시하고,
상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 메모리의 특정 저장 영역에 이미 등록된 이미지 대신에 상기 제1 이미지를 상기 메모리에 등록하는 것을 특징으로 하는 사용자 인식 장치.
A user recognition apparatus mounted on a vehicle, the user recognition apparatus comprising:
A camera;
A memory;
A display unit;
Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing an image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance range, And a controller for automatically registering the image in the memory,
Wherein,
When only some of the face images corresponding to different face angles to be registered in the memory are registered in the memory, face images corresponding to different face angles are photographed when the vehicle is running , Automatically registers the photographed face images in the memory,
When the first image out of the face images photographed by the camera does not match the image already registered in the specific storage area of the memory and the vehicle stops for a preset time after the non-matching point, A message inquiring whether to register an image is displayed on the display unit,
And registers the first image in the memory instead of an image already registered in a specific storage area of the memory when an input requesting to register the first image is received.
삭제delete 제1항에 있어서, 상기 제어부는,
상기 촬영된 얼굴 이미지들의 서로 다른 각 얼굴 각도가 서로 다른 각 얼굴 각도에 대응하는 각 기준 허용 범위 내에 위치할 때 상기 각 기준 허용 범위 내에 위치하는 각 얼굴의 이미지를 촬영하고, 상기 각각 촬영된 이미지를 상기 메모리에 자동으로 등록하는 것을 특징으로 하는 사용자 인식 장치.
The apparatus of claim 1,
When each of the different facial angles of the photographed face images is located within each of the reference permissible ranges corresponding to different facial angles, images of the respective faces located within the respective reference permissible ranges are photographed, And automatically registers it in the memory.
제1항에 있어서, 상기 기준 허용 범위는,
서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위인 것을 특징으로 하는 사용자 인식 장치.
The apparatus according to claim 1,
Wherein the predetermined range is a plurality of different reference allowable ranges corresponding to different face angles.
제1항에 있어서, 상기 제어부는,
상기 촬영된 이미지를 상기 메모리에 일시적으로 등록하는 것을 특징으로 하는 사용자 인식 장치.
The apparatus of claim 1,
And temporarily registers the photographed image in the memory.
제5항에 있어서, 상기 제어부는,
상기 촬영된 이미지를 상기 메모리에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 촬영된 이미지를 대신에 상기 촬영된 제2 이미지를 상기 메모리에 등록하는 것을 특징으로 하는 사용자 인식 장치.
6. The apparatus of claim 5,
Temporarily registering the photographed image in the memory and then photographing a second image of the face matched to the first angle when the monitored face angle matches a first angle within the reference tolerance, And registers the photographed second image in the memory instead of the second image.
제6항에 있어서, 상기 제1 각도는,
상기 기준 허용 범위에 속하는 고정 각도인 것을 특징으로 하는 사용자 인식 장치.
7. The method of claim 6,
Is a fixed angle belonging to the reference allowable range.
삭제delete 삭제delete 차량에 장착된 사용자 인식 장치의 사용자 인식 방법에 있어서, 상기 사용자 인식 방법은,
상기 차량이 주행 중일 때 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하는 단계와;
상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 이미지를 촬영하는 단계와;
상기 촬영된 이미지를 메모리에 자동으로 등록하는 단계와;
상기 메모리에 등록될 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들 중에서 일부 이미지만이 상기 메모리에 등록되었을 때 상기 카메라를 통해 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들을 상기 차량이 주행 중일 때 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 메모리에 자동으로 등록하는 단계와;
상기 카메라를 통해 촬영된 얼굴 이미지들 중에서 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭되지 않으면, 그 매칭되지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 제1 이미지를 등록할 것인지를 문의하는 메시지를 디스플레이부에 표시하는 단계와;
상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 메모리의 특정 저장 영역에 이미 등록된 이미지 대신에 상기 제1 이미지를 상기 메모리에 등록하는 단계를 포함하는 것을 특징으로 하는 사용자 인식 방법.
A user recognition method of a user recognition device mounted on a vehicle,
Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running;
Capturing an image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance;
Automatically registering the photographed image in a memory;
When only some of the face images corresponding to different face angles to be registered in the memory are registered in the memory, face images corresponding to different face angles are photographed when the vehicle is running Automatically registering the photographed face images in the memory;
When the first image out of the face images photographed by the camera does not match the image already registered in the specific storage area of the memory and the vehicle stops for a preset time after the non-matching point, Displaying a message on a display unit to inquire whether to register an image;
Registering the first image in the memory instead of an image already registered in a specific storage area of the memory when an input requesting to register the first image is received.
KR1020160092819A 2016-07-21 2016-07-21 User recognition apparatus and method thereof KR101892009B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160092819A KR101892009B1 (en) 2016-07-21 2016-07-21 User recognition apparatus and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160092819A KR101892009B1 (en) 2016-07-21 2016-07-21 User recognition apparatus and method thereof

Publications (2)

Publication Number Publication Date
KR20180010548A KR20180010548A (en) 2018-01-31
KR101892009B1 true KR101892009B1 (en) 2018-08-27

Family

ID=61083246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160092819A KR101892009B1 (en) 2016-07-21 2016-07-21 User recognition apparatus and method thereof

Country Status (1)

Country Link
KR (1) KR101892009B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230105821A (en) 2022-01-05 2023-07-12 (주)베테랑소사이어티 A concentration monitoring system using portable wireless fNIRS technology and metod and system for monitoring using the same

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513859A (en) * 2004-09-16 2008-05-01 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Method for identifying a driver based on an image in a motor vehicle
JP2009193184A (en) * 2008-02-13 2009-08-27 Nissan Motor Co Ltd Face recognition device and face recognition method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101875966B1 (en) * 2012-11-29 2018-07-06 현대자동차주식회사 A missing point restoration method in face recognition for vehicle occupant

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513859A (en) * 2004-09-16 2008-05-01 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Method for identifying a driver based on an image in a motor vehicle
JP2009193184A (en) * 2008-02-13 2009-08-27 Nissan Motor Co Ltd Face recognition device and face recognition method

Also Published As

Publication number Publication date
KR20180010548A (en) 2018-01-31

Similar Documents

Publication Publication Date Title
KR101800508B1 (en) Method for preventing drunk-driving and driver assistance appratus having the same
KR101834348B1 (en) Drive assistance appratus and control method for the same
KR101916993B1 (en) Display apparatus for vehicle and control method thereof
KR101853396B1 (en) Appratus and method for controlling portable device within a vehicle
KR101750178B1 (en) Warning Method Outside Vehicle, Driver Assistance Apparatus For Executing Method Thereof and Vehicle Having The Same
KR101834349B1 (en) Steer Input apparatus and Vehicle
KR20170099188A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101843538B1 (en) Driver assistance appratus and method thereof
KR102470298B1 (en) A method of correcting cameras and device thereof
KR20170054849A (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101732263B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101917412B1 (en) Apparatus for providing emergency call service using terminal in the vehicle and Vehicle having the same
KR20170140284A (en) Vehicle driving aids and vehicles
KR20180080939A (en) Driving assistance apparatus and vehicle having the same
KR101843535B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101897350B1 (en) Driver Assistance Apparatus
KR101850857B1 (en) Display Apparatus and Vehicle Having The Same
KR101892009B1 (en) User recognition apparatus and method thereof
KR101985496B1 (en) Driving assistance apparatus and vehicle having the same
KR20180106336A (en) Camera apparatus, collision prevention apparatus using the same and method of preventing collision
KR20180069646A (en) Driver assistance apparatus
KR101894636B1 (en) Driver Assistance Apparatus and Vehicle Having The Same
KR101888259B1 (en) Vehicle Assistance Apparatus and Vehicle Having The Same
KR101938884B1 (en) Parking Assistance Apparatus and Vehicle Having The Same
KR101929291B1 (en) Vehicular Communication Apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant