KR101892009B1 - User recognition apparatus and method thereof - Google Patents
User recognition apparatus and method thereof Download PDFInfo
- Publication number
- KR101892009B1 KR101892009B1 KR1020160092819A KR20160092819A KR101892009B1 KR 101892009 B1 KR101892009 B1 KR 101892009B1 KR 1020160092819 A KR1020160092819 A KR 1020160092819A KR 20160092819 A KR20160092819 A KR 20160092819A KR 101892009 B1 KR101892009 B1 KR 101892009B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- face
- vehicle
- memory
- photographed
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G06K9/00248—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G06K9/00288—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/0809—Driver authorisation; Driver identical check
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
- B60W2050/146—Display means
Abstract
본 발명은, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 사용자 인식 장치 및 그 방법에 관한 것으로서, 본 명세서의 실시예들에 따른 사용자 인식 장치는, 카메라와; 저장부와; 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.The present invention relates to a user recognition apparatus and method for accurately recognizing a user's face even when a user's face angle changes, and a user recognition apparatus according to embodiments of the present invention includes a camera; A storage unit; Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance, And a controller for automatically registering the photographed first image in the storage unit.
Description
본 발명은 사용자 인식 장치 및 그 방법에 관한 것이다. The present invention relates to a user recognition apparatus and a method thereof.
일반적으로, 개인 정보 보호나 사용자 인증 등을 위해 사용되는 생체 인식 기술에는 지문 인식, 홍채 인식, 정맥 인식 등이 있다. 이러한 생체 인식 기술 중에서도 얼굴 인식기술은 다른 생체 정보에 비해 사용자에 대해 강제성이 적으며, 비접촉식으로 거부감이 덜하기 때문에 각광을 받고 있다.In general, biometrics technologies used for personal information protection and user authentication include fingerprint recognition, iris recognition, vein recognition, and the like. Of these biometrics technologies, face recognition technology is less intrusive to users than other biometrics information, and it receives a lot of attention because it has less sense of rejection because of non-contact type.
광의의 얼굴 인식 과정은 크게 얼굴 검출과 협의의 얼굴 인식과정으로 분류할 수 있다. 이 중 얼굴 검출 과정은 입력 영상으로부터 사람의 얼굴영역을 추출하는 단계로서, 일반적인 상황에서 획득되어지는 다양한 배경과 여러 사람의 얼굴이 함께 나타날 수 있는 영상에서 인식하고자 하는 특정 사람의 얼굴을 추출하기 위해 필요한 과정이다.Wide - area face recognition process can be divided into face detection and face recognition process. The face detection process is a step of extracting a face region of a person from an input image. In order to extract a face of a specific person to be recognized in an image in which various faces acquired in a general situation and a plurality of faces can be displayed together It is a necessary process.
현재까지 연구된 얼굴 영역 검출 방법은 얼굴의 저수준 특징들을 사용하는 지식(knowledge) 기반 방법, 특정 템플릿 형태에 기반을 둔 형판(template) 기반 얼굴 검출 방법, 얼굴의 변하지 않는 구조적 특징을 사용하는 특징(feature) 기반 방법, 그리고 얼굴의 통계적인 특징을 이용한 외형(appearance) 기반 방법으로 분류할 수 있다.The face area detection method that has been studied so far includes a knowledge based method using low level features of a face, a template based face detection method based on a specific template type, a feature using unchanging structural features of a face feature-based methods, and appearance-based methods using statistical features of faces.
또한, 종래에는 얼굴인증 시 정면기준 검출만 이루어져 운전자가 탑승 후 운전자의 동작을 제한하고, 운전자 얼굴의 회전에 따른 얼굴 인증에 대응이 불가능하거나, 정면 얼굴 기준 가상 회전 데이터 제작으로 인해 얼굴 인식률이 저하되었다.In addition, conventionally, only the front reference detection is performed at the time of face authentication so that the driver restricts the operation of the driver after boarding, and it is impossible to cope with the face authentication due to the rotation of the driver's face, or the face recognition rate .
본 발명의 목적은, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 사용자 인식 장치 및 그 방법을 제공하는 데 있다.An object of the present invention is to provide a user recognition apparatus and method which can accurately recognize a user's face even if the user's face angle changes.
본 명세서의 실시예들에 따른 사용자 인식 장치는, 카메라와; 저장부와; 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.A user recognition apparatus according to embodiments of the present invention includes: a camera; A storage unit; Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance, And a controller for automatically registering the photographed first image in the storage unit.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 다수의 서로 다른 얼굴 각도에 대응하는 얼굴 이미지들을 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 저장부에 자동으로 등록하는 제어부를 포함할 수 있다.In an embodiment of the present invention, the control unit may include a controller for photographing face images corresponding to a plurality of different face angles through the camera, and automatically registering the photographed face images in the storage unit .
본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 얼굴 이미지들의 서로 다른 각 얼굴 각도가 서로 다른 각 얼굴 각도에 대응하는 각 기준 허용 범위 내에 위치할 때 상기 각 기준 허용 범위 내에 위치하는 각 얼굴의 이미지를 촬영하고, 상기 각각 촬영된 이미지를 상기 저장부에 자동으로 등록할 수 있다.As an example related to the present invention, the control unit may be configured such that when each of the different facial angles of the photographed face images is within a respective reference permissible range corresponding to each of different facial angles, Images can be captured, and the photographed images can be automatically registered in the storage unit.
본 발명과 관련된 일 예로서, 상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.As an example related to the present invention, the reference permissible range may be a plurality of different reference permissible ranges corresponding to different face angles.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 제1 이미지를 상기 저장부에 일시적으로 등록할 수 있다.As an example related to the present invention, the control unit may temporarily register the photographed first image in the storage unit.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 촬영된 제1 이미지를 상기 저장부에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 저장부에 등록할 수 있다.In one embodiment of the present invention, the control unit temporarily registers the photographed first image in the storage unit, and then matches the first angle when the monitored face angle is matched with the first angle within the reference tolerance range And register the captured second image in the storage unit instead of the first image.
본 발명과 관련된 일 예로서, 상기 제1 각도는 상기 기준 허용 범위에 속하는 고정 각도일 수 있다.As an example related to the present invention, the first angle may be a fixed angle belonging to the reference tolerance range.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 촬영된 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭하지 않으면 상기 특정 저장 영역에 이미 등록된 이미지를 오류 이미지로서 간주하고, 상기 오류 이미지 대신에 상기 카메라를 통해 촬영된 제1 이미지를 상기 특정 저장 영역에 등록할 수 있다.As an example related to the present invention, when the first image photographed through the camera does not match an image already registered in a specific storage area of the memory, the control unit regards the image already registered in the specific storage area as an error image And register the first image photographed by the camera in the specific storage area instead of the error image.
본 발명과 관련된 일 예로서, 상기 제어부는 상기 카메라를 통해 촬영된 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 카메라를 통해 촬영된 제1 이미지를 등록할 것인지를 문의하는 메시지를 디스플레이부에 표시하고, 상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 제1 이미지를 상기 저장부에 등록할 수 있다.As an example related to the present invention, when the vehicle stops for a preset time after a point in time when a first image photographed through the camera does not match an image already registered in a specific storage area of the memory, A message inquiring whether to register a first image photographed through a camera is displayed on the display unit and the first image can be registered in the storage unit when an input requesting to register the first image is received have.
본 명세서의 실시예들에 따른 사용자 인식 방법은, 차량에 장착된 사용자 인식 장치의 사용자 인식 방법에 있어서, 상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하는 단계와; 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하는 단계와; 상기 촬영된 제1 이미지를 저장부에 자동으로 등록하는 단계를 포함할 수 있다.A user recognition method according to embodiments of the present invention is a user recognition method of a user recognition device mounted on a vehicle, the method comprising: monitoring a face angle of a user in the vehicle through the camera when the vehicle is traveling; Capturing a first image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance; And automatically registering the photographed first image in a storage unit.
본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 서로 다른 방향에서 촬영된 사용자 얼굴 이미지들을 근거로 사용자 얼굴을 인식함으로써, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있다.The user recognition apparatus and method according to embodiments of the present invention recognize a user's face based on user's face images photographed in different directions so that the user's face can be recognized accurately even if the user's face angle changes.
도 1은 본 발명의 실시예들을 설명하기 위한 차량을 나타낸 블록도 이다.
도 2는 본 발명의 실시예들을 설명하기 위한 차량(100)의 구성을 나타낸 구성도이다.
도 3은 본 발명의 실시예들에 따른 제1 및 제2 카메라의 설치 위치를 나타낸 예시도 이다.
도 4a-4b는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 예시도들이다.
도 4c-4d는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 다른 예시도들이다.
도 5는 본 발명의 실시예들에 따른 카메라의 설치 위치를 나타낸 예시도 이다.
도 6은 본 발명의 실시예에 따른 사용자 인식 방법을 나타낸 흐름도이다.
도 7은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 방법을 나타낸 예시도이다.
도 8은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 다른 방법을 나타낸 예시도이다.
도 9는 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.
도 10은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.1 is a block diagram showing a vehicle for explaining embodiments of the present invention.
2 is a configuration diagram showing the configuration of a
3 is an exemplary view showing installation positions of the first and second cameras according to the embodiments of the present invention.
4A-4B are exemplary diagrams illustrating first and second user face images taken according to embodiments of the present invention.
Figures 4C-4D are further illustrations of first and second user face images taken in accordance with embodiments of the present invention.
5 is an exemplary view showing an installation position of a camera according to embodiments of the present invention.
6 is a flowchart illustrating a method of recognizing a user according to an embodiment of the present invention.
7 is a diagram illustrating an example of a method of registering an operator's face image according to an exemplary embodiment of the present invention.
8 is a diagram illustrating another method of registering an operator's face image according to an embodiment of the present invention.
9 is a diagram illustrating another method of registering an operator's face image according to an exemplary embodiment of the present invention.
FIG. 10 is an exemplary view showing another method of registering an operator's face image according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like or similar components are denoted by the same reference numerals, and redundant explanations thereof will be omitted. The suffix "module" and " part "for the components used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role. In the following description of the embodiments of the present invention, a detailed description of related arts will be omitted when it is determined that the gist of the embodiments disclosed herein may be blurred. It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. , ≪ / RTI > equivalents, and alternatives.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinals, such as first, second, etc., may be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. The singular expressions include plural expressions unless the context clearly dictates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, the terms "comprises", "having", and the like are used to specify that a feature, a number, a step, an operation, an element, a component, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.
도 1은 본 발명의 실시예들을 설명하기 위한 차량을 나타낸 블록도 이다. 1 is a block diagram showing a vehicle for explaining embodiments of the present invention.
도 1에 도시한 바와 같이, 차량(100)은, 정보 제공 센터(30)로부터 교통 정보 및 각종 데이터(예를 들면, 프로그램, 실행 파일 등)를 수신하고, 원거리 무선 통신망(20) 및/또는 근거리 무선 통신망을 통해 교통 정보를 수신하고, 인공위성(10)을 통해 수신된 GPS 신호 및 상기 교통 정보를 근거로 길 안내 서비스를 제공한다. 여기서, 상기 통신망은 LAN(Local Area Network), WAN(Wide Area Network)과 같은 유무선 통신 네트워크를 더 포함할 수도 있다.1, the
상기 통신망을 통해서는 신호등 정보를 비롯한 각종 교통정보(ex: 도로 교통 정보, 관심지역 정보)가 수집되며, 수집된 정보는 정보 제공 센터(30)(예를 들면, 서버)에서 TPEG(Transport Protocol Expert Group) 규격에 따라 처리되어 방송국으로 전송된다. 이에 따라 방송국에서는 신호등 정보를 포함하는 교통정보를 방송신호에 삽입하여 차량(100)으로 방송한다.Traffic information such as traffic light information (eg, road traffic information, interest area information) is collected through the communication network and the collected information is transmitted from the information providing center 30 (for example, a server) Group) standard and transmitted to the broadcasting station. Accordingly, the broadcasting station inserts the traffic information including the traffic light information into the broadcast signal and broadcasts the traffic information to the
상기 서버는 통신망에 연결된 여러 가지 경로, 예를 들어 운영자 입력, 유무선 인터넷, TDC(Transparent Data Channel), MOC(Multimedia Object Transport)와 같은 디지털 방송 서비스, 타 서버 또는 검증 카(probe car)로부터 수집되는 각종 교통정보를, 예를 들면 교통정보 서비스를 위한 규격인 TPEG(Transport ProtocolThe server is connected to various networks connected to a communication network, for example, an operator input, a wired / wireless Internet, a Transparent Data Channel (TDC), a digital broadcasting service such as a Multimedia Object Transport (MOC) Various traffic information, for example, TPEG (Transport Protocol
Expert Group) 규격에 따른 포맷과 같은 교통정보 포맷으로 재구성하여 방송국으로 전송한다.Expert Group) format and transmits it to the broadcasting station.
상기 서버는 신호등 정보를 포함하는 TPEG 규격의 교통정보 포맷을 생성하여 The server generates a traffic information format of the TPEG standard including the traffic light information
방송국으로 전송할 수 있다.To a broadcasting station.
방송국은 차량(100) 등에 탑재된 교통정보 수신 단말기, 예를 들어 내비게이션 장치가 수신할 수 있도록 서버로부터 수신한 신호등 정보를 포함하는 교통 정보를 방송신호에 실어 무선으로 송출한다. 상기 교통정보는 신호등 정보를 포함하며, 그 밖에 사고, 도로 상황, 교통 혼잡, 도로 건설, 도로 폐쇄, 공공 교통망 지연, 항공 운항 지연과 같은 도로, 해양, 항공 운항을 위해 필요한 각종 교통 조건에 대한 정보를 포함할 수 있다.A broadcasting station transmits traffic information including traffic signal information received from a server to a traffic information receiving terminal mounted on the
상기 방송국은 서버로부터 처리된 신호등 정보를 포함하는 교통정보를 수신하여, 다양한 디지털 방송 규격에 따른 디지털 신호를 통해 차량(100)에 전송한다. 이 경우, 방송 규격으로는 유레카-147[ETSI EN 300 401]에 기반한 유럽향 디지털 오디오 방송 (Digital Audio Broadcasting: DAB) 규격, 지상파 또는 위성 디지털 멀티미디어 방송(Digital Multimedia Broadcasting: DMB), 지상파 디지털 비디오 방송(Digital Video Broadcasting: DVB-T) 규격, 휴대용 디지털 비디오 방송(Digital Video Broadcasting-Handheld: DVB-H) 규격, MFLO(Media Forward Link Only) 규격과 같은 각종 디지털 방송 규격을 포함한다.The broadcasting station receives traffic information including traffic signal information processed from a server, and transmits the traffic information to the
또한, 상기 방송국은 신호등 정보를 포함하는 교통정보를 유무선 인터넷과 같은 유무선 네트워크를 통해 전송할 수 있다.Also, the broadcasting station can transmit traffic information including traffic light information through a wired / wireless network such as wired / wireless Internet.
상기 차량(100)은 일반적인 승용차, 버스, 기차, 선박, 항공기 등 사람이나 물건의 이동을 목적으로 기계, 전자 장치를 이용하여 구현된 가능한 모든 운반체를 의미한다. The
상기 차량(100)은 교통정보 수신 단말기를 탑재하며, 탑재된 교통정보 수신 단말기를 이용하여 방송국으로부터 신호등 정보를 수신하고, 신호등 정보를 처리하여, 처리된 신호등 정보를 그래픽, 텍스트 및/또는 오디오를 통해 사용자에게 전달한다.The
도 2는 본 발명의 실시예들을 설명하기 위한 차량(100)의 구성을 나타낸 구성도이다.2 is a configuration diagram showing the configuration of a
도 2에 도시한 바와 같이, 차량(100)은 통신부(120), 입력부(130), 센싱부(150), 출력부(170), 차량 구동부(180), 메모리(190), 인터페이스부(196), 제어부(110), 전원부(160), 조향 장치(140), DSM(Driver Status Monitoring) 시스템 및 차량용 디스플레이 장치(195)를 포함할 수 있다.2, the
통신부(120)는, 차량(100)과 이동 단말기(200) 사이, 차량(100)과 외부 서버(300) 사이 또는 차량(100)과 타차량(402)과의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(120)는 차량(100)을 하나 이상의 망(network)에 연결하는 하나 이상의 모듈을 포함할 수 있다.The
통신부(120)는, 방송 수신 모듈(121), 무선 인터넷 모듈(122), 근거리 통신 모듈(123), 위치 정보 모듈(124), 광통신 모듈(125) 및 V2X 통신 모듈(126)을 포함할 수 있다.The
통신부(120)는, 날씨 정보를 수신할 수 있다. 통신부(120)는, 방송 수신 모듈(121), 무선 인터넷 모듈(122) 또는 V2X 통신 모듈(126)을 통해, 외부로부터 날씨 정보를 수신할 수 있다.The
통신부(120)는 주행 도로 정보를 수신할 수 있다. 통신부(120)는, 위치 정보 모듈(124)을 통해, 차량(100)의 위치를 파악하고, 무선 인터넷 모듈(122) 또는 V2X 통신 모듈(126)을 통해, 차량(100)의 위치에 대응되는 도로 정보를 수신할 수 있다.The
통신부(120)는, V2X 통신 모듈(126)을 통해, 외부 서버(300)로부터 신호등 변경 정보를 수신할 수 있다. 여기서, 외부 서버(300)는 교통을 관제하는 교통 관제소에 위치하는 서버일 수 있다.The
방송 수신 모듈(121)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 또는 방송 관련된 정보를 수신한다. 여기서, 방송은 라디오 방송 또는 TV 방송을 포함한다.The
무선 인터넷 모듈(122)은, 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 차량(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(122)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The
무선 인터넷 기술로는, 예를 들면, WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(122)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 예를 들면, 무선 인터넷 모듈(122)은 외부 서버(300)와 무선으로 데이터를 교환할 수 있다. 무선 인터넷 모듈(122)은 외부 서버(300)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))정보를 수신할 수 있다.Wireless Internet technologies include, for example, WLAN (Wireless LAN), Wi-Fi (Wireless Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA, WiBro World Wide Interoperability for Microwave Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), and Long Term Evolution-Advanced (LTE-A) (122) transmits and receives data according to at least one wireless Internet technology in a range including internet technologies not listed above. For example, the
근거리 통신 모듈(123)은, 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.The short-
이러한, 근거리 통신 모듈(123)은, 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 차량(100)과 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다. 예를 들면, 근거리 통신 모듈(123)은 이동 단말기(200)와 무선으로 데이터를 교환할 수 있다. 근거리 통신 모듈(123)은 이동 단말기(200)로부터 날씨 정보, 도로의 교통 상황 정보(예를 들면, TPEG(Transport Protocol Expert Group))를 수신할 수 있다. 가령, 사용자가 차량(100)에 탑승한 경우, 사용자의 이동 단말기(200)와 차량(100)은 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.The short
위치 정보 모듈(124)은, 차량(100)의 위치를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈이 있다. 예를 들면, 차량은 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 차량의 위치를 획득할 수 있다.The
광통신 모듈(125)은 광발신부 및 광수신부를 포함할 수 있다.The
광수신부는, 광(light)신호를 전기 신호로 전환하여, 정보를 수신할 수 있다. 광수신부는 광을 수신하기 위한 포토 다이오드(PD, Photo Diode)를 포함할 수 있다. 포토 다이오드는 빛을 전기 신호로 전환할 수 있다. 예를 들면, 광수신부는 전방 차량에 포함된 광원에서 방출되는 광을 통해, 전방 차량의 정보를 수신할 수 있다.The light receiving section can convert the light signal into an electric signal and receive the information. The light receiving unit may include a photodiode (PD) for receiving light. Photodiodes can convert light into electrical signals. For example, the light receiving section can receive information of the front vehicle through light emitted from the light source included in the front vehicle.
광발신부는 전기 신호를 광 신호로 전환하기 위한 발광 소자를 적어도 하나 포함할 수 있다. 여기서, 발광 소자는 LED(Light Emitting Diode)인 것이 바람직하다. 광발신부는, 전기 신호를 광 신호로 전환하여, 외부에 발신한다. 예를 들면, 광 발신부는 소정 주파수에 대응하는 발광소자의 점멸을 통해, 광신호를 외부에 방출할 수 있다. 실시예에 따라, 광발신부는 복수의 발광 소자 어레이를 포함할 수 있다. 실시예에 따라, 광발신부는 차량(100)에 구비된 램프와 일체화될 수 있다.The light emitting unit may include at least one light emitting element for converting an electric signal into an optical signal. Here, the light emitting element is preferably an LED (Light Emitting Diode). The optical transmitter converts the electrical signal into an optical signal and transmits it to the outside. For example, the optical transmitter can emit the optical signal to the outside through the blinking of the light emitting element corresponding to the predetermined frequency. According to an embodiment, the light emitting portion may include a plurality of light emitting element arrays. According to the embodiment, the light emitting portion can be integrated with the lamp provided in the
예를 들면, 광발신부는 전조등, 후미등, 제동등, 방향 지시등 및 차폭등 중 적어도 어느 하나일 수 있다. 예를 들면, 광통신 모듈(125)은 광 통신을 통해 타차량(400)과 데이터를 교환할 수 있다.For example, the light emitting portion may be at least one of a headlight, a tail light, a brake light, a turn signal lamp, and a car light. For example, the
V2X 통신 모듈(126)은, 서버(300) 또는 타차량(400)과의 무선 통신 수행을 위한 모듈이다. V2X 모듈(126)은 차량간 통신(V2V) 또는 차량과 인프라간 통신(V2I) 프로토콜이 구현 가능한 모듈을 포함한다. 차량(100)은 V2X 통신 모듈(126)을 통해, 외부 서버(300) 및 타 차량(400)과 무선 통신을 수행할 수 있다.The
입력부(130)는, 카메라, 운전자 조작 장치(131), 마이크로 폰(132) 및 사용자 입력부(133)를 포함할 수 있다.The
마이크로 폰(132)은, 외부의 음향 신호를 전기적인 데이터로 처리할 수 있다. 처리된 데이터는 차량(100)에서 수행 중인 기능에 따라 다양하게 활용될 수 있다. 마이크로폰(132)은 사용자의 음성 명령을 전기적인 데이터로 전환하고, 그 전환된 전기적인 데이터는 제어부(110)에 전달될 수 있다.The
한편, 실시예에 따라, 카메라 또는 마이크로폰(132)는 입력부(130)에 포함되는 구성요소가 아닌, 센싱부(150)에 포함되는 구성요소일 수도 있다.According to the embodiment, the camera or the
사용자 입력부(133)는 사용자로부터 정보를 입력받기 위한 것이다. 사용자 입력부(133)를 통해, 정보가 입력되면, 제어부(110)는 입력된 정보에 대응되도록 차량(100)의 동작을 제어할 수 있다. 사용자 입력부(133)는 터치식 입력수단 또는 기계식 입력 수단을 포함할 수 있다. 실시예에 따라, 사용자 입력부(133)는 스티어링 휠의 일 영역에 배치될 수 있다. 이경우, 운전자는 스티어링 휠을 잡은 상태에서, 손가락으로 사용자 입력부(133)를 조작할 수 있다.The
사용자 입력부(133)는 턴 시그널 입력을 수신할 수 있다.The
센싱부(150)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센싱부(150)는, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량감지 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 가속도 센서, 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 레인(rain) 센서, 조도 센서, 타이어 공기압 센서, 초음파 센서, 레이더, 라이더(LiADAR: Light Detection And Ranging), 등을 포함할 수 있다.The
이에 의해, 센싱부(150)는, 차량 충돌 정보, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량의 주행 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 비가 오는지에 대한 정보, 스티어링 휠 회전 각도, 주변 조도 정보, 타이어 공기압 정보, 등에 대한 센싱 신호를 획득할 수 있다.Thus, the
한편, 센싱부(150)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.The
한편, 초음파 센서, 레이더 또는 라이더는, 오브젝트를 검출하고, 트래킹할 수 있다. 초음파 센서, 레이더 또는 라이더는, 검출된 오브젝트와의 거리 및 상대 속도를 산출할 수 있다.On the other hand, an ultrasonic sensor, a radar or a rider can detect and track an object. The ultrasonic sensor, the radar or the rider can calculate the distance to the detected object and the relative speed.
초음파 센서, 레이더 또는 라이더는, 위험 상황을 감지할 수 있다. 초음파 센서, 레이더 또는 라이더에 포함된 프로세서는, 오브젝트와의 거리를 기초로 위험 상황을 감지할 수 있다.Ultrasonic sensors, radar or riders can detect dangerous situations. A processor included in an ultrasonic sensor, radar or rider can detect a dangerous situation based on the distance to the object.
센싱부(150)는, 자세 감지 센서를 포함할 수 있다. 자세 감지 센서는 차량의 자세를 감지할 수 있다. 자세 감지 센서는, 차량의 자세 정보를 생성할 수 있다.The
자세 감지 센서는, 상술한, 요 센서, 가속도 센서, 자이로 센서, 차체 경사 감지센서를 포함할 수 있다.The attitude detection sensor may include the yaw sensor, the acceleration sensor, the gyro sensor, and the vehicle body inclination sensor described above.
센싱부(150)는, 바람 센서를 포함할 수 있다. 바람 센서는, 풍향 또는 풍속을 감지할 수 있다. 바람 센서는 풍향 정보 또는 풍속 정보를 생성할 수 있다. 바람 센서는, 초음파 풍향/풍속계(ultrasonic type wind sensor)를 포함할 수 있다. 바람 센서는 공기매질을 통해 전달되는 초음파의 전달속도가 바람에 의해 증가하거나 감소하는 성질을 이용하여 바람의 속도와 방향을 측정할 수 있다.The
센싱부(150)는 생체 인식 정보 감지부를 포함할 수 있다. 생체 인식 정보 감지부는 탑승객의 생체 인식 정보를 감지하여 획득한다. 생체 인식 정보는 지문 인식(Fingerprint) 정보, 홍채 인식(Iris-scan) 정보, 망막 인식(Retina-scan) 정보, 손모양(Hand geo-metry) 정보, 안면 인식(Facial recognition) 정보, 음성 인식(Voice recognition) 정보를 포함할 수 있다. 생체 인식 정보 감지부는 탑승객의 생체 인식 정보를 센싱하는 센서를 포함할 수 있다. 여기서, 내부 카메라 및 마이크로폰(132)이 센서로 동작할 수 있다. 생체 인식 정보 감지부는 내부 카메라를 통해, 손모양 정보, 안면 인식 정보를 획득할 수 있다.The
출력부(170)는, 제어부(110)에서 처리된 정보를 출력하기 위한 것으로, 디스플레이부(171), 음향 출력부(172) 및 햅틱 출력부(173)를 포함할 수 있다.The
디스플레이부(171)는 제어부(110)에서 처리되는 정보를 표시할 수 있다. 예를 들면, 디스플레이부(171)는 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보, 또는 차량 운전자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 또한, 차량 관련 정보는, 현재 차량의 상태를 알려주는 차량 상태 정보 또는 차량의 운행과 관련되는 차량 운행 정보를 포함할 수 있다.The
디스플레이부(171)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(eink display) 중에서 적어도 하나를 포함할 수 있다.The
디스플레이부(171)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 차량(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(133)로써 기능함과 동시에, 차량(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다. 이경우, 디스플레이부(171)는 터치 방식에 의하여 제어 명령을 입력받을 수 있도록, 디스플레이부(171)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(171)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(110)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.The
한편, 디스플레이부(171)는 운전자가 운전을 함과 동시에 차량 상태 정보 또는 차량 운행 정보를 확인할 수 있도록 클러스터(cluster)를 포함할 수 있다. 클러스터는 대시보드 위에 위치할 수 있다. 이경우, 운전자는, 시선을 차량 전방에 유지한채로 클러스터에 표시되는 정보를 확인할 수 있다.On the other hand, the
한편, 실시예에 따라, 디스플레이부(171)는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이부(171)가 HUD로 구현되는 경우, 윈드 쉴드에 구비되는 투명 디스플레이를 통해 정보를 출력할 수 있다. 또는, 디스플레이부(171)는 투사 모듈을 구비하여 윈드 쉴드에 투사되는 이미지를 통해 정보를 출력할 수 있다.Meanwhile, according to the embodiment, the
음향 출력부(172)는 제어부(110)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(172)는 스피커 등을 구비할 수 있다. 음향 출력부(172)는, 사용자 입력부(133) 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The
햅틱 모듈(햅틱 출력부)(173)는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(173)는, 스티어링 휠, 안전 벨트, 시트를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic module (haptic output unit) 173 generates a tactile output. For example, the
차량 구동부(180)는, 차량 각종 장치의 동작을 제어할 수 있다. 차량 구동부(180)는, 조향 장치(140)로부터 제어 신호를 제공받을 수 있다. 차량 구동부(180)는 상기 제어 신호를 기초로 각 장치를 제어할 수 있다.The
차량 구동부(180)는 동력원 구동부(181), 조향 구동부(182), 브레이크 구동부(183), 램프 구동부(184), 공조 구동부(185), 윈도우 구동부(186), 에어백 구동부(187), 썬루프 구동부(188), 와이퍼 구동부(189) 및 서스펜션 구동부를 포함할 수 있다.The
동력원 구동부(181)는 차량(100) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.The power
예를 들면, 내연 기관의 엔진이 동력원인 경우, 동력원 구동부(181)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(181)가 엔진인 경우, 제어부(110)의 제어에 따라 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when the engine of the internal combustion engine is a power source, the power
다른 예로, 전기 기반의 모터가 동력원인 경우, 동력원 구동부(181)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when the electric-based motor is a power source, the power
동력원 구동부(181)는, 조향 장치(140)로부터 가속 제어 신호를 수신할 수 있다. 동력원 구동부(181)는 수신된 가속 제어 신호에 따라 동력원을 제어할 수 있다.The power
조향 구동부(182)는, 차량(100) 내의 조향 장치(steering apparatus)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The
조향 구동부(182)는 조향 장치(140)로부터 스티어링 제어 신호를 수신할 수 있다.The
조향 구동부(182)는 수신된 스티어링 제어 신호에 따라 조향되도록 조향 장치를 제어할 수 있다.The
브레이크 구동부(183)는 차량(100) 내의 브레이크 장치(brake apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 바퀴에 배치되는 브레이크(또는 브레이크 장치)의 동작을 제어하여, 차량(100)의 속도를 줄이거나, 차량을 움직이지 못하게 할 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크(브레이크 장치)의 동작을 달리하여, 차량(100)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다. 브레이크 구동부(183)는 조향 장치(140)로부터 감속 제어 신호를 수신할 수 있다. 브레이크 구동부(183)는 수신된 감속 제어 신호에 따라 브레이크 장치를 제어할 수 있다.The
램프 구동부(184)는, 차량에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들면, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The
공조 구동부(185)는 차량(100) 내의 공조 장치(air conditioner)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.The air
윈도우 구동부(186)는 차량(100) 내의 윈도우 장치(window apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.The
에어백 구동부(187)는 차량(100) 내의 에어백 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 위험시, 에어백이 터지도록 제어할 수 있다.The
썬루프 구동부(188)는 차량(100) 내의 썬루프 장치(sunroof apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The
서스펜션 구동부는, 차량(100) 내의 서스펜션 장치(suspension apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들면, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(100)의 진동이 저감되도록 제어할 수 있다. 서스펜션 구동부는, 조향 장치(140)로부터 서스펜션 제어 신호를 수신할 수 있다. 서스펜션 구동부는 수신된 서스펜션 제어 신호에 따라 서스펜션 장치를 제어할 수 있다.The suspension driving unit may perform electronic control of suspension apparatus in the
메모리(190)는 제어부(110)와 전기적으로 연결된다. 메모리(190)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(190)는 제어부(110)의 처리 또는 제어를 위한 프로그램 등, 차량(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.The
메모리(190)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량(100)은 인터넷(internet)상에서 상기 메모리(190)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작될 수도 있다.The
메모리(190)는 제어부(110)와 일체화되게 형성될 수 있다.The
인터페이스부(196)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행할 수 있다. 예를 들면, 인터페이스부(196)는 이동 단말기(200)와 연결 가능한 포트를 구비할 수 있고, 상기 포트를 통해, 이동 단말기(200)와 연결할 수 있다. 이경우, 인터페이스부(196)는 이동 단말기(200)와 데이터를 교환할 수 있다.The interface unit 196 may serve as a pathway to various kinds of external devices connected to the
한편, 인터페이스부(196)는 연결된 이동 단말기(200)에 전기 에너지를 공급하는 통로 역할을 수행할 수 있다. 이동 단말기(200)가 인터페이스부(196)에 전기적으로 연결되는 경우, 제어부(110)의 제어에 따라, 인터페이스부(196)는 전원부(160)에서 공급되는 전기 에너지를 이동 단말기(200)에 제공한다.Meanwhile, the interface unit 196 may serve as a path for supplying electrical energy to the connected
인터페이스부(196)는 차량(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(196)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 차량(100)에서는, 상기 인터페이스부(196)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 196 serves as a pathway to various kinds of external devices connected to the
제어부(110)는 차량(100) 내의 각 유닛, 장치, 또는 각 구송요소의 전반적인 동작을 제어할 수 있다.The
제어부(110)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 제어부(110)는 하드웨어적으로, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(microcontrollers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The
전원부(160)는, 제어부(110)의 제어에 따라, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원부(160)는 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
조향 장치(140)는 제어부(110)와 데이터를 교환할 수 있다. 조향 장치(140)에서 생성되는 각종 정보, 데이터 또는 제어 신호는 제어부(110)로 출력될 수 있다. The
상기 차량(100)은 DSM(Driver Status Monitoring) 시스템(미도시)을 더 포함할 수 있다.The
DSM(Driver Status Monitoring) 시스템은, 운전자 상태를 감지하고, 운전자 상태에 따라 차량(100)을 제어하는 시스템이다. DSM 시스템은 내부 카메라, 마이크로 폰 등의 입력장치를 포함할 수 있다.The DSM (Driver Status Monitoring) system is a system that detects the driver's state and controls the
DSM 시스템은, 운전자가 전방을 응시하는지, 졸고 있는지, 음식물을 섭취하는지, 디바이스를 조작하는지 등의 운전자 상태를 감지할 수 있다. 또한, DSM시스템은, 주행 시 운전자의 운전 집중도를 감지할 수 있다.The DSM system can sense driver conditions such as whether the driver looks ahead, is sleeping, consumes food, manipulates the device, and the like. In addition, the DSM system can detect the driving concentration of the driver during driving.
DSM 시스템은, PPG(Photoplenthysmogram)센서를 포함할 수 있다. PPG 센서는, 사용자(예를 들면, 운전자) 신체와 접촉이 가능한 스티어링 휠 일 영역에 배치될 수 있다. PPG 센서는 스티어링 휠 림의 일 영역에 배치될 수 있다. DSM 시스템은, PPG 센서를 통해 운전자의 생체 신호를 획득하여 분석할 수 있다.The DSM system may include a PPG (Photoplethysmogram) sensor. The PPG sensor may be disposed in a region of the steering wheel that is in contact with the user (e.g., driver) body. The PPG sensor may be disposed in one region of the steering wheel rim. The DSM system can acquire and analyze the driver's bio-signal through the PPG sensor.
예를 들면, DSM 시스템은, 생체 신호를 획득하여, 운전자 상태 정보로 운전자의 몸 상태 정보를 생성할 수 있다.For example, the DSM system can acquire the biological signal and generate the driver's body condition information using the driver's condition information.
예를 들면, DSM 시스템은, 생체 정보를 획득하여, 운전자 상태 정보로 운전자의 흥분 상태 정보를 생성할 수 있다.For example, the DSM system can acquire biometric information and generate driver's excitement status information using driver status information.
예를 들면, DSM 시스템은, 내부 카메라에서 획득된 운전자 이미지를 분석하여, 운전자 상태 정보로 운전자의 졸음 상태 정보를 생성할 수 있다.For example, the DSM system can analyze the driver image acquired from the internal camera and generate driver's drowsiness status information using driver status information.
예를 들면, DSM 시스템은, 내부 카메라에서 획득된 운전자 이미지를 분석하여, 운전자 디바이스 조작 상태 정보를 생성할 수 있다.For example, the DSM system can analyze the driver image acquired from the internal camera and generate driver device operation status information.
DSM 시스템은, 운전자 상태 정보를 조향 장치(140)에 제공할 수 있다.The DSM system can provide driver status information to the
차량용 디스플레이 장치(195)는 제어부(110)와 데이터를 교환할 수 있다. 제어부(110)는 차량용 디스플레이 장치(195) 또는 별도의 내비게이션 장치(미도시)로부터 내비게이션 정보를 수신할 수 있다. 여기서, 여기서, 내비게이션 정보는 설정된 목적지 정보, 상기 목적지에 따른 경로 정보, 차량 주행과 관련한, 맵(map) 정보 또는 차량 위치 정보를 포함할 수 있다.The
한편, 본 발명과 관련된 차량(100)은 다양한 램프를 포함할 수 있다. 상기 다양한 램프는, 예를 들어, 차량의 전방으로 가시광(빛)을 조사하도록 형성된 헤드램프(head lamp), 차량의 후방으로 가시광(빛)을 조사하도록 형성된 리어램프(rear lamp), 방향 지시 램프 등을 포함할 수 있다.Meanwhile, the
상기 리어 램프는 전조등, 브레이크 장치가 작동되는 경우 발광하는 브레이크 램프 및 방향 지시 램프가 하나 또는 그 이상이 조합되어 형성될 수 있다. 상기 리어 램프는, 다양한 기능을 수행하는 램프들이 조합되어 있다는 측면에서 볼 때, 리어 콤비네이션 램프(Rear Combination Lamp)(부, 모듈)로 명명될 수 있다. The rear lamp may be formed of one or more of a head lamp, a brake lamp that emits light when the brake device is operated, and a direction indicating lamp. The rear lamp may be referred to as a rear combination lamp (sub-module) in view of the combination of lamps that perform various functions.
이하에서는, 차량(100) 내의 서로 다른 방향에서 촬영된 사용자(예를 들면, 운전자) 얼굴 이미지들의 특징점들(특징 영역들)을 검출하고, 상기 검출한 특징점들을 근거로 사용자를 인식하고, 상기 인식된 사용자에 연관된 다양한 서비스 및/또는 콘텐츠 등을 제공할 수 있는 사용자 인식 장치 및 그 방법을 설명한다. 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 이동 통신 단말기(200), 텔레매틱스 단말기, 내비게이션(차량 내비게이션) 장치, 텔레비전 등에 다양하게 적용될 수 있다. Hereinafter, the feature points (feature areas) of face images of users (e.g., driver) photographed in different directions in the
도 3은 본 발명의 실시예들에 따른 제1 및 제2 카메라의 설치 위치를 나타낸 예시도 이다. 3 is an exemplary view showing installation positions of the first and second cameras according to the embodiments of the present invention.
도 3에 도시한 바와 같이, 상기 제1 카메라(301)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치될 수 있고, 상기 사용자(예를 들면, 운전자)의 얼굴을 위 방향(제1 방향)에서 촬영(캡처)할 수 있다. 상기 제2 카메라(302)는, 차량의 클러스터, 대시보드(Dashboard) 또는 윈드쉴드(Wind Shield) 하단부 등에 고정되게 설치될 수 있고, 상기 사용자(예를 들면, 운전자)의 얼굴을 아래 방향(제2 방향)에서 촬영(캡처)할 수 있다. 3, the
상기 제어부(110)는 차량의 잠금 해제 신호가 상기 통신부(120)를 통해 수신되거나, 운전자가 운전석에 착석할 때 운전석에 장착된 운전자 감시 센서로부터 발생하는 운전자 감지 신호를 근거로 상기 제1 카메라(301) 및 상기 제2 카메라(302)를 제어(예를 들면, 턴-온)할 수 있다. The
상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 의해 미리설정된 설정 정보(차량 정보)를 근거로 상기 차량의 운전석 좌석의 자세(위치), 핸들(steering wheel)의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등을 자동 제어할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 좌석 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 좌석 자세 정보를 근거로 상기 차량의 운전석 좌석의 자세를 제어하기 위한 구동부를 제어한다. 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 사이드 미러 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 사이드 미러 자세 정보를 근거로 상기 사이드 미러의 자세(위치)를 제어하기 위한 구동부를 제어한다. The
상기 제어부(110)는 상기 제1 및/또는 제2 사용자 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 연관된 콘텐츠(예를 들면, 사진, 동영상, 내비게이션 정보 등)을 차량용 인포테인먼트 시스템(in-vehicle infotainment system)을 통해 제공하거나 통신망을 통해 수신할 수 있다. The
상기 제1 카메라(301)는 사용자(예를 들면, 운전자)의 얼굴을 제1 방향(예를 들면, 사용자 얼굴의 위 방향)에서 촬영(캡처)한 제1 사용자 얼굴 이미지를 상기 제어부(110)에 출력한다. 예를 들면, 상기 제1 카메라(301)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치되, 상기 사용자(예를 들면, 운전자)의 얼굴을 위 방향(제1 방향)에서 촬영(캡처)한다. The
상기 제2 카메라(302)는 사용자(예를 들면, 운전자)의 얼굴을 제2 방향(예를 들면, 사용자 얼굴의 아래 방향)에서 촬영(캡처)한 제2 사용자 얼굴 이미지를 상기 제어부(110)에 출력한다. 예를 들면, 상기 제2 카메라(302)는, 차량의 클러스터, 데쉬보드, 윈드쉴드 하단부 등에 고정되게 설치되고, 상기 사용자(예를 들면, 운전자)의 얼굴을 아래 방향(제2 방향)에서 촬영(캡처)한다. The
상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지의 공통 특징점(들) 및 비공통 특징점(들)을 검출한다. 예를 들면, 상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지 각각에서 얼굴의 기본 특징점인 눈, 코, 입 등의 위치(2차원 좌표)를 검출한다. 상기 제어부(110)는 상기 제1 및 제2 사용자 얼굴 이미지의 기본 특징점을 근거로 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 이미지가 얼굴 이미지인지 아닌지를 구분할 수 있다.The
상기 제어부(110)는, 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 이미지가 얼굴 이미지이면, 상기 제1 및 제2 사용자 얼굴 이미지에서 얼굴의 고유 특징점(들)을 검출한다. 상기 얼굴의 고유 특징점(들)은 코끝을 기준으로 눈의 시작 위치, 눈의 큰 위치, 눈썹 위치, 눈썹 형상, 입술, 턱선, 인중, 수염, 점, 흉터 등과 같은 얼굴의 특정 부분이 될 수 있으며, 이는 이미 공지된 특징 검출기(Feature detector) 등을 이용해서 검출 가능하다.The
상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들과 상기 제2 사용자 얼굴 이미지의 고유 특징점들 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. The
상기 제어부(110)는 상기 검출된 공통 고유 특징점들(공통 고유 특징 영역들)에 대한 위치를 검출한다. 예를 들면, 상기 제어부(110)는 스테레오 매칭 기법 등을 이용해서 상기 검출된 공통 고유 특징점들에 대한 3차원의 좌표(실제 공간 좌표계)를 구한다. The
상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들과 상기 제2 사용자 얼굴 이미지의 고유 특징점들 중에서 서로 비공통인 고유 특징점들(정합 불가능한 고유 특징점들)(비공통 고유 특징 영역들)의 위치를 검출한다. 예를 들면, 상기 제어부(110)는 상기 검출된 비공통 고유 특징점들에 대한 2차원 좌표(이미지 좌표계)만을 구한다. The
도 4a-4b는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 예시도로서, 사용자가 똑바른 자세를 취했을 때 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸다. Figures 4A-4B illustrate first and second user face images taken according to embodiments of the present invention, illustrating first and second user face images taken when the user is in a straight posture.
도 4a-4b에 도시한 바와 같이, 상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들(4-1)과 상기 제2 사용자 얼굴 이미지의 고유 특징점들(4-2) 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. As shown in FIGS. 4A and 4B, the
도 4c-4d는 본 발명의 실시예들에 따라 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸 다른 예시도로서, 사용자가 똑바른 자세를 취하지 않고, 특정 방향으로 얼굴을 돌렸을 때 촬영된 제1 및 제2 사용자 얼굴 이미지를 나타낸다. FIGS. 4C-4D are diagrams showing another example of the first and second user face images taken according to the embodiments of the present invention. In this case, And a second user face image.
도 4c-4d에 도시한 바와 같이, 상기 제어부(110)는 상기 제1 사용자 얼굴 이미지의 고유 특징점들(4-3)과 상기 제2 사용자 얼굴 이미지의 고유 특징점들(4-4) 중에서 서로 공통인 고유 특징점들(정합 가능한 고유 특징점들)을 검출한다. As shown in FIGS. 4C-4D, the
상기 제어부(110)는, 상기 제1 사용자 얼굴 이미지의 공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제1 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제1 차이값을 구하고, 상기 제2 사용자 얼굴 이미지의 공통 고유 특징점들 간의 거리 값들과 상기 메모리(110)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제2 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제2 차이값을 구하고, 상기 제1 차이값과 제2 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식한다. The
상기 제어부(110)는, 상기 제1 사용자 얼굴 이미지의 비공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제1 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제3 차이값을 구하고, 상기 제2 사용자 얼굴 이미지의 비공통 고유 특징점들 간의 거리 값들과 상기 메모리(190)에 미리저장된 상기 사용자 얼굴에 대한 고유 특징점들(상기 제2 방향에서 미리촬영된 사용자 얼굴의 고유 특징점들)의 거리값들 간의 제4 차이값을 구하고, 상기 제3 차이값과 제4 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다.The
상기 제어부(110)는, 상기 제1 내지 제4 차이값의 평균 값이 미리설정된 기준값 이하이면 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다. 즉, 상기 제어부(110)는 상기 검출한 공통 및 비공통 특징점들을 미리저장된 다수의 사용자 특징점들과 비교하고, 그 비교 결과를 근거로 상기 사용자를 인증된 사용자인 것으로 인식한다.If the average value of the first to fourth difference values is less than a preset reference value, the
상기 제어부(110)는 수학식 1을 통해 제1 및 제2 얼굴 이미지의 고유 특징점들과 상기 미리저장된 고유 특징점들 간의 유사도(K)를 구할 수도 있다. The
여기서, di는 제1 또는 제2 사용자 얼굴 이미지의 고유 특징점들간의 거리값을 나타내며, ei 는 제2 또는 제1 사용자 얼굴 이미지의 고유 특징점들간의 거리값을 나타내며, Di는 제1 또는 제2 사용자 얼굴 이미지의 미리저장된 고유 특징점들간의 거리값을 나타내며, Ei 는 제2 또는 제1 사용자 얼굴 이미지의 미리저장된 고유 특징점들간의 거리값을 나타낸다. ai, bj는 각각 3차원, 2차원에 대응하는 상수값으로서, 설계자의 의도에 따라 변경될 수 있다. Here, d i represents a distance value between unique feature points of the first or second user face image, and e i D i represents a distance value between pre-stored unique feature points of the first or second user face image, E i Quot; represents a distance value between pre-stored unique feature points of the second or first user face image. a i and b j are constant values corresponding to three-dimensional and two-dimensional, respectively, and can be changed according to the designer's intention.
상기 제어부(110)는 상기 고유 특징점들간의 거리(di, ei)와 상기 미리저장된 고유 특징점들간의 거리(Di, Ei)와의 차이를 구하고, 이 차이 절대값의 평균값을 더함으로써 상기 유사도(K)를 구하고, 상기 유사도(K)가 미리 정의된 문턱치(Threshold)보다 높을 때만 상기 제1 및 제2 카메라(301, 302)에 의해 촬영된 사용자를 인증된 사용자인 것으로 인식할 수도 있다. The
따라서, 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 사용자가 똑바른 자세를 취하지 않고, 어느 방향으로 얼굴을 돌려도, 최소한 얼굴의 한쪽면을 획득할 수 있기에 고유 특징을 통한 신뢰성 있는 사용자 인증을 수행할 수 있다. Therefore, the user recognition apparatus and method according to embodiments of the present invention can acquire one face of a face at least irrespective of the direction in which the user faces, without taking a straight posture, User authentication can be performed.
이하에서는, 차량의 클러스터, 대쉬보드 등에 설치된 하나의 카메라(또는 다수의 카메라)를 사용하여 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있는 다른 사용자 인식 장치 및 그 방법을 설명한다. 예를 들면, 운전자가 차량 운행 중일 때 운전자의 자유로운 얼굴 포즈 정보를 모니터링하여 다양한 각도에서의 얼굴 이미지를 사용자 얼굴 인증 데이터베이스(DB)에 자동으로 등록 및 삭제하고, 얼굴 인식 학습을 통한 최적 사용자 얼굴 인증 데이터베이스를 업데이트하는 방법을 설명한다.Hereinafter, another user recognizing apparatus and method for accurately recognizing a user's face even if the face angle of the user changes using one camera (or a plurality of cameras) installed in a cluster of vehicles or a dashboard will be described. For example, when a driver is operating a vehicle, free face pose information of a driver is monitored to automatically register and delete face images at various angles in a user face authentication database (DB) Describes how to update the database.
도 5는 본 발명의 실시예들에 따른 카메라의 설치 위치를 나타낸 예시도 이다. 5 is an exemplary view showing an installation position of a camera according to embodiments of the present invention.
도 5에 도시한 바와 같이, 상기 카메라(501)는, 차량의 천장 또는 룸 미러의 측면 등에 고정되게 설치되거나, 차량의 클러스터, 대시보드(Dashboard) 또는 윈드쉴드(Wind Shield) 하단부 등에 고정되게 설치될 수 있다.5, the
도 6은 본 발명의 실시예에 따른 사용자 인식 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a method of recognizing a user according to an embodiment of the present invention.
먼저, 상기 제어부(110)는 차량의 잠금 해제 신호가 상기 통신부(120)를 통해 수신되거나, 운전자가 운전석에 착석할 때 운전석에 장착된 운전자 감시 센서로부터 발생하는 운전자 감지 신호를 근거로 상기 카메라(501))를 제어(예를 들면, 턴-온)할 수 있다. First, the
상기 제어부(110)는 상기 카메라(501)를 통해 운전자의 얼굴을 촬영하고, 그 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지를 비교함으로써 운전자 얼굴을 검증한다(S11). 예를 들면, 상기 제어부(110)는 상기 카메라(501)를 통해 운전자의 얼굴을 촬영하고, 그 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지를 비교하고, 그 비교결과 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭하는지를 결정한다.The
상기 제어부(110)는 상기 얼굴 검증 결과를 근거로 차량의 운전석에 착석한 사용자가 유효한 운전자인지 여부를 검출한다(S12). 예를 들면, 상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되면 차량의 운전석에 착석한 사용자가 유효한 운전자인 것으로 결정하고, 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되지 않으면 차량의 운전석에 착석한 사용자가 유효하지 않은 운전자인 것으로 결정한다.The
상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되지 않으면 상기 촬영된 얼굴 이미지를 새로운 얼굴 이미지로서 등록할 수도 있으며, 이를 도 7 및 도 8을 참조하여 설명한다.The
도 7은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 방법을 나타낸 예시도이다.7 is a diagram illustrating an example of a method of registering an operator's face image according to an exemplary embodiment of the present invention.
도 7에 도시한 바와 같이, 상기 제어부(110)는 상기 카메라(501)를 통해 정중앙 얼굴 이미지(e), 중앙위 얼굴 이미지(b), 중앙아래 얼굴 이미지(h), 왼쪽위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 미리 등록할 수 있다.7, the
상기 제어부(110)는 메모리(190)에 등록된 이미지가 전혀 존재하지 않을 때 운전자가 차량에 탑승하면 운전자의 얼굴을 메모리(190)에 등록한다. 예를 들면, 상기 제어부(110)는 메모리(190)의 특정 저장 영역(7-1)에 등록된 얼굴 이미지가 전혀 존재하지 않을 때 운전자가 차량에 탑승하면 운전자의 얼굴을 메모리(190)에 등록하기 위해 얼굴 등록 안내 메시지(예를 들면, 정면을 보세요~)를 디스플레이부(171, 195)에 표시하고, 얼굴 등록 안내 메시지에 따라 얼굴을 촬영하고, 그 촬영된 얼굴 이미지(7-2)를 식별 정보(예를 들면, 촬영된 얼굴에 대응하는 고유 이름, 번호 등)와 함께 메모리(190)에 등록(저장)한다.The
반면, 상기 제어부(110)는 상기 촬영된 얼굴 이미지(예를 들면, 정중앙 얼굴 이미지)와 미리등록된 얼굴 이미지(예를 들면, 미리등록된 정중앙 얼굴 이미지)가 서로 매칭되지 않으면 상기 촬영된 얼굴 이미지를 새로운 얼굴 이미지로서 등록할 수도 있다.On the other hand, if the photographed face image (for example, the center face image) and the registered face image (for example, the registered central face image in advance) do not match each other, May be registered as a new face image.
도 8은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 다른 방법을 나타낸 예시도이다.8 is a diagram illustrating another method of registering an operator's face image according to an embodiment of the present invention.
도 8에 도시한 바와 같이, 상기 제어부(110)는 상기 카메라(501)를 통해 정중앙 얼굴 이미지(e), 중앙위 얼굴 이미지(b), 중앙 아래 얼굴 이미지(h), 왼쪽 위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽 아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 미리 등록할 수 있다.8, the
상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하면 그 특정 저장 영역(8-1)에 이미 등록된 이미지를 그대로 유지한다.If the face image of the specific direction (for example, the center) photographed through the
상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않으면 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지가 오류 이미지인 것으로 간주하고, 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.If the face image of the specific direction (for example, the center) photographed through the
상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 차량이 정차할 때 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것인지를 문의하는 문의 메시지를 디스플레이부(171, 195)에 표시하고, 그 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것을 요청하는 사용자 입력이 수신될 때 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.The
상기 제어부(110)는 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지가 메모리(190)의 특정 저장 영역(8-1)에 이미 등록된 이미지와 매칭하지 않은 시점 이후에 차량이 미리설정된 시간 (예를 들면, 10초) 동안 정차할 때 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것인지를 문의하는 문의 메시지를 디스플레이부(171, 195)에 표시하고, 그 얼굴 이미지를 상기 오류 이미지 대신에 등록할 것을 요청하는 사용자 입력이 수신될 때 그 오류 이미지 대신에 상기 카메라(501)를 통해 촬영된 특정 방향(예를 들면, 정중앙)의 얼굴 이미지를 등록할 수도 있다.The
상기 제어부(110)는 운전자의 얼굴 이미지가 유효하면 그 유효한 얼굴 이미지를 근거로 상기 차량의 운전석 좌석의 자세(위치), 핸들(steering wheel)의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등을 자동 제어할 수도 있다. 예를 들면, 상기 제어부(110)는 인식된 사용자(유효한 운전자)에 의해 미리설정된 좌석 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 좌석 자세 정보를 근거로 상기 차량의 운전석 좌석의 자세를 제어하기 위한 구동부를 제어한다. 상기 제어부(110)는 상기 인식된 사용자에 의해 미리설정된 사이드 미러 자세 정보를 상기 메모리(190)로부터 독출(read)하고, 그 독출한 사이드 미러 자세 정보를 근거로 상기 사이드 미러의 자세(위치)를 제어하기 위한 구동부를 제어한다. The
상기 제어부(110)는 상기 유효한 얼굴 이미지를 근거로 상기 사용자(예를 들면, 운전자)를 인식하고, 상기 인식된 사용자에 연관된 콘텐츠(예를 들면, 사진, 동영상, 내비게이션 정보, 선호 채널 등)을 차량용 인포테인먼트 시스템(in-vehicle infotainment system)을 통해 제공하거나 통신망을 통해 수신할 수 있다. The
상기 제어부(110)는 상기 유효한 얼굴 이미지에서 얼굴의 기본 특징점인 눈, 코, 입 등의 위치(2차원 좌표)를 검출한다. 상기 제어부(110)는 상기 얼굴 이미지의 기본 특징점을 근거로 상기 카메라(501)에 의해 촬영된 이미지가 얼굴 이미지인지 아닌지를 구분할 수 있다.The
상기 제어부(110)는, 상기 카메라(501)에 의해 촬영된 이미지가 유효한 얼굴 이미지이면, 상기 얼굴 이미지에서 얼굴의 고유 특징점(들)을 검출한다. 상기 얼굴의 고유 특징점(들)은 코끝을 기준으로 눈의 시작 위치, 눈의 큰 위치, 눈썹 위치, 눈썹 형상, 입술, 턱선, 인중, 수염, 점, 흉터 등과 같은 얼굴의 특정 부분이 될 수 있으며, 이는 이미 공지된 특징 검출기(Feature detector) 등을 이용해서 검출 가능하다.If the image photographed by the
상기 제어부(110)는 상기 촬영된 얼굴 이미지와 미리등록된 얼굴 이미지가 서로 매칭되면 차량의 운전석에 착석한 사용자가 유효한 운전자인 것으로 결정한 후, 차량이 주행 중인지를 결정한다(S13).If the photographed face image and the previously registered face image are matched with each other, the
상기 제어부(110)는 차량이 주행 중이면 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고(S14), 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)한다(S15). 예를 들면, 상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록한다.If the vehicle is running, the
상기 제어부(110)는 차량이 정차 중일 때 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 차량이 정차 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록할 수도 있다.The
상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.The reference tolerance range may be a plurality of different reference tolerances corresponding to different face angles.
상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록할 수 있다.The
상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 메모리(190)에 등록(저장)한다.The
도 9는 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.9 is a diagram illustrating another method of registering an operator's face image according to an exemplary embodiment of the present invention.
도 9에 도시한 바와 같이, 상기 제어부(110)는 차량의 운전석에 착석한 사용자가 유효한 운전자이고, 차량이 주행 중이면, 서로 다른 얼굴 각도에 대응하는 얼굴 이미지들을 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 자동으로 등록한다.9, when the user who is seated in the driver's seat of the vehicle is an effective driver and the vehicle is running, the
예를 들면, 상기 제어부(110)는 운전자의 정중앙 얼굴 이미지(e)만이 메모리(190)에 등록되었다고 가정할 때, 차량의 운전석에 착석한 사용자가 유효한 운전자이면서 차량이 주행 중이면 중앙위 얼굴 이미지(b), 중앙 아래 얼굴 이미지(h), 왼쪽위 얼굴 이미지(a), 왼쪽중앙 얼굴 이미지(d), 왼쪽 아래 얼굴 이미지(g), 오른쪽 위 얼굴 이미지(c), 오른쪽중앙 얼굴 이미지(f), 오른쪽 아래 얼굴 이미지(i) 등을 순차적 또는 랜덤으로 촬영하고, 그 촬영된 얼굴 이미지들을 메모리(190)에 자동으로 등록한다.For example, when it is assumed that only the central image (e) of the driver's face is registered in the
상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 미리설정된 왼쪽 위 얼굴 이미지(a)(9-1)의 기준 허용 범위(예를 들면, 왼쪽 위 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도)(9-2) 내에 위치할 때 상기 기준 허용 범위(9-2) 내에 위치하는 얼굴의 제1 이미지(9-5)를 촬영하고, 상기 촬영된 제1 이미지(9-5)를 상기 메모리(저장부)(190)에 자동으로 등록한다.The
상기 제어부(110)는 상기 차량이 주행 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 미리설정된 오른쪽 아래 얼굴 이미지(i)의 기준 허용 범위(예를 들면, 오른쪽 아래 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도) 내에 위치할 때 상기 기준 허용 범위(예를 들면, 오른쪽 아래 얼굴 이미지의 얼굴 각도(고개 각도)가 30도 내지 60도) 내에 위치하는 얼굴의 제2 이미지를 촬영하고, 상기 촬영된 제2 이미지를 상기 메모리(저장부)(190)에 자동으로 등록한다.The
상기 제어부(110)는 차량이 정차 중일 때 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지를 카메라(501)를 통해 촬영하고, 그 촬영된 얼굴 이미지들을 상기 메모리(저장부)(190)에 자동으로 등록(저장)할 수도 있다. 예를 들면, 상기 제어부(110)는 상기 차량이 정차 중일 때 상기 카메라(501)를 통해 상기 차량 내의 사용자의 얼굴 각도를 실시간 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 제1 이미지를 촬영하고, 상기 촬영된 제1 이미지를 상기 메모리(저장부)(190)에 자동으로 등록할 수도 있다.The
상기 기준 허용 범위는 서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위일 수 있다.The reference tolerance range may be a plurality of different reference tolerances corresponding to different face angles.
상기 제어부(110)는 상기 촬영된 제1 이미지를 상기 메모리(190)에 일시적으로 등록할 수 있다.The
상기 제어부(110)는 상기 촬영된 제1 이미지(9-5)를 상기 메모리(190)에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위(예를 들면, 30도 내지 60도) 내의 제1 각도(제1 고정 각도)(예를 들면, 45도)와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 제1 이미지 대신에 상기 촬영된 제2 이미지를 상기 메모리(190)에 등록(저장)한다.The
도 10은 본 발명의 실시예에 따른 운전자 얼굴 이미지를 등록하는 또 다른 방법을 나타낸 예시도이다.FIG. 10 is an exemplary view showing another method of registering an operator's face image according to an embodiment of the present invention.
도 10에 도시한 바와 같이, 상기 제어부(110)는 상기 촬영된 제1 이미지(9-5)를 상기 메모리(190)에 일시적으로 등록한 후에도 운전자의 얼굴 각도를 실시간 모니터링하고, 그 모니터링된 현재 얼굴 각도(9-3)가 상기 기준 허용 범위(예를 들면, 30도 내지 60도) 내의 제1 각도(제1 고정 각도)(예를 들면, 45도)(9-4)와 매칭될 때 상기 제1 각도(9-4)에 매칭되는 얼굴의 제2 이미지(10-1)를 촬영하고, 상기 제1 이미지(9-5) 대신에 상기 촬영된 제2 이미지(10-1)를 상기 메모리(190)에 최종이미지로서 등록(저장)하며, 이때 최종 이미지를 등록한 후 더 이상의 얼굴 이미지 업데이트가 불가하도록 메모리190)를 제어한다.As shown in FIG. 10, the
이상에서 상세히 설명한 바와 같이, 본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 서로 다른 방향으로 촬영된 사용자 얼굴 이미지들을 근거로 사용자 얼굴을 인식함으로써, 사용자의 얼굴 각도가 변화하더라도 사용자 얼굴을 정확히 인식할 수 있다.As described above, the user recognition apparatus and method according to embodiments of the present invention recognize a user face based on user face images photographed in different directions, so that even if the user's face angle changes, Can be accurately recognized.
본 발명의 실시예들에 따른 사용자 인식 장치 및 그 방법은, 얼굴 이미지 내의 공통 및/또는 비공통 고유 특징점들을 근거로 사용자가 똑바른 자세를 취하지 않아도 정확하게 사용자를 인식할 수 있으며, 상기 인식된 사용자에 의해 미리설정된 차량 정보를 근거로 차량의 운전석 좌석의 자세(위치), 핸들의 높이, 사이드 미러(Side Mirror), 룸 미러(Room Mirror) 등의 자세(위치)를 정확하게 설정(제어)할 수도 있다. The user recognition apparatus and method according to embodiments of the present invention can accurately recognize a user even if the user does not take a straight posture based on common and / or non-common unique feature points in a face image, (Position) of the driver's seat of the vehicle, the height of the handle, the side mirror, the room mirror, etc., based on the vehicle information previously set by the driver have.
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
Claims (10)
카메라와;
메모리와;
디스플레이부와;
상기 차량이 주행 중일 때 상기 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하고, 상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 이미지를 촬영하고, 상기 촬영된 이미지를 상기 메모리에 자동으로 등록하는 제어부를 포함하며,
상기 제어부는,
상기 메모리에 등록될 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들 중에서 일부 이미지만이 상기 메모리에 등록되었을 때 상기 카메라를 통해 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들을 상기 차량이 주행 중일 때 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 메모리에 자동으로 등록하고,
상기 카메라를 통해 촬영된 얼굴 이미지들 중에서 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭되지 않으면, 그 매칭되지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 제1 이미지를 등록할 것인지를 문의하는 메시지를 상기 디스플레이부에 표시하고,
상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 메모리의 특정 저장 영역에 이미 등록된 이미지 대신에 상기 제1 이미지를 상기 메모리에 등록하는 것을 특징으로 하는 사용자 인식 장치. A user recognition apparatus mounted on a vehicle, the user recognition apparatus comprising:
A camera;
A memory;
A display unit;
Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running and photographing an image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance range, And a controller for automatically registering the image in the memory,
Wherein,
When only some of the face images corresponding to different face angles to be registered in the memory are registered in the memory, face images corresponding to different face angles are photographed when the vehicle is running , Automatically registers the photographed face images in the memory,
When the first image out of the face images photographed by the camera does not match the image already registered in the specific storage area of the memory and the vehicle stops for a preset time after the non-matching point, A message inquiring whether to register an image is displayed on the display unit,
And registers the first image in the memory instead of an image already registered in a specific storage area of the memory when an input requesting to register the first image is received.
상기 촬영된 얼굴 이미지들의 서로 다른 각 얼굴 각도가 서로 다른 각 얼굴 각도에 대응하는 각 기준 허용 범위 내에 위치할 때 상기 각 기준 허용 범위 내에 위치하는 각 얼굴의 이미지를 촬영하고, 상기 각각 촬영된 이미지를 상기 메모리에 자동으로 등록하는 것을 특징으로 하는 사용자 인식 장치. The apparatus of claim 1,
When each of the different facial angles of the photographed face images is located within each of the reference permissible ranges corresponding to different facial angles, images of the respective faces located within the respective reference permissible ranges are photographed, And automatically registers it in the memory.
서로 다른 얼굴 각도에 대응하는 서로 다른 다수의 기준 허용 범위인 것을 특징으로 하는 사용자 인식 장치. The apparatus according to claim 1,
Wherein the predetermined range is a plurality of different reference allowable ranges corresponding to different face angles.
상기 촬영된 이미지를 상기 메모리에 일시적으로 등록하는 것을 특징으로 하는 사용자 인식 장치. The apparatus of claim 1,
And temporarily registers the photographed image in the memory.
상기 촬영된 이미지를 상기 메모리에 일시적으로 등록한 후 상기 모니터링된 얼굴 각도가 상기 기준 허용 범위 내의 제1 각도와 매칭될 때 상기 제1 각도에 매칭되는 얼굴의 제2 이미지를 촬영하고, 상기 촬영된 이미지를 대신에 상기 촬영된 제2 이미지를 상기 메모리에 등록하는 것을 특징으로 하는 사용자 인식 장치. 6. The apparatus of claim 5,
Temporarily registering the photographed image in the memory and then photographing a second image of the face matched to the first angle when the monitored face angle matches a first angle within the reference tolerance, And registers the photographed second image in the memory instead of the second image.
상기 기준 허용 범위에 속하는 고정 각도인 것을 특징으로 하는 사용자 인식 장치. 7. The method of claim 6,
Is a fixed angle belonging to the reference allowable range.
상기 차량이 주행 중일 때 카메라를 통해 상기 차량 내의 사용자의 얼굴 각도를 모니터링하는 단계와;
상기 모니터링된 얼굴 각도가 기준 허용 범위 내에 위치할 때 상기 기준 허용 범위 내에 위치하는 얼굴의 이미지를 촬영하는 단계와;
상기 촬영된 이미지를 메모리에 자동으로 등록하는 단계와;
상기 메모리에 등록될 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들 중에서 일부 이미지만이 상기 메모리에 등록되었을 때 상기 카메라를 통해 서로 다른 얼굴 각도들에 대응하는 얼굴 이미지들을 상기 차량이 주행 중일 때 촬영하고, 상기 촬영된 얼굴 이미지들을 상기 메모리에 자동으로 등록하는 단계와;
상기 카메라를 통해 촬영된 얼굴 이미지들 중에서 제1 이미지가 상기 메모리의 특정 저장 영역에 이미 등록된 이미지와 매칭되지 않으면, 그 매칭되지 않은 시점 이후에 상기 차량이 미리설정된 시간 동안 정차할 때 상기 제1 이미지를 등록할 것인지를 문의하는 메시지를 디스플레이부에 표시하는 단계와;
상기 제1 이미지를 등록할 것을 요청하는 입력이 수신될 때 상기 메모리의 특정 저장 영역에 이미 등록된 이미지 대신에 상기 제1 이미지를 상기 메모리에 등록하는 단계를 포함하는 것을 특징으로 하는 사용자 인식 방법.A user recognition method of a user recognition device mounted on a vehicle,
Monitoring a face angle of a user in the vehicle through the camera when the vehicle is running;
Capturing an image of a face located within the reference tolerance when the monitored face angle is within a reference tolerance;
Automatically registering the photographed image in a memory;
When only some of the face images corresponding to different face angles to be registered in the memory are registered in the memory, face images corresponding to different face angles are photographed when the vehicle is running Automatically registering the photographed face images in the memory;
When the first image out of the face images photographed by the camera does not match the image already registered in the specific storage area of the memory and the vehicle stops for a preset time after the non-matching point, Displaying a message on a display unit to inquire whether to register an image;
Registering the first image in the memory instead of an image already registered in a specific storage area of the memory when an input requesting to register the first image is received.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160092819A KR101892009B1 (en) | 2016-07-21 | 2016-07-21 | User recognition apparatus and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160092819A KR101892009B1 (en) | 2016-07-21 | 2016-07-21 | User recognition apparatus and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180010548A KR20180010548A (en) | 2018-01-31 |
KR101892009B1 true KR101892009B1 (en) | 2018-08-27 |
Family
ID=61083246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160092819A KR101892009B1 (en) | 2016-07-21 | 2016-07-21 | User recognition apparatus and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101892009B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230105821A (en) | 2022-01-05 | 2023-07-12 | (주)베테랑소사이어티 | A concentration monitoring system using portable wireless fNIRS technology and metod and system for monitoring using the same |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513859A (en) * | 2004-09-16 | 2008-05-01 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | Method for identifying a driver based on an image in a motor vehicle |
JP2009193184A (en) * | 2008-02-13 | 2009-08-27 | Nissan Motor Co Ltd | Face recognition device and face recognition method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101875966B1 (en) * | 2012-11-29 | 2018-07-06 | 현대자동차주식회사 | A missing point restoration method in face recognition for vehicle occupant |
-
2016
- 2016-07-21 KR KR1020160092819A patent/KR101892009B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008513859A (en) * | 2004-09-16 | 2008-05-01 | バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト | Method for identifying a driver based on an image in a motor vehicle |
JP2009193184A (en) * | 2008-02-13 | 2009-08-27 | Nissan Motor Co Ltd | Face recognition device and face recognition method |
Also Published As
Publication number | Publication date |
---|---|
KR20180010548A (en) | 2018-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101800508B1 (en) | Method for preventing drunk-driving and driver assistance appratus having the same | |
KR101834348B1 (en) | Drive assistance appratus and control method for the same | |
KR101916993B1 (en) | Display apparatus for vehicle and control method thereof | |
KR101853396B1 (en) | Appratus and method for controlling portable device within a vehicle | |
KR101750178B1 (en) | Warning Method Outside Vehicle, Driver Assistance Apparatus For Executing Method Thereof and Vehicle Having The Same | |
KR101834349B1 (en) | Steer Input apparatus and Vehicle | |
KR20170099188A (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101843538B1 (en) | Driver assistance appratus and method thereof | |
KR102470298B1 (en) | A method of correcting cameras and device thereof | |
KR20170054849A (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101732263B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101917412B1 (en) | Apparatus for providing emergency call service using terminal in the vehicle and Vehicle having the same | |
KR20170140284A (en) | Vehicle driving aids and vehicles | |
KR20180080939A (en) | Driving assistance apparatus and vehicle having the same | |
KR101843535B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101897350B1 (en) | Driver Assistance Apparatus | |
KR101850857B1 (en) | Display Apparatus and Vehicle Having The Same | |
KR101892009B1 (en) | User recognition apparatus and method thereof | |
KR101985496B1 (en) | Driving assistance apparatus and vehicle having the same | |
KR20180106336A (en) | Camera apparatus, collision prevention apparatus using the same and method of preventing collision | |
KR20180069646A (en) | Driver assistance apparatus | |
KR101894636B1 (en) | Driver Assistance Apparatus and Vehicle Having The Same | |
KR101888259B1 (en) | Vehicle Assistance Apparatus and Vehicle Having The Same | |
KR101938884B1 (en) | Parking Assistance Apparatus and Vehicle Having The Same | |
KR101929291B1 (en) | Vehicular Communication Apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |