KR102235031B1 - Real-time processable camera based driving environment detection vehicle system - Google Patents

Real-time processable camera based driving environment detection vehicle system Download PDF

Info

Publication number
KR102235031B1
KR102235031B1 KR1020190009239A KR20190009239A KR102235031B1 KR 102235031 B1 KR102235031 B1 KR 102235031B1 KR 1020190009239 A KR1020190009239 A KR 1020190009239A KR 20190009239 A KR20190009239 A KR 20190009239A KR 102235031 B1 KR102235031 B1 KR 102235031B1
Authority
KR
South Korea
Prior art keywords
camera
image
vehicle system
information
region
Prior art date
Application number
KR1020190009239A
Other languages
Korean (ko)
Other versions
KR20200092102A (en
Inventor
강정열
Original Assignee
주식회사 아이에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이에이 filed Critical 주식회사 아이에이
Priority to KR1020190009239A priority Critical patent/KR102235031B1/en
Priority to PCT/KR2019/015936 priority patent/WO2020153591A1/en
Publication of KR20200092102A publication Critical patent/KR20200092102A/en
Application granted granted Critical
Publication of KR102235031B1 publication Critical patent/KR102235031B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Arrangement of adaptations of instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/04Rear-view mirror arrangements mounted inside vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • H04N5/2257
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/12Mirror assemblies combined with other articles, e.g. clocks
    • B60R2001/1253Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Combustion & Propulsion (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

본 발명의 일 실시예는 차량 시스템의 내측에 제1 방향을 향하도록 배치되고 제1 타입의 영상 정보를 감지하는 제1 영상 카메라, 차량의 내측에 상기 제1 방향을 향하도록 배치되고 상기 제1 타입과 상이한 제2 타입의 영상 정보를 감지하는 제2 영상 카메라, 상기 제1 영상 카메라 및 상기 제2 영상 카메라에서 감지한 영상 정보를 이용하여 정보를 가공하는 제어부 및 상기 제어부에서 가공한 하나 이상의 정보를 사용자에게 표현하는 디스플레이부를 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 개시한다.According to an embodiment of the present invention, a first video camera is disposed inside a vehicle system to face a first direction and detects a first type of image information, and a first video camera is disposed inside a vehicle to face the first direction, and the first A second image camera that detects image information of a second type different from the type, a controller that processes information using image information detected by the first image camera and the second image camera, and one or more pieces of information processed by the controller Disclosed is a vehicle system for detecting a driving environment based on a camera capable of real-time processing, including a display unit for expressing a user.

Description

실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템{Real-time processable camera based driving environment detection vehicle system}Real-time processable camera based driving environment detection vehicle system}

본 발명은 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템에 관한 것이다.The present invention relates to a camera-based driving environment detection vehicle system capable of real-time processing.

기술의 발전에 각종 이동 수단의 새로운 용도 및 개량에 관한 연구가 지속되고 있다.With the development of technology, research on new uses and improvements of various means of transportation continues.

예를들면 사람들이 차량의 다양한 편의와 운전 제어에 대한 연구가 활발하게 진행되고 있다.For example, research on various convenience and driving control of a vehicle by people is being actively conducted.

특히, 차량에 대하여 사용자의 개입을 감소하고 사용자의 운전 편의와 안정성을 향상하는 스마트 주행에 대한 연구가 증대되고 있고, 예를들면 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)을 들 수 있다.In particular, research on smart driving that reduces user intervention with respect to vehicles and improves user's driving convenience and stability is increasing, for example, Smart Cruise Control (SCC).

이러한 스마트 주행은 차량의 전방의 다양한 정보를 확보하는 것으로 진행할 수 있고, 예를들면 전방의 차량 이나 사람에 대한 정보를 확보할 수 있다.Such smart driving can proceed by securing various information in front of the vehicle, for example, it is possible to secure information on the vehicle or a person in front.

그러나, 차량 시스템의 전체적인 구조, 주행 특성 등으로 인하여 차량의 주행 시 주행 환경에 대한 정보를 확보하거나 확보된 정보의 정밀도를 향상하는 데 한계가 있다.However, due to the overall structure and driving characteristics of the vehicle system, there is a limitation in securing information on a driving environment while driving a vehicle or improving the accuracy of the acquired information.

본 발명은 차량의 안정적인 주행 성능을 향상하고 사용자의 주행 편의성을 향상할 수 있는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 제공할 수 있다. The present invention can provide a camera-based driving environment detection vehicle system capable of real-time processing capable of improving stable driving performance of a vehicle and improving driving convenience of a user.

본 발명의 일 실시예는 차량 시스템의 내측에 제1 방향을 향하도록 배치되고 제1 타입의 영상 정보를 감지하는 제1 영상 카메라, 차량의 내측에 상기 제1 방향을 향하도록 배치되고 상기 제1 타입과 상이한 제2 타입의 영상 정보를 감지하는 제2 영상 카메라, 상기 제1 영상 카메라 및 상기 제2 영상 카메라에서 감지한 영상 정보를 이용하여 정보를 가공하는 제어부 및 상기 제어부에서 가공한 하나 이상의 정보를 사용자에게 표현하는 디스플레이부를 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 개시한다.According to an embodiment of the present invention, a first video camera is disposed inside a vehicle system to face a first direction and detects a first type of image information, and a first video camera is disposed inside a vehicle to face the first direction, and the first A second image camera that detects image information of a second type different from the type, a controller that processes information using image information detected by the first image camera and the second image camera, and one or more pieces of information processed by the controller Disclosed is a vehicle system for detecting a driving environment based on a camera capable of real-time processing, including a display unit for expressing a user.

본 실시예에 있어서 상기 제1 영상 카메라는 가시 광선을 이용할 수 있다.In this embodiment, the first image camera may use visible light.

본 실시예에 있어서 상기 제2 영상 카메라는 적외선, 근적외선 또는 원적외선을 이용할 수 있다.In this embodiment, the second image camera may use infrared rays, near infrared rays, or far infrared rays.

본 실시예에 있어서 상기 차량 시스템은 내측에 룸미러부가 배치되고, 상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 룸미러부에 배치될 수 있다.In the present embodiment, the vehicle system may have a room mirror unit disposed inside, and the first image camera or the second image camera may be disposed at the room mirror unit.

본 실시예에 있어서 상기 차량 시스템의 전방을 향하는 전방 윈도우를 포함하고, 상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 상기 전방 윈도우를 향하도록 배치될 수 있다.In the present embodiment, a front window facing the front of the vehicle system may be included, and the first image camera or the second image camera may be disposed to face the front window.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

한편, 본 발명은 전자부품연구원이 주관하는 산업자원통상부 산하 한국산업기술평가관리원의 자동차산업핵심기술개발사업 지원으로 수행되었다.On the other hand, the present invention was carried out with the support of the automobile industry core technology development project by the Korea Institute of Industrial Technology Evaluation and Management under the Ministry of Commerce, Industry and Energy managed by the Electronic Components Research Institute.

본 발명에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템은 차량의 안정적인 주행 성능을 향상할 수 있고 사용자의 주행 편의성을 향상할 수 있다. The real-time processing capable camera-based driving environment detection vehicle system according to the present invention can improve the stable driving performance of the vehicle and improve the driving convenience of the user.

도 1은 본 발명의 일 실시예에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 도시한 개략적인 도면이다.
도 2는 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 평면도이다.
도 3은 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 사시도이다.
도 4는 도 2의 K의 개략적인 확대도이다.
도 5는 도 2 또는 도 3의 일 측에서 본 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 개략적인 좌측면도이다.
도 6은 도 5의 K 방향에서 본 개략적인 정면도이다.
도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.
도 8은 도 7의 일 변형예이다.
도 9는 도 7의 다른 일 변형예이다.
1 is a schematic diagram showing a vehicle system for detecting a driving environment based on a camera capable of real-time processing according to an embodiment of the present invention.
FIG. 2 is a plan view illustrating an example of the vehicle system for detecting a driving environment based on a camera capable of real-time processing of FIG. 1.
3 is a perspective view illustrating an example of the vehicle system for detecting a driving environment based on a camera capable of real-time processing of FIG. 1.
4 is a schematic enlarged view of K of FIG. 2.
5 is a schematic left side view of a camera-based driving environment detection vehicle system capable of real-time processing viewed from one side of FIG. 2 or 3.
6 is a schematic front view as seen from the direction K of FIG. 5.
7 is a schematic cross-sectional view taken along the line VII-VII of FIG. 6.
8 is a modified example of FIG. 7.
9 is another modified example of FIG. 7.

이하 첨부된 도면들에 도시된 본 발명에 관한 실시예를 참조하여 본 발명의 구성 및 작용을 상세히 설명한다.Hereinafter, the configuration and operation of the present invention will be described in detail with reference to embodiments of the present invention shown in the accompanying drawings.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can apply various transformations and have various embodiments, specific embodiments are illustrated in the drawings and will be described in detail in the detailed description. Effects and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and redundant descriptions thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one constituent element from other constituent elements rather than a limiting meaning.

이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the following examples, expressions in the singular include plural expressions unless the context clearly indicates otherwise.

이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the following embodiments, terms such as include or have means that the features or elements described in the specification are present, and do not preclude the possibility of adding one or more other features or components in advance.

도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the drawings, components may be exaggerated or reduced in size for convenience of description. For example, the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, and thus the present invention is not necessarily limited to what is shown.

이하의 실시예에서, x축, y축 및 z축은 직교 좌표계 상의 세 축으로 한정되지 않고, 이를 포함하는 넓은 의미로 해석될 수 있다. 예를 들어, x축, y축 및 z축은 서로 직교할 수도 있지만, 서로 직교하지 않는 서로 다른 방향을 지칭할 수도 있다. In the following embodiments, the x-axis, y-axis, and z-axis are not limited to three axes on a Cartesian coordinate system, and may be interpreted in a broad sense including them. For example, the x-axis, y-axis, and z-axis may be orthogonal to each other, but may refer to different directions that are not orthogonal to each other.

어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. When a certain embodiment can be implemented differently, a specific process order may be performed differently from the described order. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to the described order.

도 1은 본 발명의 일 실시예에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 도시한 개략적인 도면이다.1 is a schematic diagram showing a vehicle system for detecting a driving environment based on a camera capable of real-time processing according to an embodiment of the present invention.

도 1을 참조하면 본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템(100)은 제1 영상 카메라(110), 제2 영상 카메라(120), 제어부(130) 및 디스플레이부(150)를 포함할 수 있다.Referring to FIG. 1, a camera-based driving environment detection vehicle system 100 capable of real-time processing according to the present embodiment includes a first image camera 110, a second image camera 120, a control unit 130, and a display unit 150. can do.

제1 영상 카메라(110)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있다. 예를들면 제1 영상 카메라(110)는 차량의 진행 시 전방을 향하도록 배치될 수 있고, 구체적 예로서 차량의 내측에 차량의 전방 윈도우 내측에 배치될 수 있다. 이를 통하여 차량의 전방의 사람, 장애물 및 도로 상황에 대한 정보를 감지할 수 있다.The first image camera 110 may be disposed inside the vehicle to face a first direction. For example, the first image camera 110 may be disposed to face forward when the vehicle proceeds, and as a specific example, it may be disposed inside the vehicle's front window. Through this, it is possible to detect information on people, obstacles, and road conditions in front of the vehicle.

제1 영상 카메라(110)는 제1 타입의 영상 정보를 감지하고 촬영하도록 형성될 수 있고, 예를들면 제1 영상 카메라(110)는 가시 광선 적용 카메라일 수 있고, 이미지 센서, 구체적 예로서 CCD(charge coupled device)를 포함할 수 있다.The first image camera 110 may be formed to detect and photograph the first type of image information. For example, the first image camera 110 may be a visible light-applied camera, and an image sensor, as a specific example, is a CCD It may include a (charge coupled device).

제2 영상 카메라(120)는 차량의 내측에 상기 제1 방향을 향하도록 배치될 수 있다. 예를들면 제2 영상 카메라(120)는 차량의 진행 시 전방을 향하도록 배치될 수 있고, 구체적 예로서 차량의 내측에 차량의 전방 윈도우 내측에 배치될 수 있다. 이를 통하여 차량의 전방의 사람, 장애물 및 도로 상황에 대한 정보를 감지할 수 있다.The second image camera 120 may be disposed inside the vehicle to face the first direction. For example, the second image camera 120 may be disposed to face forward when the vehicle proceeds, and as a specific example, it may be disposed inside the vehicle's front window. Through this, it is possible to detect information on people, obstacles, and road conditions in front of the vehicle.

제2 영상 카메라(120)는 상기 제1 타입과 다른 제2 타입의 영상 정보를 감지하고 촬영하도록 형성될 수 있다. 예를들면 제2 영상 카메라(120)는 적외선, 원적외선 및 근적외선 카메라 중 하나일 수 있고, 필요한 경우에 동일한 종류의 복수의 카메라 또는 서로 상이한 종류의 복수의 카메라를 포함할 수도 있다.The second image camera 120 may be formed to detect and photograph image information of a second type different from the first type. For example, the second image camera 120 may be one of infrared, far-infrared, and near-infrared cameras, and may include a plurality of cameras of the same type or a plurality of cameras of different types, if necessary.

제어부(130)는 상기 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 촬영한 영상에 관한 정보를 받아 가공할 수 있다. 예를들면 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 사용자가 인식할 수 있는 이미지 정보를 생성할 수 있고, 구체적 예로서 차량 주변의 하나의 대상에 대한 제1 영상 카메라(110)가 촬영한 정보와 제2 영상 카메라(120)에서 촬영한 정보를 종합하여 최종적인 이미지 정보를 생성하여 사용자에게 제공되는 대상 정보의 정확도를 향상할 수 있다.The controller 130 may receive and process information about images captured by the first and second image cameras 110 and 120. For example, the controller 130 may generate image information that can be recognized by a user by using information received from the first image camera 110 and the second image camera 120. As a specific example, It is possible to improve the accuracy of the target information provided to the user by generating final image information by synthesizing the information captured by the first image camera 110 and the information captured by the second image camera 120 for one target. have.

선택적 실시예로서 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 차량, 사람 및 인공 도로 정보를 구별하여 이러한 구별된 방식의 정보를 이미지 정보로 생성할 수 있다.As an optional embodiment, the controller 130 distinguishes vehicle, person, and artificial road information using information received from the first image camera 110 and the second image camera 120, and converts the information in such a distinct manner into image information. Can be created with

선택적 실시예로서 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 가공된 정보 또는 정보 그대로를 저장할 수 있고, 이를 위하여 별도의 저장부를 포함하거나 제어부(130)내에 저장부를 포함할 수 있다. As an optional embodiment, the controller 130 may store processed information or information as it is by using information received from the first and second image cameras 110 and 120, and includes a separate storage unit for this purpose. A storage unit may be included in the control unit 130.

제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 차량, 사람 및 인공 도로 정보를 구별하여 이러한 구별된 방식의 정보를 이미지 정보로 생성할 수 있고, 이러한 구별된 정보를 상기 저장부에 저장할 수 있다. 저장된 정보를 이용하여 제어부(130)는 다양한 방식으로 학습할 수 있고, 이를 통하여 제어부(130)의 대상 구별 정확도를 향상할 수 있다. The control unit 130 may generate information in such a distinct manner as image information by distinguishing vehicle, person, and artificial road information using information received from the first image camera 110 and the second image camera 120. In addition, such differentiated information may be stored in the storage unit. Using the stored information, the control unit 130 can learn in various ways, and through this, the accuracy of object identification of the control unit 130 can be improved.

선택적 실시예로서 제어부(130)는 차량 시스템의 구동 제어부 또는 조향 제어부와 연결될 수 있고, 제어부(130)의 정보를 구동 제어부 또는 조향 제어부에 전달하여 차량에 대한 주행 시 사용자가 인식하지 못한 위험한 장애물의 경우 차량의 주행의 일부를 제어할 수 있고, 필요한 경우 사용자가 선택에 따라 차량의 자율적 주행을 제어할 수도 있다.As an optional embodiment, the control unit 130 may be connected to the driving control unit or the steering control unit of the vehicle system, and transmits information of the control unit 130 to the driving control unit or the steering control unit to prevent dangerous obstacles that the user does not recognize when driving the vehicle. In this case, part of the vehicle's driving may be controlled, and if necessary, the user may control autonomous driving of the vehicle according to the selection.

디스플레이부(150)는 상기 제어부(130)에서 가공한 정보를 사용자에게 표시하도록 형성될 수 있다. 예를들면 디스플레이부(150)는 차량의 내측에 배치된 대시보드의 일면, 계기판 또는 룸미러의 일면 등 사용자가 인식할 수 있는 다양한 방식으로 배치될 수 있다.The display unit 150 may be formed to display information processed by the control unit 130 to a user. For example, the display unit 150 may be arranged in various ways that can be recognized by a user, such as one surface of a dashboard, an instrument panel, or a rear view mirror arranged inside a vehicle.

선택적 실시예로서 디스플레이부(150)는 액정 디스플레이 패널, 유기 발광 다이오드 패널, 양자점 디스플레이 패널 또는 기타 다양한 종류의 디스플레이 소자를 포함할 수 있다.As an optional embodiment, the display unit 150 may include a liquid crystal display panel, an organic light emitting diode panel, a quantum dot display panel, or other various types of display devices.

선택적 실시예로서 본 실시예는 사용자에게 음성 정보를 제공해주는 음성 표현 출력부를 더 포함할 수 있다.As an optional embodiment, this embodiment may further include a voice expression output unit that provides voice information to a user.

도 2는 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 평면도이고, 도 3은 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 사시도이다.FIG. 2 is a plan view illustrating an example of the real-time processing camera-based driving environment detection vehicle system of FIG. 1, and FIG. 3 is a perspective view illustrating an example of the real-time processing camera-based driving environment detection vehicle system of FIG. 1.

도 4는 도 2의 K의 개략적인 확대도이고, 도 5는 도 2 또는 도 3의 일 측에서 본 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 개략적인 좌측면도이다.FIG. 4 is a schematic enlarged view of K of FIG. 2, and FIG. 5 is a schematic left side view of a camera-based driving environment detection vehicle system capable of real-time processing viewed from one side of FIG. 2 or 3.

도 6은 도 5의 K 방향에서 본 개략적인 정면도이고, 도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.FIG. 6 is a schematic front view as seen in the direction K of FIG. 5, and FIG. 7 is a schematic cross-sectional view taken along the line VII-VII in FIG. 6.

도 2를 참조하면 본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템(100, 이하 설명의 편의를 위하여 "차량 시스템"이라고 함)의 위에서 본 평면도로서 전진 방향(F) 및 후진 방향(R)을 가리키고 있다.Referring to FIG. 2, a top plan view of a camera-based driving environment detection vehicle system 100 capable of real-time processing according to the present embodiment (referred to as a “vehicle system” for convenience of description below) as a forward direction (F) and a reverse direction (R). Is pointing.

차량 시스템(100)은 사용자의 의도에 따라 전진 방향(F) 및 후진 방향(R)으로 주행이 가능하도록 형성될 수 있다. The vehicle system 100 may be formed to enable driving in a forward direction F and a reverse direction R according to a user's intention.

차량 시스템(100)의 내측에는 룸미러부(RM)가 배치될 수 있다. A rearview mirror unit RM may be disposed inside the vehicle system 100.

제1 영상 카메라(110)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있는데, 선택적 실시예로서 차량의 전진 방향(F)을 향하도록 배치될 수 있고, 구체적 예로서 차량 시스템(100)의 내측에 배치된 룸미러부(RM)의 일면에 배치될 수 있다.The first image camera 110 may be disposed on the inside of the vehicle to face the first direction. As an optional embodiment, the first image camera 110 may be disposed to face the forward direction F of the vehicle, and as a specific example, the vehicle system 100 It may be disposed on one surface of the room mirror unit RM disposed inside of the.

선택적 실시예로서 도 4를 참조하면 룸미러부(RM)의 일면에 미러면(MS)이 형성되고, 미러면(MS)이 형성되지 않은 면, 예를들면 미러면(MS)과 이격되도록 제1 영상 카메라(110)가 배치되어 전진 방향(F)을 향할 수 있다.As an alternative embodiment, referring to FIG. 4, the mirror surface MS is formed on one surface of the rearview mirror unit RM, and the surface MS is not formed, for example, it is provided to be spaced apart from the mirror surface MS. 1 An image camera 110 may be disposed to face the forward direction F.

제2 영상 카메라(120)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있는데, 선택적 실시예로서 차량의 전진 방향(F)을 향하도록 배치될 수 있고, 구체적 예로서 차량 시스템(100)의 내측에 배치된 룸미러부(RM)의 일면에 배치될 수 있다.The second image camera 120 may be disposed inside the vehicle to face the first direction. As an optional embodiment, the second image camera 120 may be disposed to face the forward direction F of the vehicle. As a specific example, the vehicle system 100 It may be disposed on one surface of the room mirror unit RM disposed inside of the.

선택적 실시예로서 도 4를 참조하면 룸미러부(RM)의 일면에 미러면(MS)이 형성되고, 미러면(MS)이 형성되지 않은 면, 예를들면 미러면(MS)과 이격되도록 제2 영상 카메라(120)가 배치되어 전진 방향(F)을 향할 수 있다.As an alternative embodiment, referring to FIG. 4, the mirror surface MS is formed on one surface of the rearview mirror unit RM, and the surface MS is not formed, for example, it is provided to be spaced apart from the mirror surface MS. 2 The image camera 120 may be disposed to face the forward direction (F).

선택적 실시예로서 제1 영상 카메라(110)는 제2 영상 카메라(120)와 일 방향을 따라서 나란하게 배치될 수 있고, 또한 서로 간격을 갖도록 이격되어 배치될 수도 있다.As an optional embodiment, the first image camera 110 and the second image camera 120 may be disposed parallel to each other along one direction, or may be spaced apart from each other so as to have an interval.

도 2에 도시한 것과 같이 차량 시스템(100)의 제1 영상 카메라(110) 및 제2 영상 카메라(120)는 서로 동일한 방향 또는 적어도 중첩되는 촬영 영역을 갖도록 배치될 수 있고, 이를 통하여 차량 주변의 사람, 장애물 또는 도로 환경에 대한 중첩 촬영을 통한 정밀한 환경 정보 인식이 가능할 수 있다.As shown in FIG. 2, the first image camera 110 and the second image camera 120 of the vehicle system 100 may be arranged to have a photographing area in the same direction or at least overlapping each other. It may be possible to recognize precise environmental information through superimposed photographing of a person, an obstacle, or a road environment.

도 5는 도 2 또는 도 3의 도 일 측에서 본 측면도, 예를들면 좌측면도일 수 있고, 설명의 편의를 위하여 차량 시스템(100)의 일부를 단순화하여 표시하였다.FIG. 5 may be a side view viewed from one side of FIG. 2 or 3, for example, a left side view, and a part of the vehicle system 100 is simplified and displayed for convenience of description.

도 5를 참조하면 차량 시스템(100)의 내측에 배치된 룸미러부(RM)에 대하여 전진 방향(F)에 전방 윈도우(160)가 배치될 수 있다. Referring to FIG. 5, the front window 160 may be disposed in the forward direction F with respect to the rearview mirror unit RM disposed inside the vehicle system 100.

전방 윈도우(160)는 유리 재질로 형성될 수 있고, 선택적 실시예로서 플라스틱 또는 다양한 세라믹 재료를 포함할 수도 있다.The front window 160 may be formed of a glass material, and may include plastic or various ceramic materials as an alternative embodiment.

룸미러부(RM)의 일 영역에, 예를들면 전술한 도 4의 미러면(MS)과 반대 방향을 향하도록 룸미러부(RM)의 일 영역에 제1 영상 카메라(110) 및 제2 영상 카메라(120)가 배치될 수 있다. In one area of the room mirror unit RM, for example, the first image camera 110 and the second video camera 110 and the second unit are disposed in one area of the room mirror unit RM so as to face in a direction opposite to the mirror surface MS of FIG. 4 described above. An image camera 120 may be disposed.

이를 통하여 제1 영상 카메라(110) 및 제2 영상 카메라(120)가 효과적으로 차량 전방을 포함한 주변 환경 정보를 용이하게 인식할 수 있다. Through this, the first image camera 110 and the second image camera 120 can effectively recognize the surrounding environment information including the front of the vehicle easily.

전방 윈도우(160)는 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응하는 대응 영역(160A)을 포함할 수 있다.The front window 160 may include a corresponding area 160A corresponding to the first image camera 110 and the second image camera 120.

예를들면 제1 영상 카메라(110) 및 제2 영상 카메라(120)는 대응 영역(160A)을 통하여 영상 정보를 감지할 수 있다.For example, the first image camera 110 and the second image camera 120 may detect image information through the corresponding region 160A.

대응 영역(160A)은 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응하는 영역으로서 그에 대응하는 크기를 가질 수 있고, 구체적 예로서 영상을 받아들이는 부재에 대응하는 크기 또는 그보다 큰 크기를 가질 수 있다.The corresponding area 160A is an area corresponding to the first image camera 110 and the second image camera 120 and may have a size corresponding thereto, and as a specific example, a size corresponding to a member receiving an image or larger It can have a size.

도 6을 참조하면 전방 윈도우(160)는 구체적으로 제1 영상 카메라(110)에 대응하는 제1 대응 영역(160A1) 및 제2 영상 카메라(120)에 대응하는 제2 대응 영역(160A2)을 포함할 수 있다.Referring to FIG. 6, the front window 160 specifically includes a first correspondence region 160A1 corresponding to the first image camera 110 and a second correspondence region 160A2 corresponding to the second image camera 120. can do.

제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 나란하게 배치될 수 있다. 다만 이는 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응되는 위치이므로 제1 영상 카메라(110) 및 제2 영상 카메라(120)의 배치 위치에 따라 다를 수 있다.The first correspondence region 160A1 and the second correspondence region 160A2 may be arranged parallel to each other. However, since this is a position corresponding to the first and second image cameras 110 and 120, it may be different according to the arrangement positions of the first and second image cameras 110 and 120.

선택적 실시예로서 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 이격되도록 배치될 수 있고, 예를들면 서로 다각형, 구체적 예로서 사각형의 형태를 가질 수 있다.As an alternative embodiment, the first correspondence region 160A1 and the second correspondence region 160A2 may be arranged to be spaced apart from each other, and may have a polygonal shape, for example, a quadrangle shape as a specific example.

또 다른 선택적 실시예로서 제1 대응 영역(160A1) 또는 제2 대응 영역(160A2)은 곡선의 테두리, 예를들면 원형을 포함할 수 있다.As another alternative embodiment, the first correspondence region 160A1 or the second correspondence region 160A2 may include a curved edge, for example, a circle.

도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.7 is a schematic cross-sectional view taken along the line VII-VII of FIG. 6.

도 7을 참조하면 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 나란하고 서로 이격되도록 배치될 수 있다. Referring to FIG. 7, the first correspondence region 160A1 and the second correspondence region 160A2 may be arranged to be parallel to each other and spaced apart from each other.

도 7을 참조하면 전방 윈도우(160)의 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, the first corresponding region 160A1 and the second corresponding region 160A2 of the front window 160 may be formed to have different optical characteristics.

예를들면 제1 대응 영역(160A1)은 제1 영상 카메라(110)에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 전방 윈도우(160)의 영역 중 제1 대응 영역(160A1)과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first correspondence region 160A1 is a region with high transmittance of visible light so as to correspond to the first image camera 110, and as a specific example, the surrounding area immediately adjacent to the first correspondence region 160A1 among the regions of the front window 160 It may contain the same material as the area.

제2 대응 영역(160A2)은 제1 영상 카메라(110)에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1)과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2)에서의 적외선 투과도는 제1 대응 영역(160A1)에서의 적외선 투과도보다 높을 수 있다.The second correspondence region 160A2 may be a region in which infrared, near-infrared, or far-infrared rays transmit high so as to correspond to the first image camera 110, and at least have different optical characteristics from the first correspondence region 160A1, for example. At least the infrared transmittance in the second corresponding region 160A2 may be higher than the infrared transmittance in the first corresponding region 160A1.

선택적 실시예로서 제2 대응 영역(160A2)에서의 가시 광선 투과도는 제1 대응 영역(160A1)에서의 가시 광선 투과도보다 작을 수 있다.As an optional embodiment, the visible light transmittance in the second corresponding region 160A2 may be smaller than the visible light transmittance in the first corresponding region 160A1.

제2 대응 영역(160A2)은 전방 윈도우(160)의 원하는 영역에 대한 표면 처리를 하거나, 필름층 또는 필터층과 같은 추가층을 더하거나, 일 영역을 제거한 후 가공한 형태로 형성된 것일 수 있다.The second corresponding region 160A2 may be formed in a form processed after surface treatment of a desired region of the front window 160, an additional layer such as a film layer or a filter layer, or removal of a region.

또한, 다른 선택적 실시예로서 제2 대응 영역(160A2)은 전방 윈도우(160)를 제조 시 일체로 형성된 것일 수도 있다.In addition, as another alternative embodiment, the second corresponding area 160A2 may be integrally formed when the front window 160 is manufactured.

도 8은 도 7의 일 변형예이다.8 is a modified example of FIG. 7.

도 8을 참조하면 전방 윈도우(160')는 제1 대응 영역(160A1') 및 제2 대응 영역(160A2')을 포함할 수 있다.Referring to FIG. 8, the front window 160 ′ may include a first correspondence region 160A1 ′ and a second correspondence region 160A2 ′.

제1 대응 영역(160A1') 및 제2 대응 영역(160A2')은 서로 나란하고 서로 이격되도록 배치될 수 있다. The first correspondence region 160A1 ′ and the second correspondence region 160A2 ′ may be disposed parallel to each other and spaced apart from each other.

도 7을 참조하면 전방 윈도우(160')의 제1 대응 영역(160A1') 및 제2 대응 영역(160A2')은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, a first correspondence region 160A1 ′ and a second correspondence region 160A2 ′ of the front window 160 ′ may be formed to have different optical characteristics.

예를들면 제1 대응 영역(160A1')은 제1 영상 카메라(110')에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 제1 대응 영역(160A1')과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first correspondence region 160A1 ′ is a region having a high transmittance of visible light so as to correspond to the first image camera 110 ′, and as a specific example, the same material as the surrounding region immediately adjacent to the first correspondence region 160A1 ′ is used. Can include.

제2 대응 영역(160A2')은 제1 영상 카메라(110')에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1')과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2')에서의 적외선 투과도는 제1 대응 영역(160A1')에서의 적외선 투과도보다 높을 수 있다.The second correspondence region 160A2 ′ may be a region in which infrared, near-infrared, or far-infrared rays transmit high to correspond to the first image camera 110 ′, and at least the first correspondence region 160A1 ′ has different optical characteristics, For example, the infrared transmittance of at least the second corresponding region 160A2 ′ may be higher than the infrared transmittance of the first corresponding region 160A1 ′.

선택적 실시예로서 제2 대응 영역(160A2')의 두께는 제1 대응 영역(160A1')의 두께보다 작을 수 있다. As an alternative embodiment, the thickness of the second corresponding region 160A2 ′ may be smaller than the thickness of the first corresponding region 160A1 ′.

제2 대응 영역(160A2')은 전방 윈도우(160')의 원하는 영역에 대한 식각 또는 표면 처리를 하여 형성된 것일 수 있다.The second corresponding region 160A2 ′ may be formed by etching or surface treatment of a desired region of the front window 160 ′.

또한, 다른 선택적 실시예로서 제2 대응 영역(160A2')은 전방 윈도우(160')를 제조 시 일체로 형성된 것일 수도 있다.In addition, as another alternative embodiment, the second corresponding area 160A2 ′ may be integrally formed when the front window 160 ′ is manufactured.

선택적 실시예로서 제2 대응 영역(160A2')은 전방 윈도우(160')의 영역 중 제2 대응 영역(160A2')과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.As an alternative embodiment, the second correspondence area 160A2 ′ may include the same material as the surrounding area immediately adjacent to the second correspondence area 160A2 ′ among the areas of the front window 160 ′.

또한, 다른 예로서 제2 대응 영역(160A2')은 전방 윈도우(160')의 영역 중 제2 대응 영역(160A2')과 바로 인접한 주변 영역과 상이한 소재를 포함할 수 있고, 예를들면 전술한 도 7에서 설명한 것과 같은 제2 대응 영역(160A2)의 재질을 포함할 수도 있다.In addition, as another example, the second correspondence region 160A2 ′ may include a material different from the surrounding region immediately adjacent to the second correspondence region 160A2 ′ among the regions of the front window 160 ′. The material of the second corresponding area 160A2 as described in FIG. 7 may be included.

도 9는 도 7의 다른 일 변형예이다.9 is another modified example of FIG. 7.

도 9를 참조하면 전방 윈도우(160")는 제1 대응 영역(160A1") 및 제2 대응 영역(160A2")을 포함할 수 있다.Referring to FIG. 9, the front window 160" may include a first correspondence area 160A1" and a second correspondence area 160A2".

제1 대응 영역(160A1") 및 제2 대응 영역(160A2")은 서로 나란하고 서로 이격되도록 배치될 수 있다. The first correspondence region 160A1" and the second correspondence region 160A2" may be arranged to be parallel to each other and spaced apart from each other.

도 7을 참조하면 전방 윈도우(160")의 제1 대응 영역(160A1") 및 제2 대응 영역(160A2")은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, a first corresponding region 160A1 ″ and a second corresponding region 160 A2 ″ of the front window 160 ″ may be formed to have different optical characteristics.

예를들면 제1 대응 영역(160A1")은 제1 영상 카메라(110")에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 제1 대응 영역(160A1")과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first correspondence area 160A1" is an area having a high transmittance of visible light to correspond to the first image camera 110", and as a specific example, the same material as the surrounding area immediately adjacent to the first correspondence area 160A1" is used. Can include.

제2 대응 영역(160A2")은 제1 영상 카메라(110")에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1")과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2")에서의 적외선 투과도는 제1 대응 영역(160A1")에서의 적외선 투과도보다 높을 수 있다.The second correspondence region 160A2" may be a region having high transmission of infrared rays, near infrared rays, or far infrared rays so as to correspond to the first image camera 110", and has an optical characteristic different from at least the first correspondence region 160A1", For example, the infrared transmittance of at least the second corresponding region 160A2" may be higher than the infrared transmittance of the first corresponding region 160A1".

선택적 실시예로서 제2 대응 영역(160A2")은 개구부(opening)를 포함할 수 있다. 예를들면 전방 윈도우(160")의 전체 두께에 대응하도록 개구부가 형성될 수 있고, 그 형태는 원형 또는 다각형 등 다양한 형태로서 적어도 제2 영상 카메라가 영상을 인식하는 크기와 형태를 가질 수 있다.As an optional embodiment, the second corresponding area 160A2" may include an opening. For example, an opening may be formed to correspond to the total thickness of the front window 160", and the shape may be circular or Various shapes such as polygons may have at least a size and shape in which the second image camera recognizes an image.

제2 대응 영역(160A2")은 전방 윈도우(160")의 원하는 영역에 대한 식각 또는 표면 처리를 하여 형성된 것일 수 있다.The second corresponding region 160A2" may be formed by etching or surface treatment of a desired region of the front window 160".

또한, 다른 선택적 실시예로서 제2 대응 영역(160A2")은 전방 윈도우(160")를 제조 시 일체로 형성된 것일 수도 있다.In addition, as another alternative embodiment, the second corresponding area 160A2" may be integrally formed when the front window 160" is manufactured.

본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템은 제1 영상 카메라에서 취득한 정보 및 제2 영상 카메라에서 취득한 정보를 이용하여 제어부를 통하여 다양한 정보를 가공할 수 있다. 예를들면 차량의 주행시 전방을 포함한 주변의 사람, 차량 또는 기타 도로 주행 정보에 대한 정보를 취득할 수 있고, 이를 통하여 사용자에게 주행 환경 정보를 용이하게 인식하도록 할 수 있고, 이러한 것은 디스플레이부를 통하여 알게 할 수 있다.The vehicle system for detecting a driving environment based on a camera capable of real-time processing according to the present embodiment may process various types of information through a control unit using information acquired from the first image camera and the information acquired from the second image camera. For example, when the vehicle is driving, information about people, vehicles, or other road driving information, including the front, can be obtained, and through this, the user can easily recognize the driving environment information, and this can be known through the display unit. can do.

또한, 선택적 실시예로서 제어부가 이러한 정보를 이용하여 차량의 구동 제어부 또는 조향 제어부와 연결하거나 제어부가 차량의 구동 제어부 또는 조향 제어부의 일 영역에 배치 또는 일체화되어 차량의 주행 환경 정보를 통하여 차량의 주행의 일부를 제어할 수 있고, 선택적 실시예로서 차량의 자율적 주행을 제어할 수 있다.In addition, as an optional embodiment, the control unit connects to the driving control unit or the steering control unit of the vehicle using this information, or the control unit is arranged or integrated in one area of the driving control unit or the steering control unit of the vehicle to drive the vehicle through the driving environment information of the vehicle. It is possible to control part of the vehicle, and as an optional embodiment, it is possible to control autonomous driving of the vehicle.

또한, 이 때 제1 영상 카메라는 가시 광선을 이용한 것이고 제2 영상 카메라는 적외선 또는 근적외선이나 원적외선을 이용한 것으로서 제어부는 다양하고 정밀한 정보를 제공할 수 있는데, 특히 예를들면 시야 확보가 잘 되지 않아 가시 광선을 통한 인식율이 저하되는 야간 주행의 경우에 적외선, 근적외선 또는 원적외선을 이용한 제2 영상 카메라의 정보를 통해 정밀한 야간 주행 환경 정보를 확보하여 야간의 주행의 안정성을 향상할 수 있다.In addition, at this time, the first image camera uses visible light and the second image camera uses infrared, near-infrared or far-infrared, and the control unit can provide various and precise information. In the case of night driving in which the recognition rate through light rays decreases, accurate night driving environment information can be secured through information of the second image camera using infrared, near infrared, or far infrared rays, thereby improving the stability of driving at night.

한편, 차량 시스템의 내측에 제1 영상 카메라 및 제2 영상 카메라를 배치하여 차량의 주행 환경에 따라 제1 영상 카메라 및 제2 영상 카메라가 오염, 손상, 변형 또는 파손되는 것을 방지할 수 있다.Meanwhile, by disposing the first image camera and the second image camera inside the vehicle system, it is possible to prevent the first image camera and the second image camera from being contaminated, damaged, deformed or damaged according to the driving environment of the vehicle.

또한, 차량 시스템의 내측에 제1 영상 카메라 및 제2 영상 카메라를 전방 윈도우를 향하도록 룸미러부의 일면에 배치하여 차량의 내측 공간의 활용을 향상하고 차량의 운전자 또는 탑승자들의 시야를 제한하거나 차량 내측 공간의 심미감을 감소하지 않으면서 차량 전방을 포함한 주변 환경 정보를 효율적으로 확보할 수 있다. 또한, 룸미러부의 일면, 예를들면 전진 방향을 향하도록 제1 영상 카메라 및 제2 영상 카메라를 나란하게 배치하여 제1 영상 카메라 및 제2 영상 카메라를 통한 영상의 오차 범위를 감소할 수 있고, 이를 통하여 환경 정보의 정밀도를 향상할 수 있다.In addition, by arranging the first video camera and the second video camera inside the vehicle system on one side of the rearview mirror to face the front window, the utilization of the interior space of the vehicle is improved, and the view of the driver or occupants of the vehicle is limited or It is possible to efficiently secure information about the surrounding environment including the front of the vehicle without reducing the aesthetics of the space. In addition, by arranging the first image camera and the second image camera side by side so as to face one side of the room mirror unit, for example, in the forward direction, it is possible to reduce the error range of the image through the first image camera and the second image camera, Through this, the precision of environmental information can be improved.

또한, 전방 윈도우가 제1 영상 카메라 및 제2 영상 카메라에 대응하는 대응 영역을 포함하고, 대응 영역 중 제1 영상 카메라에 대응하는 제1 대응 영역과 제2 영상 카메라에 대응하는 제2 대응 영역의 광특성이 차이가 나도록 하여 차량 내측에서 전방 윈도우를 통하여 인식 시 서로 상이한 타입의 제1 영상 카메라 및 제2 영상 카메라를 통하여 확보하는 영상의 정확도를 향상할 수 있다.In addition, the front window includes a corresponding region corresponding to the first image camera and the second image camera, and among the corresponding regions, the first correspondence region corresponding to the first image camera and the second correspondence region corresponding to the second image camera. Since the optical characteristics are different, it is possible to improve the accuracy of images secured through the first and second image cameras of different types when recognized through the front window from the inside of the vehicle.

예를들면 제2 대응 영역과 제1 대응 영역과 다른 재질 등을 포함하여 적어도 적외선 등의 투과도를 제1 대응 영역보다 높도록 하여 제2 대응 영역에서의 제2 영상 카메라를 통한 영상 인식율을 향상할 수 있고, 이를 통하여 야간의 주행 환경 정보의 용이한 확보와 정밀도 향상을 할 수 있고, 결과적으로 야간에서의 주행 안정성을 향상할 수 있다.For example, including the second correspondence region and the material different from the first correspondence region, the transmittance of at least infrared rays, etc., is made higher than that of the first correspondence region, thereby improving the image recognition rate through the second image camera in the second correspondence region. Through this, it is possible to easily secure and improve accuracy of driving environment information at night, and as a result, improve driving stability at night.

선택적 실시예로서 제2 대응 영역의 두께를 제1 대응 영역보다 작게 하여 용이한 방법으로 적외선 투과도를 향상할 수 있고, 제2 영상 카메라의 인식율을 높일 수 있다.As an optional embodiment, by making the thickness of the second corresponding region smaller than that of the first corresponding region, infrared transmittance may be improved in an easy manner, and the recognition rate of the second image camera may be increased.

또한, 다른 선택적 실시예로서 제2 대응 영역에 대응하도록 개구부를 형성할 수 있고, 이러한 개구부를 통하여 전방 윈도우의 두께에 대응하는 간섭없이 공기 또는 기체층만을 적외선이 통과하여 제2 대응 영역에서의 적외선 투과도 향상 효과를 증대할 수 있고, 이를 통하여 제2 영상 카메라의 정밀한 인식율을 높일 수 있고, 결과적으로 제1 영상 카메라와의 조합을 통한 정밀한 주행 환경 정보를 이용할 수 있어서 사용자의 편의성과 주행 안정성을 향상할 수 있다.In addition, as another optional embodiment, an opening may be formed to correspond to the second corresponding region, through which infrared rays pass through only the air or gas layer without interference corresponding to the thickness of the front window. The effect of improving the transmittance can be increased, and through this, the precise recognition rate of the second video camera can be increased, and as a result, precise driving environment information can be used in combination with the first video camera, thereby improving the user's convenience and driving stability. can do.

또한, 이러한 야간에서의 주행 안정성과 편의성을 이용하여 야간의 자율 주행 특성에 기여할 수 있다.In addition, the driving stability and convenience at night can be used to contribute to the autonomous driving characteristics at night.

이와 같이 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.As described above, the present invention has been described with reference to the embodiments shown in the drawings, but these are only exemplary, and those of ordinary skill in the art will appreciate that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

실시예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.Specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. In addition, if there is no specific mention such as "essential", "important", etc., it may not be an essential component for the application of the present invention.

실시예의 명세서(특히 특허청구범위에서")에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range")를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면"), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등")의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the embodiments (especially in the claims"), the use of the term “above” and the reference terms similar thereto may correspond to both the singular and the plural. Including the invention to which the individual values falling within the above range are applied (unless otherwise stated"), it is the same as describing each individual value constituting the above range in the detailed description. The steps may be performed in an appropriate order unless explicitly stated or contradicted to the order of the steps. The embodiments are not necessarily limited according to the order of description of the steps. In the examples, all examples or illustrative terms ( For example, the use of ") is merely for describing the embodiment in detail, and the scope of the embodiment is not limited by the above examples or illustrative terms unless limited by the claims. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.

100: 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템
110: 제1 영상 카메라
120: 제2 영상 카메라
130: 제어부
150: 디스플레이부
160: 전방 윈도우
RM: 룸미러부
100: Real-time processing capable camera-based driving environment detection vehicle system
110: first video camera
120: second video camera
130: control unit
150: display unit
160: front window
RM: Room mirror

Claims (5)

차량 시스템의 내측에 제1 방향을 향하도록 배치되고 제1 타입의 영상 정보를 감지하는 제1 영상 카메라;
차량의 내측에 상기 제1 방향을 향하도록 배치되고 상기 제1 타입과 상이한 제2 타입의 영상 정보를 감지하는 제2 영상 카메라;
상기 제1 영상 카메라 및 상기 제2 영상 카메라에서 감지한 영상 정보를 이용하여 정보를 가공하는 제어부; 및
상기 제어부에서 가공한 하나 이상의 정보를 사용자에게 표현하는 디스플레이부를 포함하고,
상기 차량 시스템의 전방을 향하는 전방 윈도우를 더 포함하고,
상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 상기 전방 윈도우를 향하도록 배치되고,
상기 전방 윈도우는 상기 제1 영상 카메라에 대응하는 제1 대응 영역 및 상기 제2 영상 카메라에 대응하는 제2 대응 영역을 포함하고,
상기 전방 윈도우의 상기 제1 대응 영역 및 상기 제2 대응 영역은 서로 상이한 광특성을 갖도록 형성된 것을 포함하고,
상기 제1 영상 카메라는 상기 제1 대응 영역을 통하여 상기 제1 타입의 영상 정보를 감지하고 상기 제2 영상 카메라는 상기 제2 대응 영역을 통하여 상기 제2 타입의 영상 정보를 감지하고,
상기 제1 대응 영역에서의 상기 전방 윈도우의 두께와 상기 제2 대응 영역에서의 상기 전방 윈도우의 두께가 상이하도록 형성된 것을 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.
A first image camera disposed inside the vehicle system to face a first direction and detecting image information of a first type;
A second image camera disposed on the inside of the vehicle to face the first direction and detecting image information of a second type different from the first type;
A control unit processing information using image information detected by the first and second image cameras; And
Includes a display unit for expressing one or more information processed by the control unit to a user,
Further comprising a front window facing the front of the vehicle system,
The first video camera or the second video camera is disposed to face the front window,
The front window includes a first correspondence region corresponding to the first image camera and a second correspondence region corresponding to the second image camera,
The first corresponding region and the second corresponding region of the front window may be formed to have different optical characteristics,
The first image camera detects the first type of image information through the first correspondence region, and the second image camera detects the second type of image information through the second correspondence region,
A vehicle system for detecting a driving environment based on a camera capable of real-time processing, comprising forming such that a thickness of the front window in the first correspondence region and a thickness of the front window in the second correspondence region are different from each other.
제1 항에 있어서,
상기 제1 영상 카메라는 가시 광선을 이용하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.
The method of claim 1,
The first video camera is a camera-based driving environment detection vehicle system capable of real-time processing using visible light.
제1 항에 있어서,
상기 제2 영상 카메라는 적외선, 근적외선 또는 원적외선을 이용하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.
The method of claim 1,
The second image camera is a camera-based driving environment detection vehicle system capable of real-time processing using infrared rays, near infrared rays, or far infrared rays.
제1 항에 있어서,
상기 차량 시스템은 내측에 룸미러부가 배치되고,
상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 룸미러부에 배치되는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.
The method of claim 1,
The vehicle system has a rearview mirror disposed inside,
The first video camera or the second video camera is a real-time processing capable camera-based driving environment detection vehicle system disposed in a rearview mirror.
제1 항에 있어서,
상기 제1 대응 영역과 상기 제2 대응 영역에서의 적외선 투과 특성이 상이한 것을 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.
The method of claim 1,
A real-time processing capable camera-based driving environment detection vehicle system, comprising the fact that the infrared transmission characteristics in the first correspondence region and the second correspondence region are different.
KR1020190009239A 2019-01-24 2019-01-24 Real-time processable camera based driving environment detection vehicle system KR102235031B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190009239A KR102235031B1 (en) 2019-01-24 2019-01-24 Real-time processable camera based driving environment detection vehicle system
PCT/KR2019/015936 WO2020153591A1 (en) 2019-01-24 2019-11-20 Real-time processible camera-based driving environment detecting vehicle system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190009239A KR102235031B1 (en) 2019-01-24 2019-01-24 Real-time processable camera based driving environment detection vehicle system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039744A Division KR20210036334A (en) 2021-03-26 2021-03-26 Real-time processable camera based driving environment detection vehicle system

Publications (2)

Publication Number Publication Date
KR20200092102A KR20200092102A (en) 2020-08-03
KR102235031B1 true KR102235031B1 (en) 2021-04-01

Family

ID=71736943

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190009239A KR102235031B1 (en) 2019-01-24 2019-01-24 Real-time processable camera based driving environment detection vehicle system

Country Status (2)

Country Link
KR (1) KR102235031B1 (en)
WO (1) WO2020153591A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2003159996A (en) * 2001-06-30 2003-06-03 Daimlerchrysler Ag Apparatus for improving visibility in vehicle
JP2008299538A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Imaging system for vehicle and controller for vehicle
US20180370434A1 (en) 2017-06-27 2018-12-27 Shanghai XPT Technology Limited Driving Assistance System and Method of Enhancing a Driver's Vision

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5001558A (en) * 1985-06-11 1991-03-19 General Motors Corporation Night vision system with color video camera
DE10304703B4 (en) * 2003-02-06 2023-03-16 Bayerische Motoren Werke Aktiengesellschaft Method and device for visualizing the environment of a vehicle with environment-dependent fusion of an infrared and a visual image
JP3988657B2 (en) * 2003-02-27 2007-10-10 日産自動車株式会社 Object detection device
JP4722760B2 (en) * 2006-04-24 2011-07-13 三菱電機株式会社 Vehicle tracking device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002099997A (en) * 2000-09-26 2002-04-05 Mitsubishi Motors Corp Detection device for moving object
JP2003159996A (en) * 2001-06-30 2003-06-03 Daimlerchrysler Ag Apparatus for improving visibility in vehicle
JP2008299538A (en) * 2007-05-30 2008-12-11 Toyota Motor Corp Imaging system for vehicle and controller for vehicle
US20180370434A1 (en) 2017-06-27 2018-12-27 Shanghai XPT Technology Limited Driving Assistance System and Method of Enhancing a Driver's Vision

Also Published As

Publication number Publication date
WO2020153591A1 (en) 2020-07-30
KR20200092102A (en) 2020-08-03

Similar Documents

Publication Publication Date Title
US11827152B2 (en) Vehicular vision system
US20210291751A1 (en) Vehicular driver monitoring system with camera having micro lens array
US10071730B2 (en) Vehicle parking control
US10558221B2 (en) Method for assisting in a parking operation for a motor vehicle, driver assistance system and a motor vehicle
US9487143B2 (en) Mirror assembly with formed reflective element substrate
US20140160012A1 (en) Automatic correction device of vehicle display system and method thereof
US20140132770A1 (en) Side camera system for vehicle and control method thereof
CN108621940B (en) Display system for vehicle and control method for display system for vehicle
US9025819B2 (en) Apparatus and method for tracking the position of a peripheral vehicle
KR102227855B1 (en) Parking guide system and method for controlling the same
US10366541B2 (en) Vehicle backup safety mapping
US20190215465A1 (en) Bird's-eye view image generating device, bird's-eye view image generating system, bird's-eye view image generating method, and medium
JP2006044596A (en) Display device for vehicle
CN106274686A (en) A kind of vehicle blind zone rendering method and device
JP2017149335A (en) Drive support information display device
JP4769631B2 (en) Vehicle driving support device and vehicle driving support method
TW201526638A (en) Obstacle detection and display system for vehicle
KR102114386B1 (en) Mirrorless System for Vehicle
JP2017056909A (en) Vehicular image display device
KR102235031B1 (en) Real-time processable camera based driving environment detection vehicle system
KR20210036334A (en) Real-time processable camera based driving environment detection vehicle system
JP6516241B2 (en) Gesture input device
CN110626267A (en) Overlay interface for rearview mirror display
JP6127391B2 (en) Vehicle periphery visual recognition device
CN107399274A (en) image superposition method

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right