KR20200092102A - Real-time processable camera based driving environment detection vehicle system - Google Patents
Real-time processable camera based driving environment detection vehicle system Download PDFInfo
- Publication number
- KR20200092102A KR20200092102A KR1020190009239A KR20190009239A KR20200092102A KR 20200092102 A KR20200092102 A KR 20200092102A KR 1020190009239 A KR1020190009239 A KR 1020190009239A KR 20190009239 A KR20190009239 A KR 20190009239A KR 20200092102 A KR20200092102 A KR 20200092102A
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- vehicle system
- image
- information
- real
- Prior art date
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000002834 transmittance Methods 0.000 description 14
- 239000000463 material Substances 0.000 description 8
- 230000003287 optical effect Effects 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 238000005530 etching Methods 0.000 description 2
- 238000004381 surface treatment Methods 0.000 description 2
- 229910010293 ceramic material Inorganic materials 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Arrangement of adaptations of instruments
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/02—Rear-view mirror arrangements
- B60R1/04—Rear-view mirror arrangements mounted inside vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R11/00—Arrangements for holding or mounting articles, not otherwise provided for
- B60R11/04—Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H04N5/2257—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
- B60R1/12—Mirror assemblies combined with other articles, e.g. clocks
- B60R2001/1253—Mirror assemblies combined with other articles, e.g. clocks with cameras, video cameras or video screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo or light sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/42—Image sensing, e.g. optical camera
Abstract
Description
본 발명은 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템에 관한 것이다.The present invention relates to a real-time processing capable camera-based driving environment detection vehicle system.
기술의 발전에 각종 이동 수단의 새로운 용도 및 개량에 관한 연구가 지속되고 있다.With the development of technology, research on new uses and improvements of various means of transportation is continuing.
예를들면 사람들이 차량의 다양한 편의와 운전 제어에 대한 연구가 활발하게 진행되고 있다.For example, people are actively researching various conveniences and driving controls of vehicles.
특히, 차량에 대하여 사용자의 개입을 감소하고 사용자의 운전 편의와 안정성을 향상하는 스마트 주행에 대한 연구가 증대되고 있고, 예를들면 스마트 크루즈 컨트롤(Smart Cruise Control, SCC)을 들 수 있다.In particular, research on smart driving that reduces user intervention and improves driving convenience and stability of a vehicle is increasing, for example, a smart cruise control (SCC).
이러한 스마트 주행은 차량의 전방의 다양한 정보를 확보하는 것으로 진행할 수 있고, 예를들면 전방의 차량 이나 사람에 대한 정보를 확보할 수 있다.The smart driving may proceed by securing various information in front of the vehicle, for example, information about a vehicle or a person in front.
그러나, 차량 시스템의 전체적인 구조, 주행 특성 등으로 인하여 차량의 주행 시 주행 환경에 대한 정보를 확보하거나 확보된 정보의 정밀도를 향상하는 데 한계가 있다.However, due to the overall structure and driving characteristics of the vehicle system, there is a limit to securing information about the driving environment when driving the vehicle or improving the accuracy of the secured information.
본 발명은 차량의 안정적인 주행 성능을 향상하고 사용자의 주행 편의성을 향상할 수 있는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 제공할 수 있다. The present invention can provide a vehicle system for detecting a driving environment based on a real-time processing capable of improving a vehicle's stable driving performance and improving a user's driving convenience.
본 발명의 일 실시예는 차량 시스템의 내측에 제1 방향을 향하도록 배치되고 제1 타입의 영상 정보를 감지하는 제1 영상 카메라, 차량의 내측에 상기 제1 방향을 향하도록 배치되고 상기 제1 타입과 상이한 제2 타입의 영상 정보를 감지하는 제2 영상 카메라, 상기 제1 영상 카메라 및 상기 제2 영상 카메라에서 감지한 영상 정보를 이용하여 정보를 가공하는 제어부 및 상기 제어부에서 가공한 하나 이상의 정보를 사용자에게 표현하는 디스플레이부를 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 개시한다. One embodiment of the present invention is disposed to face the first direction inside the vehicle system, the first image camera for detecting the first type of image information, the first side of the vehicle is disposed to face the first direction and the first A second image camera that detects a second type of image information different from a type, a control unit that processes information using image information detected by the first image camera and the second image camera, and one or more information processed by the control unit Disclosed is a real-time processable camera-based driving environment detection vehicle system including a display unit for displaying to a user.
본 실시예에 있어서 상기 제1 영상 카메라는 가시 광선을 이용할 수 있다.In the present embodiment, the first image camera may use visible light.
본 실시예에 있어서 상기 제2 영상 카메라는 적외선, 근적외선 또는 원적외선을 이용할 수 있다.In the present embodiment, the second image camera may use infrared, near infrared or far infrared.
본 실시예에 있어서 상기 차량 시스템은 내측에 룸미러부가 배치되고, 상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 룸미러부에 배치될 수 있다.In this embodiment, the vehicle system may have a room mirror portion disposed inside, and the first image camera or the second image camera may be disposed in the room mirror portion.
본 실시예에 있어서 상기 차량 시스템의 전방을 향하는 전방 윈도우를 포함하고, 상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 상기 전방 윈도우를 향하도록 배치될 수 있다.In this embodiment, a front window facing the front of the vehicle system is included, and the first image camera or the second image camera may be arranged to face the front window.
전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다. Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.
한편, 본 발명은 전자부품연구원이 주관하는 산업자원통상부 산하 한국산업기술평가관리원의 자동차산업핵심기술개발사업 지원으로 수행되었다.On the other hand, the present invention was carried out in support of the core technology development project of the automotive industry by the Korea Institute of Industrial Technology Evaluation and Management under the Ministry of Commerce, Industry and Energy hosted by the Electronic Components Research Institute.
본 발명에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템은 차량의 안정적인 주행 성능을 향상할 수 있고 사용자의 주행 편의성을 향상할 수 있다. The real-time processable camera-based driving environment detection vehicle system according to the present invention can improve stable driving performance of a vehicle and improve user's driving convenience.
도 1은 본 발명의 일 실시예에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 도시한 개략적인 도면이다.
도 2는 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 평면도이다.
도 3은 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 사시도이다.
도 4는 도 2의 K의 개략적인 확대도이다.
도 5는 도 2 또는 도 3의 일 측에서 본 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 개략적인 좌측면도이다.
도 6은 도 5의 K 방향에서 본 개략적인 정면도이다.
도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.
도 8은 도 7의 일 변형예이다.
도 9는 도 7의 다른 일 변형예이다.1 is a schematic diagram showing a real-time processable camera-based driving environment detection vehicle system according to an embodiment of the present invention.
FIG. 2 is a plan view showing an example of a real-time processable camera-based driving environment detection vehicle system of FIG. 1.
FIG. 3 is a perspective view illustrating an example of a vehicle system for detecting a driving environment based on a camera capable of real-time processing in FIG. 1.
4 is a schematic enlarged view of K of FIG. 2.
FIG. 5 is a schematic left side view of a vehicle system for detecting a driving environment based on a camera capable of real-time processing viewed from one side of FIG. 2 or 3.
6 is a schematic front view seen from the direction K in FIG. 5.
7 is a schematic cross-sectional view taken along the line VII-VII in FIG. 6.
8 is a modification of FIG. 7.
FIG. 9 is another modified example of FIG. 7.
이하 첨부된 도면들에 도시된 본 발명에 관한 실시예를 참조하여 본 발명의 구성 및 작용을 상세히 설명한다.Hereinafter, the configuration and operation of the present invention will be described in detail with reference to embodiments of the present invention shown in the accompanying drawings.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. The present invention can be applied to various transformations and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention and methods for achieving them will be clarified with reference to embodiments described below in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms.
이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and the same or corresponding components will be given the same reference numerals when describing with reference to the drawings, and redundant description thereof will be omitted. .
이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. In the following examples, terms such as first and second are not used in a limiting sense, but for the purpose of distinguishing one component from other components.
이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. In the following embodiments, the singular expression includes a plural expression unless the context clearly indicates otherwise.
이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. In the examples below, terms such as include or have are meant to mean that features or components described in the specification exist, and do not preclude the possibility of adding one or more other features or components.
도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 두께는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and thickness of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to what is shown.
이하의 실시예에서, x축, y축 및 z축은 직교 좌표계 상의 세 축으로 한정되지 않고, 이를 포함하는 넓은 의미로 해석될 수 있다. 예를 들어, x축, y축 및 z축은 서로 직교할 수도 있지만, 서로 직교하지 않는 서로 다른 방향을 지칭할 수도 있다. In the following embodiments, the x-axis, y-axis, and z-axis are not limited to three axes on the Cartesian coordinate system, and can be interpreted in a broad sense including them. For example, the x-axis, y-axis, and z-axis may be orthogonal to each other, but may refer to different directions that are not orthogonal to each other.
어떤 실시예가 달리 구현 가능한 경우에 특정한 공정 순서는 설명되는 순서와 다르게 수행될 수도 있다. 예를 들어, 연속하여 설명되는 두 공정이 실질적으로 동시에 수행될 수도 있고, 설명되는 순서와 반대의 순서로 진행될 수 있다. When an embodiment can be implemented differently, a specific process order may be performed differently from the described order. For example, two processes described in succession may be performed substantially simultaneously, or may be performed in an order opposite to that described.
도 1은 본 발명의 일 실시예에 관한 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템을 도시한 개략적인 도면이다.1 is a schematic diagram showing a real-time processable camera-based driving environment detection vehicle system according to an embodiment of the present invention.
도 1을 참조하면 본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템(100)은 제1 영상 카메라(110), 제2 영상 카메라(120), 제어부(130) 및 디스플레이부(150)를 포함할 수 있다.Referring to FIG. 1, the real-time processable camera-based driving environment
제1 영상 카메라(110)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있다. 예를들면 제1 영상 카메라(110)는 차량의 진행 시 전방을 향하도록 배치될 수 있고, 구체적 예로서 차량의 내측에 차량의 전방 윈도우 내측에 배치될 수 있다. 이를 통하여 차량의 전방의 사람, 장애물 및 도로 상황에 대한 정보를 감지할 수 있다.The
제1 영상 카메라(110)는 제1 타입의 영상 정보를 감지하고 촬영하도록 형성될 수 있고, 예를들면 제1 영상 카메라(110)는 가시 광선 적용 카메라일 수 있고, 이미지 센서, 구체적 예로서 CCD(charge coupled device)를 포함할 수 있다.The
제2 영상 카메라(120)는 차량의 내측에 상기 제1 방향을 향하도록 배치될 수 있다. 예를들면 제2 영상 카메라(120)는 차량의 진행 시 전방을 향하도록 배치될 수 있고, 구체적 예로서 차량의 내측에 차량의 전방 윈도우 내측에 배치될 수 있다. 이를 통하여 차량의 전방의 사람, 장애물 및 도로 상황에 대한 정보를 감지할 수 있다.The
제2 영상 카메라(120)는 상기 제1 타입과 다른 제2 타입의 영상 정보를 감지하고 촬영하도록 형성될 수 있다. 예를들면 제2 영상 카메라(120)는 적외선, 원적외선 및 근적외선 카메라 중 하나일 수 있고, 필요한 경우에 동일한 종류의 복수의 카메라 또는 서로 상이한 종류의 복수의 카메라를 포함할 수도 있다.The
제어부(130)는 상기 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 촬영한 영상에 관한 정보를 받아 가공할 수 있다. 예를들면 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 사용자가 인식할 수 있는 이미지 정보를 생성할 수 있고, 구체적 예로서 차량 주변의 하나의 대상에 대한 제1 영상 카메라(110)가 촬영한 정보와 제2 영상 카메라(120)에서 촬영한 정보를 종합하여 최종적인 이미지 정보를 생성하여 사용자에게 제공되는 대상 정보의 정확도를 향상할 수 있다.The
선택적 실시예로서 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 차량, 사람 및 인공 도로 정보를 구별하여 이러한 구별된 방식의 정보를 이미지 정보로 생성할 수 있다.As an optional embodiment, the
선택적 실시예로서 제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 가공된 정보 또는 정보 그대로를 저장할 수 있고, 이를 위하여 별도의 저장부를 포함하거나 제어부(130)내에 저장부를 포함할 수 있다. As an optional embodiment, the
제어부(130)는 제1 영상 카메라(110) 및 상기 제2 영상 카메라(120)에서 받은 정보를 이용하여 차량, 사람 및 인공 도로 정보를 구별하여 이러한 구별된 방식의 정보를 이미지 정보로 생성할 수 있고, 이러한 구별된 정보를 상기 저장부에 저장할 수 있다. 저장된 정보를 이용하여 제어부(130)는 다양한 방식으로 학습할 수 있고, 이를 통하여 제어부(130)의 대상 구별 정확도를 향상할 수 있다. The
선택적 실시예로서 제어부(130)는 차량 시스템의 구동 제어부 또는 조향 제어부와 연결될 수 있고, 제어부(130)의 정보를 구동 제어부 또는 조향 제어부에 전달하여 차량에 대한 주행 시 사용자가 인식하지 못한 위험한 장애물의 경우 차량의 주행의 일부를 제어할 수 있고, 필요한 경우 사용자가 선택에 따라 차량의 자율적 주행을 제어할 수도 있다.As an optional embodiment, the
디스플레이부(150)는 상기 제어부(130)에서 가공한 정보를 사용자에게 표시하도록 형성될 수 있다. 예를들면 디스플레이부(150)는 차량의 내측에 배치된 대시보드의 일면, 계기판 또는 룸미러의 일면 등 사용자가 인식할 수 있는 다양한 방식으로 배치될 수 있다.The
선택적 실시예로서 디스플레이부(150)는 액정 디스플레이 패널, 유기 발광 다이오드 패널, 양자점 디스플레이 패널 또는 기타 다양한 종류의 디스플레이 소자를 포함할 수 있다.As an optional embodiment, the
선택적 실시예로서 본 실시예는 사용자에게 음성 정보를 제공해주는 음성 표현 출력부를 더 포함할 수 있다.As an optional embodiment, the present embodiment may further include a voice expression output unit that provides voice information to a user.
도 2는 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 평면도이고, 도 3은 도 1의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 일 예를 도시한 사시도이다.FIG. 2 is a plan view showing an example of a real-time processable camera-based driving environment detection vehicle system of FIG. 1, and FIG. 3 is a perspective view showing an example of a real-time processable camera-based driving environment detection vehicle system of FIG. 1.
도 4는 도 2의 K의 개략적인 확대도이고, 도 5는 도 2 또는 도 3의 일 측에서 본 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템의 개략적인 좌측면도이다.FIG. 4 is a schematic enlarged view of K of FIG. 2, and FIG. 5 is a schematic left side view of a real-time processable camera-based driving environment detection vehicle system viewed from one side of FIG. 2 or 3.
도 6은 도 5의 K 방향에서 본 개략적인 정면도이고, 도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.FIG. 6 is a schematic front view seen from the direction K in FIG. 5, and FIG. 7 is a schematic cross-sectional view taken along the line X-V in FIG. 6.
도 2를 참조하면 본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템(100, 이하 설명의 편의를 위하여 "차량 시스템"이라고 함)의 위에서 본 평면도로서 전진 방향(F) 및 후진 방향(R)을 가리키고 있다.Referring to FIG. 2, a real-time processable camera-based driving environment
차량 시스템(100)은 사용자의 의도에 따라 전진 방향(F) 및 후진 방향(R)으로 주행이 가능하도록 형성될 수 있다. The
차량 시스템(100)의 내측에는 룸미러부(RM)가 배치될 수 있다. A room mirror unit RM may be disposed inside the
제1 영상 카메라(110)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있는데, 선택적 실시예로서 차량의 전진 방향(F)을 향하도록 배치될 수 있고, 구체적 예로서 차량 시스템(100)의 내측에 배치된 룸미러부(RM)의 일면에 배치될 수 있다.The
선택적 실시예로서 도 4를 참조하면 룸미러부(RM)의 일면에 미러면(MS)이 형성되고, 미러면(MS)이 형성되지 않은 면, 예를들면 미러면(MS)과 이격되도록 제1 영상 카메라(110)가 배치되어 전진 방향(F)을 향할 수 있다.Referring to FIG. 4 as an optional embodiment, a mirror surface MS is formed on one surface of the room mirror part RM, and a surface on which the mirror surface MS is not formed, for example, is spaced apart from the mirror surface MS. 1 The
제2 영상 카메라(120)는 차량의 내측에 제1 방향을 향하도록 배치될 수 있는데, 선택적 실시예로서 차량의 전진 방향(F)을 향하도록 배치될 수 있고, 구체적 예로서 차량 시스템(100)의 내측에 배치된 룸미러부(RM)의 일면에 배치될 수 있다.The
선택적 실시예로서 도 4를 참조하면 룸미러부(RM)의 일면에 미러면(MS)이 형성되고, 미러면(MS)이 형성되지 않은 면, 예를들면 미러면(MS)과 이격되도록 제2 영상 카메라(120)가 배치되어 전진 방향(F)을 향할 수 있다.Referring to FIG. 4 as an optional embodiment, a mirror surface MS is formed on one surface of the room mirror part RM, and a surface on which the mirror surface MS is not formed, for example, is spaced apart from the mirror surface MS. 2 The
선택적 실시예로서 제1 영상 카메라(110)는 제2 영상 카메라(120)와 일 방향을 따라서 나란하게 배치될 수 있고, 또한 서로 간격을 갖도록 이격되어 배치될 수도 있다.As an optional embodiment, the
도 2에 도시한 것과 같이 차량 시스템(100)의 제1 영상 카메라(110) 및 제2 영상 카메라(120)는 서로 동일한 방향 또는 적어도 중첩되는 촬영 영역을 갖도록 배치될 수 있고, 이를 통하여 차량 주변의 사람, 장애물 또는 도로 환경에 대한 중첩 촬영을 통한 정밀한 환경 정보 인식이 가능할 수 있다.As illustrated in FIG. 2, the
도 5는 도 2 또는 도 3의 도 일 측에서 본 측면도, 예를들면 좌측면도일 수 있고, 설명의 편의를 위하여 차량 시스템(100)의 일부를 단순화하여 표시하였다.5 may be a side view viewed from the side of FIG. 2 or FIG. 3, for example, a left side view, and for convenience of description, a part of the
도 5를 참조하면 차량 시스템(100)의 내측에 배치된 룸미러부(RM)에 대하여 전진 방향(F)에 전방 윈도우(160)가 배치될 수 있다. Referring to FIG. 5, the
전방 윈도우(160)는 유리 재질로 형성될 수 있고, 선택적 실시예로서 플라스틱 또는 다양한 세라믹 재료를 포함할 수도 있다.The
룸미러부(RM)의 일 영역에, 예를들면 전술한 도 4의 미러면(MS)과 반대 방향을 향하도록 룸미러부(RM)의 일 영역에 제1 영상 카메라(110) 및 제2 영상 카메라(120)가 배치될 수 있다. The
이를 통하여 제1 영상 카메라(110) 및 제2 영상 카메라(120)가 효과적으로 차량 전방을 포함한 주변 환경 정보를 용이하게 인식할 수 있다. Through this, the
전방 윈도우(160)는 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응하는 대응 영역(160A)을 포함할 수 있다.The
예를들면 제1 영상 카메라(110) 및 제2 영상 카메라(120)는 대응 영역(160A)을 통하여 영상 정보를 감지할 수 있다.For example, the
대응 영역(160A)은 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응하는 영역으로서 그에 대응하는 크기를 가질 수 있고, 구체적 예로서 영상을 받아들이는 부재에 대응하는 크기 또는 그보다 큰 크기를 가질 수 있다.The corresponding
도 6을 참조하면 전방 윈도우(160)는 구체적으로 제1 영상 카메라(110)에 대응하는 제1 대응 영역(160A1) 및 제2 영상 카메라(120)에 대응하는 제2 대응 영역(160A2)을 포함할 수 있다.Referring to FIG. 6, the
제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 나란하게 배치될 수 있다. 다만 이는 제1 영상 카메라(110) 및 제2 영상 카메라(120)에 대응되는 위치이므로 제1 영상 카메라(110) 및 제2 영상 카메라(120)의 배치 위치에 따라 다를 수 있다.The first correspondence area 160A1 and the second correspondence area 160A2 may be arranged side by side. However, since this is a position corresponding to the
선택적 실시예로서 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 이격되도록 배치될 수 있고, 예를들면 서로 다각형, 구체적 예로서 사각형의 형태를 가질 수 있다.As an optional embodiment, the first correspondence area 160A1 and the second correspondence area 160A2 may be arranged to be spaced apart from each other, for example, may have a polygonal shape, for example, a quadrangular shape.
또 다른 선택적 실시예로서 제1 대응 영역(160A1) 또는 제2 대응 영역(160A2)은 곡선의 테두리, 예를들면 원형을 포함할 수 있다.As another optional embodiment, the first corresponding region 160A1 or the second corresponding region 160A2 may include a curved border, for example, a circular shape.
도 7은 도 6의 Ⅶ-Ⅶ선을 따라 절취한 개략적인 단면도이다.7 is a schematic cross-sectional view taken along the line VII-VII in FIG. 6.
도 7을 참조하면 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 나란하고 서로 이격되도록 배치될 수 있다. Referring to FIG. 7, the first corresponding region 160A1 and the second corresponding region 160A2 may be arranged to be parallel to each other and spaced apart from each other.
도 7을 참조하면 전방 윈도우(160)의 제1 대응 영역(160A1) 및 제2 대응 영역(160A2)은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, the first corresponding region 160A1 and the second corresponding region 160A2 of the
예를들면 제1 대응 영역(160A1)은 제1 영상 카메라(110)에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 전방 윈도우(160)의 영역 중 제1 대응 영역(160A1)과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first corresponding area 160A1 is an area having high transmittance of visible light to correspond to the
제2 대응 영역(160A2)은 제1 영상 카메라(110)에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1)과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2)에서의 적외선 투과도는 제1 대응 영역(160A1)에서의 적외선 투과도보다 높을 수 있다.The second correspondence area 160A2 may be an area having high transmission of infrared, near-infrared, or far-infrared light to correspond to the
선택적 실시예로서 제2 대응 영역(160A2)에서의 가시 광선 투과도는 제1 대응 영역(160A1)에서의 가시 광선 투과도보다 작을 수 있다.As an optional embodiment, the visible light transmittance in the second corresponding area 160A2 may be smaller than the visible light transmittance in the first corresponding area 160A1.
제2 대응 영역(160A2)은 전방 윈도우(160)의 원하는 영역에 대한 표면 처리를 하거나, 필름층 또는 필터층과 같은 추가층을 더하거나, 일 영역을 제거한 후 가공한 형태로 형성된 것일 수 있다.The second corresponding region 160A2 may be formed in a processed form after surface treatment for a desired region of the
또한, 다른 선택적 실시예로서 제2 대응 영역(160A2)은 전방 윈도우(160)를 제조 시 일체로 형성된 것일 수도 있다.In addition, as another optional embodiment, the second corresponding region 160A2 may be integrally formed when manufacturing the
도 8은 도 7의 일 변형예이다.8 is a modification of FIG. 7.
도 8을 참조하면 전방 윈도우(160')는 제1 대응 영역(160A1') 및 제2 대응 영역(160A2')을 포함할 수 있다.Referring to FIG. 8, the
제1 대응 영역(160A1') 및 제2 대응 영역(160A2')은 서로 나란하고 서로 이격되도록 배치될 수 있다. The first corresponding region 160A1' and the second corresponding region 160A2' may be arranged to be parallel to each other and spaced apart from each other.
도 7을 참조하면 전방 윈도우(160')의 제1 대응 영역(160A1') 및 제2 대응 영역(160A2')은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, the first corresponding region 160A1′ and the second corresponding region 160A2′ of the
예를들면 제1 대응 영역(160A1')은 제1 영상 카메라(110')에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 제1 대응 영역(160A1')과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first corresponding area 160A1' is an area having high transmittance of visible light to correspond to the first image camera 110', and specifically, the same material as the peripheral area immediately adjacent to the first corresponding area 160A1' is used. It can contain.
제2 대응 영역(160A2')은 제1 영상 카메라(110')에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1')과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2')에서의 적외선 투과도는 제1 대응 영역(160A1')에서의 적외선 투과도보다 높을 수 있다.The second correspondence area 160A2' may be an area having high transmission of infrared, near-infrared, or far-infrared light to correspond to the first image camera 110', and at least has different optical characteristics from the first correspondence area 160A1'. For example, at least the infrared transmittance in the second corresponding region 160A2' may be higher than the infrared transmittance in the first corresponding region 160A1'.
선택적 실시예로서 제2 대응 영역(160A2')의 두께는 제1 대응 영역(160A1')의 두께보다 작을 수 있다. As an optional embodiment, the thickness of the second corresponding region 160A2' may be smaller than the thickness of the first corresponding region 160A1'.
제2 대응 영역(160A2')은 전방 윈도우(160')의 원하는 영역에 대한 식각 또는 표면 처리를 하여 형성된 것일 수 있다.The second corresponding area 160A2' may be formed by etching or surface-treating a desired area of the front window 160'.
또한, 다른 선택적 실시예로서 제2 대응 영역(160A2')은 전방 윈도우(160')를 제조 시 일체로 형성된 것일 수도 있다.In addition, as another optional embodiment, the second corresponding region 160A2' may be integrally formed when manufacturing the front window 160'.
선택적 실시예로서 제2 대응 영역(160A2')은 전방 윈도우(160')의 영역 중 제2 대응 영역(160A2')과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.As an optional embodiment, the second corresponding area 160A2' may include the same material as the peripheral area immediately adjacent to the second corresponding area 160A2' among the areas of the front window 160'.
또한, 다른 예로서 제2 대응 영역(160A2')은 전방 윈도우(160')의 영역 중 제2 대응 영역(160A2')과 바로 인접한 주변 영역과 상이한 소재를 포함할 수 있고, 예를들면 전술한 도 7에서 설명한 것과 같은 제2 대응 영역(160A2)의 재질을 포함할 수도 있다.Further, as another example, the second corresponding area 160A2' may include a different material from the peripheral area immediately adjacent to the second corresponding area 160A2' among the areas of the front window 160', for example, as described above. The material of the second corresponding region 160A2 as described in FIG. 7 may also be included.
도 9는 도 7의 다른 일 변형예이다.FIG. 9 is another modified example of FIG. 7.
도 9를 참조하면 전방 윈도우(160")는 제1 대응 영역(160A1") 및 제2 대응 영역(160A2")을 포함할 수 있다.Referring to FIG. 9, the
제1 대응 영역(160A1") 및 제2 대응 영역(160A2")은 서로 나란하고 서로 이격되도록 배치될 수 있다. The first corresponding area 160A1" and the second corresponding area 160A2" may be arranged to be parallel to each other and spaced apart from each other.
도 7을 참조하면 전방 윈도우(160")의 제1 대응 영역(160A1") 및 제2 대응 영역(160A2")은 서로 상이한 광특성을 갖도록 형성될 수 있다. Referring to FIG. 7, the first corresponding region 160A1″ and the second corresponding region 160A2″ of the
예를들면 제1 대응 영역(160A1")은 제1 영상 카메라(110")에 대응하도록 가시 광선의 투과도 높은 영역이고 구체적 예로서 제1 대응 영역(160A1")과 바로 인접한 주변 영역과 동일한 소재를 포함할 수 있다.For example, the first corresponding area 160A1" is an area having high transmittance of visible light to correspond to the
제2 대응 영역(160A2")은 제1 영상 카메라(110")에 대응하도록 적외선, 근적외선 또는 원적외선의 투과가 높은 영역일 수 있고, 적어도 제1 대응 영역(160A1")과는 광특성이 다르고, 예를들면 적어도 제2 대응 영역(160A2")에서의 적외선 투과도는 제1 대응 영역(160A1")에서의 적외선 투과도보다 높을 수 있다.The second correspondence area 160A2" may be an area having high transmission of infrared, near-infrared, or far-infrared light to correspond to the
선택적 실시예로서 제2 대응 영역(160A2")은 개구부(opening)를 포함할 수 있다. 예를들면 전방 윈도우(160")의 전체 두께에 대응하도록 개구부가 형성될 수 있고, 그 형태는 원형 또는 다각형 등 다양한 형태로서 적어도 제2 영상 카메라가 영상을 인식하는 크기와 형태를 가질 수 있다.As an optional embodiment, the second corresponding region 160A2" may include an opening. For example, the opening may be formed to correspond to the entire thickness of the
제2 대응 영역(160A2")은 전방 윈도우(160")의 원하는 영역에 대한 식각 또는 표면 처리를 하여 형성된 것일 수 있다.The second corresponding area 160A2" may be formed by etching or surface treatment of a desired area of the
또한, 다른 선택적 실시예로서 제2 대응 영역(160A2")은 전방 윈도우(160")를 제조 시 일체로 형성된 것일 수도 있다.Further, as another optional embodiment, the second corresponding region 160A2" may be integrally formed when manufacturing the
본 실시예의 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템은 제1 영상 카메라에서 취득한 정보 및 제2 영상 카메라에서 취득한 정보를 이용하여 제어부를 통하여 다양한 정보를 가공할 수 있다. 예를들면 차량의 주행시 전방을 포함한 주변의 사람, 차량 또는 기타 도로 주행 정보에 대한 정보를 취득할 수 있고, 이를 통하여 사용자에게 주행 환경 정보를 용이하게 인식하도록 할 수 있고, 이러한 것은 디스플레이부를 통하여 알게 할 수 있다.The real-time processable camera-based driving environment detection vehicle system of the present embodiment can process various information through a control unit using information obtained from a first image camera and information obtained from a second image camera. For example, when driving a vehicle, information about surrounding people, vehicles, or other road driving information, including the front, can be obtained, and through this, a user can easily recognize driving environment information, which is known through a display unit. can do.
또한, 선택적 실시예로서 제어부가 이러한 정보를 이용하여 차량의 구동 제어부 또는 조향 제어부와 연결하거나 제어부가 차량의 구동 제어부 또는 조향 제어부의 일 영역에 배치 또는 일체화되어 차량의 주행 환경 정보를 통하여 차량의 주행의 일부를 제어할 수 있고, 선택적 실시예로서 차량의 자율적 주행을 제어할 수 있다.In addition, as an optional embodiment, the control unit uses this information to connect to the driving control unit or the steering control unit of the vehicle, or the control unit is disposed or integrated in one region of the driving control unit or steering control unit of the vehicle to drive the vehicle through the driving environment information of the vehicle. It can control a part of, and as an optional embodiment it can control the autonomous driving of the vehicle.
또한, 이 때 제1 영상 카메라는 가시 광선을 이용한 것이고 제2 영상 카메라는 적외선 또는 근적외선이나 원적외선을 이용한 것으로서 제어부는 다양하고 정밀한 정보를 제공할 수 있는데, 특히 예를들면 시야 확보가 잘 되지 않아 가시 광선을 통한 인식율이 저하되는 야간 주행의 경우에 적외선, 근적외선 또는 원적외선을 이용한 제2 영상 카메라의 정보를 통해 정밀한 야간 주행 환경 정보를 확보하여 야간의 주행의 안정성을 향상할 수 있다.In addition, at this time, the first video camera uses visible light, and the second video camera uses infrared or near-infrared or far-infrared, and the control unit can provide various and precise information. In the case of night driving in which the recognition rate through the light beam is reduced, it is possible to improve the stability of driving at night by securing precise night driving environment information through the information of the second image camera using infrared, near infrared, or far infrared.
한편, 차량 시스템의 내측에 제1 영상 카메라 및 제2 영상 카메라를 배치하여 차량의 주행 환경에 따라 제1 영상 카메라 및 제2 영상 카메라가 오염, 손상, 변형 또는 파손되는 것을 방지할 수 있다.Meanwhile, the first video camera and the second video camera may be disposed inside the vehicle system to prevent the first video camera and the second video camera from being contaminated, damaged, deformed, or damaged according to the driving environment of the vehicle.
또한, 차량 시스템의 내측에 제1 영상 카메라 및 제2 영상 카메라를 전방 윈도우를 향하도록 룸미러부의 일면에 배치하여 차량의 내측 공간의 활용을 향상하고 차량의 운전자 또는 탑승자들의 시야를 제한하거나 차량 내측 공간의 심미감을 감소하지 않으면서 차량 전방을 포함한 주변 환경 정보를 효율적으로 확보할 수 있다. 또한, 룸미러부의 일면, 예를들면 전진 방향을 향하도록 제1 영상 카메라 및 제2 영상 카메라를 나란하게 배치하여 제1 영상 카메라 및 제2 영상 카메라를 통한 영상의 오차 범위를 감소할 수 있고, 이를 통하여 환경 정보의 정밀도를 향상할 수 있다.In addition, the first video camera and the second video camera inside the vehicle system are arranged on one surface of the room mirror to face the front window to improve the utilization of the interior space of the vehicle and limit the visibility of the driver or passengers of the vehicle or inside the vehicle. It is possible to efficiently obtain information about the surrounding environment including the front of the vehicle without reducing the aesthetics of the space. In addition, the first image camera and the second image camera may be arranged side by side to face one side of the room mirror, for example, the forward direction, thereby reducing the error range of the image through the first image camera and the second image camera. Through this, the precision of environmental information can be improved.
또한, 전방 윈도우가 제1 영상 카메라 및 제2 영상 카메라에 대응하는 대응 영역을 포함하고, 대응 영역 중 제1 영상 카메라에 대응하는 제1 대응 영역과 제2 영상 카메라에 대응하는 제2 대응 영역의 광특성이 차이가 나도록 하여 차량 내측에서 전방 윈도우를 통하여 인식 시 서로 상이한 타입의 제1 영상 카메라 및 제2 영상 카메라를 통하여 확보하는 영상의 정확도를 향상할 수 있다.In addition, the front window includes a first video camera and a corresponding area corresponding to the second video camera, and of the first corresponding area corresponding to the first video camera and the second corresponding area corresponding to the second video camera among the corresponding areas. By making the optical characteristics different, it is possible to improve the accuracy of images secured through different types of first and second image cameras when recognizing through the front window inside the vehicle.
예를들면 제2 대응 영역과 제1 대응 영역과 다른 재질 등을 포함하여 적어도 적외선 등의 투과도를 제1 대응 영역보다 높도록 하여 제2 대응 영역에서의 제2 영상 카메라를 통한 영상 인식율을 향상할 수 있고, 이를 통하여 야간의 주행 환경 정보의 용이한 확보와 정밀도 향상을 할 수 있고, 결과적으로 야간에서의 주행 안정성을 향상할 수 있다.For example, by including at least a second correspondence area and a material different from the first correspondence area, the transmittance of infrared rays or the like is higher than the first correspondence area, thereby improving the image recognition rate through the second image camera in the second correspondence area. Through this, it is possible to easily secure and improve the precision of the driving environment information at night, and as a result, the driving stability at night can be improved.
선택적 실시예로서 제2 대응 영역의 두께를 제1 대응 영역보다 작게 하여 용이한 방법으로 적외선 투과도를 향상할 수 있고, 제2 영상 카메라의 인식율을 높일 수 있다.As an optional embodiment, the thickness of the second corresponding region may be smaller than that of the first corresponding region, thereby improving infrared transmittance in an easy manner and increasing the recognition rate of the second image camera.
또한, 다른 선택적 실시예로서 제2 대응 영역에 대응하도록 개구부를 형성할 수 있고, 이러한 개구부를 통하여 전방 윈도우의 두께에 대응하는 간섭없이 공기 또는 기체층만을 적외선이 통과하여 제2 대응 영역에서의 적외선 투과도 향상 효과를 증대할 수 있고, 이를 통하여 제2 영상 카메라의 정밀한 인식율을 높일 수 있고, 결과적으로 제1 영상 카메라와의 조합을 통한 정밀한 주행 환경 정보를 이용할 수 있어서 사용자의 편의성과 주행 안정성을 향상할 수 있다.In addition, as another optional embodiment, an opening may be formed to correspond to the second corresponding region, and through this opening, only the air or gas layer passes infrared rays without interference corresponding to the thickness of the front window, so that infrared rays in the second corresponding region It is possible to increase the effect of improving the transmittance, thereby increasing the precision recognition rate of the second video camera, and as a result, it is possible to use precise driving environment information through a combination with the first video camera, thereby improving user convenience and driving stability. can do.
또한, 이러한 야간에서의 주행 안정성과 편의성을 이용하여 야간의 자율 주행 특성에 기여할 수 있다.In addition, by using the driving stability and convenience at night, it can contribute to the autonomous driving characteristics at night.
이와 같이 본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.As described above, the present invention has been described with reference to the embodiment shown in the drawings, but this is only an example, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. . Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.
실시예에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 실시 예의 범위를 한정하는 것은 아니다. 또한, "필수적인", "중요하게" 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the embodiments are examples, and do not limit the scope of the embodiments in any way. In addition, unless specifically mentioned, such as "essential", "important", etc., it may not be a necessary component for application of the present invention.
실시예의 명세서(특히 특허청구범위에서")에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 실시 예에서 범위(range")를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면"), 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 실시 예에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 실시 예들이 한정되는 것은 아니다. 실시 예에서 모든 예들 또는 예시적인 용어(예들 들어, 등등")의 사용은 단순히 실시 예를 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 실시 예의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification (especially in the claims) of an embodiment, the use of the term “above” and similar indication terms may correspond to both singular and plural. In addition, when the range is described in the embodiment As it includes the invention to which the individual values belonging to the above range are applied (if there is no contrary description), it is the same as describing each individual value constituting the above range in the detailed description. Unless explicitly stated or contrary to the steps, the steps may be performed in an appropriate order. The embodiments are not necessarily limited to the order of description of the steps. In the embodiments, all examples or exemplary terms ( For example, the use of “etc.” is merely to describe the embodiment in detail, and the scope of the embodiment is not limited by the examples or exemplary terms unless limited by the claims. In addition, those skilled in the art can recognize that various modifications, combinations, and changes can be configured according to design conditions and factors within the scope of the appended claims or equivalents thereof.
100: 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템
110: 제1 영상 카메라
120: 제2 영상 카메라
130: 제어부
150: 디스플레이부
160: 전방 윈도우
RM: 룸미러부100: real-time processing camera-based driving environment detection vehicle system
110: first video camera
120: second video camera
130: control unit
150: display unit
160: front window
RM: Room Mirror
Claims (5)
차량의 내측에 상기 제1 방향을 향하도록 배치되고 상기 제1 타입과 상이한 제2 타입의 영상 정보를 감지하는 제2 영상 카메라;
상기 제1 영상 카메라 및 상기 제2 영상 카메라에서 감지한 영상 정보를 이용하여 정보를 가공하는 제어부; 및
상기 제어부에서 가공한 하나 이상의 정보를 사용자에게 표현하는 디스플레이부를 포함하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.A first image camera disposed inside the vehicle system to face the first direction and detecting first type of image information;
A second video camera disposed inside the vehicle to face the first direction and sensing a second type of image information different from the first type;
A control unit for processing information using image information detected by the first image camera and the second image camera; And
A real-time processable camera-based driving environment detection vehicle system including a display unit that displays one or more pieces of information processed by the control unit to a user.
상기 제1 영상 카메라는 가시 광선을 이용하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.According to claim 1,
The first video camera is a real-time processing camera-based driving environment detection vehicle system using visible light.
상기 제2 영상 카메라는 적외선, 근적외선 또는 원적외선을 이용하는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.According to claim 1,
The second video camera is a real-time processing camera-based driving environment detection vehicle system using infrared, near-infrared, or far-infrared.
상기 차량 시스템은 내측에 룸미러부가 배치되고,
상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 룸미러부에 배치되는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.According to claim 1,
In the vehicle system, a room mirror part is disposed inside,
The first video camera or the second video camera is a real-time processable camera-based driving environment detection vehicle system disposed in a room mirror.
상기 차량 시스템의 전방을 향하는 전방 윈도우를 포함하고,
상기 제1 영상 카메라 또는 상기 제2 영상 카메라는 상기 전방 윈도우를 향하도록 배치되는 실시간 처리 가능 카메라 기반 주행 환경 탐지 차량 시스템.According to claim 1,
It includes a front window toward the front of the vehicle system,
The first video camera or the second video camera is a real-time processable camera-based driving environment detection vehicle system arranged to face the front window.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190009239A KR102235031B1 (en) | 2019-01-24 | 2019-01-24 | Real-time processable camera based driving environment detection vehicle system |
PCT/KR2019/015936 WO2020153591A1 (en) | 2019-01-24 | 2019-11-20 | Real-time processible camera-based driving environment detecting vehicle system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190009239A KR102235031B1 (en) | 2019-01-24 | 2019-01-24 | Real-time processable camera based driving environment detection vehicle system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210039744A Division KR20210036334A (en) | 2021-03-26 | 2021-03-26 | Real-time processable camera based driving environment detection vehicle system |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200092102A true KR20200092102A (en) | 2020-08-03 |
KR102235031B1 KR102235031B1 (en) | 2021-04-01 |
Family
ID=71736943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190009239A KR102235031B1 (en) | 2019-01-24 | 2019-01-24 | Real-time processable camera based driving environment detection vehicle system |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102235031B1 (en) |
WO (1) | WO2020153591A1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099997A (en) * | 2000-09-26 | 2002-04-05 | Mitsubishi Motors Corp | Detection device for moving object |
JP2003159996A (en) * | 2001-06-30 | 2003-06-03 | Daimlerchrysler Ag | Apparatus for improving visibility in vehicle |
KR20050103194A (en) * | 2003-02-06 | 2005-10-27 | 바이에리셰 모토렌 베르케 악티엔게젤샤프트 | Method and device for visualizing a motor vehicle environment with environment-dependent fusion of an infrared image and a visual image |
JP2008299538A (en) * | 2007-05-30 | 2008-12-11 | Toyota Motor Corp | Imaging system for vehicle and controller for vehicle |
US20180370434A1 (en) * | 2017-06-27 | 2018-12-27 | Shanghai XPT Technology Limited | Driving Assistance System and Method of Enhancing a Driver's Vision |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5001558A (en) * | 1985-06-11 | 1991-03-19 | General Motors Corporation | Night vision system with color video camera |
JP3988657B2 (en) * | 2003-02-27 | 2007-10-10 | 日産自動車株式会社 | Object detection device |
JP4722760B2 (en) * | 2006-04-24 | 2011-07-13 | 三菱電機株式会社 | Vehicle tracking device |
-
2019
- 2019-01-24 KR KR1020190009239A patent/KR102235031B1/en active IP Right Grant
- 2019-11-20 WO PCT/KR2019/015936 patent/WO2020153591A1/en active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002099997A (en) * | 2000-09-26 | 2002-04-05 | Mitsubishi Motors Corp | Detection device for moving object |
JP2003159996A (en) * | 2001-06-30 | 2003-06-03 | Daimlerchrysler Ag | Apparatus for improving visibility in vehicle |
KR20050103194A (en) * | 2003-02-06 | 2005-10-27 | 바이에리셰 모토렌 베르케 악티엔게젤샤프트 | Method and device for visualizing a motor vehicle environment with environment-dependent fusion of an infrared image and a visual image |
JP2008299538A (en) * | 2007-05-30 | 2008-12-11 | Toyota Motor Corp | Imaging system for vehicle and controller for vehicle |
US20180370434A1 (en) * | 2017-06-27 | 2018-12-27 | Shanghai XPT Technology Limited | Driving Assistance System and Method of Enhancing a Driver's Vision |
Also Published As
Publication number | Publication date |
---|---|
WO2020153591A1 (en) | 2020-07-30 |
KR102235031B1 (en) | 2021-04-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11827152B2 (en) | Vehicular vision system | |
US10311735B2 (en) | Vehicle display system and method of controlling vehicle display system | |
AU2015260356B2 (en) | Display device and vehicle | |
US20160297362A1 (en) | Vehicle exterior side-camera systems and methods | |
EP3330117B1 (en) | Vehicle display device | |
US20140160012A1 (en) | Automatic correction device of vehicle display system and method thereof | |
US9823735B2 (en) | Method for selecting an information source from a plurality of information sources for display on a display of smart glasses | |
CN108621940B (en) | Display system for vehicle and control method for display system for vehicle | |
JP2006199104A (en) | Variable-transmittance window system | |
US10855934B2 (en) | Generating bird's-eye view images | |
JP2006044596A (en) | Display device for vehicle | |
JP2017149335A (en) | Drive support information display device | |
CN106274686A (en) | A kind of vehicle blind zone rendering method and device | |
TW201526638A (en) | Obstacle detection and display system for vehicle | |
US20180268209A1 (en) | Vehicle display system and method of controlling vehicle display system | |
US9521400B2 (en) | Method and device for processing images from image data | |
JP2017056909A (en) | Vehicular image display device | |
JP2007311898A (en) | Vehicle drive support apparatus and vehicle drive support method | |
KR102114386B1 (en) | Mirrorless System for Vehicle | |
JP6516241B2 (en) | Gesture input device | |
JP2016097921A (en) | Vehicular driving assist display system | |
KR102235031B1 (en) | Real-time processable camera based driving environment detection vehicle system | |
KR20210036334A (en) | Real-time processable camera based driving environment detection vehicle system | |
JP4935387B2 (en) | Information display device | |
CN107399274A (en) | image superposition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right |