KR20210048888A - Automotive sensor integration module - Google Patents

Automotive sensor integration module Download PDF

Info

Publication number
KR20210048888A
KR20210048888A KR1020190133129A KR20190133129A KR20210048888A KR 20210048888 A KR20210048888 A KR 20210048888A KR 1020190133129 A KR1020190133129 A KR 1020190133129A KR 20190133129 A KR20190133129 A KR 20190133129A KR 20210048888 A KR20210048888 A KR 20210048888A
Authority
KR
South Korea
Prior art keywords
data
vehicle
output
sensors
integration module
Prior art date
Application number
KR1020190133129A
Other languages
Korean (ko)
Other versions
KR102588554B1 (en
Inventor
김영신
김원겸
김경린
조성은
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190133129A priority Critical patent/KR102588554B1/en
Priority to US16/726,703 priority patent/US11443150B2/en
Publication of KR20210048888A publication Critical patent/KR20210048888A/en
Priority to US17/940,642 priority patent/US11774578B2/en
Application granted granted Critical
Publication of KR102588554B1 publication Critical patent/KR102588554B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0218Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterised by the fault detection method dealing with either existing or incipient faults
    • G05B23/0221Preprocessing measurements, e.g. data collection rate adjustment; Standardization of measurements; Time series or signal analysis, e.g. frequency analysis or wavelets; Trustworthiness of measurements; Indexes therefor; Measurements using easily measured parameters to estimate parameters difficult to measure; Virtual sensor creation; De-noising; Sensor fusion; Unconventional preprocessing inherently present in specific fault detection methods like PCA-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • B60W50/0205Diagnosing or detecting failures; Failure detection models
    • B60W2050/0215Sensor drifts or sensor failures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/14Cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/20Pc systems
    • G05B2219/26Pc applications
    • G05B2219/2637Vehicle, car, auto, wheelchair

Abstract

According to the present invention, a sensor integrated module for a vehicle comprises: a plurality of sensors having at least different one between a sensing period and output data form; and a signal processing unit outputting detection data outputted from each of the sensors as sensing data, simultaneously, based on one sensing period of the sensors, determining whether each area of an external cover corresponding to each position of the sensors is contaminated based on the detection data, and outputting a determination result as contamination data.

Description

자동차용 센서 통합 모듈{AUTOMOTIVE SENSOR INTEGRATION MODULE}Automotive sensor integration module {AUTOMOTIVE SENSOR INTEGRATION MODULE}

본 발명은 자동차용 센서 통합 모듈에 관한 것이다.The present invention relates to a sensor integration module for a vehicle.

기술이 고도화됨에 따라 차량에도 사용자의 편의를 위해, 각종 센서와 전자 장치 등이 구비되고 있다. 특히, 사용자의 운전 편의를 위해 첨단 운전자 보조 시스템(ADAS: Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어지고 있다.As technology advances, vehicles are also equipped with various sensors and electronic devices for user convenience. In particular, research on an advanced driver assistance system (ADAS) is being actively conducted for the user's driving convenience. Furthermore, the development of autonomous vehicles is being actively carried out.

첨단 운전자 지원 시스템 및 자율 주행 차량은 자동차 외부의 오브젝트를 판단하기 위해, 많은 개수의 센서와 전자 장치를 구비할 수 밖에 없다.Advanced driver assistance systems and autonomous vehicles are inevitably equipped with a large number of sensors and electronic devices to determine objects outside the vehicle.

도 1을 참조하면, 자동차의 전방 오브젝트를 검출하기 위하여, 카메라, 라이다, 및 레이더 센서 등이 자동차의 전방에 배치되지만 서로 다른 위치에 각각 배치된다. Referring to FIG. 1, in order to detect an object in front of a vehicle, a camera, a lidar, and a radar sensor are arranged in front of the vehicle, but are arranged at different positions.

오브젝트의 검출 성능 향상을 위해 동일한 타이밍에 검출된 센서들의 검출 결과를 토대로 하여 오브젝트를 판단하여야 하지만, 센서들이 서로 다른 위치에 배치되어 있어 오브젝트 검출 센서들의 동기화가 쉽지 않다. 또한, 센서들의 외부 커버 표면에 오염물이 부착되는 경우, 각 센서들은 정상적인 오브젝트 판별을 위한 검출 결과를 출력하기 어렵다. In order to improve the detection performance of the object, the object should be determined based on the detection result of the sensors detected at the same timing, but because the sensors are arranged at different positions, it is not easy to synchronize the object detection sensors. In addition, when contaminants adhere to the outer cover surfaces of the sensors, it is difficult for each sensor to output a detection result for normal object identification.

본 발명은 동기화된 복수의 센서가 배치된 자동차용 센서 통합 모듈을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a sensor integration module for a vehicle in which a plurality of synchronized sensors are arranged.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention that are not mentioned can be understood by the following description, and will be more clearly understood by examples of the present invention. In addition, it will be easily understood that the objects and advantages of the present invention can be realized by the means shown in the claims and combinations thereof.

이러한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 센싱 주기 및 출력 데이터 형식중 적어도 하나 이상이 다른 복수의 센서, 및 상기 복수의 센서 중 어느 하나의 센싱 주기에 기초하여 상기 복수의 센서 각각으로부터 출력된 검출 데이터들을 동시에 센싱 데이터로서 출력하며, 상기 검출 데이터들에 기초하여 상기 복수의 센서 각각의 위치에 대응되는 외부 커버의 각 영역에 대한 오염 여부를 판단하고, 판단 결과를 오염 데이터로서 출력하는 신호 처리부를 포함한다.A sensor integration module for a vehicle according to an embodiment of the present invention for achieving this object is based on a plurality of sensors having different at least one of a sensing period and an output data format, and a sensing period of any one of the plurality of sensors. The detection data output from each of the plurality of sensors are simultaneously output as sensing data, and based on the detection data, it is determined whether each area of the outer cover corresponding to the position of each of the plurality of sensors is contaminated, and the determination result And a signal processing unit that outputs as contamination data.

본 발명의 실시예에 따른 자동차용 센서 통합 모듈은 복수의 센서가 동기화되어 동작하므로, 자동차 외부의 오브젝트에 대한 검출 성능을 향상시키는 효과가 있다.In the vehicle sensor integration module according to an embodiment of the present invention, since a plurality of sensors operate in synchronization, there is an effect of improving the detection performance of an object outside the vehicle.

또한 본 발명의 실시예에 따른 자동차용 센서 통합 모듈은 복수의 센서 각각의 오염 여부를 판별하여 각 센서 별로 세척이 가능하기 때문에 자동차 외부의 오브젝트에 대한 검출 성능을 향상시키는 효과가 있다. In addition, since the sensor integration module for a vehicle according to an embodiment of the present invention determines whether each of a plurality of sensors is contaminated and can be cleaned for each sensor, there is an effect of improving the detection performance of an object outside the vehicle.

도 1은 자율 주행 자동차의 외부 모습을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 외형도를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차를 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈 및 자동차용 센서 통합 모듈의 외부 표면을 세척하기 위한 세척 장치를 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차의 구성을 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 구성을 도시한 도면이다.
도 7는 도 3의 신호 처리부의 구성을 도시한 도면이다.
도 8은 도 7의 오염 판별부의 구성을 도시한 도면이다.
1 is a diagram showing the exterior of an autonomous vehicle.
2 is a view showing an external view of a sensor integration module for a vehicle according to an embodiment of the present invention.
3 is a view showing a vehicle in which an integrated vehicle sensor module according to an embodiment of the present invention is disposed.
4 is a view showing a washing device for cleaning the outer surface of the sensor integration module for a vehicle and the sensor integration module for a vehicle according to an embodiment of the present invention.
5 is a view showing the configuration of a vehicle in which an integrated vehicle sensor module according to an embodiment of the present invention is disposed.
6 is a view showing the configuration of a sensor integration module for a vehicle according to an embodiment of the present invention.
7 is a diagram illustrating a configuration of a signal processing unit of FIG. 3.
8 is a diagram showing the configuration of the contamination determination unit of FIG. 7.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features, and advantages will be described later in detail with reference to the accompanying drawings, and accordingly, one of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the subject matter of the present invention, a detailed description will be omitted. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar elements.

이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다. Hereinafter, the "top (or bottom)" of the component or the "top (or bottom)" of the component means that an arbitrary component is arranged in contact with the top (or bottom) of the component. In addition, it may mean that other components may be interposed between the component and any component disposed on (or under) the component.

또한 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다. In addition, when a component is described as being "connected", "coupled" or "connected" to another component, the components may be directly connected or connected to each other, but other components are "interposed" between each component. It is to be understood that "or, each component may be "connected", "coupled" or "connected" through other components.

도 2는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 외형도를 도시한 도면이다.2 is a view showing an external view of a sensor integration module for a vehicle according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 자동차 주행의 안전 정보를 획득하기 위해 자동차 외부에 위치하는 오브젝트를 검출하는 복수의 장치 및 센서를 포함할 수 있다. 이때, 오브젝트는 차선, 타차량, 보행자, 이륜차, 교통 신호, 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다. The sensor integration module for a vehicle according to an embodiment of the present invention may include a plurality of devices and sensors for detecting an object located outside a vehicle in order to obtain safety information about driving a vehicle. In this case, the object may include a lane, another vehicle, a pedestrian, a two-wheeled vehicle, a traffic signal, a light, a road, a structure, a speed bump, a terrain object, an animal, and the like.

차선(Lane)은 주행 차선, 주행 차선의 옆 차선, 대향되는 차량이 주행하는 차선일 수 있다. 차선은 차선을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.The lane may be a driving lane, a lane next to the driving lane, or a lane in which an opposite vehicle travels. The lane may be a concept including left and right lines forming a lane.

타차량은 자차량의 주변에서 주행 중인 차량일 수 있다. 타차량은 자차량으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 예를 들어, 타 차량은 자 차량으로부터 소정 거리 이내에 위치하며, 자차량보다 선행 또는 후행하는 차량일 수 있다. The other vehicle may be a vehicle running around the own vehicle. The other vehicle may be a vehicle located within a predetermined distance from the own vehicle. For example, the other vehicle may be a vehicle located within a predetermined distance from the own vehicle and preceding or following the own vehicle.

보행자는 자 차량의 주변에 위치한 사람일 수 있다. 보행자는 자 차량으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들어, 보행자는 자 차량의 소정 거리 이내의 인도 또는 차도 상에 위치하는 사람일 수 있다.A pedestrian may be a person located in the vicinity of the child's vehicle. The pedestrian may be a person located within a predetermined distance from the own vehicle. For example, a pedestrian may be a person located on a sidewalk or roadway within a predetermined distance of the own vehicle.

이륜차는 자 차량의 주변에 위치하고, 2개의 바퀴를 이용해 움직이는 탈 것을 의미할 수 있다. 이륜차는 자 차량으로부터 소정 거리 이내에 위치하는 2개의 바퀴를 가지는 탈 것일 수 있다. 예를 들어, 이륜차는 자 차량의 소정 거리 이내 인도 또는 차도상에 위치하는 오토바이 또는 자전거를 포함할 수 있다.A two-wheeled vehicle may refer to a vehicle that is located around a child vehicle and moves using two wheels. The two-wheeled vehicle may be a vehicle having two wheels located within a predetermined distance from the own vehicle. For example, the two-wheeled vehicle may include a motorcycle or bicycle positioned on a sidewalk or roadway within a predetermined distance of the own vehicle.

교통 신호는 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.The traffic signal may include a traffic light, a traffic sign, a pattern or text drawn on a road surface.

빛은 타 차량에 구비된 램프, 가로등 도는 태양으로부터 방출되는 빛을 포함할 수 있다.The light may include lamps provided in other vehicles, street lights, or light emitted from the sun.

도로는 도로면, 커브, 오르막, 내리막 등의 경사를 포함할 수 있다.The road may include slopes such as road surfaces, curves, uphill and downhill.

구조물은 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들어, 구조물은 가로등, 가로수, 건물, 전봇대, 신호등, 다리 등을 포함할 수 있다.The structure may be an object located around a road and fixed to the ground. For example, the structure may include street lights, street trees, buildings, power poles, traffic lights, bridges, and the like.

지형물은 산, 언덕 등을 포함할 수 있다. The features may include mountains, hills, and the like.

한편, 오브젝트는 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들어, 이동 오브젝트는 타차량, 이륜차 및 보행자 등을 포함하는 개념일 수 있고, 고정 오브젝트는 교통 신호, 도로, 구조물 등을 포함하는 개념일 수 있다.Meanwhile, the object may be classified into a moving object and a fixed object. For example, the moving object may be a concept including another vehicle, a two-wheeled vehicle, a pedestrian, and the like, and the fixed object may be a concept including a traffic signal, a road, a structure, and the like.

이와 같이, 자동차 주변의 다양한 오브젝트를 정확히 판별하기 위해서는 다양한 센서 및 장치를 이용하는 것이 바람직할 수 있다.As described above, it may be desirable to use various sensors and devices in order to accurately determine various objects around the vehicle.

자동차 외부의 오브젝트를 정확히 판별하기 위해, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 서로 다른 종류의 복수의 센서 및 장치를 포함할 수 있다. 또한 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 동일한 종류의 센서 및 장치를 적어도 하나 이상 포함할 수 있다.In order to accurately determine an object outside the vehicle, the sensor integration module for a vehicle according to an embodiment of the present invention may include a plurality of sensors and devices of different types. In addition, the sensor integration module for a vehicle according to an embodiment of the present invention may include at least one sensor and device of the same type.

도 2를 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 자동차 외부의 오브젝트를 판별하기 위한 센서로, 적외선 카메라, 광학 카메라, 라이다 및 레이더를 포함할 수 있다. 도 2에 도시된 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 오브젝트를 판별하기 위한 센서로 적외선 카메라, 광학 카메라, 라이다 및 레이더를 예를 들어 설명할 뿐, 이에 한정하는 것이 아니다. 또한, 도 2에 도시된 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 2개의 적외선 카메라, 1개의 광학 카메라, 2개의 라이다, 및 1개의 레이더를 도시하였지만, 각 센서의 개수를 예를 들어 설명하는 것일 뿐, 한정하는 것이 아니다.Referring to FIG. 2, a sensor integration module for a vehicle according to an embodiment of the present invention is a sensor for discriminating an object outside a vehicle, and may include an infrared camera, an optical camera, a lidar, and a radar. The sensor integration module for a vehicle according to an embodiment of the present invention illustrated in FIG. 2 is an infrared camera, an optical camera, a lidar, and a radar as a sensor for discriminating an object, but is not limited thereto. In addition, the sensor integration module for a vehicle according to an embodiment of the present invention shown in FIG. 2 shows two infrared cameras, one optical camera, two lidars, and one radar, but the number of each sensor is shown as an example. It is only to explain, not limiting.

도 2를 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 회로기판, 적외선 카메라, 카메라, 레이더 및 라이다를 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 적외선 카메라, 광학 카메라, 레이더 및 라이다가 배치 및 실장된 회로기판을 포함할 수 있다. Referring to FIG. 2, the sensor integrated module for a vehicle according to an embodiment of the present invention may include a circuit board, an infrared camera, a camera, a radar, and a lidar. For example, the sensor integration module for a vehicle according to an embodiment of the present invention may include a circuit board on which an infrared camera, an optical camera, a radar, and a lidar are arranged and mounted.

광학 카메라는 빛을 매개로 자동차의 외부 영상을 획득하여 자동차의 주변 사물, 빛 및 사람을 인식하기 위한 것으로, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 및 360도 카메라를 포함할 수 있다. 광학 카메라는 다른 센서들에 비해 색상 감지가 가능하고, 오브젝트를 정확히 분류할 수 있는 장점이 있으나, 야간, 역광, 눈, 비, 안개 등의 환경적인 요소에 많은 영향을 받는 단점이 있다. The optical camera is for recognizing objects, lights, and people around the vehicle by acquiring an external image of the vehicle through light, and may include a mono camera, a stereo camera, an AVM (Around View Monitoring) camera, and a 360 degree camera. . Optical cameras have the advantage of being able to detect colors and accurately classify objects compared to other sensors, but have disadvantages that are affected by environmental factors such as night, backlight, snow, rain, and fog.

레이더는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(Phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이더는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리를 탐지할 수 있는 장점이 있지만, 전자파를 흡수하는 물질로 구성된 오브젝트 예를 들어, 터널 또는 가드레일과 같은 철재 구조물의 감지가 어렵고 오브젝트를 분류하지 못하는 단점이 있다. The radar detects an object based on an electromagnetic wave, a Time of Flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed. I can. Radar has the advantage of detecting long distances without being affected by environmental factors such as nighttime, snow, rain, fog, etc., but objects made of materials that absorb electromagnetic waves, for example, of steel structures such as tunnels or guardrails. It is difficult to detect and has the disadvantage of not being able to classify objects.

라이다는 레이저 광을 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(Phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 덜 받고 분해능(Resolution)이 좋아 장거리 및 단거리 탐지에 효율적이며, 오브젝트의 간단한 분류도 수행할 수 있는 장점이 있지만, 오브젝트에 대한 속도를 바로 측정할 수 없는 단점이 있다.The radar detects an object based on a time of flight (TOF) method or a phase-shift method through laser light, and determines the position of the detected object, the distance to the detected object, and the relative speed. Can be detected. The radar is less affected by environmental factors such as night, snow, rain, fog, etc., and its resolution is good, so it is efficient for long-range and short-range detection, and has the advantage of being able to perform simple classification of objects. There is a disadvantage that the speed cannot be measured immediately.

적외선 카메라는 적외선을 매개로 자동차의 외부 영상을 획득할 수 있다. 특히, 적외선 카메라는 야간에도 자동차의 외부 영상을 획득할 수 있다. 적외선 카메라는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리 탐지 및 생명체와 사물의 구분이 가능한 정점이 있지만, 가격이 비싼 단점이 있다.The infrared camera can acquire an image of the exterior of a vehicle through infrared rays. In particular, the infrared camera can acquire an external image of a vehicle even at night. Infrared cameras are not affected by environmental factors such as nighttime, snow, rain, fog, etc., and have a peak that allows long-distance detection and distinguishing between living things and objects, but they have a disadvantage of high price.

본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 광학 카메라, 적외선 카메라, 레이더 및 라이다의 탐지 영역 방향 즉, 자동차용 센서 통합 모듈의 전면에 외부 커버가 결합되어, 광학 카메라, 적외선 카메라, 레이더 및 라이다를 물리적인 충격으로부터 보호할 수 있다.In the sensor integration module for a vehicle according to an embodiment of the present invention, an external cover is coupled to the front of the sensor integration module for an optical camera, an infrared camera, a radar, and a lidar detection area, that is, an optical camera, an infrared camera, Radar and lidar can be protected from physical impact.

이와 같이, 환경적인 요소와는 무관하게 자동차 주변 외부 오브젝트를 정확하게 분류 및 판별하기 위해서는 각 센서들의 장단점을 조합하여야 한다. 따라서 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 서로 다른 복수의 센서를 회로기판에 모두 배치 및 실장시킨 구조를 개시한다. 더불어, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 동작 주기가 서로 다른 복수의 센서들의 감지 결과를 동기화하여 출력할 수 있어, 보다 더 정확한 오브젝트의 분류 및 판별에 장점이 있다. As described above, in order to accurately classify and discriminate external objects around a vehicle regardless of environmental factors, the advantages and disadvantages of each sensor must be combined. Accordingly, the sensor integration module for a vehicle according to an embodiment of the present invention discloses a structure in which a plurality of different sensors are all arranged and mounted on a circuit board. In addition, since the sensor integration module for a vehicle according to an embodiment of the present invention can synchronize and output detection results of a plurality of sensors having different operation periods, there is an advantage in more accurate classification and identification of objects.

도 3은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차를 도시한 도면이다.3 is a view showing a vehicle in which an integrated vehicle sensor module according to an embodiment of the present invention is disposed.

도 3을 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 자동차 외부의 오브젝트를 검출하기 위하여, 자동차에 복수의 자동차 센서 통합 모듈이 배치될 수 있다.Referring to FIG. 3, in the vehicle sensor integration module according to an embodiment of the present invention, a plurality of vehicle sensor integration modules may be disposed in the vehicle in order to detect an object outside the vehicle.

도 3은 4개의 자동차용 센서 통합 모듈이 자동차에 배치된 것을 예로 하여 도시한 것일 뿐, 이에 한정하는 것이 아니다. 또한, 도 3은 자동차 전방의 오른쪽과 왼쪽을 검출하기 위하여 자동차 전방의 오른쪽과 왼쪽에 각각 자동차용 센서 통합 모듈을 배치하고, 자동차 후방의 오른쪽과 왼쪽을 검출하기 위하여 자동차 후방의 오른쪽과 왼쪽에 각각 자동차용 센서 통합 모듈을 배치한 예를 도시한 것이다.FIG. 3 is only an example in which four sensor integration modules for automobiles are arranged in a vehicle, but is not limited thereto. In addition, FIG. 3 shows an integrated vehicle sensor module is disposed on the right and left side of the front of the vehicle to detect the right and left side of the front of the vehicle, and the right and left side of the rear of the vehicle are respectively It shows an example of arranging the sensor integration module for a vehicle.

도 4는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈 및 자동차용 센서 통합 모듈의 외부 표면을 세척하기 위한 세척 장치를 도시한 도면이다. 4 is a view showing a washing device for cleaning the outer surface of the sensor integration module for a vehicle and the sensor integration module for a vehicle according to an embodiment of the present invention.

도 3과 같이, 자동차 외부의 오브젝트를 감지하기 위해, 본 발명에 따른 자동차용 센서 통합 모듈은 자동차 외부에 배치되기 때문에 비, 먼지 및 새의 배설물 등의 오염물 부착으로 인해 정상적인 오브젝트 감지가 어려울 수 있다. As shown in FIG. 3, in order to detect an object outside the vehicle, since the sensor integrated module for a vehicle according to the present invention is disposed outside the vehicle, it may be difficult to detect a normal object due to the attachment of contaminants such as rain, dust, and bird droppings. .

따라서, 도 4와 같이 본 발명에 따른 자동차용 센서 통합 모듈은 세척 장치(10)와 결합될 수 있다. 복수의 세척 장치(10)가 자동차용 센서 통합 모듈과 결합되어, 각 세척 장치는 자동차용 센서 통합 모듈의 외부 커버 일부의 해당 영역을 세척할 수 있다. 이때, 세척 장치(10)는 해당 영역에 액체(예를 들어, 물)를 분사하여 해당 영역을 세척할 수 있으며, 세척 장치(10)는 몸체(11)와 액체 분사 노즐이 포함된 분사기(12)로 구현될 수 있다. 분사기(12)의 길이가 몸체(11)로부터 멀어지고 짧아질 수 있어, 분사기(12)의 길이에 따라 액체가 분사되는 위치를 가변시킬 수 있다.Accordingly, as shown in FIG. 4, the sensor integration module for a vehicle according to the present invention may be combined with the washing device 10. A plurality of washing devices 10 are combined with the sensor integration module for a vehicle, and each cleaning device can wash a corresponding area of a part of the outer cover of the sensor integration module for a vehicle. At this time, the cleaning device 10 may spray a liquid (for example, water) on the area to clean the area, and the cleaning device 10 includes a body 11 and a sprayer 12 including a liquid spray nozzle. ) Can be implemented. Since the length of the injector 12 can be further away from the body 11 and shortened, the position at which the liquid is sprayed can be varied according to the length of the injector 12.

도 4는 본 발명에 따른 자동차용 센서 통합 모듈의 외부 커버를 9등분하여, 나누어진 외부 커버의 각 영역을 6개의 세척 장치가 세척할 수 있는 예를 도시한 것일 뿐 도 4에 한정하는 것이 아님을 밝혀둔다.FIG. 4 shows an example in which the outer cover of the sensor integrated module for a vehicle according to the present invention is divided into nine, and six washing devices can wash each area of the divided outer cover, but is not limited to FIG. 4. Reveal.

본 발명에 따른 자동차용 센서 통합 모듈은 복수의 센서를 포함함으로, 자동차용 센서 통합 모듈과 결합된 세척 장치들은 각 센서가 배치된 위치에 대응하는 외부 커버 영역들을 세척하도록 구성될 수 있다. Since the sensor integration module for a vehicle according to the present invention includes a plurality of sensors, the cleaning devices combined with the sensor integration module for a vehicle may be configured to clean the outer cover regions corresponding to the positions in which each sensor is disposed.

따라서, 본 발명에 따른 자동차용 센서 통합 모듈은 각 센서가 배치된 위치에 대응하는 외부 커버 영역들에 대한 오염 데이터를 세척 제어 장치에 제공함으로써, 세척 장치가 자동차용 센서 통합 모듈의 전체 외부 커버 영역 중 오염된 일부 외부 커버 영역만을 세척할 수 있도록 할 수 있다.Accordingly, the sensor integration module for a vehicle according to the present invention provides contamination data on the outer cover areas corresponding to the positions where each sensor is placed to the washing control device, so that the washing device is the entire outer cover area of the sensor integration module for a vehicle. Only some of the contaminated outer cover areas can be cleaned.

도 5는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차의 구성을 도시한 도면이다.5 is a view showing the configuration of a vehicle in which an integrated vehicle sensor module according to an embodiment of the present invention is disposed.

본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)이 배치된 자동차는 상위 제어 장치(200) 및 세척 제어 장치(300)를 더 포함할 수 있다.A vehicle in which the sensor integration module 100 for a vehicle according to an embodiment of the present invention is disposed may further include an upper control device 200 and a washing control device 300.

도 5를 참조하면, 자동차는 자동차용 센서 통합 모듈(100), 상위 제어 장치(200) 및 세척 제어 장치(300)를 포함할 수 있다.Referring to FIG. 5, a vehicle may include a sensor integration module 100 for a vehicle, an upper control device 200 and a washing control device 300.

자동차용 센서 통합 모듈(100)은 각 센서들로부터 획득된 검출 데이터들을 동기화시켜 센싱 데이터(S_data)로서 상위 제어 장치(200)에 제공할 수 있다. 자동차용 센서 통합 모듈(100)은 각 센서들로부터 획득된 검출 데이터들에 기초하여 오염 데이터(PP_data)를 생성하고, 생성된 오염 데이터(PP_data)를 세척 제어 장치(300)에 제공할 수 있다. The automotive sensor integration module 100 may synchronize detection data acquired from each of the sensors and provide the sensing data S_data to the upper control device 200. The vehicle sensor integration module 100 may generate pollution data PP_data based on detection data obtained from each of the sensors and provide the generated pollution data PP_data to the washing control apparatus 300.

상위 제어 장치(200)는 외부 환경 데이터(EC_data)를 자동차용 센서 통합 모듈(100)에 제공할 수 있다. 외부 환경 데이터(EC_data)는 날씨, 도로 상태, 온도 및 습도 중 적어도 하나 이상 포함할 수 있다. The upper control device 200 may provide external environment data EC_data to the vehicle sensor integration module 100. The external environment data EC_data may include at least one of weather, road conditions, temperature, and humidity.

본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)은 외부 환경 데이터(EC_data)를 상위 제어 장치(200)로부터 제공 받는 것을 개시하였지만, 자동차용 센서 통합 모듈(100)은 자동차에 배치된 온도 센서, 습도 센서, 우적 센서 및 네비게이션으로부터 각각 외부 환경 데이터(EC_data)를 제공받을 수 있다.The sensor integration module 100 for a vehicle according to an embodiment of the present invention discloses that the external environment data (EC_data) is provided from the upper control device 200, but the sensor integration module 100 for a vehicle is disposed in the vehicle. External environment data EC_data may be provided from a temperature sensor, a humidity sensor, a rain sensor, and a navigation device, respectively.

상위 제어 장치(200)는 자동차용 센서 통합 모듈(100)을 제어하기 위한 별도의 장치이거나, 자율 주행 시스템 또는 ADAS(Advanced Driver Assistance Systems)에 포함된 오브젝트 판단을 위한 장치 또는 자동차 주행을 제어하는 장치일 수 있다.The upper control device 200 is a separate device for controlling the sensor integration module 100 for a vehicle, a device for determining an object included in an autonomous driving system or ADAS (Advanced Driver Assistance Systems), or a device for controlling vehicle driving. Can be

세척 제어 장치(300)는 자동차용 센서 통합 모듈(100)로부터 제공 받은 오염 데이터(PP_data)에 기초하여 도 4에 도시된 복수의 세척 장치(10)의 동작을 제어할 수 있다. 이때, 오염 데이터(PP_data)는 자동차용 센서 통합 모듈(100)이 포함하는 복수의 센서 각각의 위치에 대응하는 외부 커버 각 영역의 오염 여부를 포함할 수 있다.The washing control apparatus 300 may control operations of the plurality of washing apparatuses 10 shown in FIG. 4 based on the pollution data PP_data provided from the sensor integration module 100 for a vehicle. In this case, the pollution data PP_data may include whether each area of the outer cover corresponding to the position of each of the plurality of sensors included in the sensor integration module 100 for a vehicle is contaminated.

이때, 자동차용 센서 통합 모듈(100), 상위 제어 장치(200), 및 세척 제어 장치(300)는 자동차 네트워크 통신으로 연결될 수 있다. 차량 네트워크 통신 기술로는 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 및 이더넷(Ethernet) 등을 포함할 수 있다.In this case, the vehicle sensor integration module 100, the upper control device 200, and the washing control device 300 may be connected through vehicle network communication. Vehicle network communication technologies may include Controller Area Network (CAN) communication, Local Interconnect Network (LIN) communication, Flex-Ray communication, and Ethernet.

도 6은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 구성을 도시한 도면이다.6 is a view showing the configuration of a sensor integration module for a vehicle according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)은 광학 카메라(11), 적외선 카메라(12), 레이더(13), 라이다(14), 인터페이스부(20) 및 신호 처리부(30)를 포함할 수 있다. 이때, 인터페이스부(20) 및 신호 처리부(30)는 도 2에 도시된 회로기판에 하드웨어 또는 소프트웨어로 구현될 수 있다.Referring to FIG. 6, the sensor integration module 100 for a vehicle according to an embodiment of the present invention includes an optical camera 11, an infrared camera 12, a radar 13, a lidar 14, and an interface unit 20. ) And a signal processing unit 30. In this case, the interface unit 20 and the signal processing unit 30 may be implemented in hardware or software on the circuit board shown in FIG. 2.

광학 카메라(11)는 빛을 매개로 감지된 정보를 제 1 검출 데이터(C_s)로서 출력할 수 있다.The optical camera 11 may output information detected through light as first detection data C_s.

적외선 카메라(12)는 적외선을 매개로 감지된 정보를 제 2 검출 데이터(IC_s)로서 출력할 수 있다.The infrared camera 12 may output information detected through infrared rays as second detection data IC_s.

레이더(13)는 전자파를 매개로 감지된 정보를 제 3 검출 데이터(R_s)로서 출력할 수 있다.The radar 13 may output information sensed through an electromagnetic wave as third detection data R_s.

라이다(14)는 레이저 광을 매개로 감지된 정보를 제 4 검출 데이터(L_s)로서 출력할 수 있다. The lidar 14 may output information sensed through the laser light as fourth detection data L_s.

이때, 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14) 각각은 센싱(동작) 주기가 서로 다를 수 있다. 예를 들어, 광학 카메라(11) 및 적외선 카메라(12)는 30Hz의 센싱 주기를 가질 수 있고, 레이더(13)는 20Hz의 센싱 주기를 가질 수 있으며, 라이다(14)는 10Hz의 센싱 주기를 가질 수 있다. In this case, each of the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14 may have different sensing (operation) periods. For example, the optical camera 11 and the infrared camera 12 may have a sensing period of 30 Hz, the radar 13 may have a sensing period of 20 Hz, and the lidar 14 may have a sensing period of 10 Hz. I can have it.

따라서, 광학 카메라(11) 및 적외선 카메라(12)는 제 1 시간(33ms)마다 제 1 및 제 2 검출 데이터(C_s, IC_s)를 출력할 수 있고, 레이더(13)는 제 2 시간(50ms)마다 제 3 검출 데이터(R_s)를 출력할 수 있으며, 라이다(14)는 제 3 시간(100ms)마다 제 4 검출 데이터(L_s)를 출력할 수 있다. Accordingly, the optical camera 11 and the infrared camera 12 can output the first and second detection data (C_s, IC_s) every first time (33 ms), and the radar 13 is a second time (50 ms). The third detection data R_s may be output every time, and the lidar 14 may output the fourth detection data L_s every third time (100 ms).

또한, 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)가 출력하는 각 검출 데이터(C_s, IC_s, R_s, L_s)의 통신 규격이 다를 수 있다. 예를 들어, 광학 카메라(11)가 출력하는 제 1 검출 데이터(C_s)는 LVDS(Low Voltage Differential Signal) 통신에서 사용되는 형식의 데이터일 수 있다. In addition, communication standards of each detection data C_s, IC_s, R_s, and L_s output from the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14 may be different. For example, the first detection data C_s output from the optical camera 11 may be data in a format used in low voltage differential signal (LVDS) communication.

적외선 카메라(12)가 출력하는 제 2 검출 데이터(IC_s)는 GMSL(Gigabit Multimedia Serial Link) 통신에서 사용되는 형식의 데이터일 수 있다. 레이더(13) 및 라이다(14)는 이더넷(Ehternet)에서 사용되는 형식의 데이터일 수 있다.The second detection data IC_s output from the infrared camera 12 may be data in a format used in Gigabit Multimedia Serial Link (GMSL) communication. The radar 13 and the lidar 14 may be data in a format used in Ethernet.

인터페이스부(20)는 데이터 형식이 다른 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 기설정된 하나의 데이터 형식으로 변환하여 변환 데이터(C_data)로서 신호 처리부(30)에 제공할 수 있다. The interface unit 20 converts the first to fourth detection data (C_s, IC_s, R_s, L_s) having different data formats into one preset data format and provides them to the signal processing unit 30 as converted data (C_data). I can.

인터페이스부(20)는 차량 네트워크 통신 기술 중 기설정된 통신 기술에 따른 데이터 형식으로 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)의 형식을 변환시킬 수 있다. 이때, 차량 네트워크 통신 기술로는 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 및 이더넷(Ethernet) 등을 포함할 수 있다. 예를 들어, 인터페이스부(20)는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 이더넷 통신에 따른 형식의 데이터로 변환할 수 있다. The interface unit 20 may convert the format of the first to fourth detection data C_s, IC_s, R_s, and L_s into a data format according to a predetermined communication technology among vehicle network communication technologies. In this case, the vehicle network communication technology may include controller area network (CAN) communication, local interconnect network (LIN) communication, Flex-Ray communication, and Ethernet. For example, the interface unit 20 may convert the first to fourth detection data C_s, IC_s, R_s, and L_s into data in a format according to Ethernet communication.

신호 처리부(30)는 인터페이스부(20)에서 변환된 동일한 형식의 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 변환 데이터(C_data)로서 입력받을 수 있다. 신호 처리부(30)는 인터페이스부(20)에서 제공되는 변환 데이터(C_data)에 포함된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 기설정된 타이밍에 동기화시켜 센싱 데이터(S_data)로서 상위 제어 장치(200)에 출력할 수 있다. The signal processing unit 30 may receive the first to fourth detection data C_s, IC_s, R_s, and L_s of the same format converted by the interface unit 20 as converted data C_data. The signal processing unit 30 synchronizes the first to fourth detection data C_s, IC_s, R_s, and L_s included in the conversion data C_data provided from the interface unit 20 to a preset timing to provide sensing data S_data. As a result, it may be output to the upper control device 200.

예를 들어, 신호 처리부(30)는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 중 하나의 입력 타이밍에 기초하여 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 동일한 타이밍에 센싱 데이터(S_data)로서 출력할 수 있다. For example, the signal processing unit 30 includes first to fourth detection data C_s, IC_s, R_s, and L_s based on an input timing of one of the first to fourth detection data C_s, IC_s, R_s, and L_s. May be output as sensing data S_data at the same timing.

더욱 상세한 예를 들면, 신호 처리부(30)는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 입력받아 저장하고, 제 3 검출 데이터(R_s)가 신호 처리부(30)에 입력된 이후 기설정된 시간이 경과하면 저장된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 센싱 데이터(S_data)로서 출력하도록 구성될 수 있다. 이때, 센싱 데이터(S_data)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)로부터 획득된 제 1 내지 제 4 검출 데이터(C_s. IC_s, R_s, L_s)를 포함할 수 있다.For a more detailed example, the signal processing unit 30 receives and stores the first to fourth detection data C_s, IC_s, R_s, and L_s, and the third detection data R_s is input to the signal processing unit 30. Thereafter, when a predetermined time elapses, the stored first to fourth detection data C_s, IC_s, R_s, and L_s may be output as sensing data S_data. At this time, the sensing data S_data is the first to fourth detection data C_s. IC_s, R_s, L_s obtained from the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14. Can include.

또한, 신호 처리부(30)는 외부 환경 데이터(EC_data) 및 변환 데이터(C_data)에 기초하여 오염 데이터(PP_data)를 생성하고, 생성된 오염 데이터(PP_data)를 세척 제어 장치(300)에 제공할 수 있다. In addition, the signal processing unit 30 may generate pollution data (PP_data) based on external environment data (EC_data) and converted data (C_data), and provide the generated pollution data (PP_data) to the washing control device 300. have.

예를 들어, 신호 처리부(30)는 변환 데이터(C_data)에 기초하여 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)의 대응되는 위치에 해당하는 외부 커버 표면의 오염 여부를 판별하여 오염 데이터(PP_data)를 생성하고, 외부 환경 데이터(EC_data)에 기초하여 생성된 오염 데이터(PP_data)의 출력 빈도수를 제어할 수 있다. For example, the signal processing unit 30 is based on the converted data C_data, the outer cover surface corresponding to the corresponding position of the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14 Pollution data PP_data is generated by determining whether or not is polluted, and the output frequency of the pollution data PP_data generated based on the external environment data EC_data may be controlled.

더욱 상세히 설명하면, 신호 처리부(30)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)로부터 출력되는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 각각의 현재 데이터 값과 이전 데이터 값의 차가 기설정된 데이터 값을 초과하면 해당 센서의 위치에 대응하는 외부 커버 표면에 오염 물질이 부착되었다고 판단한 결과를 오염 데이터(PP_data)로서 출력할 수 있다. In more detail, the signal processing unit 30 includes first to fourth detection data C_s, IC_s, R_s, and output from the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14. L_s) When the difference between the current data value and the previous data value exceeds a preset data value, a result of determining that a contaminant is attached to the outer cover surface corresponding to the location of the corresponding sensor may be output as contamination data PP_data.

즉, 신호 처리부(30)는 각 센서들(11, 12, 13, 14)의 이전 검출 데이터에 비해 현재 검출 데이터의 데이터 값이 급작스럽게 변하면 자동차용 센서 통합 모듈(100)의 외부 커버 표면에 오염물이 부착된 것으로 판단할 수 있다. That is, when the data value of the current detection data changes abruptly compared to the previous detection data of each of the sensors 11, 12, 13, 14, the signal processing unit 30 It can be determined that is attached.

예를 들어, 레이더(13)와 라이다(14)의 경우 센싱 주기가 30Hz이므로, 이전 검출 데이터와 현재 검출 데이터 사이의 시간 차이는 33ms이다. 따라서, 레이더(13) 또는 라이다(14)로부터 출력된 이전 검출 데이터와 현재 검출 데이터에 대응하는 오브젝트와의 거리 차가 10미터라고 하면, 1초에 30미터를 이동하는 오브젝트가 있다는 것으로 판단되어야 하나, 이는 일반적인 상황에 따른 검출 데이터라고 보기 어렵기 때문에, 레이더(13) 또는 라이다(14)가 위치하는 외부 커버 표면에 오염물이 부착된 것으로 판단하는 것이 바람직할 수 있다. For example, in the case of the radar 13 and the lidar 14, since the sensing period is 30 Hz, the time difference between the previous detection data and the current detection data is 33 ms. Therefore, if the distance difference between the previous detection data output from the radar 13 or the lidar 14 and the object corresponding to the current detection data is 10 meters, it should be determined that there is an object moving 30 meters per second. , Since it is difficult to see this as detection data according to a general situation, it may be desirable to determine that contaminants are attached to the outer cover surface on which the radar 13 or the lidar 14 is located.

신호 처리부(30)는 상기와 같이 판단된 각 센서들(11, 12, 13, 14)의 대응되는 자동차용 센서 통합 모듈(100)의 외부 커버 위치에 오염 여부를 판단할 수 있고, 외부 환경 데이터(EC_data)에 기초하여 오염 여부 판단 결과(즉, 오염 데이터(PP_data))의 출력 빈도수를 제어할 수 있다. The signal processing unit 30 may determine whether the outer cover location of the sensor integration module 100 for a vehicle corresponding to each of the sensors 11, 12, 13, 14 determined as described above is contaminated, and external environment data Based on (EC_data), it is possible to control the frequency of output of the result of determining whether or not contamination (ie, contamination data PP_data).

예를 들어, 신호 처리부(30)는 자동차용 센서 통합 모듈(100)의 외부 커버에 오염물이 쉽게 부착될 수 있는 환경에서는 오염 여부 판단 결과의 출력 빈도수를 높이고, 자동차용 센서 통합 모듈(100)의 외부 커버에 오염물이 쉽게 부착될 수 없는 환경에서는 오염 여부 판단 결과의 출력 빈도수를 줄일 수 있다. For example, the signal processing unit 30 increases the output frequency of the result of contamination determination in an environment in which contaminants can be easily attached to the outer cover of the sensor integration module 100 for a vehicle. In an environment where contaminants cannot be easily attached to the outer cover, the frequency of outputting the result of contamination determination can be reduced.

더욱 상세히 설명하면, 신호 처리부(30)는 비가 오거나, 습도가 높거나, 성에가 발생할 정도로 온도가 낮거나, 자동차가 비포장 도로를 주행하는 하는 경우 비가 오지 않거나, 습도가 낮거나, 온도가 높거나, 자동차가 포장 도로를 주행하는 경우보다 오염 여부 판단 결과를 빈번히 출력할 수 있다. In more detail, the signal processing unit 30 rains, the humidity is high, the temperature is low enough to cause frost, or when the vehicle is traveling on an unpaved road, it does not rain, the humidity is low, or the temperature is high. , It is possible to output more frequently the result of determining whether or not contamination is more than when a vehicle is driving on a paved road.

가령, 비가 오거나, 습도가 높거나, 자동차가 비포장 도로를 주행할 경우 자동차용 센서 통합 모듈(100)의 외부 커버에 오염물이 부착되기 쉽고, 온도가 낮으면 자동차용 센서 통합 모듈(100)에 성에가 발생하기 쉽기 때문에, 이와 같은 환경이 아닐 경우보다 오염 여부를 판단한 오염 데이터(PP_data)를 자주 출력하여 자동차용 센서 통합 모듈(100)의 외부 커버를 세척하게 함으로써, 본 발명에 따른 자동차용 센서 통합 모듈(100)로부터 출력되는 센싱 데이터(S_data)의 신뢰도를 높일 수 있다.For example, when it rains, the humidity is high, or the car is driving on an unpaved road, contaminants are likely to adhere to the outer cover of the sensor integration module 100 for a vehicle. Because it is more likely to occur, pollution data (PP_data) that determines whether or not pollution is more often output than when it is not in such an environment to wash the outer cover of the vehicle sensor integration module 100, thereby integrating the vehicle sensor according to the present invention. The reliability of the sensing data S_data output from the module 100 may be increased.

도 7는 도 3의 신호 처리부의 구성을 도시한 도면이다.7 is a diagram illustrating a configuration of a signal processing unit of FIG. 3.

도 7을 참조하면, 신호 처리부(30)는 데이터 송수신부(31), 출력 동기화부(32) 및 오염 판별부(33)를 포함할 수 있다.Referring to FIG. 7, the signal processing unit 30 may include a data transmission/reception unit 31, an output synchronization unit 32, and a contamination determination unit 33.

데이터 송수신부(31)는 인터페이스부(20), 상위 제어 장치(200) 및 세척 제어 장치(300)와 데이터를 송수신할 수 있는 유/무선 통신 모듈을 포함할 수 있다.The data transmission/reception unit 31 may include a wired/wireless communication module capable of transmitting and receiving data with the interface unit 20, the upper control device 200, and the washing control device 300.

데이터 송수신부(31)는 출력 동기화부(32)로부터 수신되는 센싱 데이터(S_data)를 상위 제어 장치(200)에 송신할 수 있다. 데이터 송수신부(31)는 오염 판별부(33)로부터 수신되는 오염 데이터(PP_data)를 세척 제어 장치(300)에 송신할 수 있다. The data transmission/reception unit 31 may transmit sensing data S_data received from the output synchronization unit 32 to the upper control device 200. The data transmission/reception unit 31 may transmit the contamination data PP_data received from the contamination determination unit 33 to the washing control apparatus 300.

데이터 송수신부(31)는 상위 제어 장치(200)로부터 수신되는 외부 환경 데이터(EC_data)를 오염 판별부(33)에 송신할 수 있다. 데이터 송수신부(31)는 인터페이스부(20)로부터 수신되는 변환 데이터(C_data)를 출력 동기화부(32) 및 오염 판별부(33)에 송신할 수 있다.The data transmission/reception unit 31 may transmit external environment data EC_data received from the upper control device 200 to the pollution determination unit 33. The data transmission/reception unit 31 may transmit the converted data C_data received from the interface unit 20 to the output synchronization unit 32 and the contamination determination unit 33.

출력 동기화부(32)는 데이터 송수신부(31)로부터 제공되는 변환 데이터(C_data)를 동기화시켜 센싱 데이터(S_data)를 생성하고, 생성된 센싱 데이터를 데이터 송수신부(31)에 제공할 수 있다. 예를 들어, 출력 동기화부(32)는 변환 데이터(C_data)에 포함된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 중 어느 하나에 기초하여 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 동기화시켜 센싱 데이터(S_data)로서 데이터 송수신부(31)에 제공할 수 있다. The output synchronization unit 32 may generate sensing data S_data by synchronizing the converted data C_data provided from the data transmission/reception unit 31 and provide the generated sensing data to the data transmission/reception unit 31. For example, the output synchronization unit 32 is based on any one of the first to fourth detection data (C_s, IC_s, R_s, L_s) included in the converted data (C_data), the first to fourth detection data (C_s). , IC_s, R_s, L_s) may be synchronized and provided to the data transmission/reception unit 31 as sensing data S_data.

더욱 상세히 설명하면, 출력 동기화부(32)는 변환 데이터(C_data)에 포함된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 각각 저장하고, 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 중 어느 하나가 입력된 이후 기설정된 시간이 경과하면 저장된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 센싱 데이터(S_data)로서 출력할 수 있다.In more detail, the output synchronization unit 32 stores the first to fourth detection data C_s, IC_s, R_s, and L_s included in the converted data C_data, respectively, and the first to fourth detection data C_s , IC_s, R_s, L_s) is inputted, and when a preset time elapses, the stored first to fourth detection data C_s, IC_s, R_s, and L_s may be output as sensing data S_data.

오염 판별부(33)는 데이터 송수신부(31)로부터 제공되는 변환 데이터(C_data) 및 외부 환경 데이터(EC_data)에 기초하여 오염 데이터(PP_data)를 생성하고, 생성된 오염 데이터(PP_data)를 데이터 송수신부(31)에 제공할 수 있다. 예를 들어, 오염 판별부(33)는 변환 데이터(C_data)에 기초하여 오염 데이터(PP_data)를 생성하고, 외부 환경 데이터(EC_data)에 기초하여 오염 데이터(PP_data)의 출력 빈도수를 증감시킬 수 있다. The pollution determination unit 33 generates pollution data (PP_data) based on the converted data (C_data) and external environment data (EC_data) provided from the data transmission/reception unit 31, and transmits and receives the generated pollution data (PP_data). It can be provided to the part 31. For example, the pollution determination unit 33 may generate the pollution data PP_data based on the converted data C_data, and increase or decrease the output frequency of the pollution data PP_data based on the external environment data EC_data. .

이때, 변환 데이터(C_data)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)로부터 획득된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 포함하며, 오염 판별부(33)는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 각각에 기초하여 오염 데이터(PP_data)를 생성하기 때문에, 오염 데이터(PP_data)는 각 센서들의 위치에 대응되는 외부 커버 위치에 대한 오염 여부를 포함할 수 있다. At this time, the converted data C_data is the first to fourth detection data C_s, IC_s, R_s, L_s obtained from the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14. And the pollution determination unit 33 generates pollution data PP_data based on each of the first to fourth detection data C_s, IC_s, R_s, and L_s, so that the pollution data PP_data is the location of each sensor. It may include whether or not the location of the outer cover corresponding to the contamination.

또한, 외부 환경 데이터(EC_data)는 날씨, 온도, 습도 및 도로 상태를 포함하기 때문에, 오염 판별부(33)는 자동차용 센서 통합 모듈(100)의 외부 커버에 오염물이 쉽게 부착될 수 있는 환경일 경우 오염 데이터(PP_data)의 출력 빈도수를 증가시켜 자동차용 센서 통합 모듈(100)의 외부 커버가 자주 세척될 수 있도록 할 수 있다.In addition, since the external environment data (EC_data) includes weather, temperature, humidity, and road conditions, the pollution determination unit 33 is an environment in which contaminants can be easily attached to the outer cover of the sensor integration module 100 for automobiles. In this case, it is possible to frequently wash the outer cover of the sensor integration module 100 for a vehicle by increasing the frequency of outputting the pollution data PP_data.

도 8은 도 7의 오염 판별부의 구성을 도시한 도면이다.8 is a diagram showing the configuration of the contamination determination unit of FIG. 7.

도 8에 도시된 바와 같이, 오염 판별부(33)는 제 1 내지 제 4 센서 판별부(33-1, 33-2, 33-3, 33-4) 및 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8)를 포함할 수 있다. 이때, 오염 판별부(33)는 센서 정보 저장부(33-9)를 추가로 포함할 수 있다.As shown in FIG. 8, the contamination determination unit 33 includes first to fourth sensor determination units 33-1, 33-2, 33-3, and 33-4 and first to fourth output control units 33 -5, 33-6, 33-7, 33-8). In this case, the contamination determination unit 33 may further include a sensor information storage unit 33-9.

앞서 설명한 바와 같이, 오염 판별부(33)는 변환 데이터(C_data)에 포함된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 각각의 이전 데이터와 현재 데이터를 비교하여 자동차용 센서 통합 모듈(100)의 외부 커버에 대한 오염 여부를 판단할 수 있다.As described above, the pollution determination unit 33 compares the previous data and the current data of each of the first to fourth detection data C_s, IC_s, R_s, L_s included in the conversion data C_data, and integrates the vehicle sensor. It may be determined whether the outer cover of the module 100 is contaminated.

제 1 센서 판별부(33-1)는 제 1 검출 데이터(C_s)의 이전 데이터와 현재 데이터를 비교하여 제 1 비교 결과 신호(C_com)를 생성할 수 있다. 예를 들어, 제 1 센서 판별부(33-1)는 제 1 검출 데이터(C_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값을 초과하면 제 1 레벨의 제 1 비교 신호(C_com)를 생성할 수 있다. 한편, 제 1 센서 판별부(33-1)는 제 1 검출 데이터(C_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값 미만이면 제 2 레벨의 제 1 비교 신호(C_com)를 생성할 수 있다. The first sensor determination unit 33-1 may generate a first comparison result signal C_com by comparing previous data of the first detection data C_s with current data. For example, the first sensor determination unit 33-1 is a first comparison signal (C_com) of the first level when the difference between the data value of the previous data of the first detection data (C_s) and the current data exceeds a preset data value. Can be created. On the other hand, the first sensor determination unit 33-1 generates a first comparison signal C_com of the second level when the difference between the previous data of the first detection data C_s and the data value of the current data is less than a preset data value. I can.

제 2 센서 판별부(33-2)는 제 2 검출 데이터(IC_s)의 이전 데이터와 현재 데이터를 비교하여 제 2 비교 결과 신호(IC_com)를 생성할 수 있다. 예를 들어, 제 2 센서 판별부(33-2)는 제 2 검출 데이터(IC_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값을 초과하면 제 1 레벨의 제 2 비교 신호(IC_com)를 생성할 수 있다. 한편, 제 2 센서 판별부(33-2)는 제 2 검출 데이터(IC_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값 미만이면 제 2 레벨의 제 2 비교 신호(IC_com)를 생성할 수 있다. The second sensor determination unit 33-2 may generate a second comparison result signal IC_com by comparing previous data of the second detection data IC_s with current data. For example, when the difference between the data value of the previous data of the second detection data IC_s and the current data exceeds a preset data value, the second sensor determination unit 33-2 may provide a second comparison signal IC_com of the first level. Can be created. Meanwhile, the second sensor determination unit 33-2 may generate a second comparison signal IC_com of the second level when the difference between the previous data of the second detection data IC_s and the current data value is less than a preset data value. I can.

제 3 센서 판별부(33-3)는 제 3 검출 데이터(R_s)의 이전 데이터와 현재 데이터를 비교하여 제 3 비교 결과 신호(R_com)를 생성할 수 있다. 예를 들어, 제 3 센서 판별부(33-3)는 제 3 검출 데이터(R_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값을 초과하면 제 1 레벨의 제 3 비교 신호(R_com)를 생성할 수 있다. 한편, 제 3 센서 판별부(33-3)는 제 3 검출 데이터(R_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값 미만이면 제 2 레벨의 제 3 비교 신호(R_com)를 생성할 수 있다.The third sensor determination unit 33-3 may generate a third comparison result signal R_com by comparing previous data of the third detection data R_s with current data. For example, the third sensor determination unit 33-3 is a first level third comparison signal R_com when the difference between the previous data of the third detection data R_s and the current data exceeds a preset data value. Can be created. Meanwhile, the third sensor determination unit 33-3 may generate a third comparison signal R_com of the second level when the difference between the previous data of the third detection data R_s and the data value of the current data is less than a preset data value. I can.

제 4 센서 판별부(33-4)는 제 4 검출 데이터(L_s)의 이전 데이터와 현재 데이터를 비교하여 제 4 비교 결과 신호(L_com)를 생성할 수 있다. 예를 들어, 제 4 센서 판별부(33-4)는 제 4 검출 데이터(L_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값을 초과하면 제 1 레벨의 제 4 비교 신호(L_com)를 생성할 수 있다. 한편, 제 4 센서 판별부(33-4)는 제 4 검출 데이터(L_s)의 이전 데이터와 현재 데이터의 데이터 값 차가 기설정된 데이터 값 미만이면 제 2 레벨의 제 4 비교 신호(L_com)를 생성할 수 있다. The fourth sensor determination unit 33-4 may generate a fourth comparison result signal L_com by comparing previous data of the fourth detection data L_s with current data. For example, when the difference between the data value of the previous data of the fourth detection data L_s and the current data exceeds a preset data value, the fourth sensor determination unit 33-4 may provide a fourth comparison signal L_com of the first level. Can be created. On the other hand, the fourth sensor determination unit 33-4 generates a fourth comparison signal L_com of the second level when the difference between the data value of the previous data and the current data of the fourth detection data L_s is less than a preset data value. I can.

이때, 제 1 내지 제 4 비교 신호(C_com, IC_com, R_com, L_com) 각각이 제 1 레벨일 경우 각 해당 센서의 위치에 대응하는 외부 커버 위치에 오염물이 부착되었다는 것을 의미할 수 있다. 한편, 제 1 내지 제 4 비교 신호(C_com, IC_com, R_com, L_com) 각각이 제 2 레벨일 경우 각 해당 센서의 위치에 대응하는 외부 커버 위치는 오염물 부착이 없다는 것을 의미할 수 있다. 제 1 레벨과 제 2 레벨은 서로 다른 레벨이며, 아날로그 레벨일 수 있고, 적어도 하나 이상의 디지털 신호에 따른 레벨일 수 있다.In this case, when each of the first to fourth comparison signals C_com, IC_com, R_com, and L_com is at the first level, it may mean that contaminants are attached to the outer cover positions corresponding to the positions of the respective sensors. Meanwhile, when each of the first to fourth comparison signals C_com, IC_com, R_com, and L_com is at the second level, the outer cover position corresponding to the position of each corresponding sensor may mean that there is no contamination attached. The first level and the second level are different from each other, may be analog levels, and may be levels according to at least one or more digital signals.

상기 설명한 바와 같이, 제 1 내지 제 4 센서 판별부(33-1, 33-2, 33-3, 33-4) 각각은 입출력되는 신호의 명칭만 다를 뿐 동일한 동작을 수행할 수 있다. 따라서, 제 1 내지 제 4 센서 판별부(33-1, 33-2, 33-3, 33-4)의 각 구성은 동일할 수 있다. 그러므로, 제 1 내지 제 4 센서 판별부(33-1, 33-2, 33-3, 33-4) 중 제 1 센서 판별부(33-1)의 구성을 설명함으로써, 제 2 내지 제 4 센서 판별부(33-2, 33-3, 33-4)의 구성 설명을 대신한다.As described above, each of the first to fourth sensor discrimination units 33-1, 33-2, 33-3, and 33-4 may perform the same operation as only the name of the input/output signal is different. Accordingly, each configuration of the first to fourth sensor determination units 33-1, 33-2, 33-3, and 33-4 may be the same. Therefore, by describing the configuration of the first sensor determination unit 33-1 among the first to fourth sensor determination units 33-1, 33-2, 33-3, and 33-4, the second to fourth sensors It replaces the description of the configuration of the determination units 33-2, 33-3, and 33-4.

제 1 센서 판별부(33-1)는 센서 출력 저장부(33-1-1) 및 비교부(33-1-2)를 포함할 수 있다. The first sensor determination unit 33-1 may include a sensor output storage unit 33-1-1 and a comparison unit 33-1-2.

센서 출력 저장부(33-1-1)는 제 1 검출 데이터(C_s)를 입력받아 저장하고, 다음 제 1 검출 데이터(C_s)가 입력되면 저장된 제 1 검출 데이터를 출력할 수 있다. 예를 들어, 센서 출력 저장부(33-1-1)는 쉬프트 레지스터로 구현될 수 있으며, 현재 데이터가 입력되면 저장되었던 이전 데이터가 출력될 수 있다. The sensor output storage unit 33-1-1 may receive and store the first detection data C_s, and output the stored first detection data when the next first detection data C_s is input. For example, the sensor output storage unit 33-1-1 may be implemented as a shift register, and when current data is input, previously stored data may be output.

비교부(33-1-2)는 센서 출력 저장부(33-1-1)의 출력과 제 1 검출 데이터(C_s)를 입력받아 데이터 값을 비교하고, 비교 결과를 제 1 비교 신호(C_com)로서 출력할 수 있다. 예를 들어, 비교부(33-1-2)는 센서 출력 저장부(33-1-1)의 출력(이전 제 1 검출 데이터)과 제 1 검출 데이터(C_s; 현재 제 1 검출 데이터)의 데이터 값 차이가 기설정된 데이터 값을 초과하면 제 1 레벨의 제 1 비교 신호(C_com)를 출력할 수 있다. The comparison unit 33-1-2 receives the output of the sensor output storage unit 33-1-1 and the first detection data C_s, compares the data values, and compares the comparison result to the first comparison signal C_com. Can be output as For example, the comparison unit 33-1-2 is the output of the sensor output storage unit 33-1-1 (previous first detection data) and first detection data (C_s; current first detection data) data. When the value difference exceeds a preset data value, the first comparison signal C_com of the first level may be output.

한편, 비교부(33-1-2)는 센서 출력 저장부(33-1-1)의 출력(이전 제 1 검출 데이터)과 제 1 검출 데이터(C_s; 현재 제 1 검출 데이터)의 데이터 값 차이가 기설정된 데이터 값 미만이면 제 2 레벨의 제 1 비교 신호(C_com)를 출력할 수 있다.Meanwhile, the comparison unit 33-1-2 is the difference between the data value of the output of the sensor output storage unit 33-1-1 (previous first detection data) and the first detection data C_s; If is less than a preset data value, the first comparison signal C_com of the second level may be output.

제 1 출력 제어부(33-5)는 제 1 비교 신호(C_com) 및 외부 환경 데이터(EC_data)를 입력받고, 광학 카메라(11)의 오염 여부에 대한 정보(PC_s)를 포함하는 오염 데이터(PP_data)를 출력할 수 있다. The first output control unit 33-5 receives the first comparison signal C_com and external environment data EC_data, and includes contamination data (PP_data) including information (PC_s) on whether the optical camera 11 is contaminated. Can be printed.

예를 들어, 제 1 출력 제어부(33-5)는 제 1 비교 신호(C_com)를 광학 카메라(11)의 오염 여부에 대한 정보(PC_s) 즉, 오염 데이터(PP_data)로서 출력할 수 있다. 이때, 제 1 출력 제어부(33-5)는 외부 환경 데이터(EC_data)에 기초하여 광학 카메라(11)의 오염 여부를 포함하는 오염 데이터(PP_data; PC_s)의 출력 빈도를 증감시킬 수 있다. For example, the first output control unit 33-5 may output the first comparison signal C_com as information about whether the optical camera 11 is contaminated (PC_s), that is, contamination data PP_data. In this case, the first output control unit 33-5 may increase or decrease the output frequency of the contamination data PP_data PC_s including whether the optical camera 11 is contaminated based on the external environment data EC_data.

또한, 제 1 출력 제어부(33-5)는 추가로 카메라 정보(C_inf)를 입력받을 수 있다. 카메라 정보(C_inf)는 자동차용 센서 통합 모듈(100)에 배치되는 광학 카메라(11)의 위치를 포함할 수 있다. 카메라 정보(C_inf) 또한 외부 환경 데이터(EC_data)와 더불어 오염 데이터(PP_data; PC_s)의 출력 빈도를 증감시킬 수 있다. In addition, the first output control unit 33-5 may additionally receive camera information C_inf. The camera information C_inf may include the position of the optical camera 11 disposed in the sensor integration module 100 for a vehicle. Camera information (C_inf) can also increase or decrease the output frequency of pollution data (PP_data; PC_s) together with external environment data (EC_data).

제 2 출력 제어부(33-6)는 제 2 비교 신호(IC_com) 및 외부 환경 데이터(EC_data)를 입력받고, 적외선 카메라(12)의 오염 여부에 대한 정보(PIC_s)를 포함하는 오염 데이터(PP_data; PIC_s)를 출력할 수 있다.The second output control unit 33-6 receives the second comparison signal IC_com and external environment data EC_data, and includes pollution data PP_data including information PIC_s on whether the infrared camera 12 is contaminated; PIC_s) can be output.

예를 들어, 제 2 출력 제어부(33-6)는 제 2 비교 신호(IC_com)를 적외선 카메라(12)의 오염 여부에 대한 정보(PIC_s) 즉, 오염 데이터(PP_data)로서 출력할 수 있다. 이때, 제 2 출력 제어부(33-6)는 외부 환경 데이터(EC_data)에 기초하여 적외선 카메라(12)의 오염 여부를 포함하는 오염 데이터(PP_data; PIC_s)의 출력 빈도를 증감시킬 수 있다.For example, the second output control unit 33-6 may output the second comparison signal IC_com as information on whether the infrared camera 12 is contaminated (PIC_s), that is, contamination data PP_data. In this case, the second output control unit 33-6 may increase or decrease the output frequency of the pollution data PP_data PIC_s including whether the infrared camera 12 is contaminated based on the external environment data EC_data.

또한, 제 2 출력 제어부(33-6)는 추가로 적외선 카메라 정보(IC_inf)를 입력받을 수 있다. 적외선 카메라 정보(IC_inf)는 자동차용 센서 통합 모듈(100)에 배치되는 적외선 카메라(12)의 위치를 포함할 수 있다. 적외선 카메라 정보(IC_inf) 또한 외부 환경 데이터(EC_data)와 더불어 오염 데이터(PP_data; PIC_s)의 출력 빈도를 증감시킬 수 있다.In addition, the second output control unit 33-6 may additionally receive infrared camera information IC_inf. The infrared camera information IC_inf may include the location of the infrared camera 12 disposed in the sensor integration module 100 for a vehicle. The infrared camera information IC_inf may also increase or decrease the output frequency of pollution data PP_data; PIC_s in addition to external environment data EC_data.

제 3 출력 제어부(33-7)는 제 3 비교 신호(R_com) 및 외부 환경 데이터(EC_data)를 입력받고, 레이더(13)의 오염 여부에 대한 정보(PR_s)를 포함하는 오염 데이터(PP_data; PR_s)를 출력할 수 있다.The third output control unit 33-7 receives the third comparison signal R_com and external environment data EC_data, and includes pollution data (PP_data; PR_s) including information (PR_s) on whether or not the radar 13 is polluted. ) Can be printed.

예를 들어, 제 3 출력 제어부(33-7)는 제 3 비교 신호(R_com)를 레이더(13)의 오염 여부에 대한 정보(PR_s) 즉, 오염 데이터(PP_data)로서 출력할 수 있다. 이때, 제 3 출력 제어부(33-7)는 외부 환경 데이터(EC_data)에 기초하여 레이더(13)의 오염 여부를 포함하는 오염 데이터(PP_data; PR_s)의 출력 빈도를 증감시킬 수 있다.For example, the third output control unit 33-7 may output the third comparison signal R_com as information on whether the radar 13 is contaminated (PR_s), that is, contamination data PP_data. In this case, the third output control unit 33-7 may increase or decrease the output frequency of the pollution data PP_data PR_s including whether the radar 13 is polluted based on the external environment data EC_data.

또한, 제 3 출력 제어부(33-7)는 추가로 레이더 정보(R_inf)를 입력받을 수 있다. 레이더 정보(R_inf)는 자동차용 센서 통합 모듈(100)에 배치되는 레이더(13)의 위치를 포함할 수 있다. 레이더 정보(R_inf) 또한 외부 환경 데이터(EC_data)와 더불어 오염 데이터(PP_data; PR_s)의 출력 빈도를 증감시킬 수 있다.Also, the third output control unit 33-7 may additionally receive radar information R_inf. The radar information R_inf may include the position of the radar 13 disposed in the sensor integration module 100 for a vehicle. Radar information (R_inf) can also increase or decrease the output frequency of pollution data (PP_data; PR_s) along with external environment data (EC_data).

제 4 출력 제어부(33-8)는 제 4 비교 신호(L_com) 및 외부 환경 데이터(EC_data)를 입력받고, 라이다(14)의 오염 여부에 대한 정보(PL_s)를 포함하는 오염 데이터(PP_data; PL_s)를 출력할 수 있다.The fourth output control unit 33-8 receives the fourth comparison signal L_com and external environment data EC_data, and includes contamination data PP_data including information PL_s on whether the lidar 14 is contaminated; PL_s) can be output.

예를 들어, 제 3 출력 제어부(33-8)는 제 4 비교 신호(L_com)를 라이다(14)의 오염 여부에 대한 정보(PL_s) 즉, 오염 데이터(PP_data)로서 출력할 수 있다. 이때, 제 4 출력 제어부(33-8)는 외부 환경 데이터(EC_data)에 기초하여 라이다(14)의 오염 여부를 포함하는 오염 데이터(PP_data; PL_s)의 출력 빈도를 증감시킬 수 있다.For example, the third output control unit 33-8 may output the fourth comparison signal L_com as information PL_s on whether the lidar 14 is contaminated, that is, contamination data PP_data. In this case, the fourth output control unit 33-8 may increase or decrease the output frequency of the pollution data PP_data PL_s including whether the lidar 14 is contaminated based on the external environment data EC_data.

또한, 제 4 출력 제어부(33-8)는 추가로 라이다 정보(L_inf)를 입력받을 수 있다. 라이다 정보(L_inf)는 자동차용 센서 통합 모듈(100)에 배치되는 라이다(14)의 위치를 포함할 수 있다. 라이다 정보(L_inf)는 또한 외부 환경 데이터(EC_data)와 더불어 오염 데이터(PP_data; PL_s)의 출력 빈도를 증감시킬 수 있다.In addition, the fourth output control unit 33-8 may additionally receive lidar information L_inf. The lidar information L_inf may include the position of the lidar 14 disposed in the sensor integration module 100 for a vehicle. The lidar information L_inf may also increase or decrease the output frequency of the pollution data PP_data PL_s in addition to the external environment data EC_data.

센서 정보 저장부(33-9)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)의 자동차용 센서 통합 모듈(100)에서의 배치 위치를 저장할 수 있다.The sensor information storage unit 33-9 may store an arrangement position of the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14 in the sensor integration module 100 for a vehicle.

또한, 센서 정보 저장부(33-9)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)의 각 배치 위치에 따른 자동차용 센서 통합 모듈(100)의 외부 커버의 세척 강도를 저장할 수 있다. 만약, 자동차용 센서 통합 모듈(100)의 하부에 배치되는 센서들의 세척 강도는 상부에 배치되는 센서들의 세척 강도에 비해 강할 수 있다. 이때, 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8) 각각은 오염 데이터(PP_data; PC_s, PIC_s, PR_s, PL_s)를 출력할 경우 각 센서들의 배치에 따른 세척 강도를 오염 데이터(PP_data; PC_s, PIC_s, PR_s, PL_s)에 포함시킬 수 있다.In addition, the sensor information storage unit 33-9 is external to the vehicle sensor integration module 100 according to the respective arrangement positions of the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14. It can save the cleaning strength of the cover. If, the washing intensity of the sensors disposed under the sensor integration module 100 for a vehicle may be stronger than that of the sensors disposed thereon. At this time, each of the first to fourth output controllers 33-5, 33-6, 33-7, and 33-8 outputs pollution data (PP_data; PC_s, PIC_s, PR_s, PL_s) to the arrangement of each sensor. The resulting washing intensity may be included in the contamination data (PP_data; PC_s, PIC_s, PR_s, and PL_s).

정리하면, 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8) 각각은 제 1 내지 제 4 비교 신호(C_com, IC_com, R_com, L_com) 각각을 오염 데이터(PP_data; PC_s, PIC_s, PR_s, PL_s)로서 출력할 수 있다. 이때, 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8) 각각은 외부 환경 데이터(EC_data)에 기초하여 각 오염 데이터(PC_s. PIC_s, PR_s, PL_s)의 출력 빈도를 증감시킬 수 있다.In summary, each of the first to fourth output control units 33-5, 33-6, 33-7, and 33-8 converts each of the first to fourth comparison signals C_com, IC_com, R_com, and L_com into contamination data ( PP_data; PC_s, PIC_s, PR_s, PL_s). At this time, the first to fourth output control units 33-5, 33-6, 33-7, and 33-8 each of the pollution data (PC_s. PIC_s, PR_s, PL_s) based on the external environment data (EC_data). The output frequency can be increased or decreased.

앞서 언급한 바와 같이, 외부 환경 데이터(EC_data)는 날씨, 도로 상태, 온도 및 습도 중 적어도 하나 이상의 정보를 포함할 수 있다. As mentioned above, the external environment data EC_data may include information of at least one of weather, road conditions, temperature, and humidity.

자동차용 센서 통합 모듈(100)의 외부 커버에 오염물이 쉽게 부착될 수 있다고 판단되는 날씨, 자동차가 주행하고 있는 도로 상태, 온도 및 습도일 경우 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8)는 오염 데이터(PP_data; PC_s, PIC_s, PR_s, PL_s)의 출력 빈도를 증가시킬 수 있으며, 반면 자동차용 센서 통합 모듈(100)의 외부 커버에 오염물의 부착이 쉽지 않다고 판단되는 날씨, 자동차가 주행하고 있는 도로 상태, 온도 및 습도일 경우 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8)는 오염 데이터(PP_data; PC_s, PIC_s, PR_s, PL_s)의 출력 빈도를 감소시킬 수 있다.The first to fourth output control units 33-5, 33- in the case of weather, the road condition on which the vehicle is running, temperature and humidity, where it is determined that contaminants can be easily attached to the outer cover of the sensor integration module 100 for automobiles. 6, 33-7, 33-8) can increase the output frequency of pollution data (PP_data; PC_s, PIC_s, PR_s, PL_s), whereas adhesion of contaminants to the outer cover of the sensor integration module 100 for automobiles In the case of weather determined to be not easy, the road condition on which the vehicle is running, temperature and humidity, the first to fourth output control units 33-5, 33-6, 33-7, and 33-8 are used to determine the pollution data (PP_data; PC_s). , PIC_s, PR_s, PL_s) output frequency can be reduced.

더불어, 제 1 내지 제 4 출력 제어부(33-5, 33-6, 33-7, 33-8) 각각은 자동차용 센서 통합 모듈(100)에 배치되는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14) 각각의 위치에 따라 각각의 오염 데이터(PP_data; PC_s. PIC_s, PR_s, PL_s)에 대한 출력 빈도를 증감시킬 수 있다.In addition, each of the first to fourth output control units 33-5, 33-6, 33-7, and 33-8 is an optical camera 11 and an infrared camera 12 disposed in the sensor integration module 100 for a vehicle. , It is possible to increase or decrease the output frequency for each pollution data (PP_data; PC_s. PIC_s, PR_s, PL_s) according to the positions of the radar 13 and the lidar 14.

예를 들어, 광학 카메라(11) 및 적외선 카메라(12)가 레이더(13) 및 라이다(14)보다 높은 위치에 배치될 경우, 제 1 및 제 2 출력 제어부(33-5, 33-6)는 제 3 및 제 4 출력 제어부(33-6, 33-7)로부터 출력되는 오염 데이터(PP_data; PR_s, PL_s)보다 오염 데이터(PP_data; PC_s, PIC_s)의 출력 빈도가 낮을 수 있다. For example, when the optical camera 11 and the infrared camera 12 are disposed at a higher position than the radar 13 and the lidar 14, the first and second output control units 33-5 and 33-6 The output frequency of the pollution data PP_data; PC_s and PIC_s may be lower than that of the pollution data PP_data PR_s and PL_s output from the third and fourth output control units 33-6 and 33-7.

상기와 같이, 본 발명에 따른 자동차용 센서 통합 모듈(100)은 자동차용 센서 통합 모듈(100)에 포함된 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)가 위치에 대응하는 외부 커버 영역별로 오염 여부를 판단하여 세척 제어 장치(300)에 제공하여 세척할 수 있어, 자동차 외부에 위치하는 오브젝트 판단에 대한 신뢰도를 높일 수 있다.As described above, the sensor integration module 100 for a vehicle according to the present invention includes an optical camera 11, an infrared camera 12, a radar 13, and a lidar 14 included in the sensor integration module 100 for a vehicle. It is possible to determine whether or not contamination for each outer cover area corresponding to the location of the vehicle and provide it to the washing control device 300 for cleaning, thereby increasing the reliability of determining an object located outside the vehicle.

또한, 본 발명에 따른 자동차용 센서 통합 모듈(100)은 외부 환경 및 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)와 같은 센서들의 배치 위치에 따라 외부 커버의 영역별 오염 여부에 대한 오염 데이터의 출력 빈도를 증감시킴으로써, 자동차 외부에 위치하는 오브젝트 판단에 대한 신뢰도를 더욱 향상시킬 수 있다. In addition, the sensor integration module 100 for a vehicle according to the present invention is an external cover according to the external environment and the arrangement position of sensors such as the optical camera 11, the infrared camera 12, the radar 13, and the lidar 14. By increasing or decreasing the frequency of outputting pollution data for each area of the vehicle, it is possible to further improve the reliability of determining objects located outside the vehicle.

이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다As described above with reference to the drawings illustrated for the present invention, the present invention is not limited by the embodiments and drawings disclosed in the present specification, and various by a person skilled in the art within the scope of the technical idea of the present invention. It is obvious that transformations can be made. In addition, even if not explicitly described and described the operating effects according to the configuration of the present invention while describing the embodiments of the present invention, it is natural that the predictable effects by the configuration should also be recognized.

100: 자동차용 센서 통합 모듈 200: 상위 제어 장치
300: 세척 제어 장치 11: 광학 카메라
12: 적외선 카메라 13: 레이더
14: 라이다 20: 인터페이스부
30: 신호 처리부 31: 데이터 송수신부
32: 출력 동기화부 33: 오염 판별부
100: automotive sensor integration module 200: upper control unit
300: washing control device 11: optical camera
12: infrared camera 13: radar
14: lidar 20: interface unit
30: signal processing unit 31: data transmission/reception unit
32: output synchronization unit 33: contamination determination unit

Claims (12)

센싱 주기 및 출력 데이터 형식중 적어도 하나 이상이 다른 복수의 센서; 및
상기 복수의 센서 중 어느 하나의 센싱 주기에 기초하여 상기 복수의 센서 각각으로부터 출력된 검출 데이터들을 동시에 센싱 데이터로서 출력하며, 상기 검출 데이터들에 기초하여 상기 복수의 센서 각각의 위치에 대응되는 외부 커버의 각 영역에 대한 오염 여부를 판단하고, 판단 결과를 오염 데이터로서 출력하는 신호 처리부를 포함하는 자동차용 센서 통합 모듈.
A plurality of sensors having different sensing periods and output data formats; And
The detection data output from each of the plurality of sensors is simultaneously output as sensing data based on a sensing period of any one of the plurality of sensors, and an outer cover corresponding to the position of each of the plurality of sensors based on the detection data A sensor integration module for automobiles comprising a signal processing unit that determines whether or not contamination of each area of is polluted and outputs the determination result as contamination data.
제 1 항에 있어서,
상기 외부 커버는
상기 복수의 센서를 물리적 충격으로부터 보호하기 위하여 상기 자동차용 센서 통합 모듈의 전면에 결합되는 자동차용 센서 통합 모듈.
The method of claim 1,
The outer cover
In order to protect the plurality of sensors from physical shocks, the sensor integration module for a vehicle is coupled to the front surface of the sensor integration module for the vehicle.
제 1 항에 있어서,
상기 신호 처리부는
상기 검출 데이터들을 입력받아 저장하고, 상기 복수의 센서 중 어느 하나의 센싱 주기에 기초하여 저장된 검출 데이터들을 동시에 출력하는 자동차용 센서 통합 모듈.
The method of claim 1,
The signal processing unit
A sensor integration module for a vehicle that receives and stores the detection data, and simultaneously outputs the stored detection data based on a sensing period of any one of the plurality of sensors.
제 3 항에 있어서,
상기 신호 처리부는
상기 검출 데이터 각각에 대한 현재 데이터와 이전 데이터의 데이터 값을 비교하여 상기 복수의 센서 각각의 위치에 대응되는 상기 외부 커버 영역의 오염 여부를 포함하는 상기 오염 데이터를 출력하는 자동차용 센서 통합 모듈.
The method of claim 3,
The signal processing unit
A sensor integration module for a vehicle that compares the current data for each of the detected data with the data values of the previous data and outputs the contamination data including whether the outer cover area corresponding to the positions of the plurality of sensors is contaminated.
제 4 항에 있어서,
상기 신호 처리부는
상기 검출 데이터들을 입력받아 저장하고, 상기 검출 데이터들 중 어느 하나의 데이터에 기초하여 저장된 상기 검출 데이터들을 상기 센싱 데이터로서 출력하는 출력 동기화부, 및
상기 검출 데이터들을 입력받아 저장하고, 상기 복수의 센서로부터 출력된 상기 검출 데이터들과 저장된 상기 검출 데이터들의 데이터 값을 각각 비교하여 상기 오염 데이터를 생성하는 오염 판별부를 포함하는 자동차용 센서 통합 모듈.
The method of claim 4,
The signal processing unit
An output synchronization unit that receives and stores the detection data, and outputs the detection data stored based on any one of the detection data as the sensing data, and
A sensor integration module for a vehicle comprising a pollution determination unit configured to receive and store the detection data, and to generate the pollution data by comparing the detection data output from the plurality of sensors with the data values of the stored detection data.
제 5 항에 있어서,
상기 오염 판별부는
상기 복수의 센서로부터 출력된 상기 검출 데이터들과 저장된 상기 검출 데이터들의 데이터 값이 기설정된 데이터 값에 대한 초과 여부에 따라 해당 검출 데이터를 출력한 센서의 위치에 대응되는 상기 외부 커버 영역의 오염 여부를 판단하여 상기 오염 데이터를 생성하는 자동차용 센서 통합 모듈.
The method of claim 5,
The contamination determination unit
According to whether the data values of the detection data output from the plurality of sensors and the stored detection data exceed a preset data value, whether the outer cover area corresponding to the position of the sensor that outputs the detection data is contaminated. A sensor integration module for a vehicle that determines and generates the pollution data.
제 6 항에 있어서,
상기 오염 판별부는
외부 환경 데이터에 기초하여 상기 오염 데이터의 출력 빈도를 증감시키는 자동차용 센서 통합 모듈.
The method of claim 6,
The contamination determination unit
A sensor integration module for a vehicle that increases or decreases the output frequency of the pollution data based on external environment data.
제 7 항에 있어서,
상기 오염 판별부는
상기 외부 환경 데이터에 따라 상기 외부 커버에 오염물의 부착이 어려운 환경보다 상기 외부 커버에 오염물의 부착이 쉬운 환경일 경우 상기 오염 데이터의 출력 빈도를 증가시키는 자동차용 센서 통합 모듈.
The method of claim 7,
The contamination determination unit
A sensor integration module for a vehicle that increases the output frequency of the pollution data in an environment in which contaminants are easily attached to the outer cover than in an environment in which contaminants are difficult to attach to the outer cover according to the external environment data.
제 8 항에 있어서,
상기 외부 환경 데이터는 날씨, 도로 상태, 온도 및 습도를 포함하며,
상기 오염 판별부는
상기 외부 환경 데이터에 따라 비가 오지 않는 날보다 비가 오는 날일 경우, 또는 자동차가 포장 도로를 주행하는 경우보다 비포장 도로를 주행하는 경우, 또는 온도가 높은 경우보다 낮은 경우, 또는 습도가 낮은 경우보다 높은 경우 상기 오염 데이터의 출력 빈도를 증가시키는 자동차용 센서 통합 모듈.
The method of claim 8,
The external environment data includes weather, road conditions, temperature and humidity,
The contamination determination unit
According to the external environment data, when it is raining than a rainy day, or when driving on an unpaved road than when driving on a paved road, or when the temperature is lower than when the temperature is high, or when it is higher than when the humidity is low Automotive sensor integration module to increase the output frequency of the pollution data.
제 9 항에 있어서,
상기 오염 판별부는
상기 복수의 센서 각각의 배치 위치에 따라 상기 오염 데이터의 출력 빈도를 증감시키는 자동차용 센서 통합 모듈.
The method of claim 9,
The contamination determination unit
A sensor integration module for a vehicle that increases or decreases the output frequency of the pollution data according to the arrangement position of each of the plurality of sensors.
제 10 항에 있어서,
상기 오염 판별부는
상기 복수의 센서 중 상부에 배치되는 센서들보다 하부에 배치되는 센서들에 대한 상기 오염 데이터의 출력 빈도를 증가시키는 자동차용 센서 통합 모듈.
The method of claim 10,
The contamination determination unit
A sensor integration module for a vehicle that increases the frequency of outputting the pollution data to sensors disposed below the plurality of sensors than those disposed above the plurality of sensors.
제 11 항에 있어서,
상기 오염 판별부는
상기 복수의 센서로부터 출력되는 상기 검출 데이터들 각각을 입력받아 저장하는 복수의 센서 출력 저장부,
상기 복수의 센서들로부터 출력되는 상기 검출 데이터들과 상기 복수의 센서 출력 저장부로부터 출력되는 저장된 상기 검출 데이터들을 각각 비교하는 복수의 비교부, 및
상기 복수의 비교부의 출력들을 상기 오염 데이터로서 출력하며, 상기 외부 환경 데이터 및 상기 복수의 센서 각각의 배치 위치에 따라 상기 오염 데이터의 출력 빈도를 증감시키는 복수의 출력 제어부를 포함하는 자동차용 센서 통합 모듈.





The method of claim 11,
The contamination determination unit
A plurality of sensor output storage units receiving and storing each of the detection data output from the plurality of sensors,
A plurality of comparison units for comparing the detection data output from the plurality of sensors with the stored detection data output from the plurality of sensor output storage units, and
A sensor integration module for a vehicle including a plurality of output control units that output the outputs of the plurality of comparison units as the pollution data, and increase or decrease the output frequency of the pollution data according to the external environment data and the arrangement positions of the plurality of sensors. .





KR1020190133129A 2019-10-24 2019-10-24 Automotive sensor integration module KR102588554B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190133129A KR102588554B1 (en) 2019-10-24 2019-10-24 Automotive sensor integration module
US16/726,703 US11443150B2 (en) 2019-10-24 2019-12-24 Automotive sensor integration module
US17/940,642 US11774578B2 (en) 2019-10-24 2022-09-08 Automotive sensor integration module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190133129A KR102588554B1 (en) 2019-10-24 2019-10-24 Automotive sensor integration module

Publications (2)

Publication Number Publication Date
KR20210048888A true KR20210048888A (en) 2021-05-04
KR102588554B1 KR102588554B1 (en) 2023-10-12

Family

ID=75585921

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190133129A KR102588554B1 (en) 2019-10-24 2019-10-24 Automotive sensor integration module

Country Status (2)

Country Link
US (2) US11443150B2 (en)
KR (1) KR102588554B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102588554B1 (en) * 2019-10-24 2023-10-12 현대모비스 주식회사 Automotive sensor integration module

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211449A (en) * 2000-01-27 2001-08-03 Honda Motor Co Ltd Image recognition device for vehicle
JP2008060874A (en) * 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
KR20100036882A (en) * 2008-09-30 2010-04-08 한국철도기술연구원 System and its method for cruise line control of automatic driving vehicles
US20180143298A1 (en) * 2016-11-21 2018-05-24 Nio Usa, Inc. Sensor surface object detection methods and systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017200544A1 (en) * 2017-01-13 2018-07-19 Siemens Schweiz Ag Determination of a lead time for the replacement of an optical smoke detector depending on its contamination
KR102355671B1 (en) * 2017-07-13 2022-01-26 현대자동차주식회사 Vehicle and method for controlling thereof
FR3086767B1 (en) * 2018-09-27 2020-10-23 Valeo Systemes Dessuyage PROTECTION KIT FOR AN OPTICAL SENSOR OF A DRIVING ASSISTANCE SYSTEM FOR MOTOR VEHICLES INCLUDING A HEATING ELEMENT
KR102588554B1 (en) * 2019-10-24 2023-10-12 현대모비스 주식회사 Automotive sensor integration module
DE102020207777A1 (en) * 2020-06-23 2021-12-23 Deere & Company Agricultural tractor with a system for detecting following road users

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001211449A (en) * 2000-01-27 2001-08-03 Honda Motor Co Ltd Image recognition device for vehicle
JP2008060874A (en) * 2006-08-31 2008-03-13 Hitachi Ltd On-vehicle camera and stain detector for on-vehicle camera
KR20100036882A (en) * 2008-09-30 2010-04-08 한국철도기술연구원 System and its method for cruise line control of automatic driving vehicles
US20180143298A1 (en) * 2016-11-21 2018-05-24 Nio Usa, Inc. Sensor surface object detection methods and systems

Also Published As

Publication number Publication date
US11443150B2 (en) 2022-09-13
KR102588554B1 (en) 2023-10-12
US20230004764A1 (en) 2023-01-05
US20210125008A1 (en) 2021-04-29
US11774578B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
US10554757B2 (en) Smart road system for vehicles
US20170317748A1 (en) Vehicle positioning by visible light communication
US6711280B2 (en) Method and apparatus for intelligent ranging via image subtraction
JP3472896B2 (en) Traffic information system
US6911642B2 (en) Object presence detection method and device
JP3613275B2 (en) Traffic information system
CN103879404A (en) Moving-object-traceable anti-collision warning method and device thereof
CN102592457A (en) Compound type interval velocity-measuring system based on internet of things technology and method thereof
JPH0789059B2 (en) Visual sensor system
KR102599558B1 (en) Automotive sensor integration module
US11774578B2 (en) Automotive sensor integration module
KR102634606B1 (en) Automotive sensor integration module
CN210743200U (en) Laser vehicle separation device capable of identifying vehicle type and driving direction
US11768918B2 (en) Automotive sensor integration module
CN114299715A (en) Expressway information detection system based on videos, laser radar and DSRC
KR102634605B1 (en) Automotive sensor integration module
KR102615478B1 (en) Automotive sensor integration module
KR102635388B1 (en) Automotive sensor integration module and system using the same
KR20220148378A (en) Apparatus for assisting driving of a host vehicle and method therof
US20240112569A1 (en) Vehicular sensing system and control system utilizing short range communication with transmitters at the road or traffic signs

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right