KR20210050052A - 자동차용 센서 통합 모듈 - Google Patents

자동차용 센서 통합 모듈 Download PDF

Info

Publication number
KR20210050052A
KR20210050052A KR1020190134008A KR20190134008A KR20210050052A KR 20210050052 A KR20210050052 A KR 20210050052A KR 1020190134008 A KR1020190134008 A KR 1020190134008A KR 20190134008 A KR20190134008 A KR 20190134008A KR 20210050052 A KR20210050052 A KR 20210050052A
Authority
KR
South Korea
Prior art keywords
data
vehicle
integration module
sensor integration
sensors
Prior art date
Application number
KR1020190134008A
Other languages
English (en)
Inventor
노희창
Original Assignee
현대모비스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대모비스 주식회사 filed Critical 현대모비스 주식회사
Priority to KR1020190134008A priority Critical patent/KR20210050052A/ko
Priority to US16/726,689 priority patent/US11768918B2/en
Publication of KR20210050052A publication Critical patent/KR20210050052A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • B60R21/0134Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over responsive to imminent contact with an obstacle, e.g. using radar systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q9/00Arrangements in telecontrol or telemetry systems for selectively calling a substation from a main station, in which substation desired apparatus is selected for applying a control signal thereto or for obtaining measured values therefrom
    • H04Q9/04Arrangements for synchronous operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0019Control system elements or transfer functions
    • B60W2050/0022Gains, weighting coefficients or weighting functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0043Signal treatments, identification of variables or parameters, parameter estimation or state estimation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2400/00Special features of vehicle units
    • B60Y2400/30Sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04QSELECTING
    • H04Q2209/00Arrangements in telecontrol or telemetry systems
    • H04Q2209/80Arrangements in the sub-station, i.e. sensing device
    • H04Q2209/84Measuring functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명에 따른 자동차용 센서 통합 모듈은 센싱 주기 및 출력 데이터 형식 중 적어도 하나 이상이 다른 복수의 센서, 및 외부 환경 데이터에 기초하여 상기 복수의 센서 각각에 대한 복수의 가중치를 선택하고, 상기 복수의 센서로부터 출력된 복수의 검출 데이터에 상기 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함하는 포함한다.

Description

자동차용 센서 통합 모듈{AUTOMOTIVE SENSOR INTEGRATION MODULE}
본 발명은 자동차용 센서 통합 모듈에 관한 것이다.
기술이 고도화됨에 따라 차량에도 사용자의 편의를 위해, 각종 센서와 전자 장치 등이 구비되고 있다. 특히, 사용자의 운전 편의를 위해 첨단 운전자 보조 시스템(ADAS: Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어지고 있다.
첨단 운전자 지원 시스템 및 자율 주행 차량은 자동차 외부의 오브젝트를 판단하기 위해, 많은 개수의 센서와 전자 장치를 구비할 수 밖에 없다.
도 1을 참조하면, 자동차의 전방 오브젝트를 검출하기 위하여, 카메라, 라이다, 및 레이더 센서 등이 자동차의 전방에 배치되지만 서로 다른 위치에 각각 배치된다.
오브젝트의 검출 성능 향상을 위해 동일한 타이밍에 검출된 센서들의 검출 결과를 토대로 하여 오브젝트를 판단하여야 하지만, 센서들이 서로 다른 위치에 배치되어 있어 오브젝트 검출 센서들의 동기화가 쉽지 않다.
더불어, 복수의 센서들로부터 여과되지 않은 검출 데이터들이 오브젝트 판별에 이용되어, 오브젝트 판별이 어렵다.
본 발명은 동기화된 복수의 센서가 배치된 자동차용 센서 통합 모듈을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 센싱 주기 및 출력 데이터 형식 중 적어도 하나 이상이 다른 복수의 센서, 및 외부 환경 데이터에 기초하여 상기 복수의 센서 각각에 대한 복수의 가중치를 선택하고, 상기 복수의 센서로부터 출력된 복수의 검출 데이터에 상기 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함한다.
본 발명의 다른 일 실시예에 따른 자동차용 센서 통합 모듈은 센싱 주기 및 출력 데이터 형식 중 적어도 하나 이상이 다른 복수의 센서 및 인지 데이터에 기초하여 상기 복수의 센서 각각에 대한 복수의 가중치를 선택하고, 상기 복수의 센서로부터 출력된 복수의 검출 데이터에 상기 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함한다.
본 발명의 또 다른 일 실시예에 따른 자동차용 센서 통합 모듈은 서로 다른 매개를 이용하여 오브젝트를 검출하여 복수의 검출 데이터를 생성하는 복수의 센서, 및 상기 복수의 센서 각각의 매개에 대한 정보 및 자동차의 주행 환경에 따라 상기 복수의 검출 데이터에 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함한다.
본 발명의 실시예에 따른 자동차용 센서 통합 모듈은 복수의 센서가 동기화되어 동작하므로, 자동차 외부의 오브젝트에 대한 검출 성능을 향상시키는 효과가 있다.
또한 본 발명의 실시예에 따른 자동차용 센서 통합 모듈은 복수의 센서 각각의 검출 데이터에 대한 신뢰성을 판단하기 때문에 자동차 외부의 오브젝트에 대한 검출 성능을 향상시키는 효과가 있다.
도 1은 자율 주행 자동차의 외부 모습을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 외형도를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 구성을 도시한 도면이다.
도 5은 도 4의 신호 처리부의 구성을 도시한 도면이다.
도 6은 도 5의 제 1 센서 신호 처리부의 구성을 도시한 도면이다.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.
이하에서 구성요소의 "상부 (또는 하부)" 또는 구성요소의 "상 (또는 하)"에 임의의 구성이 배치된다는 것은, 임의의 구성이 상기 구성요소의 상면 (또는 하면)에 접하여 배치되는 것뿐만 아니라, 상기 구성요소와 상기 구성요소 상에 (또는 하에) 배치된 임의의 구성 사이에 다른 구성이 개재될 수 있음을 의미할 수 있다.
또한 어떤 구성요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 상기 구성요소들은 서로 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성요소 사이에 다른 구성요소가 "개재"되거나, 각 구성요소가 다른 구성요소를 통해 "연결", "결합" 또는 "접속"될 수도 있는 것으로 이해되어야 할 것이다.
도 2는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 외형도를 도시한 도면이다.
본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 자동차 주행의 안전 정보를 획득하기 위해 자동차 외부에 위치하는 오브젝트를 검출하는 복수의 장치 및 센서를 포함할 수 있다. 이때, 오브젝트는 차선, 타차량, 보행자, 이륜차, 교통 신호, 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다.
차선(Lane)은 주행 차선, 주행 차선의 옆 차선, 대향되는 차량이 주행하는 차선일 수 있다. 차선은 차선을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.
타차량은 자차량의 주변에서 주행 중인 차량일 수 있다. 타차량은 자차량으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 예를 들어, 타 차량은 자 차량으로부터 소정 거리 이내에 위치하며, 자차량보다 선행 또는 후행하는 차량일 수 있다.
보행자는 자 차량의 주변에 위치한 사람일 수 있다. 보행자는 자 차량으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들어, 보행자는 자 차량의 소정 거리 이내의 인도 또는 차도 상에 위치하는 사람일 수 있다.
이륜차는 자 차량의 주변에 위치하고, 2개의 바퀴를 이용해 움직이는 탈 것을 의미할 수 있다. 이륜차는 자 차량으로부터 소정 거리 이내에 위치하는 2개의 바퀴를 가지는 탈 것일 수 있다. 예를 들어, 이륜차는 자 차량의 소정 거리 이내 인도 또는 차도상에 위치하는 오토바이 또는 자전거를 포함할 수 있다.
교통 신호는 교통 신호등, 교통 표지판, 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.
빛은 타 차량에 구비된 램프, 가로등 도는 태양으로부터 방출되는 빛을 포함할 수 있다.
도로는 도로면, 커브, 오르막, 내리막 등의 경사를 포함할 수 있다.
구조물은 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들어, 구조물은 가로등, 가로수, 건물, 전봇대, 신호등, 다리 등을 포함할 수 있다.
지형물은 산, 언덕 등을 포함할 수 있다.
한편, 오브젝트는 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들어, 이동 오브젝트는 타차량, 이륜차 및 보행자 등을 포함하는 개념일 수 있고, 고정 오브젝트는 교통 신호, 도로, 구조물 등을 포함하는 개념일 수 있다.
이와 같이, 자동차 주변의 다양한 오브젝트를 정확히 판별하기 위해서는 다양한 센서 및 장치를 이용하는 것이 바람직할 수 있다.
자동차 외부의 오브젝트를 정확히 판별하기 위해, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 서로 다른 종류의 복수의 센서 및 장치를 포함할 수 있다. 또한 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 동일한 종류의 센서 및 장치를 적어도 하나 이상 포함할 수 있다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 자동차 외부의 오브젝트를 판별하기 위한 센서로, 적외선 카메라, 광학 카메라, 라이다 및 레이더를 포함할 수 있다. 도 2에 도시된 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 오브젝트를 판별하기 위한 센서로 적외선 카메라, 광학 카메라, 라이다 및 레이더를 예를 들어 설명할 뿐, 이에 한정하는 것이 아니다. 또한, 도 2에 도시된 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 2개의 적외선 카메라, 1개의 광학 카메라, 2개의 라이다, 및 1개의 레이더를 도시하였지만, 각 센서의 개수를 예를 들어 설명하는 것일 뿐, 한정하는 것이 아니다.
도 2를 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 회로기판, 적외선 카메라, 카메라, 레이더 및 라이다를 포함할 수 있다. 예를 들어, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 적외선 카메라, 광학 카메라, 레이더 및 라이다가 배치 및 실장된 회로기판을 포함할 수 있다.
광학 카메라는 빛을 매개로 자동차의 외부 영상을 획득하여 자동차의 주변 사물, 빛 및 사람을 인식하기 위한 것으로, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 및 360도 카메라를 포함할 수 있다. 광학 카메라는 다른 센서들에 비해 색상 감지가 가능하고, 오브젝트를 정확히 분류할 수 있는 장점이 있으나, 야간, 역광, 눈, 비, 안개 등의 환경적인 요소에 많은 영향을 받는 단점이 있다.
레이더는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(Phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이더는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리를 탐지할 수 있는 장점이 있지만, 전자파를 흡수하는 물질로 구성된 오브젝트 예를 들어, 터널 또는 가드레일과 같은 철재 구조물의 감지가 어렵고 오브젝트를 분류하지 못하는 단점이 있다.
라이다는 레이저 광을 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(Phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 덜 받고 분해능(Resolution)이 좋아 장거리 및 단거리 탐지에 효율적이며, 오브젝트의 간단한 분류도 수행할 수 있는 장점이 있지만, 오브젝트에 대한 속도를 바로 측정할 수 없는 단점이 있다.
적외선 카메라는 적외선을 매개로 자동차의 외부 영상을 획득할 수 있다. 특히, 적외선 카메라는 야간에도 자동차의 외부 영상을 획득할 수 있다. 적외선 카메라는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리 탐지 및 생명체와 사물의 구분이 가능한 정점이 있지만, 가격이 비싼 단점이 있다.
본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 광학 카메라, 적외선 카메라, 레이더 및 라이다의 탐지 영역 방향 즉, 자동차용 센서 통합 모듈의 전면에 외부 커버가 결합되어, 광학 카메라, 적외선 카메라, 레이더 및 라이다를 물리적인 충격으로부터 보호할 수 있다.
이와 같이, 환경적인 요소와는 무관하게 자동차 주변 외부 오브젝트를 정확하게 분류 및 판별하기 위해서는 각 센서들의 장단점을 조합하여야 한다. 따라서 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 서로 다른 복수의 센서를 회로기판에 모두 배치 및 실장시킨 구조를 개시한다. 더불어, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈은 동작 주기가 서로 다른 복수의 센서들의 감지 결과를 동기화하여 출력할 수 있어, 보다 더 정확한 오브젝트의 분류 및 판별에 장점이 있다.
도 3은 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈이 배치된 자동차의 구성을 도시한 도면이다.
본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)이 배치된 자동차는 상위 제어 장치(200)를 더 포함할 수 있다.
도 3를 참조하면, 자동차는 자동차용 센서 통합 모듈(100), 상위 제어 장치(200)를 포함할 수 있다.
자동차용 센서 통합 모듈(100)은 각 센서들로부터 획득된 검출 데이터들을 동기화시켜 센싱 데이터(S_data)로서 상위 제어 장치(200)에 제공할 수 있다. 이때, 자동차용 센서 통합 모듈(100)은 각 센서들로부터 획득된 검출 데이터들, 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)에 기초하여 검출 데이터들에 각각에 가중치를 부여하고, 가중치가 부여된 검출 데이터들을 센싱 데이터(S_data)로서 상위 제어 장치(200)에 제공할 수 있다.
상위 제어 장치(200)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 자동차용 센서 통합 모듈(100)에 제공할 수 있다. 외부 환경 데이터(EC_data)는 날씨, 도로 상태, 온도 및 습도 중 적어도 하나 이상을 포함할 수 있다. 인지 데이터(OR_data)는 상위 제어 장치(200)가 자동차용 센서 통합 모듈(100)로부터 제공받은 센싱 데이터(S_data)에 기초하여 자동차 외부의 오브젝트를 판별한 결과를 포함할 수 있다.
본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)은 외부 환경 데이터(EC_data)를 상위 제어 장치(200)로부터 제공받는 것을 개시하였지만, 자동차용 센서 통합 모듈(100)은 자동차에 배치된 온도 센서, 습도 센서, 우적 센서 및 네비게이션으로부터 각각 외부 환경 데이터(EC_data)를 제공받을 수 있다.
상위 제어 장치(200)는 자동차용 센서 통합 모듈(100)을 제어하기 위한 별도의 장치이거나, 자율 주행 시스템 또는 ADAS(Advanced Driver Assistance Systems)에 포함된 오브젝트 판단을 위한 장치 또는 자동차 주행을 제어하는 장치일 수 있다.
상위 제어 장치(200)는 자동차용 센서 통합 모듈(100)로부터 제공받은 가중치가 적용된 센싱 데이터(S_data)에 기초하여 오브젝트를 판단하고, 판단 결과에 따라 자동차 주행을 제어할 수 있다. 따라서, 상위 제어 장치(200)는 오브젝트 판단 성능이 향상될 수 있다.
이때, 자동차용 센서 통합 모듈(100) 및 상위 제어 장치(200)는 자동차 네트워크 통신으로 연결될 수 있다. 차량 네트워크 통신 기술로는 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 및 이더넷(Ethernet) 등을 포함할 수 있다.
도 4는 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈의 구성을 도시한 도면이다.
도 4를 참조하면, 본 발명의 일 실시예에 따른 자동차용 센서 통합 모듈(100)은 광학 카메라(11), 적외선 카메라(12), 레이더(13), 라이다(14), 인터페이스부(20) 및 신호 처리부(30)를 포함할 수 있다. 이때, 인터페이스부(20) 및 신호 처리부(30)는 도 2에 도시된 회로기판에 하드웨어 또는 소프트웨어로 구현될 수 있다.
광학 카메라(11)는 빛을 매개로 감지된 정보를 제 1 검출 데이터(C_s)로서 출력할 수 있다.
적외선 카메라(12)는 적외선을 매개로 감지된 정보를 제 2 검출 데이터(IC_s)로서 출력할 수 있다.
레이더(13)는 전자파를 매개로 감지된 정보를 제 3 검출 데이터(R_s)로서 출력할 수 있다.
라이다(14)는 레이저 광을 매개로 감지된 정보를 제 4 검출 데이터(L_s)로서 출력할 수 있다.
이때, 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14) 각각은 센싱(동작) 주기가 서로 다를 수 있다. 예를 들어, 광학 카메라(11) 및 적외선 카메라(12)는 30Hz의 센싱 주기를 가질 수 있고, 레이더(13)는 20Hz의 센싱 주기를 가질 수 있으며, 라이다(14)는 10Hz의 센싱 주기를 가질 수 있다.
따라서, 광학 카메라(11) 및 적외선 카메라(12)는 제 1 시간(33ms)마다 제 1 및 제 2 검출 데이터(C_s, IC_s)를 출력할 수 있고, 레이더(13)는 제 2 시간(50ms)마다 제 3 검출 데이터(R_s)를 출력할 수 있으며, 라이다(14)는 제 3 시간(100ms)마다 제 4 검출 데이터(L_s)를 출력할 수 있다.
또한, 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)가 출력하는 각 검출 데이터(C_s, IC_s, R_s, L_s)의 통신 규격이 다를 수 있다. 예를 들어, 광학 카메라(11)가 출력하는 제 1 검출 데이터(C_s)는 LVDS(Low Voltage Differential Signal) 통신에서 사용되는 형식의 데이터일 수 있다. 적외선 카메라(12)가 출력하는 제 2 검출 데이터(IC_s)는 GMSL(Gigabit Multimedia Serial Link) 통신에서 사용되는 형식의 데이터일 수 있다. 레이더(13) 및 라이다(14)는 이더넷(Ehternet)에서 사용되는 형식의 데이터일 수 있다.
인터페이스부(20)는 데이터 형식이 다른 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 기설정된 하나의 데이터 형식으로 변환하여 변환 데이터(C_data)로서 신호 처리부(30)에 제공할 수 있다. 인터페이스부(20)는 차량 네트워크 통신 기술 중 기설정된 통신 기술에 따른 데이터 형식으로 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)의 형식을 변환시킬 수 있다.
이때, 차량 네트워크 통신 기술로는 CAN(Controller Area Network) 통신, LIN(Local Interconnect Network) 통신, 플렉스레이(Flex-Ray) 통신 및 이더넷(Ethernet) 등을 포함할 수 있다. 예를 들어, 인터페이스부(20)는 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 이더넷 통신에 따른 형식의 데이터로 변환할 수 있다.
신호 처리부(30)는 인터페이스부(20)에서 변환된 동일한 형식의 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 변환 데이터(C_data)로서 입력받을 수 있다.
신호 처리부(30)는 상위 제어 장치(200)로부터 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기준으로 변환 데이터(C_data)에 가중치를 부여하고, 가중치가 부여된 변환 데이터(C_data)를 생성할 수 있다.
신호 처리부(30)는 가중치가 부여된 변환 데이터(C_data)에 포함된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 기설정된 타이밍에 동기화시켜 센싱 데이터(S_data)로서 상위 제어 장치(200)에 출력할 수 있다.
예를 들어, 신호 처리부(30)는 가중치가 부여된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s) 중 하나의 입력 타이밍에 기초하여 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 동일한 타이밍에 센싱 데이터(S_data)로서 출력할 수 있다.
더욱 상세한 예를 들면, 신호 처리부(30)는 가중치가 부여된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 입력받아 저장하고, 가중치가 부여된 제 3 검출 데이터(R_s)가 신호 처리부(30)에 입력된 이후 기설정된 시간이 경과하면 저장된 제 1 내지 제 4 검출 데이터(C_s, IC_s, R_s, L_s)를 센싱 데이터(S_data)로서 출력하도록 구성될 수 있다.
이때, 센싱 데이터(S_data)는 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)로부터 획득된 제 1 내지 제 4 검출 데이터(C_s. IC_s, R_s, L_s)를 포함할 수 있다.
도 5는 도 4의 신호 처리부의 구성을 도시한 도면이다.
도 5을 참조하면, 신호 처리부(30)는 제 1 내지 제 4 센서 신호 처리부(31, 32, 33, 34) 및 출력 동기화부(35)를 포함할 수 있다.
제 1 센서 신호 처리부(31)는 외부 환경 데이터(EC_data), 인지 데이터(OR_data) 및 변환 데이터(C_data)의 데이터 형식이 변환된 제 1 검출 데이터(C_s)를 입력받아 제 1 가중치 적용 데이터(WC_s)를 출력할 수 있다.
예를 들어, 제 1 센서 신호 처리부(31)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기준으로 가중치를 선택하고, 선택된 가중치를 데이터 형식이 변환된 제 1 검출 데이터(C_s)에 적용시켜 제 1 가중치 적용 데이터(WC_s)를 생성하여 출력할 수 있다.
제 1 센서 신호 처리부(31)는 데이터 형식이 변환된 제 1 검출 데이터(C_s) 즉, 광학 카메라(11)로부터 출력된 제 1 검출 데이터(C_s)를 입력받는다.
광학 카메라(11)는 다른 센서들에 비해 색상 감지가 가능하고, 오브젝트를 정확하게 분류할 수 있는 장점이 있으나, 야간, 눈, 비, 안개 등의 환경적인 요소에 많은 영향을 받는 단점이 있다.
따라서, 제 1 센서 신호 처리부(31)는 외부 환경 데이터(EC_data)에 기초하여 야간일 경우, 눈 또는 비가 오는 경우 및 안개가 발생하는 경우에는 광학 카메라(11)로부터 출력되는 제 1 검출 데이터(C_s)에 다른 경우들보다 낮은 가중치를 부여된 제 1 가중치 적용 데이터(WC_s)를 생성할 수 있다.
한편, 제 1 센서 신호 처리부(31)는 외부 환경 데이터(EC_data)에 기초하여 주간일 경우, 눈 또는 비가 오지 않는 경우 및 안개가 발생하지 않는 경우에는 광학 카메라(11)로부터 출력되는 제 1 검출 데이터(C_s)에 다른 경우들보다 높은 가중치가 부여된 제 1 가중치 적용 데이터(WC_s)를 생성할 수 있다.
또한, 광학 카메라(11)는 오브젝트를 정확하게 분류할 수 있는 장점이 있기 때문에, 제 1 센서 신호 처리부(31)는 인지 데이터(OR_data)에 기초하여 자동차가 시내를 주행하거나 혼잡한 도로를 주행할 때 광학 카메라(11)로부터 출력되는 제 1 검출 데이터(C_s)에 높은 가중치가 부여된 제 1 가중치 적용 데이터(WC_s)를 생성할 수 있다.
한편, 제 1 센서 신호 처리부(31)는 인지 데이터(OR_data)에 기초하여 자동차가 시외를 주행하거나 한산한 도로를 주행할 때 광학 카메라(11)로부터 출력되는 제 1 검출 데이터(C_s)에 낮은 가중치가 부여된 제 1 가중치 적용 데이터(WC_s)를 생성할 수 있다.
제 2 센서 신호 처리부(32)는 외부 환경 데이터(EC_data), 인지 데이터(OR_data) 및 변환 데이터(C_data)의 데이터 형식이 변환된 제 2 검출 데이터(IC_s)를 입력받아 제 2 가중치 적용 데이터(WIC_s)를 출력할 수 있다.
예를 들어, 제 2 센서 신호 처리부(32)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기준으로 가중치를 선택하고, 선택된 가중치를 데이터 형식이 변환된 제 2 검출 데이터(IC_s)에 적용시켜 제 2 가중치 적용 데이터(WIC_s)를 생성하여 출력할 수 있다.
제 2 센서 신호 처리부(32)는 데이터 형식이 변환된 제 2 검출 데이터(IC_s) 즉, 적외선 카메라(12)로부터 출력된 제 2 검출 데이터(IC_s)를 입력받는다.
적외선 카메라(12)는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리 탐지 및 생명체와 사물의 구분이 가증한 장점이 있지만, 가격이 비싼 단점이 있다.
따라서, 제 2 센서 신호 처리부(32)는 데이터 형식이 변환된 제 2 검출 데이터(IC_s)에 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)와는 무관하게 일정한 가중치를 적용시켜 제 2 가중치 적용 데이터(WIC_data)를 생성할 수 있다.
한편, 제 2 센서 신호 처리부(32)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)에 기초하여 광학 카메라(11)로부터 출력되는 제 1 검출 데이터(C_s)에 낮은 가중치가 부여될수록 제 2 검출 데이터(IC_s)에 높은 가중치를 부여하여 제 2 가중치 적용 데이터(WIC_s)를 생성할 수 있다.
제 3 센서 신호 처리부(33)는 외부 환경 데이터(EC_data), 인지 데이터(OR_data) 및 변환 데이터(C_data)의 데이터 형식이 변환된 제 3 검출 데이터(R_s)를 입력받아 제 3 가중치 적용 데이터(WR_s)를 출력할 수 있다.
예를 들어, 제 3 센서 신호 처리부(33)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기준으로 가중치를 선택하고, 선택된 가중치를 데이터 형식이 변환된 제 3 검출 데이터(R_s)에 적용시켜 제 3 가중치 적용 데이터(WR_s)를 생성하여 출력할 수 있다.
제 3 센서 신호 처리부(33)는 데이터 형식이 변환된 제 3 검출 데이터(R_s) 즉, 레이더(13)로부터 출력된 제 3 검출 데이터(R_s)를 입력받는다.
레이더(13)는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 받지 않고 장거리를 탐지할 수 있는 장점이 있지만, 전자파를 흡수하는 물질로 구성된 오브젝트 예를 들어, 터널 또는 가드레일과 같은 철재 구조물의 감지가 어렵고, 오브젝트를 분류하지 못하는 단점이 있다.
따라서, 제 3 센서 신호 처리부(33)는 외부 환경 데이터(EC_data)와는 무관하게 인지 데이터(OR_data)를 기초로 하여 데이터 형식이 변환된 제 3 검출 데이터(R_s)에 가중치를 부여하여 제 3 가중치 적용 데이터(WR_s)를 생성할 수 있다.
예를 들어, 제 3 센서 신호 처리부(33)는 인지 데이터(OR_data)를 기초로 하여 터널 또는 가드레일과 같은 철재 구조물이 자동차 주변에 오브젝트로 존재하면 데이터 형식이 변환된 제 3 검출 데이터(R_s)에 낮은 가중치를 부여하여 제 3 가중치 적용 데이터(WR_s)를 생성할 수 있다.
한편, 제 3 센서 신호 처리부(33)는 인지 데이터(OR_data)를 기초로 하여 터널 또는 가드레일과 같은 철재 구조물이 자동차 주변에 존재하지 않을 경우 데이터 형식이 변환된 제 3 검출 데이터(R_s)에 높은 가중치를 부여할 수 있다.
제 4 센서 신호 처리부(34)는 외부 환경 데이터(EC_data), 인지 데이터(OR_data) 및 변환 데이터(C_data)의 데이터 형식이 변환된 제 4 검출 데이터(L_s)를 입력받아 제 4 가중치 적용 데이터(WL_s)를 출력할 수 있다.
예를 들어, 제 4 센서 신호 처리부(34)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기준으로 가중치를 선택하고, 선택된 가중치를 데이터 형식이 변환된 제 4 검출 데이터(L_s)에 적용시켜 제 4 가중치 적용 데이터(WL_s)를 생성하여 출력할 수 있다.
제 4 센서 신호 처리부(34)는 데이터 형식이 변환된 제 4 검출 데이터(L_s) 즉, 라이다(14)로부터 출력된 제 4 검출 데이터(L_s)를 입력받는다.
라이다(14)는 야간, 눈, 비, 안개 등의 환경적인 요소에 영향을 덜 받고, 분해능(Resolution)이 좋아 장거리 및 단거리 탐지에 효율적이며, 오브젝트의 간단한 분류도 수행할 수 있는 장점이 있지만, 오브젝트에 대한 속도를 바로 측정할 수 없는 단점이 있다.
따라서, 제 4 센서 신호 처리부(34)는 외부 환경 데이터(EC_data)와는 무관하게 인지 데이터(OR_data)에 기초하여 가중치를 선택하고, 선택된 가중치를 제 4 검출 데이터(L_s)에 적용시켜 제 4 가중치 적용 데이터(WL_s)를 생성할 수 있다.
더욱 더 상세히 설명하면, 제 4 센서 신호 처리부(34)는 인지 데이터(OR_data)에 기초하여 자동차가 시내 또는 혼잡한 도로를 주행 중일 경우 높은 가중치를 선택하고, 선택된 가중치를 제 4 검출 데이터(L_s)에 적용시켜 제 4 가중치 적용 데이터(WL_s)를 생성할 수 있다.
한편, 제 4 센서 신호 처리부(34)는 인지 데이터(OR_data)에 기초하여 자동차가 빠른 속도로 주행 중일 경우 낮은 가중치를 선택하고, 선택된 가중치를 제 4 검출 데이터(L_s)에 적용시켜 제 4 가중치 적용 데이터(WL_s)를 생성할 수 있다.
출력 동기화부(35)는 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s) 중 어느 하나에 기초하여 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s)를 동기화시켜 출력할 수 있다.
예를 들어, 출력 동기화부(35)는 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s)를 입력받아 저장하고, 제 1 내지 제 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s) 중 어느 하나가 입력된 이후 기설정된 시간이 경과하면 저장된 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s)를 센싱 데이터(S_data)로서 출력할 수 있다.
이와 같이 동작하는 제 1 내지 제 4 센서 신호 처리부(31, 32, 33, 34)는 입력되는 신호와 출력되는 신호만 다를 뿐 동일하게 구성될 수 있다. 즉, 제 1 내지 제 4 센서 신호 처리부(31, 32, 33, 34) 각각은 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)에 기초하여 각 센서의 장단점에 대응하는 가중치를 선택하고, 선택된 가중치를 각 센서로부터 출력되는 검출 데이터들(C_s, L_s, R_s, L_s) 각각에 적용시켜 상기 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s) 각각을 생성할 수 있다.
따라서, 제 1 내지 제 4 센서 신호 처리부(31, 32, 33, 34) 각각은 도 6에 도시된 바와 같이, 가중치 선택부(31-1) 및 가중치 적용부(31-2)를 포함할 수 있다.
그러므로, 제 1 센서 신호 처리부(31)의 구성을 설명함으로써, 나머지 제 2 내지 제 4 센서 신호 처리부(32, 33, 34)의 구성 설명을 대신한다.
도 6은 도 5에 도시된 제 1 센서 신호 처리부의 구성을 도시한 도면이다.
도 6을 참조하면, 제 1 센서 신호 처리부(31)는 가중치 선택부(31-1) 및 가중치 적용부(31-2)를 포함할 수 있다.
가중치 선택부(31-1)는 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기초로 광학 카메라(11)의 장단점에 대응하는 가중치를 선택할 수 있다.
예를 들어, 예를 들어, 가중치 선택부(31-1)는 외부 환경 데이터(EC_data)에 기초하여 야간일 경우보다 주간일 경우에 상대적으로 더 높은 가중치를 선택할 수 있다.
또한, 가중치 선택부(31-1)는 외부 환경 데이터(EC_data)에 기초하여 눈 또는 비가 오는 경우보다 눈 또는 비가 오지 않을 경우에 상대적으로 더 높은 가중치를 선택할 수 있다.
마찬가지로, 가중치 선택부(31-1)는 외부 환경 데이터(EC_data)에 기초하여 안개가 발생하는 경우보다 안개가 발생하지 않을 경우에 상대적으로 더 높은 가중치를 선택할 수 있다.
또한, 가중치 선택부(31-1)는 인지 데이터(OR_data)에 기초하여 자동차가 시내를 주행하거나, 혼잡한 도로를 주행할 경우보다 시외를 주행하거나 한산한 도로를 주행할 경우 낮은 가중치를 선택할 수 있다.
가중치 적용부(31-2)는 광학 카메라(11)로부터 출력되어 데이터 형식이 변환된 제 1 검출 데이터(C_s)에 가중치 선택부(31-1)로부터 출력되는 선택된 가중치를 적용시켜 제 1 가중치 적용 데이터(WC_s)를 생성할 수 있다.
이와 같이, 본 발명에 따른 자동차용 센서 통합 모듈(100)은 광학 카메라(11), 적외선 카메라(12), 레이더(13) 및 라이다(14)로부터 출력되는 각 검출 데이터(C_s, IC_s, R_s, L_s) 각각에 외부 환경 데이터(EC_data) 및 인지 데이터(OR_data)를 기초로 각 센서들의 장단점에 대응되는 가중치를 적용시켜 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s)를 생성하고, 생성된 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s) 중 하나에 기초하여 제 1 내지 제 4 가중치 적용 데이터(WC_s, WIC_s, WR_s, WL_s)를 동기화시켜 상위 제어 장치(200)에 제공함으로써, 본 발명에 따른 자동차용 센서 통합 모듈(100)을 적용한 자율 주행 시스템 또는 ADAS 시스템의 오브젝트 판별 성능을 향상시킬 수 있다.
이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다
100: 자동차용 센서 통합 모듈 200: 상위 제어 장치
11: 광학 카메라 12: 적외선 카메라
13: 레이더 14: 라이다
20: 인터페이스부 30: 신호 처리부

Claims (19)

  1. 센싱 주기 및 출력 데이터 형식 중 적어도 하나 이상이 다른 복수의 센서; 및
    외부 환경 데이터에 기초하여 상기 복수의 센서 각각에 대한 복수의 가중치를 선택하고, 상기 복수의 센서로부터 출력된 복수의 검출 데이터에 상기 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함하는 자동차용 센서 통합 모듈.
  2. 제 1 항에 있어서,
    상기 신호 처리부는
    상기 복수의 가중치 적용 데이터들을 입력받아 저장하고, 상기 복수의 가중치 적용 데이터들 중 어느 하나에 기초하여 저장된 상기 복수의 가중치 적용 데이터들을 동시에 센싱 데이터로서 출력하는 자동차용 센서 통합 모듈.
  3. 제 1 항에 있어서,
    상기 외부 환경 데이터는
    주간, 야간, 눈, 비 및 안개 정보를 적어도 하나 이상을 포함하는 자동차용 센서 통합 모듈.
  4. 제 3 항에 있어서,
    상기 신호 처리부는
    상기 외부 환경 데이터에 기초하여 상기 복수의 센서 각각의 장단점에 대응하는 상기 복수의 가중치를 각각 선택하는 자동차용 센서 통합 모듈.
  5. 제 4 항에 있어서,
    상기 복수의 센서는 광학 카메라, 적외선 카메라, 레이더 및 라이다 중 적어도 하나 이상을 포함하는 자동차용 센서 통합 모듈.
  6. 제 5 항에 있어서,
    상기 신호 처리부는
    상기 외부 환경 데이터를 기초로 야간일 경우보다 주간일 경우에 높은 가중치를 선택하고,
    눈 또는 비가 오는 경우보다 눈 또는 비가 오지 않는 경우에 높은 가중치를 선택하고,
    안개가 발생하는 경우보다 안개가 발생하지 않는 경우에 높은 가중치를 선택하여,
    상기 광학 카메라로부터 출력되는 검출 데이터에 선택된 가중치를 적용시키는 자동차용 센서 통합 모듈.
  7. 센싱 주기 및 출력 데이터 형식 중 적어도 하나 이상이 다른 복수의 센서; 및
    인지 데이터에 기초하여 상기 복수의 센서 각각에 대한 복수의 가중치를 선택하고, 상기 복수의 센서로부터 출력된 복수의 검출 데이터에 상기 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함하는 자동차용 센서 통합 모듈.
  8. 제 7 항에 있어서,
    상기 신호 처리부는
    상기 복수의 가중치 적용 데이터들을 입력받아 저장하고, 상기 복수의 가중치 적용 데이터들 중 어느 하나에 기초하여 저장된 상기 복수의 가중치 적용 데이터들을 동시에 센싱 데이터로서 출력하는 자동차용 센서 통합 모듈.
  9. 제 8 항에 있어서,
    상기 인지 데이터는 상기 센싱 데이터를 기초로 하여 자동차 주변의 오브젝트를 판별한 결과를 포함하는 자동차용 센서 통합 모듈.
  10. 제 9 항에 있어서,
    상기 신호 처리부는
    상기 인지 데이터에 기초하여 상기 복수의 센서 각각의 장단점에 대응하는 상기 복수의 가중치를 각각 선택하는 자동차용 센서 통합 모듈.
  11. 제 10 항에 있어서,
    상기 복수의 센서는 광학 카메라, 적외선 카메라, 레이더 및 라이다 중 적어도 하나 이상을 포함하는 자동차용 센서 통합 모듈.
  12. 제 11 항에 있어서,
    상기 신호 처리부는
    상기 인지 데이터를 기초로 하여 터널 또는 가드레일과 같은 철재 구조물이 자동차 주변에 상기 오브젝트로 존재할 경우 상기 철재 구조물이 존재하지 않을 경우보다 낮은 가중치를 선택하여 상기 레이더로부터 출력되는 검출 데이터에 선택된 가중치를 적용시키는 자동차용 센서 통합 모듈.
  13. 서로 다른 매개를 이용하여 오브젝트를 검출하여 복수의 검출 데이터를 생성하는 복수의 센서; 및
    상기 복수의 센서 각각의 매개에 대한 정보 및 자동차의 주행 환경에 따라 상기 복수의 검출 데이터에 복수의 가중치를 각각 적용시켜 복수의 가중치 적용 데이터를 생성하는 신호 처리부를 포함하는 자동차용 센서 통합 모듈.
  14. 제 13 항에 있어서,
    상기 신호 처리부는
    상기 복수의 가중치 적용 데이터들을 입력받아 저장하고, 상기 복수의 가중치 적용 데이터들 중 어느 하나에 기초하여 저장된 상기 복수의 가중치 적용 데이터들을 동시에 센싱 데이터로서 출력하는 자동차용 센서 통합 모듈.
  15. 제 13 항에 있어서,
    상기 복수의 센서는 광학 카메라, 적외선 카메라, 레이더 및 라이다 중 적어도 하나 이상을 포함하며,
    상기 광학 카메라는 빛을 매개로 하여 상기 복수의 검출 데이터 중 하나를 생성하고,
    상기 적외선 카메라는 적외선을 매개로 하여 상기 복수의 검출 데이터 중 다른 하나를 생성하고,
    상기 레이더는 전자파를 매개로 하여 상기 복수의 검출 데이터 중 또 다른 하나를 생성하고,
    상기 라이다는 레이저 광을 매개로 하여 상기 복수의 검출 데이터 중 또 다른 하나를 생성하고,
    상기 자동차의 주행 환경은
    외부 환경 데이터 및 인지 데이터를 포함하고,
    상기 외부 환경 데이터는
    주간, 야간, 눈, 비 및 안개 정보를 적어도 하나 이상 포함하며,
    상기 인지 데이터는
    상기 센싱 데이터를 기초로 하여 자동차 주변의 상기 오브젝트를 판별한 결과를 포함하는 자동차용 센서 통합 모듈.
  16. 제 15 항에 있어서,
    상기 신호 처리부는
    상기 외부 환경 데이터에 기초하여 상기 복수의 센서 각각의 매개에 대한 장단점에 대응하는 복수의 가중치를 각각 선택하는 자동차용 센서 통합 모듈.
  17. 제 16 항에 있어서,
    상기 신호 처리부는
    상기 외부 환경 데이터를 기초로 야간일 경우보다 주간일 경우에 높은 가중치를 선택하고,
    눈 또는 비가 오는 경우보다 눈 또는 비가 오지 않는 경우에 높은 가중치를 선택하고,
    안개가 발생하는 경우보다 안개가 발생하지 않는 경우에 높은 가중치를 선택하여,
    상기 광학 카메라로부터 출력되는 검출 데이터에 선택된 가중치를 적용시키는 자동차용 센서 통합 모듈.
  18. 제 16 항에 있어서,
    상기 신호 처리부는
    상기 인지 데이터를 기초로 하여 터널 또는 가드레일과 같은 철재 구조물이 자동차 주변에 상기 오브젝트로 존재할 경우 상기 철재 구조물이 존재하지 않을 경우보다 낮은 가중치를 선택하여 상기 레이더로부터 출력되는 검출 데이터에 선택된 가중치를 적용시키는 자동차용 센서 통합 모듈.
  19. 제 16 항에 있어서,
    상기 신호 처리부는
    상기 외부 환경 데이터를 기초로 야간일 경우보다 주간일 경우에 높은 가중치를 선택하고,
    눈 또는 비가 오는 경우보다 눈 또는 비가 오지 않는 경우에 높은 가중치를 선택하고,
    안개가 발생하는 경우보다 안개가 발생하지 않는 경우에 높은 가중치를 선택하여,
    상기 광학 카메라로부터 출력되는 검출 데이터에 상기 외부 환경 데이터에 기초하여 선택된 가중치를 적용시키고,
    상기 인지 데이터에 기초하여 자동차가 시내를 주행하거나 또는 혼잡한 도로를 주행할 경우, 시외를 주행하거나 한산한 도로를 주행하는 경우보다 높은 가중치를 선택하여,
    상기 광학 카메라로부터 출력되는 검출 데이터에 상기 인지 데이터에 기초하여 선택된 가중치를 적용시키는 자동차용 센서 통합 모듈.

KR1020190134008A 2019-10-25 2019-10-25 자동차용 센서 통합 모듈 KR20210050052A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190134008A KR20210050052A (ko) 2019-10-25 2019-10-25 자동차용 센서 통합 모듈
US16/726,689 US11768918B2 (en) 2019-10-25 2019-12-24 Automotive sensor integration module

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190134008A KR20210050052A (ko) 2019-10-25 2019-10-25 자동차용 센서 통합 모듈

Publications (1)

Publication Number Publication Date
KR20210050052A true KR20210050052A (ko) 2021-05-07

Family

ID=75586974

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190134008A KR20210050052A (ko) 2019-10-25 2019-10-25 자동차용 센서 통합 모듈

Country Status (2)

Country Link
US (1) US11768918B2 (ko)
KR (1) KR20210050052A (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6735801B2 (ja) * 2018-10-16 2020-08-05 三菱電機株式会社 物体認識装置およびこれを用いた車両制御装置並びに物体認識方法およびこれを用いた車両制御方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2516698B (en) 2013-07-30 2017-03-22 Jaguar Land Rover Ltd Vehicle distributed network providing feedback to a user
KR102192256B1 (ko) 2014-07-28 2020-12-17 현대모비스 주식회사 자동차의 통합센서 시스템
JP6269566B2 (ja) * 2015-05-08 2018-01-31 トヨタ自動車株式会社 誤認識判定装置
KR102024093B1 (ko) 2017-12-01 2019-09-23 엘지전자 주식회사 차량의 운행 시스템
US10558897B2 (en) * 2017-12-27 2020-02-11 Intel Corporation Context-based digital signal processing
US11400834B2 (en) * 2018-02-02 2022-08-02 State Farm Mutual Automobile Insurance Company Adjusting interior configuration of a vehicle based on external environment data
US11208085B2 (en) * 2018-02-09 2021-12-28 Mando Corporation Automotive braking control system, apparatus, and method considering weather condition
US10906536B2 (en) * 2018-04-11 2021-02-02 Aurora Innovation, Inc. Control of autonomous vehicle based on determined yaw parameter(s) of additional vehicle
US20210271259A1 (en) * 2018-09-14 2021-09-02 Tesla, Inc. System and method for obtaining training data
JP7210208B2 (ja) * 2018-09-28 2023-01-23 株式会社デンソー 提供装置
CN113811886B (zh) * 2019-03-11 2024-03-19 辉达公司 自主机器应用中的路口检测和分类
US20210110217A1 (en) * 2019-10-11 2021-04-15 Zf Active Safety And Electronics Us Llc Automotive sensor fusion
KR102599558B1 (ko) * 2019-10-24 2023-11-08 현대모비스 주식회사 자동차용 센서 통합 모듈

Also Published As

Publication number Publication date
US11768918B2 (en) 2023-09-26
US20210124037A1 (en) 2021-04-29

Similar Documents

Publication Publication Date Title
JP6838248B2 (ja) 情報処理装置
US6911642B2 (en) Object presence detection method and device
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
KR20200127218A (ko) 자율 주행을 위한 약도
CN102951062A (zh) 用于改变车辆的至少一个大灯的光发射的方法与设备
KR20210009610A (ko) 역주행 방지 방법 및 장치
US20220230018A1 (en) Combining visible light camera and thermal camera information
KR20210054107A (ko) 차량의 디스플레이 장치 및 방법
US11782153B2 (en) Automotive sensor integration module
KR102599558B1 (ko) 자동차용 센서 통합 모듈
KR20210050052A (ko) 자동차용 센서 통합 모듈
US11774578B2 (en) Automotive sensor integration module
KR102615478B1 (ko) 자동차용 센서 통합 모듈
CN210743200U (zh) 一种可识别车型和行驶方向的激光分车装置
KR102634605B1 (ko) 자동차용 센서 통합 모듈
KR102635388B1 (ko) 자동차용 센서 통합 모듈 및 이를 이용한 시스템
CN114299715A (zh) 一种基于视频、激光雷达与dsrc的高速公路信息检测系统
KR102462982B1 (ko) Cctv 기반 횡단보도 보행자 탐지 정보를 활용하는 스마트 내비게이션 시스템 및 이를 이용한 스마트 내비게이션 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal