KR20230142640A - Methods and systems for providing depth maps with confidence estimates - Google Patents

Methods and systems for providing depth maps with confidence estimates Download PDF

Info

Publication number
KR20230142640A
KR20230142640A KR1020237032546A KR20237032546A KR20230142640A KR 20230142640 A KR20230142640 A KR 20230142640A KR 1020237032546 A KR1020237032546 A KR 1020237032546A KR 20237032546 A KR20237032546 A KR 20237032546A KR 20230142640 A KR20230142640 A KR 20230142640A
Authority
KR
South Korea
Prior art keywords
map
confidence
image data
sensor
image
Prior art date
Application number
KR1020237032546A
Other languages
Korean (ko)
Inventor
리프 알덴 지앙
카스텐 루이스 보어스
Original Assignee
노다르 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2021/012294 external-priority patent/WO2021150369A1/en
Application filed by 노다르 인크. filed Critical 노다르 인크.
Publication of KR20230142640A publication Critical patent/KR20230142640A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/408
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/42Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/52Radar, Lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템이 제공된다. 시스템은 제어 시스템 및 제1 센서 시스템을 포함한다. 제1 센서 시스템은 장면의 제1 이미지 데이터를 수신할 수 있고, 제1 이미지 데이터에 기초하여 제1 차이 맵 및 제1 신뢰도 맵을 출력할 수 있다. 제어 시스템은 제1 차이 맵과 제1 신뢰도 맵에 기초하여 비디오 스트림을 출력할 수 있다. 차량 보조 시스템은 또한 제2 이미지 데이터에 기초하여 제2 신뢰도 맵을 출력하는 장면의 적어도 일부의 제2 이미지 데이터를 수신하는 제2 센서 시스템을 포함할 수 있다. 비디오 스트림은 슈퍼 프레임들을 포함할 수 있고, 각각의 슈퍼 프레임은 장면의 2D 이미지, 2D 이미지에 대응하는 깊이 맵, 및 깊이 맵에 대응하는 확실성 맵을 포함한다.An automated vehicle assistance system is provided for supervised or unsupervised vehicle movement. The system includes a control system and a first sensor system. The first sensor system may receive first image data of the scene and output a first difference map and a first confidence map based on the first image data. The control system may output a video stream based on the first difference map and the first confidence map. The vehicle assistance system may also include a second sensor system that receives second image data of at least a portion of the scene and outputs a second confidence map based on the second image data. A video stream may include super frames, and each super frame includes a 2D image of the scene, a depth map corresponding to the 2D image, and a certainty map corresponding to the depth map.

Figure pat00003
Figure pat00003

Description

깊이 맵에 신뢰도 추정치를 제공하는 방법 및 시스템{METHODS AND SYSTEMS FOR PROVIDING DEPTH MAPS WITH CONFIDENCE ESTIMATES}Method and system for providing confidence estimates to depth maps {METHODS AND SYSTEMS FOR PROVIDING DEPTH MAPS WITH CONFIDENCE ESTIMATES}

관련 출원들에 대한 상호 참조Cross-reference to related applications

본 출원은 2021년 8월 4일자로 출원되고 발명의 명칭이 "Depth Sensing System with Confidence Map"인 미국 가출원 제63/229,102호의 우선권의 이익을 주장하고, 2020년 1월 22일자로 출원되고 발명의 명칭이 "Untethered Stereo Vision Camera System"인 미국 가출원 제62/964,148호의 우선권의 이익을 주장하는, 2021년 1월 6일자로 출원되고 발명의 명칭이 "Non-Rigid Stereo Vision Camera System"인 국제 출원 제PCT/US2021/12294호의 부분 연속 출원이다. 이들 출원의 전체 내용은 본 명세서에 참조로 통합된다.This application claims the benefit of priority from U.S. Provisional Application No. 63/229,102, filed on August 4, 2021, and entitled “Depth Sensing System with Confidence Map,” filed on January 22, 2020, and International Application No. 62/964,148, entitled “Untethered Stereo Vision Camera System,” filed January 6, 2021, and entitled “Non-Rigid Stereo Vision Camera System.” This is a partial continuation application of PCT/US2021/12294. The entire contents of these applications are incorporated herein by reference.

발명의 분야field of invention

본 발명의 기술은 스테레오 비전 시스템들에 관한 것이다. 특히, 본 기술은 장면의 이미지들을 캡처하고 이차원("2D") 이미지 데이터, 장면 내의 객체들까지의 거리들에 관한 깊이-추정 데이터, 및 깊이-추정 데이터의 확실성의 레벨에 관한 신뢰도 데이터를 출력하는 스테레오 비전 시스템(예를 들어, 스테레오 카메라 시스템)에 관한 것이다.The present technology relates to stereo vision systems. In particular, the technology captures images of a scene and outputs two-dimensional (“2D”) image data, depth-estimate data regarding distances to objects in the scene, and confidence data regarding the level of certainty of the depth-estimate data. It relates to a stereo vision system (e.g., a stereo camera system).

스테레오 비전 시스템들은 통상적으로 2개의 카메라들(예를 들어, 좌측 및 우측 카메라들)을 사용하여 좌측 카메라에 의해 캡처된 이미지 및 우측 카메라에 의해 캡처된 이미지의 매칭 픽셀들 사이의 차이(disparity) 또는 시차를 측정하는 것에 의해 거리를 추정한다. 예를 들어, US8208716B2는 카메라들 중 하나(종종 좌측 카메라)에 의해 캡처된 교정된 이미지에 대응하는 픽셀-시프트 데이터를 포함하는 2D 행렬인 차이 맵을 출력하는 스테레오 비전 시스템 및 방법을 개시한다. 카메라로부터 픽셀에서 이미징된 객체까지의 거리에 대응하는 이미지의 각각의 픽셀에 대한 깊이의 추정치는 픽셀의 깊이가 픽셀의 차이에 반비례하기 때문에 차이 맵으로부터 쉽게 계산될 수 있다. 이와 같이, 용어들 "깊이 맵" 및 "차이 맵"은, 이들이 이미지의 장면에 관해 거의 동일한 정보를 제공하기 때문에, 본 명세서에서 교환 가능하게 사용될 수 있다.Stereo vision systems typically use two cameras (e.g., left and right cameras) to measure the disparity, or difference, between matching pixels of the image captured by the left camera and the image captured by the right camera. Distance is estimated by measuring parallax. For example, US8208716B2 discloses a stereo vision system and method that outputs a difference map, which is a 2D matrix containing pixel-shift data corresponding to a calibrated image captured by one of the cameras (often the left camera). An estimate of the depth for each pixel in the image, corresponding to the distance from the camera to the imaged object in the pixel, can be easily calculated from the difference map because the depth of a pixel is inversely proportional to the difference between pixels. As such, the terms “depth map” and “difference map” may be used interchangeably herein because they provide much the same information about the scene in the image.

기존의 스테레오 비전 시스템들에서의 문제는 깊이 추정치들이 통상적으로 추정치들이 픽셀별 기반으로 또는 심지어 프레임별 기반으로 얼마나 신뢰성있는지(또는 신뢰할 수 없는지)에 대한 표시 없이 제공된다는 것이다. 종래의 운전자 보조 시스템들에서, 차량을 정지시키거나 조종하는 자동화된 결정은 센서들 중 임의의 것으로부터의 정보의 신뢰성에 대한 지식 없이 다수의 센서들(예를 들어, 레이더, 라이다, 카메라들 등)로부터의 정보에 기초하여 행해질 수 있다. 이는 운전자 보조 시스템들이 불필요한 절차들(예를 들어, 지나치게 낮은 속도로 이동하는 것, 지나치게 빈번하게 제동하는 것 등)을 수행함으로써 센서들로부터의 상충되는 정보의 불확실성을 과다보상하게 하여 승객 편안함을 감소시킬 수 있거나, 운전자 보조 시스템들이 임의적으로 하나의 센서를 다른 센서보다 더 많이 선택함으로써 상충되는 정보의 불확실성을 과소보상하여 승객 위험을 증가시킬 수 있다. 이해할 수 있는 바와 같이, 운전자 보조 시스템들에 의해 구성된 결정들은 승객 안전에 크게 영향을 줄 수 있고, 때때로, 중요한 생명이 달린 판정들일 수 있다. 예를 들어, 차량이 고속도로 운전에 전형적인 순항 속도로 이동하고 있을 때, 객체까지의 거리에 대한 정확한 지식은 순항 속도를 유지하거나 거의 유지하면서 객체를 타격하는 것을 피하도록 운전자 보조 시스템이 차량을 어떻게 제어할지에 중요할 수 있다.A problem with existing stereo vision systems is that depth estimates are typically provided without any indication of how reliable (or unreliable) the estimates are on a per-pixel basis or even on a frame-by-frame basis. In conventional driver assistance systems, automated decisions to stop or steer the vehicle are made using multiple sensors (e.g., radar, lidar, cameras) without knowledge of the reliability of information from any of the sensors. etc.) can be done based on information from. This causes driver assistance systems to overcompensate for the uncertainty of conflicting information from sensors by performing unnecessary procedures (e.g. traveling at too low speeds, braking too frequently, etc.), reducing passenger comfort. Alternatively, driver assistance systems may arbitrarily select one sensor over another, undercompensating for the uncertainty of conflicting information and increasing passenger risk. As can be appreciated, decisions made by driver assistance systems can greatly affect passenger safety and, at times, can be critical life-staking decisions. For example, when a vehicle is traveling at a cruising speed typical of highway driving, accurate knowledge of the distance to an object determines how the driver assistance system will control the vehicle to avoid hitting the object while maintaining or nearly maintaining cruising speed. It may be important to decide whether to

자율 차량들 및 진보된 운전자 보조 시스템들은 차량의 주변들에 관한 정보를 획득하기 위해, 차량의 제어 시스템이 차량을 어떻게 조종할지, 차량의 속도를 어떻게 조절할지(예를 들어, 가속할지 또는 감속할지), 안전 조치들을 전개할지(예를 들어, 경고 점멸등을 켤지) 여부 등에 관한 판정들을 할 수 있게 하기 위해, 다양한 타입의 센서들(예를 들어, 라이다, 레이더, 카메라, 초음파, 스테레오 카메라 등)로부터의 정보를 사용할 수 있다. 이해할 수 있는 바와 같이, 차량의 제어 시스템은 수십 개의 전자 제어 모듈들 또는 유닛들("ECU들"), 및 일부 경우들에서, 100개가 넘는 ECU들을 포함할 수 있고, 각각의 ECU는 차량 동작의 양태를 제어한다(예를 들어, 속도 제어 ECU, 브레이크 제어 ECU, 송신 제어 ECU, 엔진 제어 ECU, 배터리 관리 ECU 등).Autonomous vehicles and advanced driver assistance systems use the vehicle's control system to obtain information about the vehicle's surroundings to determine how to steer the vehicle and how to adjust the vehicle's speed (e.g., whether to accelerate or decelerate). ), various types of sensors (e.g. lidar, radar, cameras, ultrasonic, stereo cameras, etc.) to be able to make decisions about whether to deploy safety measures (e.g. to turn on warning flashers), etc. ) can be used. As will be appreciated, a vehicle's control system may include dozens of electronic control modules or units (“ECUs”), and in some cases, more than 100 ECUs, each ECU responsible for controlling the operation of the vehicle. Control aspects (e.g., speed control ECU, brake control ECU, transmission control ECU, engine control ECU, battery management ECU, etc.).

본 발명자들은, 상이한 타입의 센서들로부터의 데이터를 최상으로 융합하거나 조합하기 위해, 센서들 각각으로부터의 측정들의 신뢰도 또는 확실성의 레벨을 아는 것이 중요하다는 것을 인식하고 이해하였다. 본 기술의 일부 양태들에서, 이미지들의 쌍에 나타나는 특징까지의 거리를 나타내는 고해상도 깊이 정보는 이미지들의 쌍의 스테레오 매칭을 통해 결정될 수 있다. 스테레오 매칭은 차이 특징들, 이전 이미지들, 비용 곡선들, 및 로컬 속성들 중 임의의 하나 또는 임의의 조합에 기초하여 거리 확실성 정보를 제공하도록 수행될 수 있다. 거리 확실성 정보는 깊이 정보의 신뢰성이 평가될 수 있게 함으로써 센서 융합에서의 문제를 최소화하거나 제거하기 위해 사용될 수 있고, 따라서 깊이 정보를 사용하여 이루어지는 판정들의 안전도를 증가시킬 수 있다.The present inventors have recognized and understood that in order to best fuse or combine data from different types of sensors, it is important to know the level of reliability or certainty of measurements from each of the sensors. In some aspects of the present technology, high-resolution depth information indicating the distance to a feature appearing in a pair of images may be determined through stereo matching of the pair of images. Stereo matching may be performed to provide distance certainty information based on any one or any combination of difference features, previous images, cost curves, and local attributes. Range certainty information can be used to minimize or eliminate problems in sensor fusion by allowing the reliability of depth information to be evaluated, thereby increasing the safety of decisions made using depth information.

본 기술의 일 양태에 따르면, 감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템이 제공된다. 시스템은 컴퓨터 프로세서 및 컴퓨터 프로세서에 결합된 메모리로 구성된 차량 제어 시스템; 및 장면의 제1 이미지 데이터를 수신하고, 제1 이미지 데이터에 기초하여 제1 차이 맵 및 제1 신뢰도 맵을 출력하도록 구성된 제1 센서 시스템으로 구성될 수 있다. 차량 제어 시스템은 제1 센서 시스템으로부터 제1 차이 맵 및 제1 신뢰도 맵을 수신하고, 제1 차이 맵 및 제1 신뢰도 맵으로 구성된 비디오 스트림을 출력하도록 구성될 수 있다.According to one aspect of the present technology, an automated vehicle assistance system for supervised or unsupervised vehicle movement is provided. The system includes a vehicle control system consisting of a computer processor and a memory coupled to the computer processor; and a first sensor system configured to receive first image data of the scene and output a first difference map and a first confidence map based on the first image data. The vehicle control system may be configured to receive a first difference map and a first confidence map from the first sensor system and output a video stream consisting of the first difference map and the first confidence map.

이 양태의 일부 실시예에서, 비디오 스트림에서, 제1 신뢰도 맵은 제1 차이 맵의 일부가 되도록 인코딩될 수 있다. 일부 실시예들에서, 차이 맵은 픽셀들 각각에 대한 차이 데이터로 구성될 수 있고, 신뢰도 맵은 픽셀들 각각에 대한 신뢰도 데이터로 구성될 수 있다. 일부 실시예들에서, 제1 이미지 데이터는 좌측 및 우측 이차원(2D) 제1 이미지들에 대한 데이터로 구성될 수 있고, 제1 센서 시스템은 제1 이미지 데이터로부터 좌측 및 우측(2D) 교정된 제1 이미지들 및 제1 비용 볼륨 맵을 생성하도록 구성될 수 있고, 제1 센서 시스템은 2D 교정된 제1 이미지들, 제1 차이 맵, 및 제1 비용 볼륨 맵으로부터 제1 신뢰도 맵을 생성하도록 구성될 수 있다. 일부 실시예들에서, 제1 센서 시스템은 세미-글로벌 매칭(SGM) 알고리즘으로부터 결정된 고유성 값, 및 제1 이미지 데이터에 대한 소벨 연산으로부터 결정된 이미지 텍스처 메트릭 중 하나 또는 양자 모두에 기초하여 제1 신뢰도 맵을 생성하도록 구성될 수 있다.In some embodiments of this aspect, in a video stream, a first confidence map may be encoded to be part of a first difference map. In some embodiments, the difference map may consist of difference data for each of the pixels, and the confidence map may consist of reliability data for each of the pixels. In some embodiments, the first image data may consist of data for left and right two-dimensional (2D) first images, and the first sensor system may provide left and right (2D) calibrated first images from the first image data. 1 images and a first cost volume map, wherein the first sensor system is configured to generate a first confidence map from the 2D calibrated first images, a first difference map, and a first cost volume map. It can be. In some embodiments, the first sensor system generates a first confidence map based on one or both of a uniqueness value determined from a semi-global matching (SGM) algorithm and an image texture metric determined from a Sobel operation on the first image data. Can be configured to generate.

이 양태의 일부 실시예들에서, 차량 보조 시스템은 장면의 적어도 일부의 제2 이미지 데이터를 수신하고 제2 이미지 데이터에 기초하여 제2 신뢰도 맵을 출력하도록 구성된 제2 센서 시스템으로 추가로 구성될 수 있다. 차량 제어 시스템은 제2 센서 시스템으로부터 제2 신뢰도 맵을 수신하고, 비디오 스트림을 슈퍼 프레임들의 시퀀스로서 출력하도록- 각각의 슈퍼 프레임은 제1 차이 맵, 제1 신뢰도 맵 및 제2 신뢰도 맵에 기초한 정보로 구성됨 -구성된다. 일부 실시예들에서, 차량 제어 시스템은 비디오 스트림의 정보에 기초하여 차량의 전자 제어 유닛(ECU)에 제어 신호를 출력하도록 구성될 수 있다. 일부 실시예들에서, 제1 센서 시스템은 제1 이미지 데이터를 처리하여 제1 차이 맵 및 제1 신뢰도 맵을 생성하도록 구성된 제1 센서 모듈일 수 있고, 제2 센서 시스템은 제2 이미지 데이터를 처리하여 제2 신뢰도 맵을 생성하도록 구성된 제2 센서 모듈일 수 있고, 제1 및 제2 센서 모듈은 메모리에 저장될 수 있고, 컴퓨터 프로세서는 제1 센서 모듈 및 제2 센서 모듈을 실행하도록 구성될 수 있다. 일부 실시예들에서, 비디오 스트림은 제1 차이 맵과 제1 신뢰도 맵으로 구성된 적어도 하나의 슈퍼 프레임과, 제1 차이 맵과 제2 신뢰도 맵으로 구성된 적어도 하나의 슈퍼 프레임으로 구성될 수 있다. 일부 실시예들에서, 비디오 스트림은 제1 신뢰도 맵의 일부 및 제2 신뢰도 맵의 일부로 구성된 적어도 하나의 슈퍼 프레임으로 구성될 수 있다. 일부 실시예들에서, 제1 이미지 데이터는 스테레오-비전 데이터로 구성될 수 있고, 제2 이미지 데이터는 라이다 데이터로 구성될 수 있다.In some embodiments of this aspect, the vehicle assistance system may be further configured with a second sensor system configured to receive second image data of at least a portion of the scene and output a second confidence map based on the second image data. there is. The vehicle control system receives the second confidence map from the second sensor system and outputs the video stream as a sequence of super frames, each super frame containing information based on the first difference map, the first confidence map and the second confidence map. consists of - consists of. In some embodiments, a vehicle control system may be configured to output a control signal to the vehicle's electronic control unit (ECU) based on information in the video stream. In some embodiments, the first sensor system may be a first sensor module configured to process the first image data to generate a first difference map and a first confidence map, and the second sensor system may be configured to process the second image data. may be a second sensor module configured to generate a second reliability map, the first and second sensor modules may be stored in a memory, and the computer processor may be configured to execute the first sensor module and the second sensor module. there is. In some embodiments, a video stream may be comprised of at least one super frame comprised of a first difference map and a first reliability map, and at least one super frame comprised of a first difference map and a second reliability map. In some embodiments, a video stream may consist of at least one super frame comprised of a portion of a first reliability map and a portion of a second reliability map. In some embodiments, the first image data may consist of stereo-vision data and the second image data may consist of LIDAR data.

이 양태의 일부 실시예들에서, 차량 보조 시스템은 장면의 적어도 일부의 제3 이미지 데이터를 수신하고 제3 이미지 데이터에 기초하여 제3 신뢰도 맵을 출력하도록 구성된 제3 센서 시스템으로 추가로 구성될 수 있다. 제3 이미지 데이터는 레이더 데이터 또는 음향 데이터로 구성된다.In some embodiments of this aspect, the vehicle assistance system may be further configured with a third sensor system configured to receive third image data of at least a portion of the scene and output a third confidence map based on the third image data. there is. The third image data consists of radar data or acoustic data.

이 양태의 일부 실시예들에서, 비디오 스트림의 각각의 슈퍼 프레임은 장면의 이차원(2D) 이미지, 장면의 깊이 맵, 및 장면의 확실성 맵으로 구성될 수 있다. 일부 실시예들에서, 장면의 확실성 맵은 제1 신뢰도 맵 또는 제2 신뢰도 맵 또는 제1 및 제2 신뢰도 맵들의 조합으로 구성될 수 있다. 일부 실시예들에서, 장면의 깊이 맵은 장면의 2D 이미지에 대응하는 이미지 데이터로 변조된 제1 차이 맵으로 구성될 수 있고, 장면의 확실성 맵은 제1 신뢰도 맵 또는 제2 신뢰도 맵, 또는 장면의 2D 이미지에 대응하는 이미지 데이터로 변조된 제1 및 제2 신뢰도 맵들의 조합으로 구성될 수 있다. 일부 실시예들에서, 장면의 2D 이미지의 픽셀들, 장면의 깊이 맵의 픽셀들, 및 장면의 확실성 맵의 픽셀들은 시간적으로 그리고 공간적으로 매칭될 수 있다. 일부 실시예들에서, 차량 제어 시스템은 비디오 스트림의 데이터 크기를 감소시키기 위해 제1 차이 맵으로부터의 차이 정보와 제1 및 제2 신뢰도 맵으로부터의 신뢰도 정보를 인코딩하도록 구성될 수 있다.In some embodiments of this aspect, each super frame of the video stream may be comprised of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene. In some embodiments, the certainty map of the scene may consist of a first confidence map or a second confidence map or a combination of the first and second confidence maps. In some embodiments, the depth map of the scene may consist of a first difference map modulated with image data corresponding to a 2D image of the scene, and the certainty map of the scene may be a first confidence map or a second confidence map, or a first confidence map of the scene. It may be composed of a combination of first and second reliability maps modulated with image data corresponding to the 2D image. In some embodiments, pixels of a 2D image of a scene, pixels of a depth map of a scene, and pixels of a certainty map of a scene may be matched temporally and spatially. In some embodiments, the vehicle control system can be configured to encode difference information from the first difference map and reliability information from the first and second reliability maps to reduce the data size of the video stream.

이 양태의 일부 실시예들에서, 차량 보조 시스템은 차량에 장착되도록 구성된 한 쌍의 카메라들로 추가로 구성될 수 있다. 카메라들은 제1 이미지 데이터를 제1 센서 시스템에 제공하도록 구성될 수 있다.In some embodiments of this aspect, the vehicle assistance system may further consist of a pair of cameras configured to be mounted on the vehicle. The cameras may be configured to provide first image data to the first sensor system.

이 양태의 일부 실시예들에서, 비디오 스트림은 이차원(2D) 컬러 이미지들로 구성될 수 있고, 각각의 2D 컬러 이미지는 복수의 픽셀로 구성되고, 각각의 픽셀의 알파-채널 투명도는 픽셀에 대한 신뢰도 값에 비례한다. 일부 실시예에서, 2D 컬러 이미지의 컬러는 깊이 범위를 나타낼 수 있다.In some embodiments of this aspect, the video stream may consist of two-dimensional (2D) color images, each 2D color image consisting of a plurality of pixels, and the alpha-channel transparency of each pixel may be It is proportional to the reliability value. In some embodiments, the colors of a 2D color image may indicate depth range.

본 기술의 다른 양태에 따르면, 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금 감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템의 방법을 수행하게 하는 코드가 저장된 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 이 방법은 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵을 획득하는 단계- 제1 차이 맵과 제1 신뢰도 맵은 장면의 제1 이미지 데이터에 대응함 -, 및 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵으로 구성된 비디오 스트림을 출력하는 단계로 구성될 수 있다.According to another aspect of the present technology, there is provided a non-transitory computer-readable storage medium storing code that, when executed by a computer processor, causes the computer processor to perform a method of an automated vehicle assistance system for supervised or unsupervised vehicle movement. do. The method includes obtaining, by a computer processor, a first difference map and a first confidence map, wherein the first difference map and the first confidence map correspond to first image data of the scene, and obtaining, by the computer processor, a first difference map and a first confidence map. 1 It may consist of outputting a video stream composed of a reliability map.

이 양태의 일부 실시예에서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 신뢰도 맵을 제1 차이 맵의 일부가 되도록 인코딩하는 단계로 구성될 수 있다. 일부 실시예들에서, 제1 이미지 데이터는 복수의 픽셀로 구성될 수 있고, 차이 맵은 픽셀들 각각에 대한 차이 데이터로 구성될 수 있고, 신뢰도 맵은 픽셀들 각각에 대한 신뢰도 데이터로 구성될 수 있다. 일부 실시예들에서, 방법은 컴퓨터 프로세서가 장면의 적어도 일부의 제2 이미지 데이터에 대응하는 제2 신뢰도 맵을 획득하고, 컴퓨터 프로세서가 비디오 스트림을 슈퍼 프레임들의 시퀀스로서 출력하는 단계- 각각의 슈퍼 프레임은 제1 차이 맵, 제1 신뢰도 맵 및 제2 신뢰도 맵에 기초한 정보로 구성됨 -를 더 포함할 수 있다. 일부 실시예들에서, 방법은 컴퓨터 프로세서가 비디오 스트림의 정보에 기초하여 차량의 전자 제어 유닛(ECU)에 제어 신호를 출력하는 단계로 추가로 구성될 수 있다. 일부 실시예들에서, 방법은 컴퓨터 프로세서가 제1 이미지 데이터를 처리하여 제1 차이 맵 및 제1 신뢰도 맵을 획득하고, 컴퓨터 프로세서가 제2 이미지 데이터를 처리하여 제2 신뢰도 맵을 획득하는 단계로 추가로 구성될 수 있다.In some embodiments of this aspect, outputting the video stream may consist of the computer processor encoding the first confidence map to be part of the first difference map. In some embodiments, the first image data may consist of a plurality of pixels, the difference map may consist of difference data for each of the pixels, and the reliability map may consist of reliability data for each of the pixels. there is. In some embodiments, the method includes the computer processor obtaining a second confidence map corresponding to second image data of at least a portion of the scene, the computer processor outputting the video stream as a sequence of super frames, each super frame may further include - consisting of information based on the first difference map, the first reliability map, and the second reliability map. In some embodiments, the method may further consist of the computer processor outputting a control signal to the vehicle's electronic control unit (ECU) based on information in the video stream. In some embodiments, the method includes the computer processor processing the first image data to obtain a first difference map and the first confidence map, and the computer processor processing the second image data to obtain the second confidence map. It may be configured additionally.

이 양태의 일부 실시예들에서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵을 포함하는 적어도 하나의 슈퍼 프레임을 준비하고, 컴퓨터 프로세서가 제1 차이 맵과 제2 신뢰도 맵을 포함하는 적어도 하나의 슈퍼 프레임을 준비하는 단계로 구성될 수 있다. 일부 실시예들에서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 신뢰도 맵의 일부 및 제2 신뢰도 맵의 일부로 구성된 적어도 하나의 슈퍼 프레임을 준비하는 단계로 추가로 구성될 수 있다. 일부 실시예들에서, 제1 이미지 데이터는 스테레오-비전 데이터로 구성될 수 있고, 제2 이미지 데이터는 라이다 데이터 또는 레이더 데이터 또는 음향 데이터로 구성될 수 있다.In some embodiments of this aspect, the step of outputting the video stream may include: the computer processor preparing at least one super frame including the first difference map and the first confidence map, and the computer processor preparing the first difference map and the second confidence map. It may consist of preparing at least one super frame including a map. In some embodiments, outputting the video stream may further consist of the computer processor preparing at least one super frame comprised of a portion of the first reliability map and a portion of the second reliability map. In some embodiments, the first image data may consist of stereo-vision data, and the second image data may consist of LIDAR data, radar data, or acoustic data.

이 양태의 일부 실시예들에서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 비디오 스트림의 각각의 슈퍼 프레임을 준비하는 단계로 구성될 수 있고, 비디오 스트림의 각각의 슈퍼 프레임은 장면의 이차원(2D) 이미지, 장면의 깊이 맵, 및 장면의 확실성 맵으로 구성될 수 있다. 일부 실시예에서, 컴퓨터 프로세서에 의한 각각의 슈퍼 프레임의 준비는, 장면의 2D 이미지의 시간적으로 및 공간적으로 매칭하는 픽셀들, 장면의 깊이 맵의 픽셀들, 및 장면의 확실성 맵의 픽셀들로 구성될 수 있다. 일부 실시예에서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 비디오 스트림의 데이터 크기를 감소시키기 위해 제1 차이 맵으로부터의 인코드 차이 정보와 제1 및 제2 신뢰도 맵으로부터의 신뢰도 정보를 인코딩하는 단계로 구성될 수 있다. 일부 실시예에서, 비디오 스트림의 출력 단계는 다음과 같이 이차원(2D) 컬러 이미지를 준비하는 단계를 포함할 수 있다: 각각의 2D 컬러 이미지는 복수의 픽셀로 구성되고, 각각의 픽셀의 알파-채널 투명도는 픽셀에 대한 신뢰도 값에 비례하고, 2D 컬러 이미지의 컬러는 깊이 범위를 나타낸다.In some embodiments of this aspect, outputting the video stream may consist of the computer processor preparing each super frame of the video stream, wherein each super frame of the video stream is a two-dimensional (2D) image of the scene. , a depth map of the scene, and a certainty map of the scene. In some embodiments, the preparation of each super frame by a computer processor consists of temporally and spatially matching pixels of a 2D image of the scene, pixels of a depth map of the scene, and pixels of a certainty map of the scene. It can be. In some embodiments, outputting the video stream comprises the computer processor encoding the encode difference information from the first difference map and the reliability information from the first and second reliability maps to reduce the data size of the video stream. It can be configured. In some embodiments, outputting a video stream may include preparing a two-dimensional (2D) color image as follows: each 2D color image consisting of a plurality of pixels, and the alpha-channel of each pixel. Transparency is proportional to the confidence value for the pixel, and the color of a 2D color image represents the depth range.

본 기술의 또 다른 양태에 따르면, 스테레오 비전 시스템이 제공된다. 시스템은 이미지들의 쌍들의 시퀀스를 캡처하도록 구성된 스테레오 카메라 시스템- 이미지들의 각각의 쌍은 동시에 캡처된 제1 이미지 및 제2 이미지를 포함함 -; 스테레오 카메라 시스템으로부터 이미지 데이터의 스트림을 수신하도록 프로그램된 컴퓨터 프로세서- 이미지 데이터는 이미지들의 쌍들의 시퀀스에 대응함 -로 구성될 수 있다. 컴퓨터 프로세서는 또한 이미지들의 쌍들 각각에 대해, 제1 및 제2 이미지들을 교정하여 매칭된 픽셀들의 이차원(2D) 픽셀 맵을 생성하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값을 결정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값에 대한 신뢰도 값을 결정하도록 프로그램될 수 있다. 컴퓨터 프로세서는 또한 신뢰도 값들 중 적어도 하나가 이미지 이상을 나타낼 때 제어 신호를 발행하도록 프로그래밍될 수 있다.According to another aspect of the present technology, a stereo vision system is provided. The system includes a stereo camera system configured to capture a sequence of pairs of images, each pair of images including a first image and a second image captured simultaneously; It may consist of a computer processor programmed to receive a stream of image data from a stereo camera system, where the image data corresponds to a sequence of pairs of images. The computer processor may also be configured to, for each pair of images, calibrate the first and second images to generate a two-dimensional (2D) pixel map of the matched pixels, determine a depth value for each pixel of the pixel map, and configure the pixel map. Can be programmed to determine a confidence value for the depth value for each pixel. The computer processor may also be programmed to issue a control signal when at least one of the confidence values indicates an image anomaly.

이 양태의 일부 실시예들에서, 이미지 이상은 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 부분의 하나 이상의 픽셀에 대응할 수 있다. 일부 실시예들에서, 이미지 이상은 시퀀스의 2개 이상의 연속적인 이미지 쌍에 대해 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 일부의 하나 이상의 픽셀에 대응할 수 있다. 일부 실시예들에서, 이미지 이상은 신뢰도 맵의 연속 영역의 복수의 픽셀로 구성될 수 있다. 일부 실시예들에서, 제어 신호는 가청 사운드를 유발하도록 구성될 수 있고, 이는 사전 기록된 메시지일 수 있다. 일부 실시예들에서, 제어 신호는 차량의 엔진 제어 모듈에 발행될 수 있다. 일부 실시예들에서, 픽셀 맵의 각각의 픽셀에 대해, 신뢰도 값은 픽셀 내의 에지의 존재 또는 부재, 픽셀의 조도 레벨, 및 픽셀 맵이 생성되는 제1 및 제2 이미지들의 텍스처 값에 기초하여 결정될 수 있다.In some embodiments of this aspect, an image anomaly may correspond to one or more pixels in a portion of the confidence map that have a confidence value below a predetermined threshold. In some embodiments, an image anomaly may correspond to one or more pixels that are part of a confidence map that have confidence values below a predetermined threshold for two or more consecutive image pairs in the sequence. In some embodiments, an image anomaly may consist of a plurality of pixels in a contiguous region of the confidence map. In some embodiments, the control signal may be configured to cause an audible sound, which may be a pre-recorded message. In some embodiments, a control signal may be issued to the vehicle's engine control module. In some embodiments, for each pixel in the pixel map, a confidence value may be determined based on the presence or absence of an edge within the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixel map is generated. You can.

이 양태의 일부 실시예들에서, 컴퓨터 프로세서는 이미지들의 쌍들의 시퀀스에 대응하는 슈퍼 프레임들의 시퀀스를 출력하도록 프로그래밍될 수 있고, 슈퍼 프레임들 각각은 2D 이미지 및 2D 이미지에 대응하는 신뢰도 맵으로 구성된다. 일부 실시예들에서, 2D 이미지는 제1 이미지 또는 제2 이미지일 수 있다. 일부 실시예들에서, 컴퓨터 프로세서는 디스플레이가 2D 이미지 및 신뢰도 맵에 대응하는 가시적인 신뢰도 표시자를 보여주게 하는 디스플레이 신호로서 슈퍼 프레임들의 시퀀스를 출력하도록 프로그래밍될 수 있다. 디스플레이 신호는 신뢰도 표시자가 2D 이미지의 각각의 픽셀의 투명도로서 픽셀별 기반으로 디스플레이되게 할 수 있다. 일부 실시예에서, 각각의 슈퍼 프레임은 2D 이미지, 신뢰도 맵, 및 2D 이미지에 대응하는 차이 맵으로 구성될 수 있다.In some embodiments of this aspect, a computer processor can be programmed to output a sequence of super frames corresponding to a sequence of pairs of images, each of the super frames consisting of a 2D image and a confidence map corresponding to the 2D image. . In some embodiments, the 2D image may be a first image or a second image. In some embodiments, a computer processor can be programmed to output a sequence of super frames as a display signal that causes the display to show a 2D image and a visible confidence indicator corresponding to the confidence map. The display signal may cause the confidence indicator to be displayed on a pixel-by-pixel basis as the transparency of each pixel of the 2D image. In some embodiments, each super frame may consist of a 2D image, a confidence map, and a difference map corresponding to the 2D image.

본 기술의 또 다른 양태에 따르면, 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금, 스테레오 비전 시스템의 방법을 수행하게 하는 코드가 저장된 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 이 방법은 컴퓨터 프로세서가 스테레오 카메라 시스템으로부터 이미지 데이터의 스트림을 수신하는 단계- 이미지 데이터는 이미지들의 쌍들의 시퀀스에 대응하고, 각각의 이미지 쌍은 동시에 캡처된 제1 이미지 및 제2 이미지를 포함함 -; 이미지들의 쌍들 각각에 대해, 컴퓨터 프로세서가 매칭된 픽셀들의 이차원(2D) 픽셀 맵을 생성하기 위해 제1 및 제2 이미지를 교정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값을 결정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값에 대한 신뢰도 값을 결정하는 단계; 및 컴퓨터 프로세서가 신뢰도 맵들 중 적어도 하나가 이미지 이상을 나타낼 때 제어 신호를 발행하는 단계로 구성될 수 있다.According to another aspect of the present technology, a non-transitory computer-readable storage medium is provided having code stored thereon that, when executed by a computer processor, causes the computer processor to perform a method of a stereo vision system. The method includes the steps of a computer processor receiving a stream of image data from a stereo camera system, wherein the image data corresponds to a sequence of pairs of images, each image pair comprising a first image and a second image captured simultaneously. ; For each pair of images, a computer processor calibrates the first and second images to generate a two-dimensional (2D) pixel map of the matched pixels, determines a depth value for each pixel of the pixel map, and generates a pixel map. determining a confidence value for a depth value for each pixel in; and issuing, by the computer processor, a control signal when at least one of the reliability maps indicates an image abnormality.

이 양태의 일부 실시예들에서, 이미지 이상은 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 부분의 하나 이상의 픽셀에 대응할 수 있다. 일부 실시예들에서, 이미지 이상은 시퀀스의 2개 이상의 연속적인 이미지 쌍에 대해 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 일부의 하나 이상의 픽셀에 대응할 수 있다. 일부 실시예들에서, 이미지 이상은 신뢰도 맵의 연속 영역의 복수의 픽셀로 구성될 수 있다.In some embodiments of this aspect, an image anomaly may correspond to one or more pixels in a portion of the confidence map that have a confidence value below a predetermined threshold. In some embodiments, an image anomaly may correspond to one or more pixels that are part of a confidence map that have confidence values below a predetermined threshold for two or more consecutive image pairs in the sequence. In some embodiments, an image anomaly may consist of a plurality of pixels in a contiguous region of the confidence map.

이 양태의 일부 실시예들에서, 제어 신호는 가청 사운드를 생성하도록 구성될 수 있다. 예를 들어, 가청 사운드는 사전 기록된 메시지일 수 있다. 일부 실시예들에서, 제어 신호는 차량의 엔진 제어 모듈에 발행될 수 있다. 일부 실시예들에서, 픽셀 맵의 각각의 픽셀에 대해, 신뢰도 값은 픽셀 내의 에지의 존재 또는 부재, 픽셀의 조도 레벨, 및 픽셀 맵이 생성되는 제1 및 제2 이미지들의 텍스처 값에 기초하여 결정될 수 있다.In some embodiments of this aspect, the control signal can be configured to generate an audible sound. For example, an audible sound may be a pre-recorded message. In some embodiments, a control signal may be issued to the vehicle's engine control module. In some embodiments, for each pixel in the pixel map, a confidence value may be determined based on the presence or absence of an edge within the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixel map is generated. You can.

이 양태의 일부 실시예들에서, 본 방법은 컴퓨터 프로세서가 이미지들의 쌍들의 시퀀스에 대응하는 슈퍼 프레임들의 시퀀스를 출력하는 단계로 추가로 구성될 수 있으며, 슈퍼 프레임들 각각은 2D 이미지, 2D 이미지에 대응하는 차이 맵, 및 2D 이미지에 대응하는 신뢰도 맵으로 구성된다. 일부 실시예들에서, 2D 이미지는 제1 이미지 또는 제2 이미지일 수 있다. 일부 실시예들에서, 슈퍼 프레임들의 시퀀스의 출력 단계는 디스플레이가 2D 이미지 및 신뢰도 맵에 대응하는 가시적인 신뢰도 표시자를 보여주게 하는 디스플레이 신호를 출력하는 단계로 구성될 수 있다. 일부 실시예들에서, 디스플레이 신호는 신뢰도 표시자가 2D 이미지의 각각의 픽셀의 투명도로서 픽셀별 기반으로 디스플레이되게 할 수 있다. 일부 실시예에서, 각각의 슈퍼 프레임은 2D 이미지, 신뢰도 맵, 및 2D 이미지에 대응하는 차이 맵으로 구성될 수 있다.In some embodiments of this aspect, the method may further comprise the computer processor outputting a sequence of super frames corresponding to the sequence of pairs of images, each of the super frames being a 2D image, the 2D image It consists of a corresponding difference map and a confidence map corresponding to the 2D image. In some embodiments, the 2D image may be a first image or a second image. In some embodiments, outputting the sequence of super frames may consist of outputting a display signal that causes the display to show a 2D image and a visible confidence indicator corresponding to the confidence map. In some embodiments, the display signal may cause the confidence indicator to be displayed on a per-pixel basis as the transparency of each pixel of the 2D image. In some embodiments, each super frame may consist of a 2D image, a confidence map, and a difference map corresponding to the 2D image.

전술한 특징들은 본 명세서에서 논의된 실시예들 중 임의의 실시예에서 개별적으로 또는 임의의 조합으로 함께 사용될 수 있다.The above-described features may be used individually or together in any combination in any of the embodiments discussed herein.

본 명세서에 개시된 본 기술의 다양한 양태들 및 실시예들이 첨부 도면들을 참조하여 후술된다. 도면들은 반드시 축척에 따라 그려진 것은 아니라는 것을 이해해야 한다. 다수의 도면에 나타나는 항목들은 동일한 참조 번호로 표시될 수 있다. 명료성을 위해, 모든 도면에서 모든 컴포넌트가 표시되지는 않을 수 있다. 첨부 도면들 중 적어도 하나는 아래에 표시되는 바와 같이 적어도 부분적으로 컬러로 작성된다.
도 1은 본 기술의 일부 실시예들에 따른, 스테레오 비전 시스템의 블록도를 도시한다.
도 2는 본 기술의 일부 실시예들에 따른, 차량에 배열된 센서들 및 전자 제어 유닛들의 배열을 도시한다.
도 3은 본 기술의 일부 실시예들에 따른, 제어 시스템에 결합된 스테레오 비전 시스템의 블록도를 도시한다.
도 4a는 본 기술의 일부 실시예들에 따라, 비용 볼륨이 어떻게 결정될 수 있는지를 이해하기 위한 도면을 도시한다.
도 4b는 본 기술의 일부 실시예들에 따른, 본 기술의 일부 실시예들에 따른, 비용 곡선의 예를 도시한다.
도 5는 본 기술의 일부 실시예들에 따라, 신뢰도 처리 절차에 의해 수행되는 프로세스들을 도시하는 도면이다.
도 6은 본 기술의 일부 실시예에 따른 비디오 스트림 및 비디오 스트림의 슈퍼 프레임의 예를 도시한다. 도 6의 부분들은 컬러이다.
도 7a 내지 도 7f는 본 기술의 일부 실시예들에 따라, 비디오 스트림에 포함될 수 있는 상이한 타입들의 슈퍼 프레임들의 예들을 도시하고 있다.
도 8a는 본 기술의 일부 실시예들에 따른, 센서에 의해 캡처된 장면을 조명하는 것을 포함하는 빔 영역을 개략적으로 도시한다.
도 8b는 본 기술의 일부 실시예들에 따른, 장면의 캡처된 이미지에서 객체들에 대한 단면적과 범위 사이의 관계를 도시하는 그래프이다.
도 9a 및 도 9b는 각각 본 기술의 일부 실시예들에 따른 차이 맵 및 신뢰도 맵의 예들을 도시한다. 도 9a의 부분들은 컬러이다.
Various aspects and embodiments of the technology disclosed herein are described below with reference to the accompanying drawings. It should be understood that the drawings are not necessarily drawn to scale. Items appearing in multiple drawings may be indicated by the same reference number. For clarity, not all components may be shown in all drawings. At least one of the accompanying drawings is at least partially in color, as indicated below.
1 shows a block diagram of a stereo vision system, according to some embodiments of the present technology.
2 shows an arrangement of sensors and electronic control units arranged in a vehicle, according to some embodiments of the present technology.
3 shows a block diagram of a stereo vision system coupled to a control system, according to some embodiments of the present technology.
4A shows a diagram to understand how cost volume may be determined, according to some embodiments of the present technology.
4B shows an example cost curve, according to some embodiments of the present technology.
5 is a diagram illustrating processes performed by a reliability processing procedure, according to some embodiments of the present technology.
6 shows an example of a video stream and a super frame of a video stream according to some embodiments of the present technology. Portions of Figure 6 are in color.
7A-7F illustrate examples of different types of super frames that may be included in a video stream, according to some embodiments of the present technology.
Figure 8A schematically shows a beam region comprising illuminating a scene captured by a sensor, according to some embodiments of the present technology.
FIG. 8B is a graph showing the relationship between cross-sectional area and extent for objects in a captured image of a scene, according to some embodiments of the present technology.
9A and 9B show examples of a difference map and a confidence map, respectively, according to some embodiments of the present technology. Portions of Figure 9A are in color.

상이한 타입들의 센서 시스템들(예를 들어, 라이다 시스템, 레이더 시스템, 모노-비전 카메라 시스템, 스테레오-비전 카메라 시스템, 온도 측정 시스템(예를 들어, 열전대), 음향 시스템(예를 들어, 초음파 트랜스듀서 시스템, 가청-사운드 마이크로폰 시스템 등)으로부터의 센서 정보는 차량이 움직이고 있는 동안 차량의 주변에 관한 정보를 획득하고, 차량의 전자 제어 시스템이 차량을 어떻게 동작시킬지에 관한 판정들을 하고/하거나 운전자가 차량을 동작시키는 것을 돕기 위한 운전자를 위한 유용한 정보를 제공할 수 있게 하기 위해 차량에 사용될 수 있다. 예를 들어, 센서 정보는 차량의 속도를 조절하고(예를 들어, 가속 또는 감속하고), 안전 조치들을 전개하고(예를 들어, 경고 점멸등들, 윈드실드 와이퍼들 등을 켜고), 차량의 경로에서 객체로부터 멀리 조종하는 등을 위해 제어 시스템에 의해 사용될 수 있다. 다른 예에서, 센서 정보는 차량의 경로에 있는 특정 객체에 대해 운전자에게 경고하기 위해 제어 시스템에 의해 사용될 수 있다. 본 기술의 일부 실시예들에서, 제어 시스템은 차량의 동작의 다양한 양태들을 제어하도록 구성되는 ECU들로 구성되는 중앙집중식 컴퓨터 시스템일 수 있다. ECU들 각각은 하나 이상의 센서로부터 데이터를 수신하고 데이터를 처리하여 차량의 일부를 동작시키는 데 사용되는 하나 이상의 제어 신호를 출력하도록 구성되는 소프트웨어 및/또는 하드웨어로 구성될 수 있다. 전술한 바와 같이, 움직이는 차량에서 동작하는 100개가 넘는 ECU가 존재할 수 있다. 일부 ECU들은 다른 ECU들과 독립적으로 동작할 수 있으며, 일부 ECU들은 하나 이상의 다른 ECU와 상호의존적으로 동작할 수 있다. 본 기술의 일부 다른 실시예들에서, 차량의 전자 제어 시스템은 분산될 수 있다. 예를 들어, 배터리 관리 ECU는 예를 들어 속도 제어 ECU와 무관한 개별 시스템으로서 동작할 수 있다. 각각의 ECU는 하나의 타입의 센서 또는 복수의 타입의 센서로부터 센서 정보를 수신할 수 있다. 예를 들어, 객실-온도 ECU는 차량의 객실의 상이한 영역들에 위치된 하나 이상의 온도계들로부터 센서 정보를 수신할 수 있고, 객실의 온도를 차량의 탑승자에 의해 설정된 온도로 유지하기 위하여 히터 및/또는 에어컨을 제어하기 위하여 센서 정보를 이용할 수 있다. 다른 예에서, 조종 ECU는 스테레오 이미징을 위한 카메라들의 하나 이상의 세트, 하나 이상의 레이더 시스템, 하나 이상의 라이다 시스템, 하나 이상의 타이어-압력 게이지, 하나 이상의 마이크로폰, 2D 이미징을 위한 하나 이상의 카메라, 및 하나 이상의 내비게이션 시스템(예를 들어, GPS 시스템)의 다양한 조합들로부터 센서 정보를 수신할 수 있고, 센서 정보를 사용하여 차량을 목적지로 안전하게 조종하기 위한 최상의 작용 과정을 결정할 수 있다.Different types of sensor systems (e.g. lidar systems, radar systems, mono-vision camera systems, stereo-vision camera systems, temperature measurement systems (e.g. thermocouples), acoustic systems (e.g. ultrasonic transducers) Sensor information from sensor systems, audible-sound microphone systems, etc.) obtains information about the vehicle's surroundings while the vehicle is in motion, enables the vehicle's electronic control system to make decisions about how to operate the vehicle, and/or allows the driver to make decisions about how to operate the vehicle. It can be used in vehicles to provide useful information for the driver to help operate the vehicle, for example, to adjust the vehicle's speed (e.g. accelerate or decelerate) and to provide safety information. It may be used by the control system to deploy actions (e.g., turn on warning flashers, windshield wipers, etc.), steer away from objects in the vehicle's path, etc. In another example, sensor information may be used by the vehicle. In some embodiments of the present technology, the control system may be used by the control system to alert the driver to a specific object in the path of the vehicle. It may be a centralized computer system, where each of the ECUs may be comprised of software and/or hardware configured to receive data from one or more sensors and process the data to output one or more control signals used to operate parts of the vehicle. As mentioned above, there may be more than 100 ECUs operating in a moving vehicle. Some ECUs may operate independently of other ECUs, and some ECUs may operate interdependently with one or more other ECUs. In some other embodiments of the present technology, the electronic control system of the vehicle may be distributed.For example, the battery management ECU may operate as a separate system independent of, for example, the speed control ECU.Each ECU Can receive sensor information from one type of sensor or multiple types of sensors. For example, the cabin-temperature ECU may receive sensor information from one or more thermometers located in different areas of the vehicle's cabin and may operate heaters and/or heaters to maintain the temperature of the cabin at a temperature set by the vehicle's occupants. Alternatively, sensor information can be used to control the air conditioner. In another example, the steering ECU may include one or more sets of cameras for stereo imaging, one or more radar systems, one or more LiDAR systems, one or more tire-pressure gauges, one or more microphones, one or more cameras for 2D imaging, and one or more It may receive sensor information from various combinations of navigation systems (e.g., GPS systems) and use the sensor information to determine the best course of action to safely navigate the vehicle to its destination.

본 발명자들은, 상이한 타입들의 센서들로부터의 데이터의 사용을 최적화하기 위해, 센서들 각각으로부터의 측정들의 신뢰도 또는 확실성의 레벨을 아는 것이 중요하다는 것을 인식하고 이해하였다. 본 기술의 일부 실시예들에 따르면, 신뢰도 정보는 어느 센서 또는 센서들의 어느 조합이 객체들까지의 거리를 결정하기 위해 데이터에 사용되었는지 또는 사용될 것인지를 결정하기 위해 사용될 수 있다. 종래의 센서들은 통상적으로 측정에 대한 신뢰도 레벨을 나타내는 에러 추정치(예를 들어, 에러 바)를 보고하지 않고 측정치 또는 추정된 측정치를 보고하며, 이는 정확한 융합을 어렵게 한다. 그러나, 전술한 바와 같이, 자동차 응용들에 특히 중요한 기능적 안전 시스템들은 인간의 생활의 안전에 영향을 미칠 수 있는 판정들을 행하기 위해 센서 측정들에 의존한다. 따라서, 차량의 전자 제어 시스템에 정확한 센서 데이터를 제공하는 것에 대한 관심이 부각되고, 이는 제어 시스템에 센서 데이터에 대한 신뢰도 레벨을 제공하는 것을 수반할 수 있다. 신뢰도 데이터를 갖추고 있으면, 제어 시스템은 센서 데이터가 차량을 제어하기 위해 사용되기에 충분히 신뢰성 있는지 또는 센서 데이터가 충분히 신뢰할 수 없고 사용하지 않아야 하는지에 관한 판정들을 더 잘 할 수 있을 수 있다. 이해할 수 있는 바와 같이, 센서 융합은 상이한 타입의 센서들로부터의 데이터를 조합하기 위해 중앙 제어 시스템에 의해 수행될 수 있지만, 본 기술의 일부 실시예들에서, 센서 융합은 차량의 ECU들 중 하나 이상에 의해 또는 ECU들 및/또는 중앙 제어 시스템과 함께 동작하는 보조 시스템에 의해 수행될 수 있다.The present inventors have recognized and understood that in order to optimize the use of data from different types of sensors, it is important to know the level of reliability or certainty of measurements from each of the sensors. According to some embodiments of the present technology, reliability information may be used to determine which sensor or combination of sensors has been or will be used for data to determine distances to objects. Conventional sensors typically report measurements or estimated measurements without reporting error estimates (e.g., error bars) that indicate the level of confidence in the measurements, making accurate fusion difficult. However, as discussed above, functional safety systems, which are particularly important for automotive applications, rely on sensor measurements to make decisions that can affect the safety of human life. Accordingly, there is a growing interest in providing accurate sensor data to a vehicle's electronic control system, which may involve providing the control system with a level of confidence for the sensor data. Armed with reliability data, the control system may be better able to make decisions regarding whether the sensor data is reliable enough to be used to control the vehicle or whether the sensor data is not reliable enough and should not be used. As will be appreciated, sensor fusion may be performed by a central control system to combine data from different types of sensors, but in some embodiments of the present technology, sensor fusion may be performed by one or more of the vehicle's ECUs. It may be performed by or by an auxiliary system operating in conjunction with ECUs and/or a central control system.

본 발명자들은 더 많은 증거 또는 정보가 이용가능해짐에 따라 추정치의 신뢰도 레벨이 가설 또는 추정치에 대한 확률을 업데이트하기 위해 베이지안 추론에서 사용될 수 있는 것으로 인식하고 이해하였다. 차량에 배치된 동일한 타입 및/또는 상이한 타입들의 다양한 센서들로부터의 센서 데이터는 차량에 배치된 특정 센서로부터 센서 데이터를 확증하는 데 사용될 수 있다. 본 발명자들은 깊이 추정치들에 대한 신뢰도 범위들을 보고하는 센서로 차량들의 운전자 보조 시스템들이 신뢰성 있는 데이터에 기초하여 판정을 할 수 있게 함으로써 차량들이 더 안전해지게 할 수 있는 것으로 인식하고 이해하였으며, 이는 인간 운전자들에 의해 제어되지 않을 수 있는 자율 차량들에 특히 중요하다. 예를 들어, 차량이 고속도로 운전에 전형적인 순항 속도로 이동하고 있고, 센서(예를 들어, 카메라)가 부분적으로 가려져서, 센서가, (예를 들어, 센서 상의 이물로 인해) 센서에 의해 캡처된 이미지의 분석의 요인이 되는 다양한 인자들에 기초하여, 차량에 가까운 범위에 객체가 있는 것으로 부정확하게 검출하는 경우, 본 기술의 일부 실시예들에 따른 스테레오 비전 시스템은 그 객체에 대응하는 그 센서 데이터에 대한 비교적 낮은 레벨의 확실성을 표시하는 신뢰도를 결정하고 출력할 수 있으며, 따라서, 그 센서 데이터는 무시될 수 있다. 이는 잠재적으로 잘못된(즉, 존재하지 않는) 객체를 타격하는 것을 피하기 위해 비상 제동하도록 제어, 예를 들어, 차량의 브레이크들을 갑자기 적용하도록 제어되어 차량의 후방추돌(rear-ended) 가능성을 증가시킬 수 있게 되는 대신에 차량이 그의 경로 상에서 순항 속도로 계속 진행하거나 차량이 관측 시간을 증가시키기 위해 속도를 완만하게 감소시킬 수 있게 할 수 있다. 일부 실시예들에서, 센서 데이터와 연관된 신뢰도는 센서 데이터가 사용될 수 있는지 또는 상대적으로 더 높은 신뢰도를 갖는 다른 센서로부터의 센서 데이터가 대신 사용되어야 하는지를 결정하는데 사용될 수 있다. 예를 들어, 센서 데이터로부터의 깊이 정보가 차량의 경로에 있는 객체를 표시하지만, 깊이 정보가 낮은 신뢰도 값과 연관되는 경우, 차량은 알려진 객체가 더 많은 시간에 걸쳐 관측될 수 있게 하기 위해 및/또는 알려진 객체가 다른 센서 시스템들에 의해 크로스-체크될 수 있게 하기 위해 그 이동 속도를 감소시키도록 제어될 수 있다. 후술되는 바와 같이, 상이한 타입들의 센서 시스템들(예를 들어, 레이더, 라이다, 음향 등에 기초한 시스템들)은 본 기술의 다양한 실시예들에 따라, 스테레오-비전 기술들에 의해 획득되는 데이터를 확증하거나 보완하기 위해 사용될 수 있다.The inventors recognize and understand that the confidence level of an estimate can be used in Bayesian inference to update probabilities for a hypothesis or estimate as more evidence or information becomes available. Sensor data from various sensors of the same and/or different types deployed on the vehicle may be used to corroborate sensor data from a specific sensor deployed on the vehicle. The present inventors recognized and understood that sensors that report confidence ranges for depth estimates could make vehicles safer by enabling their driver assistance systems to make decisions based on reliable data, which would allow humans to This is especially important for autonomous vehicles that may not be controlled by drivers. For example, if a vehicle is traveling at a cruising speed typical of highway driving and the sensor (e.g., camera) is partially obscured, the image captured by the sensor (e.g., due to a foreign object on the sensor) Based on various factors that factor into the analysis, if an object is inaccurately detected as being in a close range to the vehicle, the stereo vision system according to some embodiments of the present technology may detect the sensor data corresponding to the object. A confidence level can be determined and output indicating a relatively low level of certainty about the sensor data, and therefore the sensor data can be ignored. This could potentially control emergency braking to avoid hitting the wrong (i.e. non-existent) object, e.g. to apply the vehicle's brakes suddenly, increasing the likelihood of the vehicle being rear-ended. Alternatively, the vehicle could continue on its path at cruising speed or allow the vehicle to gradually reduce speed to increase observation time. In some embodiments, the reliability associated with the sensor data may be used to determine whether the sensor data can be used or whether sensor data from another sensor with a relatively higher reliability should be used instead. For example, if depth information from sensor data indicates objects in the vehicle's path, but the depth information is associated with low confidence values, the vehicle may want to ensure that known objects are observed over more time and/ Or a known object may be controlled to reduce its movement speed so that it can be cross-checked by other sensor systems. As described below, different types of sensor systems (e.g., systems based on radar, lidar, acoustics, etc.) can be used to corroborate data acquired by stereo-vision techniques, according to various embodiments of the present technology. It can be used to complement or supplement.

본 발명자들은, 운전자 보조 시스템들이 특정 센서가 부분적으로 또는 전체적으로 오작동하는지(예를 들어, 부분적으로 또는 전체적으로 이물에 의해 가려지는지)를 결정할 수 있게 하는 것에 의해 승객 안전을 증가시키기 위해 각각의 센서로부터의 깊이 추정치들의 신뢰도 레벨 또는 확실성의 정도가 유리하게 사용될 수 있는 것으로 인식하고 이해하였다. 일부 실시예들에서, 신뢰도 레벨들로부터 유도된 정보는 운전자에게 센서의 이상을 경고하기 위해 사용될 수 있다. 일부 실시예들에서, 스테레오 비전 시스템 또는 스테레오 비전 시스템과 함께 동작하는 디바이스는 복수의 이미지들에 걸쳐 낮은 신뢰도들(예를 들어, 임계 신뢰도 레벨 아래의 값들)의 발생들을 추적할 수 있고, 예를 들어, 낮은 신뢰도들의 빈도를 사용하여 센서가 기능 이상일 수 있는지 여부를 결정할 수 있다.The present inventors have determined that driver assistance systems can determine whether a particular sensor is partially or fully malfunctioning (e.g., partially or completely obscured by a foreign object), thereby reducing It is recognized and understood that the level of confidence or degree of certainty in depth estimates can be used to advantage. In some embodiments, information derived from confidence levels can be used to warn the driver of a sensor anomaly. In some embodiments, a stereo vision system or a device operating in conjunction with a stereo vision system can track occurrences of low confidence values (e.g., values below a threshold confidence level) across a plurality of images, e.g. For example, the frequency of low confidences can be used to determine whether a sensor may be malfunctioning.

본 기술의 일부 실시예들에 따르면, 스테레오 비전 시스템은 이미지에 대한 전체 신뢰도를 결정하고 출력하도록 구성될 수 있다. 용어들 "신뢰도", "신뢰도 범위", 및 "신뢰도 레벨"은 본 명세서에서 교환 가능하게 사용될 수 있다. 이미지는 움직이는 차량(예를 들어, 자동차, 트럭, 비행기 등) 상의 센서들에 의해 캡처된 장면일 수 있거나, 고정된 구조(예를 들어, 거리 가로등, 공항 탑, 주택, 사무실 건물 등) 상에 장착된 센서들에 의해 캡처된 장면일 수 있다. 스테레오 비전 시스템은 차량에 배치된 독립형 시스템일 수 있거나 차량의 제어 시스템에 통합될 수 있다. 일부 실시예들에서, 스테레오 비전 시스템은 이미지의 복수의 영역들의 각각의 영역에 대한 신뢰도를 결정하고 출력할 수 있다. 예를 들어, 이미지는 사분면들(예를 들어, 좌상단, 우상단, 좌하단, 우하단)로 분할될 수 있고 스테레오 비전 시스템은 각각의 사분면에 대한 신뢰도를 결정하고 출력할 수 있다. 일부 실시예들에서, 스테레오 비전 시스템은 이미지의 각각의 픽셀에 대한 신뢰도를 결정하고 출력할 수 있다.According to some embodiments of the present technology, a stereo vision system may be configured to determine and output an overall confidence level for an image. The terms “reliability”, “confidence range”, and “confidence level” may be used interchangeably herein. The image may be a scene captured by sensors on a moving vehicle (e.g., a car, truck, airplane, etc.), or on a stationary structure (e.g., a street lamp, an airport tower, a house, an office building, etc.). It may be a scene captured by mounted sensors. The stereo vision system may be a standalone system deployed in the vehicle or may be integrated into the vehicle's control system. In some embodiments, a stereo vision system may determine and output a confidence level for each of a plurality of regions of an image. For example, an image can be divided into quadrants (e.g., top left, top right, bottom left, bottom right) and the stereo vision system can determine and output a confidence level for each quadrant. In some embodiments, the stereo vision system can determine and output a confidence level for each pixel in the image.

본 기술의 일부 실시예들에 따르면, 스테레오 비전 시스템은 장면의 캡처된 이미지에 대응하는 깊이 맵을 출력하도록 구성될 수 있다. 이미지는 캡처된 디지털 이미지일 수 있거나 아날로그 이미지로부터 디지털화될 수 있다. 깊이 맵은 스테레오 비전 시스템의 센서들로부터 장면 내의 객체들까지의 거리들 또는 깊이 값들의 맵일 수 있다. 깊이 맵은, 깊이 맵의 각각의 픽셀(및 이미지의 각각의 픽셀)이 연관된 깊이 값을 가질 수 있도록, 이미지의 픽셀들에 대응하는 픽셀들로 구성될 수 있다. 스테레오 비전 시스템은 또한 깊이 맵과 함께 신뢰도 데이터를 출력하도록 구성될 수 있다. 일부 실시예들에서, 신뢰도 데이터는 깊이 맵의 확실성 또는 신뢰도를 나타내는 신뢰도 맵일 수 있다. 일부 실시예들에서, 신뢰도 맵은 깊이 맵(및 이미지)의 픽셀들에 대응하는 픽셀들로 구성될 수 있고, 따라서, 신뢰도 맵의 각각의 픽셀(및 이미지의 각각의 픽셀)은 연관된 신뢰도를 가질 수 있다. 일부 실시예들에서, 신뢰도 맵은 신뢰도들의 추정치들을 에러 바들로서, 표준 편차 값들로서, 버킷들로(예를 들어, 높은 신뢰도, 중간 신뢰도, 낮은 신뢰도), 또는 각각의 추정된 신뢰도의 품질 레벨을 표시할 수 있는 임의의 다른 메트릭으로서 표현할 수 있다.According to some embodiments of the present technology, a stereo vision system may be configured to output a depth map corresponding to a captured image of a scene. The image may be a captured digital image or may be digitized from an analog image. A depth map can be a map of depth values or distances from sensors in a stereo vision system to objects in a scene. A depth map can be made up of pixels that correspond to pixels in the image, such that each pixel in the depth map (and each pixel in the image) has an associated depth value. The stereo vision system may also be configured to output reliability data along with a depth map. In some embodiments, the confidence data may be a confidence map that indicates the certainty or reliability of the depth map. In some embodiments, the confidence map may be composed of pixels that correspond to pixels in the depth map (and the image), such that each pixel in the confidence map (and each pixel in the image) will have an associated confidence level. You can. In some embodiments, the confidence map organizes estimates of confidence as error bars, standard deviation values, buckets (e.g., high confidence, medium confidence, low confidence), or a quality level of each estimated confidence. It can be expressed as any other displayable metric.

전술한 바와 같이, 이미지의 각 픽셀에 대한 깊이의 추정치는 차이 맵으로부터 계산될 수 있으며, 그 이유는 픽셀의 깊이가 픽셀의 차이에 반비례하기 때문이다. 이와 같이, 용어들 "깊이 맵" 및 "차이 맵"은 본 명세서에서 교환 가능하게 이용될 수 있으며, 그 이유는 이들이 이미지에서의 캡처된 장면에 관한 거의 동일한 정보를 제공하고 이들이 본 기술 분야에 공지된 간단한 대수적 변환으로 연관되어 있기 때문이다.As described above, an estimate of the depth for each pixel in an image can be calculated from the difference map because the depth of a pixel is inversely proportional to the difference between the pixels. As such, the terms “depth map” and “difference map” may be used interchangeably herein because they provide substantially the same information about the captured scene in the image and are well known in the art. This is because they are related by simple algebraic transformations.

본 기술의 일부 실시예들에 따르면, 자율 차량 및/또는 진보된 운전자 보조 시스템(ADAS)은 유리하게도 사고를 피하기 위해 및/또는 신뢰할 수 없는 데이터가 있을 때 운전자에게 경고하기 위해 깊이 맵 및 깊이 맵과 연관된 신뢰도 값들을 사용할 수 있다. 일부 실시예들에서, 신뢰도 값이 깊이 맵의 각각의 픽셀에 대해 제공될 수 있기 때문에, 낮은 신뢰도 값들을 갖는 일부 픽셀들이 존재할 때 장면의 캡처된 비디오 시퀀스의 전체 프레임을 폐기할 필요가 없을 수 있다. 대신, 낮은 신뢰도 값들을 가지는 픽셀들이 폐기될 수 있고, 충분히 높은 신뢰도 값들을 가지는 나머지 픽셀들은 깊이 계산들을 위해 사용될 수 있다. 이러한 선택성은 운전자가 운전하는 동안 시야 내의 장면을 처리할 때 차량의 A 필라, 차량의 윈드실드 와이퍼들 등과 같은 방해 객체들을 자연적으로 무시할 수 있는 인간의 시각과 매우 많이 유사하다. 즉, 운전자는 시야 내의 장면을 평가하면서 방해가 되는 객체를 자동으로 무시할 것이다. 일부 실시예들에서, 신뢰도 맵은 비디오 시퀀스의 프레임이 프레임의 일부가 무시될 수 있더라도 사용될 수 있기 때문에 센서 가용성을 증가시킬 수 있으며, 이는 차량의 센서가 더 큰 범위의 환경 상황들에서 더 높은 듀티 사이클에서 동작할 수 있게 한다. 예를 들어, 센서는 센서의 렌즈의 일부 상에 오염물이 있을 때, 또는 윈드실드 와이퍼들이 센서의 시야를 부분적으로 방해할 수 있을 때, 또는 센서에 의해 캡처된 이미지의 섹션이 과노출될 때, 또는 센서에 의해 캡처된 이미지의 섹션이 낮은 광 레벨을 가질 때, 또는 이미지의 일부 다른 픽셀들이 무시되어야 하는 데이터를 가질 수 있더라도 센서에 의해 캡처된 이미지의 일부 픽셀들이 유용한 데이터를 가질 수 있는 임의의 상황에서도 동작할 수 있다. 픽셀별 기반의 신뢰도 값들로 구성된 신뢰도 맵을 제공하는 것에 의해, 차량의 전자 제어 시스템은 유효하고 비교적 높은 신뢰도 값들을 가지는 깊이 맵의 영역들에 주의를 기울일 수 있게 할 수 있다.According to some embodiments of the present technology, autonomous vehicles and/or advanced driver assistance systems (ADAS) may advantageously use depth maps and depth maps to avoid accidents and/or to warn drivers in the presence of unreliable data. Reliability values associated with can be used. In some embodiments, because a confidence value may be provided for each pixel of the depth map, there may be no need to discard entire frames of a captured video sequence of a scene when there are some pixels with low confidence values. . Instead, pixels with low confidence values can be discarded, and the remaining pixels with sufficiently high confidence values can be used for depth calculations. This selectivity is very similar to human vision, which can naturally ignore distracting objects such as a vehicle's A-pillar, a vehicle's windshield wipers, etc., when processing a scene within the driver's field of view while driving. That is, the driver will automatically ignore distracting objects while evaluating the scene within the field of view. In some embodiments, confidence maps can increase sensor availability because frames of a video sequence can be used even if some parts of the frame can be ignored, allowing the vehicle's sensors to perform higher duty across a larger range of environmental situations. Allows operation in cycles. For example, the sensor may detect contaminants on part of the sensor's lens, or windshield wipers may partially obstruct the sensor's field of view, or a section of the image captured by the sensor may be overexposed. or when a section of the image captured by the sensor has low light levels, or in any case where some pixels of the image captured by the sensor may have useful data even though some other pixels of the image may have data that should be ignored. It can work in any situation. By providing a confidence map comprised of confidence values on a pixel-by-pixel basis, the vehicle's electronic control system may be able to direct attention to regions of the depth map that have valid and relatively high confidence values.

본 기술의 일부 실시예들에 따르면, 자율 차량은, 신뢰성 및 안전성을 증가시키기 위해, 카메라, 라이다, 레이더, 및/또는 초음파 센서들과 같은, 상이한 센서들로부터의 정보를 융합시킬 수 있다. 이러한 센서들은 객체들까지의 거리들에 관한 정보를 보고하거나 제공할 수 있지만, 상이한 센서들에 대해 상이한 거리들이 보고될 때, 어느 센서를 신뢰할지가 불명확할 수 있다. 일부 실시예들에서, 센서 융합 알고리즘들은 상이한 센서들로부터의 데이터를 결합할 수 있고, 센서들 중 하나 또는 다른 센서로부터의 융합되지 않은 정보가 개별적으로 사용될 때 가능한 것보다 적은 불확실성을 갖는 융합된 정보를 출력할 수 있다. 본 발명자들은 센서 융합 알고리즘들이, 상이한 센서들 각각에 대한 확실성 파라미터(예를 들어, 분산)를 알고리즘들에 제공하는 것에 의해, 융합된 정보의 확실성을 증가시키도록 향상될 수 있는 것으로 인식하고 이해하였다. 일부 실시예들에서, 센서 융합은 상이하지만 중첩하는 시야들을 갖는 2개 이상의 센서에 대해 가능해질 수 있으며, 그 이유는 신뢰도 맵들은 픽셀별 기반으로 상이한 센서들에 대해 결정될 수 있기 때문이다. 일부 실시예들에서, 객체에 대한 레이더 거리 추정치들은 객체를 둘러싸는 중첩 시야들이 있을 때 객체에 대한 스테레오-비전 거리 추정치들과 비교될 수 있다. 예를 들어, 하루 동안 맑은 날씨에서 이동하는 자동차 상의 센서들은 자동차 상의 카메라들에 의해 캡처된 이미지들에 기초한 스테레오-비전 거리 결정들에 대해 매우 높은 신뢰도 값들을 가질 수 있고, 따라서 스테레오-비전 거리 결정들은 자동차의 전자 제어 시스템에 의해, 특히 300 미터 이상의 범위들 또는 거리들에 있는 객체들에 대해 신뢰될 수 있으며, 자동차 상의 다른 센서들은 높은 신뢰도 값들을 반환할 것으로 예상되지 않을 수 있다. 날씨가 불량하게 바뀌면(예를 들어, 짙은 안개, 쏟아지는 비 등), 가시성이 더 낮을 수 있고 결과적으로 광 감쇠로 인해 스테레오-비전 거리 추정치들이 악화되고 연관된 신뢰도 값들이 낮아질 수 있다. 이때, 자동차의 제어 시스템은 카메라들로부터의 데이터 대신에 레이더 데이터로부터 거리 추정치들을 획득하도록 스위칭될 수 있다. 유사하게, 자동차가 야간에 또는 안개 또는 다른 강수 없이 낮은 주변 광 레벨들에서 이동하고 있다면, 자동차의 제어 시스템은 레이더 데이터 또는 카메라들로부터의 데이터 대신에 라이다 데이터로부터 거리 추정치들을 획득하도록 전환할 수 있는데, 그 이유는 전형적인 라이다 시스템이 그 자신의 능동 조명 소스를 갖기 때문이다. 일부 실시예들에서, 자동차의 제어 시스템이 스테레오-비전 거리 추정치들, 라이다 거리 추정치들, 레이더 거리 추정치들, 또는 음향 거리 추정치들 사이에서 스위칭할 때를 결정하는 대신에, 스위칭은 자동차의 메인 센서 시스템일 수 있는 자동차의 스테레오-비전 시스템에 의해 수행될 수 있다. 이해할 수 있는 바와 같이, 전술한 예는 자동차에 대한 거리 추정치에 관한 것이지만, 본 기술은 자동차로 제한되지 않고 다른 차량(예를 들어, 트럭 및 다른 도로 차량, 열차 및 다른 레일 차량, 보트 및 다른 항해 차량, 비행기 및 다른 항공 차량 등)에 적용가능할 수 있다.According to some embodiments of the present technology, autonomous vehicles can fuse information from different sensors, such as camera, lidar, radar, and/or ultrasonic sensors, to increase reliability and safety. These sensors can report or provide information about distances to objects, but when different distances are reported for different sensors, it can be unclear which sensor to trust. In some embodiments, sensor fusion algorithms can combine data from different sensors and produce fused information with less uncertainty than is possible when unfused information from one or the other of the sensors is used individually. can be output. The inventors have recognized and understood that sensor fusion algorithms can be improved to increase the certainty of the fused information by providing the algorithms with certainty parameters (e.g., variance) for each of the different sensors. . In some embodiments, sensor fusion may be enabled for two or more sensors with different but overlapping fields of view because confidence maps may be determined for different sensors on a pixel-by-pixel basis. In some embodiments, radar range estimates for an object may be compared to stereo-vision distance estimates for an object when there are overlapping fields of view surrounding the object. For example, sensors on a car moving in clear weather during the day may have very high confidence values for stereo-vision distance determinations based on images captured by cameras on the car, and thus stereo-vision distance determination. They may be trusted by the car's electronic control system, especially for objects at ranges or distances greater than 300 meters, and other sensors on the car may not be expected to return high confidence values. If the weather turns unfavorable (e.g., dense fog, pouring rain, etc.), visibility may be lower and, as a result, stereo-vision distance estimates may deteriorate due to light attenuation and associated confidence values may be lowered. At this time, the car's control system can be switched to obtain range estimates from radar data instead of data from cameras. Similarly, if the car is traveling at night or in low ambient light levels without fog or other precipitation, the car's control system can switch to obtain range estimates from lidar data instead of radar data or data from cameras. This is because a typical LiDAR system has its own active lighting source. In some embodiments, instead of the vehicle's control system determining when to switch between stereo-vision range estimates, LiDAR range estimates, radar range estimates, or acoustic range estimates, switching is performed on the vehicle's main range estimates. This may be performed by the car's stereo-vision system, which may be a sensor system. As can be appreciated, although the foregoing examples relate to distance estimates for automobiles, the present technique is not limited to automobiles and may be applied to other vehicles (e.g., trucks and other road vehicles, trains and other rail vehicles, boats and other sailing vehicles). It may be applicable to vehicles, airplanes and other aerial vehicles, etc.).

도 1은 본 기술의 일부 실시예들에 따른, 스테레오-매칭 신뢰도 또는 확실성에 대한 값을 제공하도록 구성된 스테레오 비전 시스템(1)의 블록도를 도시한다. 스테레오 비전 시스템(1)은 복수의 센서 시스템들에 결합되고 센서 시스템들 각각으로부터 측정치들 또는 센서 데이터를 수신하도록 구성된 컴퓨터 프로세서(10)로 구성될 수 있다. 일부 실시예들에서, 프로세서(10)에 결합된 센서 시스템들은 센서들(100)로 구성된 이미징 시스템으로 구성될 수 있으며, 센서들은 카메라, 라이다 센서, 레이더 센서, 및/또는 초음파 센서일 수 있다. 일부 실시예들에서, 스테레오 비전 시스템(1)은 자율 움직임(즉, 인간 제어가 없음) 및/또는 반자율 움직임(즉, 인간 제어 또는 제한된 인간 제어를 가짐)이 가능한 차량 상에 장착될 수 있다. 예를 들어, 차량은 자동차, 트럭, 로봇, 항해 선박, 항공 차량 등일 수 있다.1 shows a block diagram of a stereo vision system 1 configured to provide values for stereo-matching confidence or certainty, according to some embodiments of the present technology. Stereo vision system 1 may be comprised of a computer processor 10 coupled to a plurality of sensor systems and configured to receive measurements or sensor data from each of the sensor systems. In some embodiments, sensor systems coupled to processor 10 may be configured as an imaging system comprised of sensors 100, which may be cameras, lidar sensors, radar sensors, and/or ultrasonic sensors. . In some embodiments, the stereo vision system 1 may be mounted on a vehicle capable of autonomous movement (i.e., without human control) and/or semi-autonomous movement (i.e., with human control or limited human control). . For example, a vehicle may be a car, truck, robot, sailing vessel, air vehicle, etc.

본 기술의 일부 실시예들에 따르면, 센서들(100)은 차량의 환경의 이미지들을 동시에, 즉 동일한 또는 거의 동일한 시간 순간에 캡처하도록 구성된 2개의 스테레오 카메라(100)로 구성될 수 있다. 표기를 단순화하기 위해, 카메라들(100)은 본 명세서에서 "좌측" 및 "우측" 카메라들로 지칭될 수 있지만, 그것들은 서로에 대해 수직으로(예를 들어, 상단 및 하단), 또는 서로에 대해 대각선으로, 또는 상이한 레인지 빈(range bin)들에서 오프셋되어(예를 들어, 하나의 카메라는 차량의 전방 부분에 있고 다른 카메라는 차량의 후방 부분에 있음) 위치될 수 있다. 카메라들(100)은, 예를 들어, 컬러 CMOS(complementary metal-oxide-semiconductor) 카메라들, 그레이스케일 CMOS 카메라들, CCD(charge-coupled device) 카메라들, SWIR(short-wavelength infrared) 카메라들, LWIR(long-wavelength infrared) 카메라들, 또는 초점면 어레이 센서들일 수 있다.According to some embodiments of the present technology, the sensors 100 may consist of two stereo cameras 100 configured to capture images of the vehicle's environment simultaneously, that is, at the same or approximately the same moment in time. To simplify notation, cameras 100 may be referred to herein as “left” and “right” cameras, although they are positioned perpendicularly to each other (e.g., top and bottom), or to each other. They may be positioned diagonally relative to each other, or offset in different range bins (eg, one camera in the front portion of the vehicle and the other camera in the rear portion of the vehicle). Cameras 100 may include, for example, color complementary metal-oxide-semiconductor (CMOS) cameras, grayscale CMOS cameras, charge-coupled device (CCD) cameras, short-wavelength infrared (SWIR) cameras, These may be long-wavelength infrared (LWIR) cameras, or focal plane array sensors.

본 기술의 일부 실시예들에 따르면, 센서들(S1, S2, S3, S4, S5, S6, S7, S8, S9)은 도 2에 개략적으로 도시된 바와 같이, 차량(20) 상의 복수의 상이한 위치들에 위치될 수 있다. 일부 실시예들에서, 센서들(S1, S2, ..., S9) 중 일부는 차량(20)의 객실 내부에 위치될 수 있고, 따라서 먼지 및 비로부터 보호될 수 있다. 일부 실시예들에서, 센서들(S1, S2, ..., S9) 중 일부는 차량(20)의 객실 외부에 위치될 수 있고 따라서 베이스라인(즉, 2개의 센서 사이의 거리)이 객실의 폭보다 더 클 수 있게 할 수 있으며, 이는 객실의 폭으로 제한되는 베이스라인들과 비교하여 상대적으로 더 먼 거리에 있는 객체들이 검출될 수 있게 할 수 있다. 일부 실시예들에서, 센서들(S1, S2, ..., S9)은 센서들(S1, S2, ..., S9)로부터 데이터를 수신하고/하거나 센서들(S1, S2, ..., S9)에 전력을 공급하도록 구성된 하나 이상의 ECU(22, 24)에 무선으로 또는 유선으로 결합될 수 있다. 일부 실시예들에서, ECU들(22, 24) 중 적어도 일부는 컴퓨터 프로세서(10)의 일부일 수 있다. 일부 다른 실시예들에서, ECU들(22, 24) 중 적어도 일부는 컴퓨터 프로세서(10) 외부에 위치할 수 있으며, 신호들을 무선으로 또는 유선으로 컴퓨터 프로세서(10)로 송신하도록 구성될 수 있다. 일부 실시예들에서, 헤드라이트들(예를 들어, S1 및 S9) 내의 카메라들의 쌍; 또는 사이드 뷰 미러들 내의 한 쌍의 카메라들(예를 들어, S2 및 S8); 또는 윈드실드 내의 한 쌍의 카메라(예를 들어, S3 및 S7 또는, 대안적으로, S3 및 S5); 또는 루프 상의 한 쌍의 카메라들(예를 들어, S4 및 S6) 같은 2개의 카메라만이 필요하다.According to some embodiments of the present technology, sensors S1, S2, S3, S4, S5, S6, S7, S8, S9 are configured to detect a plurality of different sensors on vehicle 20, as schematically shown in FIG. 2. Can be located in locations. In some embodiments, some of the sensors S1, S2, ..., S9 may be located inside the cabin of the vehicle 20 and thus protected from dust and rain. In some embodiments, some of the sensors S1, S2, ..., S9 may be located outside the cabin of vehicle 20 so that the baseline (i.e. the distance between the two sensors) is located outside the cabin of the vehicle 20. It can be larger than the width, which can allow objects at relatively greater distances to be detected compared to baselines limited to the width of the room. In some embodiments, sensors S1, S2, ..., S9 receive data from sensors S1, S2, ..., S9 and/or sensors S1, S2, ... , S9) may be wirelessly or wiredly coupled to one or more ECUs 22, 24 configured to supply power. In some embodiments, at least some of ECUs 22, 24 may be part of computer processor 10. In some other embodiments, at least some of the ECUs 22, 24 may be located external to the computer processor 10 and may be configured to transmit signals wirelessly or wired to the computer processor 10. In some embodiments, a pair of cameras in the headlights (eg, S1 and S9); or a pair of cameras in the side view mirrors (eg S2 and S8); or a pair of cameras in the windshield (eg S3 and S7 or alternatively S3 and S5); Or only two cameras are needed, such as a pair of cameras on the loop (eg S4 and S6).

본 기술의 일부 실시예들에 따르면, 스테레오 비전 시스템(1)은 도 3에 개략적으로 도시된 바와 같이, 차량의 메인 시스템 제어기(30)에 결합될 수 있다. 일부 실시예들에서, 메인 시스템 제어기(30)는 차량의 제어 시스템일 수 있으며, 이는 차량 동작의 모든 자동화된 양태들을 제어하도록 구성될 수 있다. 일부 실시예들에서, 스테레오 비전 시스템(1)은 메인 시스템 제어기(30)에 의해 명령을 받도록 구성될 수 있고, 커맨드 및 제어 라인(32)을 통해 메인 시스템 제어기(30)로 그리고 그로부터 신호들을 통신할 수 있다. 이해할 수 있는 바와 같이, 커맨드 및 제어 라인(32)은 유선 통신 메커니즘(예를 들어, 데이터 버스, 통신 라인)일 수 있거나, 본 기술 분야에 공지된 통신 기술들을 이용하는 무선 통신 메커니즘일 수 있다. 일부 실시예들에서, 메인 시스템 제어기(30)는 하이-레벨 기능들(예를 들어, 자동 비상 제동, 경로 선택 등)을 조정하고 다양한 서브-시스템들 또는 ECU들(예를 들어, 스테레오 비전 시스템(1))과 통신하여 하이-레벨 기능들을 수행하도록 구성된 컴퓨터로 구성될 수 있다. 일부 실시예들에서, 공통 통신 프로토콜들은 커맨드 및 제어 라인(32)(예를 들어, 이더넷, CAN(Controller Area Network), I2C(Inter-Integrated Circuit), LIN(Local Interconnect Network) 등)을 통한 통신에 사용될 수 있다. 스테레오 비전 시스템(1)이 도 3에서 메인 시스템 제어기(30)로부터 분리된 것으로 도시되어 있지만, 스테레오 비전 시스템(1)은, 일부 실시예들에서, 메인 시스템 제어기(30)의 일부일 수 있고, 일부 실시예들에서, 메인 시스템 제어기(30)의 하우징에 물리적으로 위치할 수 있다.According to some embodiments of the present technology, the stereo vision system 1 may be coupled to the main system controller 30 of the vehicle, as schematically shown in FIG. 3 . In some embodiments, main system controller 30 may be the vehicle's control system, which may be configured to control all automated aspects of vehicle operation. In some embodiments, stereo vision system 1 may be configured to receive commands from main system controller 30 and communicate signals to and from main system controller 30 via command and control lines 32. can do. As will be appreciated, command and control lines 32 may be a wired communication mechanism (e.g., data bus, communication line) or may be a wireless communication mechanism utilizing communication techniques known in the art. In some embodiments, main system controller 30 coordinates high-level functions (e.g., automatic emergency braking, route selection, etc.) and various sub-systems or ECUs (e.g., stereo vision system It may consist of a computer configured to perform high-level functions by communicating with (1)). In some embodiments, common communication protocols include communication over command and control lines 32 (e.g., Ethernet, Controller Area Network (CAN), Inter-Integrated Circuit (I2C), Local Interconnect Network (LIN), etc. can be used for Although the stereo vision system 1 is shown in FIG. 3 as separate from the main system controller 30, the stereo vision system 1 may, in some embodiments, be part of the main system controller 30 and may be part of the main system controller 30. In embodiments, it may be physically located in the housing of main system controller 30.

도 1을 참조하면, 카메라들(100)은 본 기술의 일부 실시예들에 따라, 무선으로 또는 유선 연결에 의해 이미지 취득 모듈(102)에 결합될 수 있다. 일부 실시예들에서, 카메라들(100)에 의해 캡처되는 장면의 이미지 데이터는 공지된 통신 인터페이스(예를 들어, USB(Universal Serial Bus) 커넥터, 이더넷 커넥터, MIPI(Mobile Industry Processor Interface) CSI(Camera Serial Interface) 커넥터, GMSL(Gigabit Multimedia Serial Link) 커넥터, FPD-Link(Flat Panel Display Link) 커넥터 등)를 통해 이미지 취득 모듈(102)에 송신될 수 있다. 일부 실시예들에서, 카메라들(100)은 카메라들(100)에 통합될 수 있는 버퍼 메모리 디바이스(예를 들어, RAM)를 통해 또는 직접, 실시간으로 또는 거의 실시간으로 이미지 취득 모듈(102)에 이미지 데이터를 송신하도록 구성될 수 있다. 일부 실시예들에서, 카메라들(100)은 이미지 취득 모듈(102)뿐만 아니라 컴퓨터 프로세서(10)의 다른 부분들에 의해 액세스가능한 데이터 저장 메모리 디바이스(140)와 연관될 수 있고, 그리고 카메라들(100)은 이미지 데이터를 데이터 저장 디바이스(140)에 송신하도록 구성될 수 있다. 일부 실시예들에서, 카메라들(100)은 장면의 비디오 데이터의 스트림들을 캡처하도록 구성된 비디오 카메라들일 수 있다. 비디오 데이터의 스트림들은 좌측 스트림 및 우측 스트림으로 구성될 수 있으며, 각각의 스트림은 프레임들의 시퀀스로 구성된다. 따라서, 본 명세서에서 사용되는 "이미지 데이터"라는 용어는 일부 실시예들에서 비디오 데이터의 프레임들을 지칭할 수 있다.Referring to FIG. 1 , cameras 100 may be coupled to image acquisition module 102 wirelessly or by a wired connection, according to some embodiments of the present technology. In some embodiments, image data of a scene captured by cameras 100 may be transmitted through a known communication interface (e.g., a Universal Serial Bus (USB) connector, an Ethernet connector, a Mobile Industry Processor Interface (MIPI), a CSI (Camera Serial Interface) connector, Gigabit Multimedia Serial Link (GMSL) connector, Flat Panel Display Link (FPD-Link) connector, etc.) may be transmitted to the image acquisition module 102. In some embodiments, cameras 100 may be connected to image acquisition module 102 in real time or near real time, or directly, through a buffer memory device (e.g., RAM) that may be integrated into cameras 100. Can be configured to transmit image data. In some embodiments, cameras 100 may be associated with a data storage memory device 140 accessible by image acquisition module 102 as well as other portions of computer processor 10, and the cameras ( 100 may be configured to transmit image data to data storage device 140 . In some embodiments, cameras 100 may be video cameras configured to capture streams of video data of a scene. Streams of video data may consist of a left stream and a right stream, with each stream consisting of a sequence of frames. Accordingly, the term “image data” as used herein may refer to frames of video data in some embodiments.

본 기술의 일부 실시예들에 따르면, 이미지 취득 모듈(102)은 카메라들(100)로부터의 이미지 데이터를 디지털화하여 미가공 디지털 이미지 데이터 또는 "미가공 이미지 데이터"를 생성하도록 구성될 수 있다. 일부 실시예들에서, 이미지 취득 모듈(102)은 미가공 이미지 데이터를 이미지 전처리 모듈(104)에 제공할 수 있다. 일부 실시예들에서, 이미지 취득 모듈(102)은 미가공 이미지 데이터를 메모리(140)에 제공할 수 있고, 메모리(140)는 미래의 처리를 위해 미가공 이미지 데이터를 저장할 수 있다.According to some embodiments of the present technology, image acquisition module 102 may be configured to digitize image data from cameras 100 to generate raw digital image data or “raw image data.” In some embodiments, image acquisition module 102 may provide raw image data to image pre-processing module 104. In some embodiments, image acquisition module 102 may provide raw image data to memory 140, and memory 140 may store the raw image data for future processing.

본 기술의 일부 실시예들에 따르면, 이미지 전처리 모듈(104)은 미가공 이미지 데이터를 보정하여 보정된 좌측 및 우측 이미지들을 생성하도록 구성될 수 있다. 예를 들어, 이미지 전처리 모듈(104)은 디모자이킹; 자동 초점, 자동 노출 및 자동 화이트 밸런스 보정; 비네팅; 노이즈 감소; 불량 픽셀 필터링; HDR(high-dynamic-range) 룩업 테이블 컬러 처리; 및 이미지 압축 중 임의의 하나 또는 임의의 조합을 수행할 수 있다. 보정된 좌측 및 우측 이미지는 이미지 교정 모듈(106)로 전달될 수 있다.According to some embodiments of the present technology, the image pre-processing module 104 may be configured to correct raw image data to generate corrected left and right images. For example, image pre-processing module 104 may perform demosaicing; Autofocus, autoexposure and automatic white balance correction; Vignetting; noise reduction; Bad pixel filtering; high-dynamic-range (HDR) lookup table color processing; and image compression. The corrected left and right images may be passed to the image correction module 106.

본 기술의 일부 실시예들에 따르면, 이미지 교정 모듈(106)은 보정된 좌측 및 우측 이미지들의 픽셀들의 대응하는 행들이 동일한 에피폴라 평면 상에 있도록 보정된 좌측 및 우측 이미지들을 워핑함으로써 이들을 교정하도록 구성될 수 있다. 워핑 이후에, 이미지 교정 모듈(106)은 컬러 이미지 또는 그레이스케일 이미지일 수 있는 좌측 및 우측 교정된 2D 이미지(114)를 출력할 수 있다. 이해할 수 있을 바와 같이, 이미지 교정은 보정된 좌측 및 우측 이미지에서의 공통의 객체의 매칭을 단순화하는 데 사용되는 알려진 기술이다. 이미지 교정 모듈(106)은 좌측 및 우측 교정된 2D 이미지들(114)을 스테레오 매칭 모듈(108), 신뢰도 처리 모듈(110), 및 인코더 모듈(112)에 제공할 수 있다.According to some embodiments of the present technology, the image correction module 106 is configured to correct the corrected left and right images by warping them so that the corresponding rows of pixels of the corrected left and right images are on the same epipolar plane. It can be. After warping, image correction module 106 may output left and right corrected 2D images 114, which may be color images or grayscale images. As will be appreciated, image correction is a known technique used to simplify the matching of common objects in the corrected left and right images. Image correction module 106 may provide left and right corrected 2D images 114 to stereo matching module 108, reliability processing module 110, and encoder module 112.

본 기술의 일부 실시예들에 따르면, 스테레오 매칭 모듈(108)은 교정된 2D 이미지들(114)에서 각각의 매칭 픽셀 쌍 사이의 차이를 계산하도록 구성될 수 있다. 스테레오 매칭 모듈(108)에 의해 수행되는 처리는, 일부 실시예들에서, 다음 4개의 절차들로 구성될 수 있다: 비용 계산 절차, 비용 집성 절차, 차이 계산 절차, 및 차이 리파인먼트 절차- 이들 각각은 후술됨 -.According to some embodiments of the present technology, stereo matching module 108 may be configured to calculate the difference between each pair of matching pixels in the calibrated 2D images 114. The processing performed by the stereo matching module 108 may, in some embodiments, consist of the following four procedures: a cost calculation procedure, a cost aggregation procedure, a difference calculation procedure, and a difference refinement procedure—each of these. is described later -.

본 기술의 일부 실시예들에 따르면, 비용 계산 절차는 가능한 차이 값들의 세트의 각 차이 값에서 각 픽셀에 대한 매칭 비용들을 계산하는 것에 의해, 3차원(3D) 비용 볼륨 맵(118)을 구성하는 것으로 구성될 수 있고, 이는 "차이 공간 이미지"라고도 지칭될 수 있다. 후술하는 바와 같이, 비용 볼륨(또는 더 정확하게는 매칭 비용 볼륨)은 W x H x D의 곱으로서 결정될 수 있고, 여기서 W 및 H는 각각의 이미지의 폭 및 높이 치수들이고, 여기서 D는 차이 가설들 또는 가능한 차이들의 수이다. 특정 픽셀 및 특정 차이 값에 대한 매칭 비용은 특정 픽셀이 그 특정 차이 값을 가질 가능성이 얼마나 낮은지를 나타낸다. 통상적으로, 주어진 픽셀에 대해, 매칭 비용이 최저인 차이 값이 차이 맵에서 사용되도록 선택되며, 이는 후술된다. 주어진 픽셀에 대한 차이 값을 선택하는 이러한 접근법은 소위 WTA(winner-takes-all) 접근법이며, 여기서, 승자는 매칭 비용이 최저인 차이 값, 즉 모든 차이 가설들 중에서 최상의 차이 값이다. 매칭 비용들은 예를 들어 절대 편차 기술, 상호 정보(MI) 기술(예를 들어, 계층적 MI(HMI) 기술), 정규화된 교차 상관(NCC) 기술, 해밍 거리 기술 등과 같은 공지 기술들을 이용하여 계산될 수 있다. 일부 실시예들에서, NCC 기술은, H. Hirschmuller 등의 "Evaluation of Cost Functions for Stereo Matching"(2007 IEEE Conference on Computer Vision and Pattern Recognition)에 설명된 바와 같이, 고려중인 픽셀 주위의 2개의 서브-윈도우들(좌측 및 우측 교정된 2D 이미지들(114) 각각에서의 하나의 서브-윈도우)에 대한 비용들을 매칭하는데 이용될 수 있다. 일부 실시예들에서, 해밍 거리 기술은 센서스 변환에서 사용될 수 있고, 여기서, S. Sarika 등의 "Census Filtering Based Stereomatching Under Varying Radiometric Conditions"(2015 Procedia Computer Science)에 설명된 바와 같이, 고려중인 픽셀을 둘러싸는 이웃 픽셀들은 이들 픽셀들의 강도 값이 고려중인 픽셀의 강도 값보다 더 큰지 또는 더 작은지에 따라 비트 스트링에 맵핑된다.According to some embodiments of the present technology, a cost calculation procedure constructs a three-dimensional (3D) cost volume map 118 by calculating matching costs for each pixel at each difference value in a set of possible difference values. It may be composed of, and may also be referred to as a “difference space image.” As described below, the cost volume (or more accurately the matching cost volume) can be determined as the product of W x H x D, where W and H are the width and height dimensions of each image, and where D is the difference hypothesis. Or is the number of possible differences. The cost of matching a particular pixel and a particular difference value indicates how unlikely it is that a particular pixel has that particular difference value. Typically, for a given pixel, the difference value with the lowest matching cost is selected to be used in the difference map, as described below. This approach to selecting a difference value for a given pixel is the so-called winner-takes-all (WTA) approach, where the winner is the difference value with the lowest matching cost, i.e. the best difference value among all difference hypotheses. Matching costs are calculated using known techniques, such as absolute deviation techniques, mutual information (MI) techniques (e.g., hierarchical MI (HMI) techniques), normalized cross-correlation (NCC) techniques, Hamming distance techniques, etc. It can be. In some embodiments, the NCC technique includes two sub-circuits around the pixel under consideration, as described in “Evaluation of Cost Functions for Stereo Matching” (2007 IEEE Conference on Computer Vision and Pattern Recognition) by H. Hirschmuller et al. It can be used to match costs for windows (one sub-window in each of the left and right calibrated 2D images 114). In some embodiments, the Hamming distance technique may be used in census transformation, where the pixel under consideration is Surrounding neighboring pixels are mapped to a bit string depending on whether their intensity values are greater or less than the intensity value of the pixel under consideration.

도 4a는 본 기술의 일부 실시예들에 따라, 비용 볼륨 맵(118)이 어떻게 결정될 수 있는지를 이해하기 위한 도면을 도시한다. 비용-볼륨 분석에서, 교정된 2D 이미지(114)의 좌측 교정된 이미지(또는 우측 교정된 이미지)에서의 모든 픽셀에 대한 비용 곡선(예를 들어, 비용 곡선(400))을 수집하는 것에 의해 비용 볼륨 맵(118)이 구성될 수 있다. 비용 볼륨 맵(118)은 H x W x D 엘리먼트들을 가지며, 여기서 H는 이미지의 높이이고(예를 들어, H는 행 방향에서의 픽셀들의 수일 수 있거나, 덜 정확한 매칭이 허용되는 경우, 행 방향에서의 픽셀 그룹들의 수일 수 있음), W는 이미지의 폭이고(예를 들어, W는 열 방향에서의 픽셀들의 수일 수 있거나, 덜 정확한 매칭이 허용되는 경우, 열 방향에서의 픽셀 그룹들의 수일 수 있음), D는 검색된 차이들의 수이다. 따라서, 간략히 말하면, 비용 볼륨 맵(118)은 각각의 픽셀 좌표(행 및 열)에 대한 비용 곡선을 포함하는 것으로 생각될 수 있다. 일부 실시예들에서, 비용 볼륨 맵(118)은 본 기술 분야에 공지된 기술들을 이용하여, 더 신뢰성 있는 매칭 비용들을 획득하기 위해(예를 들어, 필터링에 의해) 정제될 수 있다. 예를 들어, C. Rhemann 등의 "Fast cost-volume filtering for visual correspondence and beyond"(2011 Conference on Computer Vision and Pattern Recognition)에 설명된 기술들이 있다.FIG. 4A shows a diagram to understand how cost volume map 118 may be determined, in accordance with some embodiments of the present technology. In cost-volume analysis, the cost is calculated by collecting a cost curve (e.g., cost curve 400) for every pixel in the left calibrated image (or right calibrated image) of calibrated 2D image 114. A volume map 118 may be constructed. Cost volume map 118 has H may be the number of pixel groups in the column direction), and W is the width of the image (e.g., W may be the number of pixels in the column direction, or, if less accurate matching is allowed, the number of pixel groups in the column direction. ), D is the number of retrieved differences. Thus, briefly, cost volume map 118 can be thought of as containing a cost curve for each pixel coordinate (row and column). In some embodiments, cost volume map 118 may be refined (e.g., by filtering) to obtain more reliable matching costs, using techniques known in the art. For example, there are techniques described in "Fast cost-volume filtering for visual correspondence and beyond" (2011 Conference on Computer Vision and Pattern Recognition) by C. Rhemann et al.

도 4b는 본 기술의 일부 실시예들에 따라, 비용 매칭 절차를 설명하는데 사용될 수 있는 비용 곡선(400)의 예를 도시한다. 이해할 수 있는 바와 같이, 통상적으로 좌측 교정된 이미지에서 (H0, W0)의 좌표를 가지는 픽셀 P(행, 열)와 우측 교정된 이미지에서 (H0, W0+D0)의 좌표를 가지는 픽셀 사이에서 비용 매칭이 수행될 수 있다. 매칭 비용과 차이 사이의 관계를 나타내는 비용 곡선(400)은 고려중인 특정 픽셀을 나타낼 수 있다. (언급되는 "매칭 비용"이라는 용어는 본 명세서에서 "매치 비용" 또는 "비용"으로도 지칭될 수 있다.) 도 4b에 도시된 바와 같이, 비용 곡선(400)은 차이가 d1일 때 cd1의 최저 글로벌 최소 비용을 갖고, 차이가 d2일 때 cd2의 제2 최저 글로벌 최소 비용을 가지며, 이고, 차이가 d2m일 때 cd2m의 두 번째 최저 로컬 최소 비용을 갖는다. 이해될 바와 같이, 용어 "글로벌"은 비용 곡선(400) 내의 모든 포인트들에 걸쳐 평가된 값에 대해 사용될 수 있고, "로컬"이라는 용어는 비용 곡선(400)의 일부에 걸쳐 평가된 값에 대해 사용될 수 있다.FIG. 4B shows an example cost curve 400 that can be used to describe a cost matching procedure, according to some embodiments of the present technology. As can be appreciated, typically the cost between the pixel P (row, column) with coordinates of (H0, W0) in the left-corrected image and the pixel with coordinates of (H0, W0+D0) in the right-corrected image. Matching may be performed. Cost curve 400, which represents the relationship between matching cost and difference, may represent the specific pixel under consideration. (The term “matching cost” referred to may also be referred to herein as “match cost” or “cost.”) As shown in Figure 4B, cost curve 400 has c when the difference is d 1 has the lowest global minimum cost of d1 , when the difference is d2 , c has the second lowest global minimum cost of d2 , and when the difference is d2m , c has the second lowest local minimum cost of d2m . As will be understood, the term “global” may be used for values evaluated across all points within cost curve 400 and the term “local” may be used for values evaluated across a portion of cost curve 400. can be used

본 기술의 일부 실시예들에 따르면, 매칭 비용에 대한 값은, 좌측 및 우측 교정된 2D 이미지(114)에서 고려중인 픽셀 주위의 열 방향으로 5개 픽셀에 걸쳐 있고 행 방향으로 5개 픽셀에 걸쳐 있는 서브-윈도우("5x5" 서브-윈도우)에 대해 NCC 기술(상기 참조)을 이용하여 결정될 수 있다.According to some embodiments of the present technology, the value for matching cost spans 5 pixels in the column direction and 5 pixels in the row around the pixel under consideration in the left and right corrected 2D image 114. It can be determined using the NCC technique (see above) for sub-windows (“5x5” sub-windows).

본 기술의 일부 실시예들에 따르면, 비용 집성 절차는 비용 계산 절차의 결과들을 이용하여, 각각의 픽셀의 지원 영역에 걸쳐 매칭 비용들을 집성하는 것으로 구성될 수 있다. "로컬" 스테레오 매칭 기술들에 대해, 지원 영역은 관심 픽셀 주위의 이웃 픽셀들의 그룹에서의 비용들의 가중 합인 것으로 이해될 수 있다. "세미-글로벌(semi-global)" 및 "글로벌(global)" 스테레오 매칭 기술들의 경우, 지원 영역은 이미지의 모든 픽셀들에 대한 비용들의 함수인 것으로 이해될 수 있다.According to some embodiments of the present technology, the cost aggregation procedure may consist of aggregating matching costs over the support area of each pixel, using the results of the cost calculation procedure. For “local” stereo matching techniques, the area of support can be understood to be a weighted sum of costs in a group of neighboring pixels around the pixel of interest. For “semi-global” and “global” stereo matching techniques, the area of support can be understood to be a function of the costs for all pixels of the image.

본 기술의 일부 실시예들에 따르면, 차이 계산 절차는 로컬 또는 글로벌 최적화 방법들을 이용하여 각각의 픽셀에 대한 차이를 계산하고, 비용 집성 절차의 결과들을 이용하고, 정제되지 않은 차이 맵을 생성하는 것으로 구성될 수 있다. 계산 속도 대 정확도는 로컬 및 글로벌 최적화 방법들 사이의 선택을 결정할 수 있다. 예를 들어, 정확도에 비해 속도가 요구되는 경우 로컬 방법이 사용될 수 있고, 반면에, 속도에 비해 정확도가 요구되는 경우 글로벌 방법이 사용될 수 있다. 일부 실시예들에서, 블록 매칭과 같은 로컬 최적화 방법이 사용될 수 있다. 일부 실시예들에서, SGM(Semi-Global Matching)과 같은 글로벌 최적화 방법이 사용될 수 있다.According to some embodiments of the present technology, the difference calculation procedure consists of calculating the difference for each pixel using local or global optimization methods, using the results of the cost aggregation procedure, and generating an unrefined difference map. It can be configured. Computational speed versus accuracy may determine the choice between local and global optimization methods. For example, a local method may be used when speed is required over accuracy, whereas a global method may be used when accuracy is required over speed. In some embodiments, local optimization methods such as block matching may be used. In some embodiments, a global optimization method such as Semi-Global Matching (SGM) may be used.

본 기술의 일부 실시예들에 따르면, 차이 정제 절차는 정제되지 않은 차이 맵을 필터링하여, 좌측 및 우측 교정된 2D 이미지들(114)에 대한 2D 차이 맵(116)을 생성하는 것으로 구성될 수 있다. 차이 정제 절차는 차이 값들을 보정하기 위한 선택적인 절차이다. 전통적인 정제 단계들은 좌-우 체크, 홀 채움, 평활화 필터들, 및 이상점 검출 및 제거를 포함한다.According to some embodiments of the present technology, the difference refinement procedure may consist of filtering the unrefined difference map to generate a 2D difference map 116 for the left and right corrected 2D images 114. . The difference refinement procedure is an optional procedure to correct difference values. Traditional refinement steps include left-right checking, hole filling, smoothing filters, and outlier detection and removal.

본 기술의 일부 실시예들에 따르면, 스테레오 매칭 모듈(108)은 전술한 것과 상이한 스테레오 매칭 기술들을 이용할 수 있다. 예를 들어, 스테레오 매칭 모듈은 다음에 설명된 하나 이상의 기술을 사용할 수 있다: Mohd Saad Hamid 등의 "Stereo matching algorithm based on deep learning: A survey"(2020 Journal of King Saud University - Computer and Information Sciences) 및/또는 H. Hirschmuller의 "Stereo Processing by Semi-Global Matching and Mutual Information"(2008 IEEE Transactions on Pattern Analysis and Machine Intelligence)에 설명된 하나 이상의 기술.According to some embodiments of the present technology, stereo matching module 108 may utilize different stereo matching techniques than those described above. For example, the stereo matching module may use one or more techniques described in: “Stereo matching algorithm based on deep learning: A survey” by Mohd Saad Hamid et al. (2020 Journal of King Saud University - Computer and Information Sciences) and/or one or more of the techniques described in “Stereo Processing by Semi-Global Matching and Mutual Information” by H. Hirschmuller (2008 IEEE Transactions on Pattern Analysis and Machine Intelligence).

본 기술의 일부 실시예들에 따르면, 스테레오 매칭 모듈(108)은 도 1에 도시된 바와 같이, 2D 차이 맵(116)을 스테레오 비전 시스템(1)의 프로세서(10)의 인코더 모듈(112) 및 신뢰도 처리 모듈(110)에 출력한다. 일부 실시예들에서, 스테레오 매칭 모듈(108)은 또한 차이 맵(116)을 유도하는 것과 관련하여 전술한 3D 비용 볼륨 맵(118)을 신뢰도 처리 모듈(110)에 출력한다. According to some embodiments of the present technology, the stereo matching module 108 matches the 2D difference map 116 to the encoder module 112 of the processor 10 of the stereo vision system 1 and the 2D difference map 116, as shown in FIG. It is output to the reliability processing module 110. In some embodiments, the stereo matching module 108 also outputs the 3D cost volume map 118 described above in connection with deriving the difference map 116 to the reliability processing module 110.

본 기술의 일부 실시예들에 따르면, 신뢰도 처리 모듈(110)은 이미지 교정 모듈(106)로부터 좌측 및 우측 2D 교정된 이미지들(114), 스테레오 매칭 모듈(108)로부터 비용 볼륨 맵(118), 및 스테레오 매칭 모듈(108)로부터 2D 차이 맵(116)을 입력들로서 수신하고, 이들 입력들로부터 교정된 이미지들(114)의 각각의 픽셀에 대해 추정된 차이의 정확도를 결정하도록 구성된다.According to some embodiments of the present technology, the reliability processing module 110 may receive left and right 2D corrected images 114 from the image correction module 106, a cost volume map 118 from the stereo matching module 108, and receive the 2D difference map 116 from the stereo matching module 108 as inputs, and determine the accuracy of the estimated difference for each pixel of the calibrated images 114 from these inputs.

신뢰도 처리 모듈(110)은 본 기술의 일부 실시예들에 따라, 비디오 스트림의 각각의 프레임에 대한 신뢰도 값을 계산하도록 구성될 수 있다. 일부 실시예들에서, 신뢰도 처리 모듈(110)은 비디오 스트림의 각각의 프레임의 각각의 픽셀에 대한 신뢰도 값을 계산할 수 있다. 따라서, 본 명세서에서 "이미지"라는 용어는 비디오 스트림의 프레임을 포함할 수 있다는 것을 이해해야 한다.The reliability processing module 110 may be configured to calculate a reliability value for each frame of the video stream, according to some embodiments of the present technology. In some embodiments, reliability processing module 110 may calculate a reliability value for each pixel of each frame of the video stream. Accordingly, it should be understood that the term “image” herein may include frames of a video stream.

도 1을 다시 참조하면, 본 기술의 일부 실시예들에 따라, 신뢰도 처리 모듈(110)은 인코더 모듈(112)에 신뢰도 정보를 출력할 수 있다. 일부 실시예들에서, 신뢰도 정보는 비디오 스트림의 각각의 프레임에 대한 신뢰도 맵(120)일 수 있다. 신뢰도 맵(120)은 스테레오 매칭 모듈(108)에 의해 인코더 모듈(112)에 출력된 차이 맵(116)과 동일한 차원들을 가질 수 있다. 일부 실시예에서, 신뢰도 맵(120)은 차이 맵(116)의 대응하는 픽셀에 대한 깊이 추정치의 신뢰도 레벨을 나타내는 값을 나타내는, 프레임의 각 픽셀에 대한 신뢰도 정보를 포함할 수 있다. 일부 실시예들에서, 특정 픽셀의 신뢰도 레벨을 나타내는 값은 그 픽셀에 대해 결정된 차이 또는 깊이의 제곱 평균 제곱근 에러일 수 거나, 또는 그 픽셀에 대해 결정된 차이 또는 깊이의 95% 신뢰도 구간일 수 있거나, 또는 변동성의 임의의 척도(예를 들어, 표준 편차, 평균의 표준 오차, 신뢰도 구간, 데이터 범위, 백분위수 등)일 수 있다. M. Poggi 등의 "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation"(2021 IEEE Transactions on Pattern Analysis & Machine Intelligence) 및 X. Hu 등의 "A Quantitative Evaluation of Confidence Measures for Stereo Vision"(2012 IEEE Transactions on Pattern Analysis and Machine Intelligence)에 설명된 것들과 같은 다른 신뢰도 메트릭들이 이용될 수 있다.Referring back to FIG. 1 , according to some embodiments of the present technology, reliability processing module 110 may output reliability information to encoder module 112. In some embodiments, the reliability information may be a reliability map 120 for each frame of the video stream. Confidence map 120 may have the same dimensions as difference map 116 output by stereo matching module 108 to encoder module 112. In some embodiments, confidence map 120 may include confidence information for each pixel in the frame, representing a value indicative of a confidence level of the depth estimate for the corresponding pixel in difference map 116. In some embodiments, a value indicative of the level of confidence for a particular pixel may be the root mean square error of the difference or depth determined for that pixel, or a 95% confidence interval of the difference or depth determined for that pixel, or or it can be any measure of variability (e.g., standard deviation, standard error of the mean, confidence interval, data range, percentile, etc.). “On the confidence of stereo matching in a deep-learning era: a quantitative evaluation” (2021 IEEE Transactions on Pattern Analysis & Machine Intelligence) by M. Poggi et al. and “A Quantitative Evaluation of Confidence Measures for Stereo Vision” by X. Hu et al. Other reliability metrics may be used, such as those described in "(2012 IEEE Transactions on Pattern Analysis and Machine Intelligence).

도 5는 본 기술의 일부 실시예들에 따라, 신뢰도 처리 모듈(110)에 의해 수행되는 프로세스들을 도시하는 도면이다. 일부 실시예들에서, 블록(500)에서, 제1 신뢰도 척도 프로세스는 스테레오 매칭 모듈(108)로부터 수신된 비용 볼륨(118)에 기초하여 제1 신뢰도 맵(508)을 계산한다. 일부 실시예들에서, 각각의 픽셀에 대한 비용 곡선(예를 들어, 비용 곡선(400))의 승자 마진이 계산되어 제1 신뢰도 맵(508) 상에서 그 픽셀에 대한 신뢰도 값으로서 사용될 수 있다. 승자 마진(WMN)은, 전체 비용 곡선에 걸쳐 정규화된, 두 번째로 낮은 로컬 최소 비용 cd2m과 최저 글로벌 최소 비용 cd1 사이의 차이로서 정의되거나,FIG. 5 is a diagram illustrating processes performed by reliability processing module 110, according to some embodiments of the present technology. In some embodiments, at block 500, the first confidence measure process calculates a first confidence map 508 based on the cost volume 118 received from the stereo matching module 108. In some embodiments, the winning margin of the cost curve (e.g., cost curve 400) for each pixel may be calculated and used as the confidence value for that pixel on first confidence map 508. Winner Margin (WMN) is defined as the difference between the second lowest local minimum cost c d2m and the lowest global minimum cost c d1 , normalized over the entire cost curve, or

이고, ego,

여기서, p은 고려중인 픽셀의 좌표이고, c는 매칭 비용이고, D는 검색된 차이들의 세트이다. 일부 실시예들에서, 제1 신뢰도 맵(308)은 또한 M. Poggi 등의 "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation"(2021 IEEE Transactions on Pattern Analysis & Machine Intelligence)에 요약된 것들과 같은 다른 척도들로부터 유도될 수 있다.Here, p is the coordinate of the pixel under consideration, c is the matching cost, and D is the set of differences retrieved. In some embodiments, the first confidence map 308 may also be described in M. Poggi et al., “On the confidence of stereo matching in a deep-learning era: a quantitative evaluation” (2021 IEEE Transactions on Pattern Analysis & Machine Intelligence). It can be derived from other measures such as those summarized.

본 기술의 일부 실시예들에 따르면, 블록(502)에서, 신뢰도 처리 모듈(110)의 제2 신뢰도 측정 프로세스는 이미지 교정 모듈(106)로부터 수신된 교정된 2D 이미지들(114)에 기초하여 제2 신뢰도 맵(510)을 계산한다. 일부 실시예에서, 예를 들어, 교정된 2D 이미지(114)의 변화를 결정하기 위해 이미지 데이터의 미분(예를 들어, x 미분)을 계산하는 것에 의해 교정된 2D 이미지(114)에 대해 텍스처가 측정되고, 텍스처 값이 제2 신뢰도 맵(510)을 유도하는 데 사용될 수 있다. 일부 실시예에서, 이미지 텍스처는 x-소벨 연산자를 사용하여 측정될 수 있다. 이해할 수 있는 바와 같이, 스테레오 비전 기술에서는, 텍스처없는 특징들 또는 이미지 내의 복수의 다른 특징과 동일한 특징들을 매칭하는데 있어서의 어려움 때문에, 반복하는 구조들로 구성된 텍스처 또는 텍스처가 거의 없는 이미지에 관해 3D 재구성 처리를 수행하기가 어렵다는 것이 알려져 있다. 이러한 어려움을 감안하면, 제2 신뢰도 맵(310)은 x-소벨 연산자와 컨볼빙된 그레이스케일 이미지로부터 유도될 수 있다:According to some embodiments of the present technology, at block 502, the second reliability measurement process of reliability processing module 110 performs a first reliability measurement process based on the corrected 2D images 114 received from image correction module 106. 2 Calculate the reliability map 510. In some embodiments, a texture is applied to the calibrated 2D image 114, for example, by calculating a derivative (e.g., x derivative) of the image data to determine the change in the calibrated 2D image 114. As measured, the texture values can be used to derive a second confidence map 510. In some embodiments, image texture may be measured using the x-Sobel operator. As can be appreciated, in stereo vision techniques, 3D reconstruction is performed on images with little or no texture consisting of repeating structures, due to the difficulty in matching textureless features or features that are identical to a plurality of other features in the image. It is known that the processing is difficult to carry out. Given these difficulties, the second confidence map 310 can be derived from the grayscale image convolved with the x-Sobel operator:

. .

이미지에서의 에지를 강조하는 것으로 알려져 있는 이러한 소벨 컨볼루션 또는 필터링은 교정된 2D 이미지(114)에 에지가 있을 때 보다 높은 값을 산출할 수 있고, 따라서 스테레오-매칭이 더 용이할 수 있는 더 선명하고 보다 잘 정의된 특징을 초래할 수 있다. 일부 실시예들에서, 소벨 컨볼루션에 추가하여 또는 소벨 컨볼루션 대신, 제2 신뢰도 맵(510)은 픽셀의 강도에 기초하여 각각의 픽셀을 평가하고, 최소 임계값 미만 또는 최대 임계값 초과의 강도를 가지는 픽셀들에 페널티를 줌으로써 유도될 수 있다. 예를 들어, 제로 또는 낮은 신뢰도 값이 최소 임계값 아래의 신호-강도 레벨을 가지는 각각의 낮은-강도 또는 부족-조명된 픽셀에 대해 결정될 수 있고, 유사하게, 제로 또는 낮은 신뢰도 값은 최대값 위의 신호-강도 레벨을 가지는 각각의 초과-조명된 또는 포화된 픽셀에 대해 결정될 수 있다.This Sobel convolution or filtering, which is known to emphasize edges in an image, can yield higher values when there are edges in the calibrated 2D image 114, and thus a sharper image that can be easier to stereo-match. and can result in more well-defined characteristics. In some embodiments, in addition to or instead of the Sobel convolution, the second confidence map 510 evaluates each pixel based on the intensity of the pixel, with the intensity below the minimum threshold or above the maximum threshold. It can be derived by penalizing pixels with . For example, a zero or low confidence value may be determined for each low-intensity or under-illuminated pixel with a signal-intensity level below a minimum threshold, and similarly, a zero or low confidence value may be determined for each low-intensity or under-illuminated pixel with a signal-intensity level below a maximum value. A signal-intensity level of can be determined for each over-illuminated or saturated pixel.

본 기술의 일부 실시예들에 따르면, 블록(504)에서, 신뢰도 처리 모듈(110)의 제3 신뢰도 측정 프로세스는 스테레오 매칭 모듈(108)로부터 수신된 차이 맵(116)에 기초하여 제3 신뢰도 맵(512)을 계산한다. 일부 실시예들에서, 제3 신뢰도 맵(312)에 대한 신뢰도 값들은 교정된 2D 이미지들(114)의 각각의 픽셀에 대해 결정된 차이의 분산으로부터 계산될 수 있다. 일부 실시예들에서, 분산은 이웃 픽셀들(예를 들어, 고려중인 픽셀을 둘러싸는 픽셀들)에 대해 결정된 차이들에 대한 통계적 분산일 수 있다. 예를 들어, 상대적으로 더 높은 분산을 가지는 픽셀은 픽셀이 노이즈가 더 많은 (예를 들어, 더 산재된) 데이터를 가지는 차이 맵(116)의 영역의 일부라는 것을 나타낼 수 있고, 따라서 상대적으로 더 낮은 신뢰도 값을 할당받을 수 있다. 이해할 수 있는 바와 같이, 노이즈는 흐릿함을 나타낼 수 있으며, 이미지들(예를 들어, 카메라들(100)) 또는 센서들의 영역들을 캡처하는 데 사용되는 센서들이 더럽거나 부분적으로 가려질 수 있다는 것을 표시할 수 있다. 공지 기술들(예를 들어, 라플라스 필터들 및/또는 소벨 필터들에 기초한 기술들)은 차이 맵(116)에서 분산을 검출하는데 이용될 수 있다. 일부 실시예들에서, 임계 분산 미만의 분산은 고려중인 픽셀이 흐릿함 또는 흐릿한 영역에 있음을 나타낼 수 있고, 따라서 제3 신뢰도 맵(512)에서 낮은 신뢰도 값을 할당받을 수 있다.According to some embodiments of the present technology, at block 504, the third reliability measurement process of reliability processing module 110 generates a third reliability map based on the difference map 116 received from stereo matching module 108. Calculate (512). In some embodiments, confidence values for third confidence map 312 may be calculated from the variance of the difference determined for each pixel of the calibrated 2D images 114. In some embodiments, the variance may be the statistical variance of the differences determined for neighboring pixels (e.g., pixels surrounding the pixel under consideration). For example, a pixel with relatively higher variance may indicate that the pixel is part of a region of the difference map 116 that has more noisy (e.g., more scattered) data, and thus has relatively higher variance. It may be assigned a low reliability value. As can be appreciated, noise can indicate blurriness and may indicate that the sensors used to capture images (e.g., cameras 100) or areas of the sensors may be dirty or partially obscured. You can. Known techniques (e.g., techniques based on Laplace filters and/or Sobel filters) may be used to detect variance in difference map 116. In some embodiments, a variance below the threshold variance may indicate that the pixel under consideration is blurry or in a hazy region and may therefore be assigned a low confidence value in the third confidence map 512.

이해할 수 있는 바와 같이, 제1, 제2 및 제3 신뢰도 맵들(508, 510, 512)이 이미지의 각 픽셀 또는 비디오 스트림의 각각의 프레임의 각 픽셀에 대한 신뢰도 값들로 구성되는 것으로 설명되었지만, 본 기술의 일부 실시예들에 따르면, 일부 다른 실시예들에서, 제1, 제2 및 제3 신뢰도 맵들(508, 510, 512) 중 하나 이상은 이미지 또는 프레임의 2개 이상의 픽셀을 나타내는 신뢰도 값들로 구성될 수 있다. 예를 들어, 비디오 스트림의 각각의 프레임은 n개의 그룹으로 카테고리화된 픽셀들로 구성될 수 있고, 신뢰도 처리 모듈(110)은 비디오 스트림의 각각의 프레임에 대해 n개의 신뢰도 값(즉, n개의 그룹 각각에 대한 신뢰도 값)을 계산하도록 구성될 수 있다.As will be appreciated, although the first, second and third confidence maps 508, 510, 512 have been described as consisting of confidence values for each pixel of an image or each pixel of each frame of a video stream, According to some embodiments of the technology, in some other embodiments, one or more of the first, second and third confidence maps 508, 510, 512 are configured with confidence values representing two or more pixels of an image or frame. It can be configured. For example, each frame of the video stream may be comprised of pixels categorized into n groups, and reliability processing module 110 may generate n reliability values for each frame of the video stream (i.e., n It may be configured to calculate a reliability value for each group.

본 기술의 일부 실시예들에 따라, 블록(506)에서, 신뢰도 처리 모듈(110)의 집성기 프로세스는 제1, 제2 및 제3 신뢰도 맵들(508, 510, 512)을 사용하고, 제1, 제2 및 제3 신뢰도 맵들(508, 510, 512) 내의 추정된 신뢰도 값들을 조합하여 신뢰도 맵(120)을 생성한다. 따라서, 신뢰도 맵(120)은 복수의 신뢰도 척도에 기초한 최상의 확실성 추정치들인 향상된 신뢰도 값들로 구성될 수 있다. 일부 실시예들에서, 집성기 프로세스는 각각의 픽셀에 대한 신뢰도들의 합을 계산하는 것으로 구성될 수 있고, 그 합을 신뢰도 맵(120) 내의 픽셀에 대한 향상된 신뢰도 값으로서 이용할 수 있다. 일부 실시예들에서, 집성기 프로세스는 제1, 제2 및 제3 신뢰도 맵들(508, 510, 512) 내의 신뢰도들을 가중한 다음, 각각의 픽셀에 대한 신뢰도들의 가중 합을 계산하는 것을 포함할 수 있고, 가중 합을 신뢰도 맵(120) 내의 픽셀에 대한 향상된 신뢰도 값으로서 이용할 수 있다. 일부 실시예들에서, 집성기 프로세스는, 각각의 픽셀에 대해, 제1, 제2, 및 제3 신뢰도 맵들(508, 510, 512) 내의 픽셀에 대한 신뢰도들을 룩업 테이블에 대한 3개의 입력 값들로서 사용하는 것을 포함할 수 있고, 룩업 테이블은 신뢰도 맵(120) 내의 픽셀에 대한 향상된 신뢰도 값으로서 사용되는 단일 값을 출력할 수 있다.According to some embodiments of the present technology, at block 506, the aggregator process of reliability processing module 110 uses the first, second, and third reliability maps 508, 510, and 512, and , the reliability map 120 is generated by combining the estimated reliability values in the second and third reliability maps 508, 510, and 512. Accordingly, confidence map 120 may be comprised of enhanced confidence values that are best certainty estimates based on a plurality of confidence measures. In some embodiments, the aggregator process may consist of calculating a sum of the confidence values for each pixel and using that sum as an improved confidence value for the pixel in confidence map 120. In some embodiments, the aggregator process may include weighting the confidences in the first, second and third confidence maps 508, 510, 512 and then calculating a weighted sum of the confidence values for each pixel. and the weighted sum can be used as an improved confidence value for the pixels in confidence map 120. In some embodiments, the aggregator process may, for each pixel, store the reliability values for the pixel in the first, second, and third reliability maps 508, 510, and 512 as three input values to the lookup table. The lookup table can output a single value that is used as an enhanced confidence value for a pixel in confidence map 120.

도 1을 참조하면, 본 기술의 일부 실시예들에 따라, 신뢰도 처리 모듈(110)은 컴퓨터 프로세서(10)의 인코더 모듈(112)에 신뢰도 맵(120)을 출력할 수 있다. 인코더 모듈(112)은 교정된 2D 이미지들(114), 차이 맵(116) 및 신뢰도 맵(120)을 수신하고, 수신된 정보를 인코딩하며, 인코딩된 정보로 구성된 비디오 스트림(122)을 출력하도록 구성될 수 있다. 일부 실시예들에서, 비디오 스트림(122)은 차량의 메인 시스템 제어기(30)에 제공될 수 있다.Referring to FIG. 1 , according to some embodiments of the present technology, the reliability processing module 110 may output a reliability map 120 to the encoder module 112 of the computer processor 10. The encoder module 112 is configured to receive the calibrated 2D images 114, the difference map 116 and the confidence map 120, encode the received information, and output a video stream 122 consisting of the encoded information. It can be configured. In some embodiments, video stream 122 may be provided to the vehicle's main system controller 30.

본 기술의 일부 실시예들에 따르면, 비디오 스트림(122)은 24비트 컬러 심도 비디오로 구성될 수 있으며, 각각의 24비트 컬러 값은 카메라들(100)에 의해 캡처된 장면에 대한 범위 또는 거리가 되도록 인코딩될 수 있다. 일부 실시예에서, 0부터 대략 16,800 미터까지의 거리가 24 비트로 표현될 수 있고, 각각의 컬러는 16,800 미터 범위의 상이한 1 밀리미터 부분을 나타낸다. 일부 실시예에서, 비디오 스트림(122)은 픽셀로 구성된 2D 프레임으로 구성되어 있을 수 있고, 각각의 프레임의 픽셀은 교정된 2D 이미지(114)의 픽셀에 대응한다. 비디오 스트림(122)의 각각의 프레임의 각각의 픽셀은 향상된 신뢰도 값으로 인코딩될 수 있다. 예를 들어, 각각의 향상된 신뢰도 값은 0 내지 255의 8비트 무부호 값일 수 있으며, 상대적으로 더 높은 값들은 더 높은 신뢰도 레벨을 표시할 수 있다. 일부 실시예들에서, 신뢰도 맵(120)의 향상된 신뢰도 값들에 대해 8비트 표현을 이용하는 것은 신뢰도 맵(120)이 그레이스케일 이미지로서 디스플레이되는 것을 가능하게 할 수 있다. 일부 실시예들에서, 비디오 스트림(122)은 깊이 또는 거리를 나타내는 24비트 컬러 비디오 스트림, 그리고, 또한 신뢰도를 나타내는 8비트 단색 비디오 스트림으로 구성될 수 있다. 깊이 데이터가 신뢰도 데이터로부터 분리될 수 있도록 비디오 스트림(122)을 출력하는 것은, 일부 실시예들에서, 센서 융합을 용이하게 할 수 있으며, 여기서 상이한 타입들의 센서들(예를 들어, 라이다, 레이더, 초음파, 카메라들 등)로부터의 데이터는, 예를 들어, 객체들을 검출하고 객체들까지의 차량의 거리들을 결정함에 있어서 향상된 신뢰성을 제공하도록 조합될 수 있다. 예를 들어, 장면 내의 객체들이 전형적인 카메라들에 의해 캡처된 이미지에서 분명히 가시적이지 않을 수 있는 안개 환경들에서, 이미지의 픽셀들에 대한 신뢰도 값들은 일반적으로 전체 이미지 전체에 걸쳐 낮을 수 있다. 이러한 경우, 차량의 제어 시스템(예를 들어, 메인 시스템 제어기(30))은 이미지가 사용되기에 충분히 신뢰가능하지 않다고 결정할 수 있다.According to some embodiments of the present technology, video stream 122 may consist of 24-bit color depth video, with each 24-bit color value representing a range or distance relative to the scene captured by cameras 100. It can be encoded as much as possible. In some embodiments, a distance from 0 to approximately 16,800 meters may be represented in 24 bits, with each color representing a different 1 millimeter portion of the 16,800 meter range. In some embodiments, video stream 122 may be comprised of 2D frames made up of pixels, with each frame's pixel corresponding to a pixel in calibrated 2D image 114. Each pixel of each frame of video stream 122 may be encoded with an improved confidence value. For example, each enhanced confidence value could be an 8-bit unsigned value from 0 to 255, with relatively higher values indicating higher confidence levels. In some embodiments, using an 8-bit representation for the enhanced confidence values of confidence map 120 may enable confidence map 120 to be displayed as a grayscale image. In some embodiments, video stream 122 may consist of a 24-bit color video stream representing depth or distance, and an 8-bit monochrome video stream also representing reliability. Outputting a video stream 122 so that depth data can be separated from reliability data may, in some embodiments, facilitate sensor fusion, where different types of sensors (e.g., lidar, , ultrasound, cameras, etc.) can be combined to provide improved reliability, for example, in detecting objects and determining the vehicle's distances to the objects. For example, in foggy environments where objects within the scene may not be clearly visible in images captured by typical cameras, confidence values for pixels in the image may generally be low throughout the entire image. In such cases, the vehicle's control system (e.g., main system controller 30) may determine that the image is not reliable enough to be used.

본 기술의 일부 실시예들에 따르면, 스테레오 비전 시스템(1)의 컴퓨터 프로세서(10)는 라이다 신뢰도 처리 모듈(124)로 구성될 수 있고, 그리고 센서들(100)은 레이저 광으로 장면을 조명하고 장면으로부터 수신된 반사된 광으로부터 라이다 이미지 데이터(예를 들어, 비디오 스트림) 및 라이다 신뢰도 데이터를 발생시키고, 라이다 신뢰도 맵(126)을 인코더 모듈(112)에 출력하도록 구성된 라이다 센서로 구성될 수 있다. 선택적으로, 라이다 이미지 데이터는 라이다 신뢰도 맵(126)과 함께 출력될 수 있다. 일부 실시예들에서, 컴퓨터 프로세서(10)는 레이더 신뢰도 처리 모듈(128)로 구성될 수 있고, 그리고 센서들(100)은 공지된 파장(예를 들어, 76.5 GHz)의 파들로 장면을 조명하고, 공지된 파장을 갖고 장면으로부터 반사된 반사파들로부터 레이더 이미지 데이터(예를 들어, 비디오 스트림) 및 레이더 신뢰도 데이터를 생성하고, 레이더 신뢰도 맵(130)을 인코더 모듈(112)에 출력하도록 구성되는 레이더 센서로 구성될 수 있다. 선택적으로, 레이더 이미지 데이터는 레이더 신뢰도 맵(130)과 함께 출력될 수 있다. 일부 실시예들에서, 컴퓨터 프로세서(10)는 음향 신뢰도 처리 모듈(132)로 구성될 수 있고, 그리고, 센서들(100)은 알려진 파장(예를 들어, 20kHz)의 음향파들(예를 들어, 초음파들)로 장면을 조명하고, 알려진 파장을 갖고 장면으로부터 반사된 반사파들로부터 음향 이미지 데이터(예를 들어, 비디오 스트림) 및 음향 신뢰도 데이터를 생성하고, 음향 신뢰도 맵(134)을 인코더 모듈(112)에 출력하도록 구성된 트랜스듀서로 구성될 수 있다. 선택적으로, 음향 이미지 데이터는 음향 신뢰도 맵(134)과 함께 출력될 수 있다. 라이다 이미지 데이터, 레이더 이미지 데이터, 및 음향 이미지 데이터에 대한 신뢰도 값들을 결정하기 위한 기술들이 후술된다.According to some embodiments of the present technology, the computer processor 10 of the stereo vision system 1 may be configured with a LIDAR reliability processing module 124, and the sensors 100 illuminate the scene with laser light. and generate LiDAR image data (e.g., a video stream) and LiDAR reliability data from reflected light received from the scene, and output the LiDAR reliability map 126 to the encoder module 112. It can be composed of: Optionally, LiDAR image data may be output along with a LiDAR confidence map 126. In some embodiments, computer processor 10 may be configured with radar reliability processing module 128 and sensors 100 to illuminate the scene with waves of a known wavelength (e.g., 76.5 GHz) and , a radar configured to generate radar image data (e.g., a video stream) and radar reliability data from reflected waves reflected from the scene with known wavelengths, and output the radar reliability map 130 to the encoder module 112. It may consist of a sensor. Optionally, radar image data may be output along with a radar reliability map 130. In some embodiments, computer processor 10 may be configured with an acoustic reliability processing module 132 and sensors 100 may detect acoustic waves of a known wavelength (e.g., 20 kHz) (e.g., illuminate the scene with ultrasound waves), generate acoustic image data (e.g., a video stream) and acoustic reliability data from reflected waves reflected from the scene with known wavelengths, and generate an acoustic reliability map 134 into the encoder module 112. ) may be composed of a transducer configured to output. Optionally, acoustic image data may be output along with an acoustic reliability map 134. Techniques for determining reliability values for lidar image data, radar image data, and acoustic image data are described below.

본 기술의 일부 실시예들에 따르면, 라이다 신뢰도 처리 모듈(124)은 스테레오 매칭 모듈(108)로부터 차이 맵(116) 및 비용 볼륨 맵(118)을 수신하고, 신뢰도 처리 모듈(110)로부터 신뢰도 맵(120)을 수신하도록 구성될 수 있다. 도 1에 도시되어 있지는 않지만, 라이다 신뢰도 처리 모듈(124)은 또한, 일부 실시예에서, 이미지 교정 모듈(106)로부터 좌측 및 우측 교정된 2D 이미지(114) 중 하나 또는 양자 모두를 수신하도록 구성되어 있을 수 있다. 라이다 신뢰도 처리 모듈(124)은 비교를 수행하고 라이다 신뢰도 데이터가 신뢰도 맵(120)의 대응하는 영역들보다 높은 신뢰도 값들을 갖는 영역들을 식별하기 위해 신뢰도 맵(120) 및 다른 수신된 정보의 일부 또는 전부(즉, 차이 맵(116) 및/또는 비용 볼륨 맵(118) 및/또는 교정된 2D 이미지들(114) 중 하나 또는 양자 모두)를 사용할 수 있다. 일부 실시예들에서, 라이다 신뢰도 처리 모듈(124)은 라이다 신뢰도 맵(126)과 함께 비교 정보를 인코더 모듈(112)에 제공할 수 있다. 유사하게, 일부 실시예들에서, 차이 맵(116), 비용 볼륨 맵(118), 및 신뢰도 맵(120)은 레이더 신뢰도 처리 모듈(128)에 제공될 수 있으며, 이는 레이더 신뢰도 맵(130)과 함께 비교 정보를 인코더 모듈(112)에 제공하도록 구성될 수 있다. 마찬가지로, 일부 실시예들에서, 차이 맵(116), 비용 볼륨 맵(118) 및 신뢰도 맵(120)은 음향 신뢰도 처리 모듈(132)에 제공될 수 있으며, 이는 음향 신뢰도 맵(134)과 함께 비교 정보를 인코더 모듈(112)에 제공하도록 구성될 수 있다.According to some embodiments of the present technology, the lidar reliability processing module 124 receives the difference map 116 and the cost volume map 118 from the stereo matching module 108 and receives the reliability processing module 110 from the reliability processing module 110. Can be configured to receive map 120. Although not shown in FIG. 1, lidar confidence processing module 124 is also configured, in some embodiments, to receive one or both left and right corrected 2D images 114 from image correction module 106. It may be. The LiDAR reliability processing module 124 may use the reliability map 120 and other received information to perform comparisons and identify areas where the LiDAR reliability data has higher reliability values than corresponding areas of the reliability map 120. Some or all (i.e., one or both of difference map 116 and/or cost volume map 118 and/or calibrated 2D images 114) may be used. In some embodiments, LiDAR reliability processing module 124 may provide comparison information along with LiDAR reliability map 126 to encoder module 112. Similarly, in some embodiments, difference map 116, cost volume map 118, and confidence map 120 may be provided to radar reliability processing module 128, which may Together, they may be configured to provide comparison information to the encoder module 112. Likewise, in some embodiments, difference map 116, cost volume map 118, and confidence map 120 may be provided to acoustic reliability processing module 132, which compares them with acoustic confidence map 134. It may be configured to provide information to the encoder module 112.

본 기술의 일부 실시예들에 따르면, 인코더 모듈(112)은 신뢰도 맵(120) 및 라이다 신뢰도 맵(126), 레이더 신뢰도 맵(130), 및 음향 신뢰도 맵(134) 중 하나 이상을 사용하여, 카메라들(100)에 의해 획득된 센서 데이터에만 기초한 깊이 정보를 포함하도록 또는 다른 센서 시스템(예를 들어, 라이다 센서, 레이더 센서, 음향 센서, 다른 카메라 쌍 등)에만 기초한 깊이 정보를 포함하도록 비디오 스트림(122)을 인코딩할지 또는 센서 융합을 수행하여 차량 상의 복수의 상이한 센서 시스템들로부터 유도된 센서 데이터를 조합할지 여부를 결정할 수 있다. 일부 실시예들에서, 인코더 모듈(112)은 비디오 스트림(122) 내의 이미지 데이터, 깊이 데이터 및/또는 신뢰도 데이터가 상이한 센서 시스템들로부터 결정된 최고 신뢰도 값들에 대응하도록 비디오 스트림(122)을 인코딩하도록 구성될 수 있다. 일부 실시예들에서, 뷰 스트림(122)의 프레임들은 교정된 2D 이미지들(114) 및 신뢰도 맵(120)에 기초한 하나 이상의 프레임, 이어서 라이다 이미지 데이터 및 라이다 신뢰도 맵(126)에 기초한 하나 이상의 프레임, 이어서 음향 이미지 데이터 및 음향 신뢰도 맵(134)에 기초한 하나 이상의 프레임으로 구성될 수 있다. 일부 실시예에서, 비디오 스트림(122)의 하나 이상의 프레임 각각은 상이한 센서 시스템으로부터 유도된 데이터의 조합으로 구성될 수 있다. 예를 들어, 비디오 스트림(122)의 프레임들 각각은 4개의 사분면(예를 들어, 좌상단, 우상단, 좌하단, 우하단)으로 구성될 수 있고, 각각의 사분면은 최고 전체 신뢰도(예를 들어, 사분면의 픽셀들에 대한 최고 평균 신뢰도 레벨)를 갖는 센서 데이터로 구성된다. 따라서, 카메라들(100) 중 하나 또는 양자 모두 상의 이물이 신뢰도 맵(120)의 좌상단 사분면이 차량의 다른 센서 시스템들의 전체 신뢰도들에 비해 최저 전체 신뢰도를 갖게 하지만, 신뢰도 맵(120)의 다른 3개의 사분면이 최고 전체 신뢰도 값들을 갖는 경우, 이때, 비디오 스트림(122)의 대응하는 프레임의 좌상단 사분면은 최고 전체 신뢰도를 갖는 센서 시스템으로부터의 데이터로 대체될 수 있다. 이해할 수 있는 바와 같이, 비디오 스트림(122)의 프레임들을 프레임별 기반으로 또는 사분면 기반으로 최적화하는 대신에, 프레임들은 상이한 센서 시스템들의 센서들에 의해 캡처되는 장면의 고신뢰성 추정치들을 제공하는 다른 방식들로 최적화될 수 있다. 일부 실시예들에서, 차량이 야간에 또는 어두운 환경에서 동작되고 있을 때, 인코더 모듈(112)은 카메라 기반 데이터 대신에, 예를 들어, 라이다 기반 데이터로 비디오 스트림(122)을 인코딩할 수 있다.According to some embodiments of the present technology, encoder module 112 uses confidence map 120 and one or more of lidar confidence map 126, radar confidence map 130, and acoustic confidence map 134. , to include depth information based only on sensor data acquired by cameras 100 or to include depth information based only on other sensor systems (e.g., lidar sensors, radar sensors, acoustic sensors, other camera pairs, etc.) A decision may be made whether to encode the video stream 122 or perform sensor fusion to combine sensor data derived from a plurality of different sensor systems on the vehicle. In some embodiments, encoder module 112 is configured to encode video stream 122 such that the image data, depth data, and/or reliability data within video stream 122 correspond to the highest reliability values determined from different sensor systems. It can be. In some embodiments, the frames of view stream 122 are one or more frames based on calibrated 2D images 114 and confidence map 120, followed by one based on LIDAR image data and LIDAR confidence map 126. It may consist of one or more frames, followed by one or more frames based on acoustic image data and acoustic reliability map 134. In some embodiments, each of one or more frames of video stream 122 may consist of a combination of data derived from different sensor systems. For example, each of the frames of video stream 122 may be comprised of four quadrants (e.g., top left, top right, bottom left, bottom right), with each quadrant having the highest overall confidence (e.g., It consists of sensor data with the highest average confidence level for the pixels in the quadrant. Therefore, foreign matter on one or both cameras 100 will cause the upper left quadrant of confidence map 120 to have the lowest overall confidence compared to the overall confidence of the vehicle's other sensor systems, but the other three quadrants of confidence map 120 If a quadrant has the highest overall confidence values, then the upper left quadrant of the corresponding frame of video stream 122 may be replaced with data from the sensor system with the highest overall confidence values. As can be appreciated, instead of optimizing the frames of video stream 122 on a frame-by-frame basis or on a quadrant basis, the frames are different ways to provide high-reliability estimates of the scene captured by sensors of different sensor systems. can be optimized. In some embodiments, when the vehicle is operating at night or in a dark environment, encoder module 112 may encode video stream 122 with, for example, lidar-based data instead of camera-based data. .

도 6은 본 기술의 일부 실시예들에 따른 비디오 스트림(122)의 예를 도시한다. 비디오 스트림(122)은 시퀀스 프레임들로 구성될 수 있으며, 이들 중 3개만이 도시된다: 프레임 N(600), 프레임 N+1(602) 및 프레임 N+2(604). 일부 실시예들에서, 각각의 프레임은 좌측(또는 우측) 교정된 2D 이미지(114)(컬러 또는 그레이스케일), 차이 맵(116)(컬러 또는 그레이스케일), 및 신뢰도 맵(120)(컬러 또는 그레이스케일)으로 구성된 슈퍼 프레임(606)일 수 있다. 일부 실시예들에서, 슈퍼 프레임(606)은 또한 속도 크기 맵, 수평 속도 맵(x축을 따른 이동을 나타냄), 수직 속도 맵(y축을 따른 이동을 나타냄), 및 가시선 속도 맵(z축을 따른 이동을 나타냄) 중 임의의 하나 또는 임의의 조합과 같은 하나 이상의 속도 맵들을 포함할 수 있다. 속도 맵들은 2개 이상의 프레임들에 걸쳐 조밀한 광학 흐름으로 매칭된 포인트들(또는 픽셀들)을 추적한 다음 매칭된 포인트들의 차이 맵 값들의 차이를 결정하는 것에 의해 계산될 수 있다. 이러한 방식으로, 슈퍼 프레임(606)은 임의의 다른 비디오 프레임 스트림 같이 송신될 수 있고, 따라서 유리하게 인코딩, 디코딩, 송신 등을 위해 기존의 비디오 기술을 사용할 수 있다. 이해할 바와 같이, 차이 맵(116)은 그 대신에 깊이 맵일 수 있는데, 왜냐하면 양자 모두의 타입들의 맵들은 센서(예를 들어, 카메라들(100))로부터 센서에 의해 캡처된 장면까지의 거리와 관련되고, 양자 모두의 타입들의 맵들은 통상적으로 서로 반비례하기 때문이다. 일부 실시예에서, 각각의 슈퍼 프레임의 교정된 2D 이미지(114)의 각각의 픽셀의 "알파 채널" 또는 투명도가 정보를 저장하는 데 사용될 수 있다. 예를 들어, 픽셀에 대한 깊이 추정치의 신뢰도 또는 확실성에 대한 값이 픽셀의 알파 채널에 저장될 수 있다.Figure 6 shows an example video stream 122 according to some embodiments of the present technology. Video stream 122 may consist of a sequence of frames, only three of which are shown: Frame N (600), Frame N+1 (602), and Frame N+2 (604). In some embodiments, each frame includes a left (or right) corrected 2D image 114 (color or grayscale), a difference map 116 (color or grayscale), and a confidence map 120 (color or grayscale). It may be a super frame 606 composed of grayscale). In some embodiments, super frame 606 may also include a velocity magnitude map, a horizontal velocity map (representing movement along the x-axis), a vertical velocity map (representing movement along the y-axis), and a line-of-sight velocity map (representing movement along the z-axis). may include one or more velocity maps, such as any one or any combination of (representing). Velocity maps can be computed by tracking matched points (or pixels) in dense optical flow over two or more frames and then determining the difference in difference map values of the matched points. In this way, the super frame 606 can be transmitted like any other video frame stream and thus advantageously utilize existing video technologies for encoding, decoding, transmission, etc. As will be appreciated, difference map 116 may instead be a depth map, since both types of maps relate to the distance from a sensor (e.g., cameras 100) to the scene captured by the sensor. This is because the maps of both types are typically inversely proportional to each other. In some embodiments, the “alpha channel” or transparency of each pixel of the calibrated 2D image 114 of each super frame may be used to store information. For example, a value for the confidence or certainty of the depth estimate for a pixel may be stored in the pixel's alpha channel.

도 7a 내지 7f는 본 기술의 일부 실시예들에 따라, 비디오 스트림(122)에 포함될 수 있는 6가지 타입의 슈퍼 프레임들을 도시한다. 이해하듯이, 상이한 타입의 슈퍼 프레임들은 상이한 타입의 정보로 구성되며, 따라서 상이한 크기를 가질 수 있다. 도 7a는 2D RGB(Red Green Blue) 컬러 이미지(700)(예를 들어, 좌측(또는 우측) 교정된 2D 이미지(114)), 깊이 맵 또는 차이 맵(700)(예를 들어, 차이 맵(116)), 및 수직으로 연결된 신뢰도 맵(704)(예를 들어, 신뢰도 맵(120))으로 구성된 슈퍼 프레임(750)을 도시하고 있다. 일부 실시예에서, 슈퍼 프레임(750)의 각각의 픽셀은 픽셀의 차이 또는 범위를 설명하기 위해 3 바이트를 사용할 수 있고, 픽셀의 신뢰도 레벨을 설명하기 위해 3 바이트가 사용될 수 있다. 일부 실시예에서, 슈퍼 프레임(750)의 각각의 픽셀은 9 바이트로 지정될 수 있다. 도 7b는 2D 컬러 이미지(706) 및 차이 맵과 신뢰도 맵의 연쇄로 구성된 슈퍼 프레임(752)을 도시한다. 일부 실시예들에서, 슈퍼 프레임(752)의 각각의 픽셀은 차이 맵에 대해 2 바이트 및 신뢰도 맵에 대해 1 바이트를 사용할 수 있고, 연쇄에 대해 총 3 바이트를 사용할 수 있다. 일부 실시예에서, 슈퍼 프레임(752)의 각각의 픽셀은 6 바이트로 지정될 수 있다. 도 7c는 적색 이미지(710)에 대한 채널, 녹색 이미지(712)에 대한 채널, 및 청색 이미지(714)에 대한 채널을 포함하는 채널들로 형성된 2D 컬러 이미지로 구성된 슈퍼 프레임(754)을 도시한다. 슈퍼 프레임(754)은 또한 상위 바이트(716) 및 하위 바이트(718)으로 구성된 16-비트 차이 맵, 및 신뢰도 맵을 포함한다. 일부 실시예에서, 슈퍼 프레임(754)의 각각의 픽셀은 6 바이트로 지정될 수 있다. 도 7d는 적색 이미지(722), 녹색 이미지(724) 및 청색 이미지(726)로 형성된 컬러 이미지, 차이 맵(728) 및 신뢰도 맵(730)으로 구성된 슈퍼 프레임(756)을 도시한다. 일부 실시예들에서, 차이 맵(728)의 각 픽셀은 5 바이트로 지정될 수 있다. 도 7e는 2D 그레이스케일 이미지(732), 차이 맵(734), 및 신뢰도 맵(736)으로 구성된 슈퍼 프레임(758)을 도시하고 있다. 일부 실시예에서, 슈퍼 프레임(758)의 각각의 픽셀은 3 바이트로 지정될 수 있다. 도 7f는 2D 컬러 이미지(738), 차이 맵(740), 및 신뢰도 맵(742)으로 구성된 슈퍼 프레임(760)을 도시한다. 컬러 이미지(738)의 각각의 픽셀은 1 바이트로 지정될 수 있다. 예를 들어, 컬러 이미지(738)는 베이어 필터 패턴 또는 룩업 테이블에 의해 컬러 팔레트로 지정될 수 있으며, 이는 슈퍼 프레임(760)이 RGB 컬러 이미지만큼 콤팩트하게 될 수 있게 한다. 일부 실시예에서, 슈퍼 프레임(760)의 각각의 픽셀은 3 바이트로 지정될 수 있다.7A-7F illustrate six types of super frames that may be included in video stream 122, according to some embodiments of the present technology. As will be appreciated, different types of super frames consist of different types of information and therefore may have different sizes. 7A shows a 2D Red Green Blue (RGB) color image 700 (e.g., left (or right) corrected 2D image 114), a depth map or difference map 700 (e.g., a difference map ( 116)), and a vertically connected reliability map 704 (e.g., reliability map 120). In some embodiments, each pixel in super frame 750 may use three bytes to describe the difference or range of the pixel, and three bytes may be used to describe the confidence level of the pixel. In some embodiments, each pixel of super frame 750 may be designated by 9 bytes. Figure 7b shows a 2D color image 706 and a super frame 752 consisting of a chain of difference maps and confidence maps. In some embodiments, each pixel in super frame 752 may use 2 bytes for the difference map and 1 byte for the confidence map, for a total of 3 bytes for the concatenation. In some embodiments, each pixel of super frame 752 may be designated by 6 bytes. 7C shows a super frame 754 consisting of a 2D color image formed of channels including a channel for the red image 710, a channel for the green image 712, and a channel for the blue image 714. . Super frame 754 also includes a 16-bit difference map consisting of high-order byte 716 and low-order byte 718, and a confidence map. In some embodiments, each pixel of super frame 754 may be designated by 6 bytes. FIG. 7D shows a super frame 756 consisting of a color image formed by a red image 722, a green image 724, and a blue image 726, a difference map 728, and a confidence map 730. In some embodiments, each pixel in difference map 728 may be designated by 5 bytes. FIG. 7E shows a super frame 758 consisting of a 2D grayscale image 732, a difference map 734, and a confidence map 736. In some embodiments, each pixel of super frame 758 may be designated by 3 bytes. 7F shows a super frame 760 consisting of a 2D color image 738, a difference map 740, and a confidence map 742. Each pixel of color image 738 may be designated by 1 byte. For example, color image 738 can be specified in a color palette by a Bayer filter pattern or lookup table, allowing super frame 760 to be as compact as an RGB color image. In some embodiments, each pixel of super frame 760 may be designated by 3 bytes.

전술한 바와 같이, 카메라들(100)로부터의 센서 데이터에 기초하여 스테레오-비전 신뢰도 맵(120)을 인코더 모듈(112)에 제공하는 것에 추가하여, 라이다 신뢰도 맵(126), 레이더 신뢰도 맵(130), 및 음향 신뢰도 맵(134)이 인코더 모듈(112)에 제공될 수 있다. 라이다 센서, 레이더 센서, 및 음향 센서는 전술한 바와 같이, 카메라들(100)과 동일하거나 유사한 시야들을 가질 수 있거나, 중첩하는 시야들을 가질 수 있다. 일부 실시예들에서, 라이다 신뢰도 맵(126), 레이더 신뢰도 맵(130), 및 음향 신뢰도 맵(134) 중 하나 이상이 비디오 스트림(122)에 첨부될 수 있다. 예를 들어, 라이다 신뢰도 맵(126)(또는 다른 신뢰도 맵)은 도 7a 내지 7f의 슈퍼 프레임들(750, 752, 754, 756, 758, 760) 중 임의의 슈퍼 프레임의 신뢰도 맵 내의 개별 비트들로서 인코딩될 수 있거나, 또는 예를 들어, 수직 연쇄에 의해 슈퍼 프레임에 단순히 첨부될 수 있다.As described above, in addition to providing a stereo-vision reliability map 120 to the encoder module 112 based on sensor data from cameras 100, a lidar reliability map 126, a radar reliability map ( 130), and an acoustic reliability map 134 may be provided to the encoder module 112. As described above, the lidar sensor, radar sensor, and acoustic sensor may have the same or similar fields of view as the cameras 100, or may have fields of view that overlap. In some embodiments, one or more of lidar reliability map 126, radar reliability map 130, and acoustic reliability map 134 may be attached to video stream 122. For example, LIDAR reliability map 126 (or other reliability map) is an individual bit within the reliability map of any of the super frames 750, 752, 754, 756, 758, and 760 of FIGS. 7A-7F. , or simply attached to a super frame, for example by vertical concatenation.

본 기술의 일부 실시예들에 따르면, 라이다 센서가 이미지의 각각의 픽셀에 대한 라이다 복귀 신호를 제공하도록 구성되는 경우, 라이다 신뢰도 맵(예를 들어, 라이다 신뢰도 맵(126))은 2D 이미지(예를 들어, 좌측(또는 우측) 교정된 2D 이미지(114))의 각각의 픽셀에 대한 신뢰도 값들로 구성될 수 있다. 일부 실시예들에서, 라이다 센서는, 예를 들어, 하나 걸러 하나씩의 픽셀 또는 두 개 걸러 하나씩의 픽셀 또는 미리 결정된 픽셀들의 그룹에 대한 라이다 복귀 신호를 제공하도록 구성될 수 있고, 이는 비교적 희박하지만 또한 여전히 유용한 라이다 신뢰도 맵을 초래할 수 있다. 각각의 픽셀이 그 좌표들(i,j)에 의해 식별될 수 있는 경우, 픽셀(i,j)의 신뢰도 값은 mij로서 표시될 수 있다. 일부 실시예들에서, 라이다 신뢰도 맵은 다음에 따라 2D 이미지(114) 및 차이 맵(116)의 함수일 수 있고:According to some embodiments of the present technology, when a LiDAR sensor is configured to provide a LiDAR return signal for each pixel of an image, a LiDAR reliability map (e.g., LiDAR reliability map 126) is It may consist of reliability values for each pixel of a 2D image (e.g., left (or right) corrected 2D image 114). In some embodiments, the LiDAR sensor may be configured to provide a LiDAR return signal for, for example, every other pixel or every other pixel or a predetermined group of pixels, which may be relatively sparse. But it can also still result in a useful lidar confidence map. If each pixel can be identified by its coordinates (i,j), the confidence value of pixel (i,j) can be denoted as m ij . In some embodiments, the lidar confidence map may be a function of the 2D image 114 and difference map 116 according to:

R≥Rmin에 대해, mij = a0 R-2 (P + P0)-1/2 For R≥R min , m ij = a 0 R -2 (P + P 0 ) -1/2

R<Rmin에 대해, mij = 0,For R<R min , m ij = 0;

여기서, R은 차이 맵(116)에 의해 측정된 픽셀(i,j)에서의 객체까지의 거리 또는 범위이고, P는 2D 이미지(114)에 의해 측정된(햇빛 또는 다른 광원들로부터의) 픽셀(i,j)의 배경 광 파워이고, a0는 정규화 상수이고, P0는 피팅 상수이고, Rmin는 라이다 센서의 최소 범위이다. 일부 실시예들에서, P의 값은, 예를 들어, 픽셀(i,j)에서의 2D 이미지(114)의 그레이스케일 값을 카메라들(100)에 대한 센서 이득 및 노출 값들로 나눈 값일 수 있다. 전술한 바와 같이, 라이다 신뢰도 맵을 생성하는데 사용되는 2D 이미지 및 차이 맵은 카메라들(100)에 의해 캡처되는 2D 이미지(114) 및 스테레오-비전 처리에 기초하여 결정되는 차이 맵(116)일 수 있다. 일부 실시예들에서, 픽셀(i,j) 내의 객체가 라이다 센서의 최소 범위보다 더 가까울 때, 픽셀(i,j)에 대한 신뢰도 값은 0으로 설정될 수 있다. 신뢰도 값 mij에 대한 상기 표현은 거리 또는 범위의 제곱, 즉 R2에 반비례하고, 또한 배경 광 파워 P의 제곱근에 반비례하는 라이다 신호 대 노이즈비(SNR)의 추정으로부터 유도되거나, 또는where R is the distance or range to the object at pixel (i,j) as measured by the difference map 116, and P is the pixel (from sunlight or other light sources) as measured by the 2D image 114. is the background light power in (i,j), a 0 is the normalization constant, P 0 is the fitting constant, and R min is the minimum range of the lidar sensor. In some embodiments, the value of P may be, for example, the grayscale value of 2D image 114 at pixel (i,j) divided by the sensor gain and exposure values for cameras 100. . As described above, the 2D image and difference map used to generate the LIDAR confidence map may be the 2D image 114 captured by the cameras 100 and the difference map 116 determined based on stereo-vision processing. You can. In some embodiments, when an object within pixel (i,j) is closer than the minimum range of the LIDAR sensor, the confidence value for pixel (i,j) may be set to 0. The above expression for the confidence value m ij is derived from an estimate of the lidar signal-to-noise ratio (SNR), which is inversely proportional to the square of the distance or range, i.e. R 2 , and is also inversely proportional to the square root of the background light power P, or

SNRlidar ∝ R-2 P-1/2이다.SNR lidar ∝ R -2 P -1/2 .

즉, 객체가 라이다 센서로부터 더 멀리 떨어져 있을수록, 복귀 신호는 감소하고, 따라서 라이다 추정의 정확도는 복귀 신호에 대응하는 수신된 광자들의 수에 비례하여 감소한다. 또한, 임의의 배경 광(예를 들어, 태양, 시골, 인공)은 배경 광 파워의 제곱근과 동일한 노이즈 에너지로, "샷 노이즈"가 라이다 센서에 의해 감지되게 할 수 있다. 따라서, 라이다 신뢰도 맵(126)은 2개의 물리량들: 픽셀 내의 객체까지의 거리 및 픽셀 내의 배경 광의 레벨에 기초할 수 있다.That is, the further an object is from the LIDAR sensor, the return signal decreases, and thus the accuracy of the LIDAR estimate decreases proportionally to the number of received photons corresponding to the return signal. Additionally, any background light (e.g., solar, rural, artificial) may cause “shot noise” to be detected by the LiDAR sensor, with noise energy equal to the square root of the background light power. Accordingly, the lidar confidence map 126 may be based on two physical quantities: the distance to the object within the pixel and the level of background light within the pixel.

레이더 센서들, 및 라이다 센서들과 같은 음향 센서들은 R-2 P-1/2에 비례하는 SNR들을 가질 수 있다. 이 특성은 본 기술의 일부 실시예들에 따라, 라이다 신뢰도 맵을 계산하기 위해 전술한 것과 유사한 방식으로 레이더 신뢰도 맵(예를 들어, 레이더 신뢰도 맵(130)) 및/또는 음향 신뢰도 맵(예를 들어, 음향 신뢰도 맵(134))을 계산하기 위해 이용될 수 있다.Acoustic sensors, such as radar sensors and LiDAR sensors, can have SNRs proportional to R -2 P -1/2 . This characteristic may be used in a radar reliability map (e.g., radar reliability map 130) and/or an acoustic reliability map (e.g., For example, it can be used to calculate an acoustic reliability map 134).

본 기술의 일부 실시예들에 따르면, 차량 상의 상이한 센서 시스템들은 상이한 거리 범위들에서 객체들을 감지하도록 배열될 수 있다. 예를 들어, 도 8a는 레이더 센서 시스템 또는 음향 센서 시스템에 의해 조명된 빔 영역(800)을 개략적으로 도시한다. 빔 영역(800)은 다수의 거리 또는 범위 RA, RB, RC 및 RD에서 다수의 객체 A, B, C, D를 갖는 장면을 포함할 수 있다. 객체로부터 반사된 복귀 신호의 강도는 객체의 단면적에 비례하며, 이는 스테레오 비전 시스템(1)에 의해 측정될 수 있다(예를 들어, 범위는 차이 맵(116)에 기초하고, 목표의 면적은 좌측(또는 우측) 교정된 2D 이미지(114)에 의해 주어짐). 일부 실시예들에서, 센서 시스템에 의해 검출된 복귀 신호들은 신호 강도에 기초하여 상이한 빈들로 카테고리화될 수 있다. 도 8b는 객체들(A, B, C, D) 각각에 대한 단면적과 범위 사이의 관계를 나타내는 그래프이다. 파선은 레이더 센서 시스템(또는 라이다 센서 시스템)의 노이즈 플로어(802)를 나타낸다. 노이즈 플로어(802)는 레이더 및 라이다 기술들에 대한 공지된 양이며 거리의 제곱의 함수로서 저하되는 것으로 공지된 센서 감도에 대응할 수 있다. 전술한 바와 같이, 라이다 SNR은 거리 또는 범위의 제곱에 반비례하는 값으로서 추정될 수 있다. 일부 실시예들에서, 픽셀에 대한 라이다(또는 레이더) 신뢰도는 픽셀에 대한 SNR에 비례하는 값으로서 결정될 수 있다. 예를 들어, 노이즈 플로어(802)의 범위-스케일링된 값에 대한, 복수의 픽셀들에 걸쳐 있을 수 있는 객체의 단면적의 비율은 SNR에 비례하는 값이며, 객체가 나타나는 픽셀들에 대한 신뢰도 값으로서 사용될 수 있다.According to some embodiments of the present technology, different sensor systems on a vehicle may be arranged to detect objects at different distance ranges. For example, Figure 8A schematically shows a beam area 800 illuminated by a radar sensor system or an acoustic sensor system. Beam area 800 may include a scene with multiple objects A, B, C, D at multiple distances or ranges R A , R B , R C and R D . The intensity of the return signal reflected from an object is proportional to the cross-sectional area of the object, which can be measured by the stereo vision system 1 (e.g., the range is based on the difference map 116, the area of the target is on the left (or right) given by the corrected 2D image 114). In some embodiments, return signals detected by the sensor system may be categorized into different bins based on signal strength. Figure 8b is a graph showing the relationship between the cross-sectional area and range for each of the objects (A, B, C, and D). The dashed line represents the noise floor 802 of the radar sensor system (or LiDAR sensor system). Noise floor 802 is a known quantity for radar and lidar technologies and may correspond to sensor sensitivity, which is known to degrade as a function of the square of distance. As described above, LIDAR SNR can be estimated as a value inversely proportional to the square of the distance or range. In some embodiments, LIDAR (or radar) reliability for a pixel may be determined as a value proportional to the SNR for the pixel. For example, the ratio of the cross-sectional area of an object that may span a plurality of pixels to the range-scaled value of the noise floor 802 is a value proportional to the SNR and a confidence value for the pixels in which the object appears. can be used

본 기술의 예시적인 실시예에 따르면, 스테레오 비전 시스템(1)이 설치되는 차량은 승용차일 수 있다. 센서들(100)은 (예를 들어, 도 2의 센서들(S3, S7)의 포지션들에서) 자동차의 윈드실드의 좌상단 부분 및 우상단 부분에 장착된 2개의 카메라일 수 있고, 처리되어 비디오 스트림(122)으로 변환되는 이미지들을 캡처하도록 구성될 수 있고, 이는 전술한 슈퍼 프레임(750)과 같은 슈퍼 프레임들로 구성될 수 있다. 슈퍼 프레임(750)의 RGB 이미지(700)는 객체 검출 모듈(예를 들어, 단안 객체 검출기)에 의해 파싱될 수 있으며, 객체 검출 모듈은 이미지 전처리 모듈(104)의 일부일 수 있거나, 스테레오 매칭이 수행되기 전에 이미지들이 교정되기 전에(또는 교정된 후에) 캡처된 이미지들의 이미지 데이터를 처리하는 컴퓨터 프로세서(10)의 개별 모듈일 수 있다. 예를 들어, 객체 검출 모듈은 캡처된 이미지들의 장면에서 다양한 형상들의 경계 상자들을 결정하기 위해 훈련된 컨볼루션 신경망을 사용하도록 구성될 수 있다. 형상들은 자동차가 종종 마주치는 전형적인 객체들(예를 들어, 다른 차량들, 보행자들, 자전거 타는 사람들, 교통 표지들, 신호등들 등)로서 인식하도록 신경망이 훈련된 객체들의 카테고리들에 대응할 수 있다. 슈퍼 프레임(750)의 차이 맵(702)은 검출된 객체들까지의 평균 거리를 결정하기 위해 경계 상자들에 걸쳐 평균화될 수 있다. 또한, 지상 평면 또는 노면은 S. Kakegawa 등의 "Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera"(Int'l J. ITS Res. vol. 16, pp. 90-97, 2018)에 설명된 수직 차이 히스토그램들을 이용하는 기술들, 및 H. Badino 등의 "Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming"(Workshop on Dynamical Vision, ICCV, 2007)에 설명된 확률적 점유 그리드들 및 동적 프로그래밍을 이용하는 기술들과 같은 공지 기술들을 이용하여 차이 맵(702)으로부터 계산될 수 있다. 노면으로부터, 분류되지 않은 도로 위험들(예를 들어, 모터사이클 헬멧, 벽돌, 목재 팔레트, 느슨한 화물, 소음기, 타이어로부터 분리된 나무 등)이 위치되고 표시될 수 있다. 전형적인 도로 표면들 상의 작은 분류되지 않은 객체들은 종종 잘 정의된 에지들 및 윤곽 특징들을 가지며, 이는 신뢰도 맵(704)에서 높은 신뢰도 값들을 초래할 수 있고, 따라서 위양성들 및 불필요한 자동화된 비상 제동이 발생하는 것을 방지할 수 있다. 이 예시적인 실시예에서, 카메라들(100) 중 하나 또는 양자 모두의 캡처된 이미지의 좌하단 부분을 차단하는 윈드실드 상에 이물(예를 들어, 진흙)이 있을 때, 신뢰도 처리 모듈(110)은 스테레오 매칭 모듈(108)이 스테레오 매칭 모듈(108)에 의해 출력된 비용 볼륨 맵(118)의 좌하단 부분에서 높은 비용을 반복적으로 보고하고 따라서 신뢰도 맵(120)의 대응하는 영역에 대한 낮은 신뢰도 값들을 제공할 수 있다는 것을 검출할 수 있다. 자동차의 메인 시스템 제어기(30)는 낮은 신뢰도 값들이 허용가능한 신뢰도 임계값 내에 있는지를 결정하도록 구성될 수 있고, 허용가능하지 않은 경우, 좌하단 영역으로부터의 데이터를 무효화하도록 컴퓨터 프로세서(10)를 제어할 수 있다. 즉, 일부 실시예들에서, 좌하단 영역에 대한 신뢰도 값들이 신뢰성 임계값 미만이고 따라서 좌하단 영역에 대한 계산된 깊이 값들이 무효일 수 있기 때문에, 컴퓨터 프로세서(10)는 캡처된 이미지의 장면에서 객체들을 검출하기 위해, 잘못된 판독들을 회피하기 위해, 그리고 결과적으로 자동차의 잘못된 제어를 회피하기 위해(예를 들어, 자동차가 장면에 실제로 있지 않은 객체를 회피하기 위해 회피 기동을 수행하도록 제어되는 것을 방지하기 위해) 좌하단 영역에 관한 카메라들(100)로부터의 데이터를 사용하지 않도록 제어될 수 있다. 그 대신에, 전술한 바와 같이, 데이터에 대한 신뢰도 값들이 신뢰도 임계값을 충족시키는 경우, 자동차 상의 다른 센서들로부터의 데이터가 사용될 수 있다.According to an exemplary embodiment of the present technology, the vehicle in which the stereo vision system 1 is installed may be a passenger car. Sensors 100 may be two cameras mounted on the upper left and upper right portions of the windshield of the vehicle (e.g., at the positions of sensors S3 and S7 in Figure 2) and are processed to produce a video stream. 122 may be configured to capture images that are converted into super frames, such as super frame 750 described above. RGB image 700 of super frame 750 may be parsed by an object detection module (e.g., a monocular object detector), which may be part of image preprocessing module 104, or stereo matching may be performed. It may be a separate module of the computer processor 10 that processes the image data of the captured images before (or after) the images are calibrated. For example, an object detection module may be configured to use a trained convolutional neural network to determine bounding boxes of various shapes in a scene of captured images. The shapes may correspond to categories of objects that the neural network is trained to recognize as typical objects that cars often encounter (e.g., other vehicles, pedestrians, cyclists, traffic signs, traffic lights, etc.). The difference map 702 of the super frame 750 may be averaged over the bounding boxes to determine the average distance to the detected objects. In addition, the ground plane or road surface is described in "Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera" by S. Kakegawa et al. (Int'l J. ITS Res. vol. 16, pp. 90-97, 2018) Techniques using vertical difference histograms, and techniques using stochastic occupancy grids and dynamic programming described in "Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming" (Workshop on Dynamical Vision, ICCV, 2007) by H. Badino et al. It can be calculated from the difference map 702 using well-known techniques such as . From the road surface, unclassified road hazards (eg, motorcycle helmets, bricks, wooden pallets, loose cargo, mufflers, trees separated from tires, etc.) can be located and marked. Small unclassified objects on typical road surfaces often have well-defined edges and contour features, which can result in high confidence values in the confidence map 704, thus resulting in false positives and unnecessary automated emergency braking. can be prevented. In this example embodiment, when there is a foreign body (e.g., mud) on the windshield that blocks the lower left portion of the captured image of one or both cameras 100, the reliability processing module 110 The stereo matching module 108 repeatedly reports high costs in the lower left portion of the cost volume map 118 output by the stereo matching module 108 and therefore low confidence for the corresponding region of the confidence map 120. It can be detected that values can be provided. The vehicle's main system controller 30 may be configured to determine whether low confidence values are within an acceptable confidence threshold and, if not, control the computer processor 10 to invalidate data from the lower left region. can do. That is, in some embodiments, computer processor 10 may cause the computer processor 10 to To detect objects, to avoid false readings, and consequently to avoid erroneous control of the car (e.g. to prevent the car from being controlled to perform evasive maneuvers to avoid objects that are not actually in the scene). (To do this) can be controlled not to use data from the cameras 100 regarding the lower left area. Alternatively, as described above, data from other sensors on the vehicle may be used if the confidence values for the data meet a confidence threshold.

도 3을 다시 참조하면, 본 기술의 일부 실시예들에 따라, 메인 시스템 제어기(30)는 차량의 동작의 다양한 양태들을 제어하도록 구성된 복수의 ECU(34-1, 34-2, 34-3, 34-4, ..., 34-n)에 제어 신호들을 발행하도록 구성될 수 있다. 예를 들어, 비디오 스트림(122)은 차량의 디스플레이(도시되지 않음)에 그리고 또한 메인 시스템 제어기(30)에 제공될 수 있으며, 이는 비디오 스트림(122)으로부터의 차이 정보 및 신뢰도 정보를 사용하여, 적색 후미등이 차량의 경로 앞에 있다는 것을 높은 확실성(예를 들어, 90% 초과의 확실성)으로 결정할 수 있으며, 이는 교통 혼잡 또는 다른 잠재적 위험을 나타낼 수 있다. 그 후, 메인 시스템 제어기(30)는 차량의 파워 트레인을 제어할 수 있는 제어 신호를 ECU(34-1)에 발행하여, 차량이 감속하고 정지하게 할 수 있다. 일부 실시예들에서, 컴퓨터 프로세서(10) 및/또는 메인 시스템 제어기(30)에 의한 처리는, 장면의 이미지 데이터가 카메라들(100)에 의해 캡처되어 이미지 취득 모듈(102)로 전달될 때까지 디스플레이가 비디오 스트림(122)에 대응하는 비디오를 실시간으로 또는 거의 실시간으로(예를 들어, 2초 미만 또는 1초 미만) 보여줄 수 있도록 충분히 빠를 수 있다. 일부 실시예들에서, ECU(34-1)는 장면의 이미지 데이터가 카메라들(100)에 의해 캡처되어 이미지 취득 모듈(102)로 전달될 때 실시간 또는 거의 실시간으로 제어 신호를 수신할 수 있다. 전술한 바와 같이, 메인 시스템 제어기(30)와 ECU들(34-1, 34-2, 34-3, 34-4, ..., 34-n) 사이의 통신은 기술들을 통할 수 있다. 예를 들어, 커맨드 및 제어 라인(32)은 차량에 탑재된 네트워크 또는 버스일 수 있고, 공지된 프로토콜(예를 들어, 이더넷, CAN, I2C, LIN 등)을 사용하여 메인 시스템 제어기(30)와 ECU들(34-1, 34-2, 34-3, 34-4, ..., 34-n) 사이에 신호들을 송신할 수 있다.Referring back to Figure 3, according to some embodiments of the present technology, main system controller 30 includes a plurality of ECUs 34-1, 34-2, 34-3, configured to control various aspects of the operation of the vehicle. 34-4, ..., 34-n). For example, video stream 122 may be provided to a vehicle's display (not shown) and also to main system controller 30, which may use difference information and reliability information from video stream 122 to: It can be determined with high certainty (e.g., greater than 90% certainty) that red tail lights are ahead of the vehicle's path, which may indicate traffic congestion or other potential hazards. Thereafter, the main system controller 30 issues a control signal capable of controlling the vehicle's power train to the ECU 34-1, causing the vehicle to decelerate and stop. In some embodiments, processing by computer processor 10 and/or main system controller 30 continues until image data of the scene is captured by cameras 100 and delivered to image acquisition module 102. The display may be fast enough to show video corresponding to video stream 122 in real time or near real time (e.g., less than 2 seconds or less than 1 second). In some embodiments, ECU 34-1 may receive control signals in real time or near real time as image data of a scene is captured by cameras 100 and delivered to image acquisition module 102. As described above, communication between the main system controller 30 and the ECUs 34-1, 34-2, 34-3, 34-4, ..., 34-n may be via techniques. For example, the command and control line 32 may be a network or bus mounted on the vehicle and is connected to the main system controller 30 using known protocols (e.g., Ethernet, CAN, I2C, LIN, etc.). Signals can be transmitted between ECUs (34-1, 34-2, 34-3, 34-4, ..., 34-n).

도 9a 및 도 9b는 2개의 5-메가픽셀 카메라에 의해 캡처되고 전술한 본 기술의 다양한 실시예들에 따라 처리되는 장면의 이미지들로부터 초래되는 데이터의 예들을 도시한다. 2개의 카메라는 표준 승객 차량의 루프에 장착되어, 1.2-m 베이스라인에 의해 분리된다. 도 9a는 장면의 거리 및 광도 양자 모두가 동시에 보여질 수 있도록 그레이스케일 카메라 이미지(도시되지 않음)와 혼합된 컬러 차이 맵을 도시한다. 차이 맵은 제트 컬러맵으로 인코딩되는 0 내지 1023의 값들을 가지고 있고, 여기에서 적색 컬러들은 비교적 가까운 객체들을 나타내고 청색 컬러들은 비교적 더 멀리 떨어진 객체들을 나타낸다. 차이 맵의 투명도는 그레이스케일 카메라 이미지에 의해 변조된다. 도 9b는 장면의 대응하는 신뢰도 맵을 나타낸다. 신뢰도 맵은 H. Hirschmuller에 의한 "Stereo Processing by Semi-Global Matching and Mutual Information"(2008 IEEE Transactions on Pattern Analysis and Machine Intelligence)에 설명된 바와 같은 세미-글로벌 매칭 알고리즘으로부터의 각각의 픽셀에 대한 최소 집성 비용 값들을 보여준다.9A and 9B show examples of data resulting from images of a scene captured by two 5-megapixel cameras and processed according to various embodiments of the technology described above. The two cameras are mounted on the roof of a standard passenger vehicle, separated by a 1.2-m baseline. Figure 9A shows a color difference map mixed with a grayscale camera image (not shown) so that both distance and luminance of the scene can be viewed simultaneously. The difference map has values from 0 to 1023 encoded as a jet colormap, where red colors represent relatively close objects and blue colors represent relatively more distant objects. The transparency of the difference map is modulated by the grayscale camera image. Figure 9b shows the corresponding confidence map of the scene. The confidence map is the minimum aggregation for each pixel from a semi-global matching algorithm as described in "Stereo Processing by Semi-Global Matching and Mutual Information" by H. Hirschmuller (2008 IEEE Transactions on Pattern Analysis and Machine Intelligence). Shows cost values.

본 기술의 일부 실시예들에 따르면, 도 1, 3 및 5의 처리 모듈들 및 컴포넌트들은 하드웨어(예를 들어, 전술한 절차들 및 방법들을 수행하도록 프로그래밍된 하나 이상의 컴퓨터 프로세서(들)) 및/또는 소프트웨어(예를 들어, 컴퓨터-실행가능 코드)로 구현될 수 있다. 일부 실시예들에서, 소프트웨어의 적어도 일부는 컴퓨터 프로세서(들)에서 미리 프로그래밍될 수 있다. 일부 실시예들에서, 소프트웨어의 적어도 일부는 비일시적 컴퓨터 판독가능 저장 매체 또는 복수의 비일시적 컴퓨터 판독가능 저장 매체 상에 저장될 수 있고, 이는 컴퓨터 프로세서(들)에 의해 액세스되고 실행될 수 있다. 일부 실시예들에서, 프로세스 모듈은 소프트웨어 모듈 또는 하드웨어 모듈 또는 하드웨어와 소프트웨어를 조합하는 모듈일 수 있다.According to some embodiments of the present technology, the processing modules and components of FIGS. 1, 3, and 5 may include hardware (e.g., one or more computer processor(s) programmed to perform the procedures and methods described above) and/ or may be implemented in software (e.g., computer-executable code). In some embodiments, at least a portion of the software may be pre-programmed in the computer processor(s). In some embodiments, at least a portion of the software may be stored on a non-transitory computer-readable storage medium or a plurality of non-transitory computer-readable storage media, which may be accessed and executed by a computer processor(s). In some embodiments, a process module may be a software module, a hardware module, or a module combining hardware and software.

본 명세서에 설명된 기술에 따른 차량 보조 시스템들은 상이한 구성들로 구현될 수 있다. 예시적인 구성들은 다음과 같이 구성 (1) 내지 구성 (21)의 조합들을 포함한다:Vehicle assistance systems according to the technology described herein may be implemented in different configurations. Exemplary configurations include combinations of configurations (1) through (21) as follows:

(1) 감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템에 있어서, 컴퓨터 프로세서 및 컴퓨터 프로세서에 결합된 메모리로 구성된 차량 제어 시스템; 장면의 제1 이미지 데이터를 수신하고, 상기 제1 이미지 데이터에 기초하여 제1 차이 맵 및 제1 신뢰도 맵을 출력하도록 구성된 제1 센서 시스템을 포함하고, 차량 제어 시스템은 제1 센서 시스템으로부터 제1 차이 맵 및 제1 신뢰도 맵을 수신하고, 제1 차이 맵 및 제1 신뢰도 맵으로 구성된 비디오 스트림을 출력하도록 구성된다.(1) An automated vehicle assistance system for supervised or unsupervised vehicle movement, comprising: a vehicle control system comprising a computer processor and a memory coupled to the computer processor; a first sensor system configured to receive first image data of a scene, and output a first difference map and a first confidence map based on the first image data, wherein the vehicle control system receives first image data from the first sensor system; configured to receive a difference map and a first confidence map, and output a video stream comprised of the first difference map and the first confidence map.

(2) 구성 (1)의 시스템에 있어서, 비디오 스트림에서, 제1 신뢰도 맵은 제1 차이 맵의 일부가 되도록 인코딩된다.(2) In the system of configuration (1), in the video stream, the first confidence map is encoded to be part of the first difference map.

(3) 구성 (1) 또는 구성 (2)의 시스템에 있어서, 제1 이미지 데이터는 복수의 픽셀로 구성되고, 차이 맵은 픽셀들 각각에 대한 차이 데이터로 구성되고, 신뢰도 맵은 픽셀들 각각에 대한 신뢰도 데이터로 구성된다.(3) In the system of configuration (1) or configuration (2), the first image data is composed of a plurality of pixels, the difference map is composed of difference data for each of the pixels, and the confidence map is composed of difference data for each of the pixels. It consists of reliability data for

(4) 구성 (1) 내지 구성 (3) 중 어느 한 구성의 시스템에 있어서, 제1 이미지 데이터는 좌측 및 우측 이차원(2D) 제1 이미지들에 대한 데이터로 구성되고, 제1 센서 시스템은 제1 이미지 데이터로부터 좌측 및 우측(2D) 교정된 제1 이미지들 및 제1 비용 볼륨 맵을 생성하도록 구성되고, 제1 센서 시스템은 2D 교정된 제1 이미지들, 제1 차이 맵, 및 제1 비용 볼륨 맵으로부터 제1 신뢰도 맵을 생성하도록 구성된다.(4) In the system of any one of configurations (1) to (3), the first image data consists of data for left and right two-dimensional (2D) first images, and the first sensor system includes the first image data. configured to generate left and right (2D) corrected first images and a first cost volume map from the 1 image data, wherein the first sensor system is configured to generate the 2D corrected first images, the first difference map, and the first cost volume map. and configured to generate a first reliability map from the volume map.

(5) 구성 (1) 내지 구성 (4) 중 어느 한 구성의 시스템에 있어서, 제1 센서 시스템은, 다음 중 하나 또는 양자 모두에 기초하여 제1 신뢰도 맵을 생성하도록 구성된다: 세미-글로벌 매칭(SGM) 알고리즘으로부터 결정된 고유성 값 및 제1 이미지 데이터에 대한 소벨 연산으로부터 결정된 이미지 텍스처 값.(5) The system of any of configurations (1) to (4), wherein the first sensor system is configured to generate the first reliability map based on one or both of the following: Semi-global matching A uniqueness value determined from the (SGM) algorithm and an image texture value determined from a Sobel operation on the first image data.

(6) 구성 (1) 내지 구성 (5) 중 어느 한 구성의 시스템에 있어서, 장면의 적어도 일부의 제2 이미지 데이터를 수신하고, 제2 이미지 데이터에 기초하여 제2 신뢰도 맵을 출력하도록 구성되는 제2 센서 시스템을 더 포함하고, 차량 제어 시스템은 제2 센서 시스템으로부터 제2 신뢰도 맵을 수신하고, 비디오 스트림을 슈퍼 프레임들의 시퀀스로서 출력하도록- 각각의 슈퍼 프레임은 제1 차이 맵, 제1 신뢰도 맵 및 제2 신뢰도 맵에 기초한 정보로 구성됨 -구성된다.(6) The system of any one of configurations (1) to (5), configured to receive second image data of at least a portion of the scene and output a second reliability map based on the second image data. further comprising a second sensor system, wherein the vehicle control system receives a second reliability map from the second sensor system, and outputs the video stream as a sequence of super frames, each super frame comprising a first difference map, a first reliability map, -consists of information based on the map and the second confidence map.

(7) 구성 (1) 내지 구성 (6) 중 어느 한 구성의 시스템에 있어서, 차량 제어 시스템은 비디오 스트림의 정보에 기초하여 차량의 전자 제어 유닛(ECU)에 제어 신호를 출력하도록 구성된다.(7) In the system of any one of configurations (1) to (6), the vehicle control system is configured to output a control signal to the electronic control unit (ECU) of the vehicle based on information in the video stream.

(8) 구성 (1) 내지 구성 (7) 중 어느 한 구성의 시스템에 있어서, 여기서, 제1 센서 시스템은 제1 이미지 데이터를 처리하여 제1 차이 맵 및 제1 신뢰도 맵을 생성하도록 구성된 제1 센서 모듈이고, 제2 센서 시스템은 제2 이미지 데이터를 처리하여 제2 신뢰도 맵을 생성하도록 구성된 제2 센서 모듈이고, 제1 및 제2 센서 모듈은 메모리에 저장되고, 컴퓨터 프로세서는 제1 센서 모듈 및 제2 센서 모듈을 실행하도록 구성된다.(8) The system of any one of configurations (1) to (7), wherein the first sensor system is configured to process the first image data to generate a first difference map and a first confidence map. A sensor module, the second sensor system is a second sensor module configured to process the second image data to generate a second reliability map, the first and second sensor modules are stored in a memory, and the computer processor is configured to process the second image data to generate a second reliability map, and a second sensor module.

(9) 구성 (1) 내지 구성 (8) 중 어느 한 구성의 시스템에 있어서, 비디오 스트림은 제1 차이 맵과 제1 신뢰도 맵으로 구성된 적어도 하나의 슈퍼 프레임과, 제1 차이 맵과 제2 신뢰도 맵으로 구성된 적어도 하나의 슈퍼 프레임으로 구성된다.(9) In the system of any one of configurations (1) to (8), the video stream includes at least one super frame composed of a first difference map and a first reliability map, and a first difference map and a second reliability map. It consists of at least one super frame consisting of a map.

(10) 구성 (1) 내지 구성 (9) 중 어느 한 구성의 시스템에 있어서, 비디오 스트림은 제1 신뢰도 맵의 일부 및 제2 신뢰도 맵의 일부로 구성된 적어도 하나의 슈퍼 프레임으로 구성된다.(10) In the system of any one of configurations (1) to (9), the video stream is composed of at least one super frame composed of a portion of the first reliability map and a portion of the second reliability map.

(11) 구성 (1) 내지 구성 (10) 중 어느 한 구성의 시스템에 있어서, 여기서, 제1 이미지 데이터는 스테레오-비전 데이터로 구성되고, 제2 이미지 데이터는 라이다 데이터로 구성된다.(11) In the system of any one of configurations (1) to (10), where the first image data is composed of stereo-vision data, and the second image data is composed of lidar data.

(12) 구성 (1) 내지 구성 (11) 중 어느 한 구성의 시스템에 있어서, 장면의 적어도 일부의 제3 이미지 데이터를 수신하고, 제3 이미지 데이터에 기초하여 제3 신뢰도 맵을 출력하도록 구성되는 제3 센서 시스템을 더 포함한다.(12) The system of any one of configurations (1) to (11), configured to receive third image data of at least a portion of a scene and output a third reliability map based on the third image data. It further includes a third sensor system.

(13) 구성 (1) 내지 구성 (12) 중 어느 한 구성의 시스템에 있어서, 제3 이미지 데이터는 레이더 데이터 또는 음향 데이터로 구성된다.(13) In the system of any one of configurations (1) to (12), the third image data consists of radar data or acoustic data.

(14) 구성 (1) 내지 구성 (13) 중 어느 한 구성의 시스템에 있어서, 비디오 스트림의 각각의 슈퍼 프레임은 장면의 이차원(2D) 이미지, 장면의 깊이 맵, 및 장면의 확실성 맵으로 구성된다.(14) The system of any one of configurations (1) to (13), wherein each super frame of the video stream is composed of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene. .

(15) 구성 (1) 내지 구성 (14) 중 어느 한 구성의 시스템에 있어서, 장면의 확실성 맵은 제1 신뢰도 맵 또는 제2 신뢰도 맵 또는 제1 및 제2 신뢰도 맵의 조합으로 구성된다.(15) In the system of any one of configurations (1) to (14), the certainty map of the scene is composed of a first confidence map or a second confidence map or a combination of the first and second confidence maps.

(16) 구성 (1) 내지 구성 (15) 중 어느 한 구성의 시스템에 있어서, 장면의 깊이 맵은 장면의 2D 이미지에 대응하는 이미지 데이터로 변조된 제1 차이 맵으로 구성되고, 장면의 확실성 맵은 제1 신뢰도 맵 또는 제2 신뢰도 맵, 또는 장면의 2D 이미지에 대응하는 이미지 데이터로 변조된 제1 및 제2 신뢰도 맵들의 조합으로 구성된다.(16) The system of any one of configurations (1) to (15), wherein the depth map of the scene is comprised of a first difference map modulated with image data corresponding to a 2D image of the scene, and a certainty map of the scene. consists of a first confidence map or a second confidence map, or a combination of first and second confidence maps modulated with image data corresponding to a 2D image of the scene.

(17) 구성 (1) 내지 구성 (16) 중 어느 한 구성의 시스템에 있어서, 장면의 2D 이미지의 픽셀들, 장면의 깊이 맵의 픽셀들, 및 장면의 확실성 맵의 픽셀들은 시간적으로 및 공간적으로 매칭된다.(17) The system of any one of configurations (1) to (16), wherein pixels of the 2D image of the scene, pixels of the depth map of the scene, and pixels of the certainty map of the scene are temporally and spatially It matches.

(18) 구성 (1) 내지 구성 (17) 중 어느 한 구성의 시스템에 있어서, 차량 제어 시스템은 비디오 스트림의 데이터 크기를 감소시키기 위해 제1 차이 맵으로부터의 차이 정보와 제1 및 제2 신뢰도 맵으로부터의 신뢰도 정보를 인코딩하도록 구성된다.(18) In the system of any one of configurations (1) to (17), the vehicle control system includes difference information from the first difference map and the first and second confidence maps to reduce the data size of the video stream. configured to encode reliability information from.

(19) 구성 (1) 내지 구성 (18) 중 어느 한 구성의 시스템에 있어서, 차량에 장착되도록 구성된 한 쌍의 카메라를 더 포함하고, 카메라들은 제1 이미지 데이터를 제1 센서 시스템에 제공하도록 구성된다.(19) The system of any one of configurations (1) to (18), further comprising a pair of cameras configured to be mounted on a vehicle, wherein the cameras are configured to provide first image data to the first sensor system. do.

(20) 구성 (1) 내지 구성 (19) 중 어느 한 구성의 시스템에 있어서, 비디오 스트림은 이차원(2D) 컬러 이미지들로 구성되고, 각각의 2D 컬러 이미지는 복수의 픽셀로 구성되고, 각각의 픽셀의 알파-채널 투명도는 픽셀에 대한 신뢰도 값에 비례한다.(20) In the system of any one of configurations (1) to (19), the video stream is composed of two-dimensional (2D) color images, each 2D color image is composed of a plurality of pixels, and each A pixel's alpha-channel transparency is proportional to the confidence value for that pixel.

(21) 구성 (1) 내지 구성 (20) 중 어느 한 구성의 시스템에 있어서, 2D 컬러 이미지들의 컬러들은 깊이 범위들을 나타낸다.(21) In the system of any one of configurations (1) to (20), the colors of the 2D color images represent depth ranges.

비일시적 컴퓨터 판독가능 저장 매체는, 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금 본 명세서에 설명되는 기술에 따른 감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템의 방법들을 수행하게 하는 코드를 저장하도록 구성될 수 있다. 이러한 컴퓨터 판독가능 저장 매체의 예는 다음과 같은 구성 (22) 내지 구성 (34)의 조합을 포함한다:A non-transitory computer-readable storage medium stores code that, when executed by a computer processor, causes the computer processor to perform methods of an automated vehicle assistance system for supervised or unsupervised vehicle movement according to the techniques described herein. It can be configured to do so. Examples of such computer-readable storage media include combinations of configurations (22) through (34) as follows:

(22) 코드를 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 코드는 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금, 감독 또는 비감독 차량 이동을 위한 자동화된 차량 보조 시스템의 방법을 수행하게 하고, 방법은 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵을 획득하는 단계- 제1 차이 맵과 제1 신뢰도 맵은 장면의 제1 이미지 데이터에 대응함 -, 및 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵으로 구성된 비디오 스트림을 출력하는 단계로 구성된다.(22) A non-transitory computer-readable storage medium storing code, wherein the code, when executed by a computer processor, causes the computer processor to perform a method of an automated vehicle assistance system for supervised or unsupervised vehicle movement, The method includes obtaining, by a computer processor, a first difference map and a first confidence map, wherein the first difference map and the first confidence map correspond to first image data of the scene, and obtaining, by the computer processor, a first difference map and a first confidence map. It consists of outputting a video stream composed of a reliability map.

(23) 구성 (22)의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 신뢰도 맵을 제1 차이 맵의 일부가 되도록 인코딩하는 단계로 구성된다.(23) The computer-readable storage medium of configuration (22), wherein outputting the video stream comprises, by the computer processor, encoding the first confidence map to be part of the first difference map.

(24) 구성 (22) 또는 구성 (23)의 컴퓨터 판독가능 저장 매체에 있어서, 여기서, 제1 이미지 데이터는 복수의 픽셀로 구성되고, 차이 맵은 픽셀들 각각에 대한 차이 데이터로 구성되고, 신뢰도 맵은 픽셀들 각각에 대한 신뢰도 데이터로 구성된다.(24) The computer-readable storage medium of configuration (22) or (23), wherein the first image data is comprised of a plurality of pixels, the difference map is comprised of difference data for each of the pixels, and the reliability The map consists of reliability data for each pixel.

(25) 구성 (22) 내지 구성 (24) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 방법은 컴퓨터 프로세서가 장면의 적어도 일부의 제2 이미지 데이터에 대응하는 제2 신뢰도 맵을 획득하고, 컴퓨터 프로세서가 비디오 스트림을 슈퍼 프레임들의 시퀀스로서 출력하는 단계- 각각의 슈퍼 프레임은 제1 차이 맵, 제1 신뢰도 맵 및 제2 신뢰도 맵에 기초한 정보로 구성됨 -를 더 포함한다.(25) The computer-readable storage medium of any one of configurations (22) through (24), wherein the method comprises: the computer processor obtaining a second confidence map corresponding to second image data of at least a portion of the scene; The computer processor outputs the video stream as a sequence of super frames, each super frame consisting of information based on a first difference map, a first confidence map, and a second confidence map.

(26) 구성 (22) 내지 구성 (25) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 방법은 컴퓨터 프로세서가 비디오 스트림의 정보에 기초하여 차량의 전자 제어 유닛(ECU)에 제어 신호를 출력하는 단계로 추가로 구성된다.(26) In the computer-readable storage medium of any one of configurations (22) to (25), the method includes the computer processor outputting a control signal to the electronic control unit (ECU) of the vehicle based on information in the video stream. It consists of additional steps:

(27) 구성 (22) 내지 구성 (26) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 방법은 컴퓨터 프로세서가 제1 이미지 데이터를 처리하여 제1 차이 맵 및 제1 신뢰도 맵을 획득하고, 컴퓨터 프로세서가 제2 이미지 데이터를 처리하여 제2 신뢰도 맵을 획득하는 단계로 추가로 구성된다.(27) The computer-readable storage medium of any one of configurations (22) to (26), wherein the method includes: the computer processor processing the first image data to obtain a first difference map and a first confidence map; The computer processor further comprises processing the second image data to obtain a second confidence map.

(28) 구성 (22) 내지 구성 (27) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림을 출력하는 것은 컴퓨터 프로세서가 제1 차이 맵과 제1 신뢰도 맵을 포함하는 적어도 하나의 슈퍼 프레임을 준비하고, 컴퓨터 프로세서가 제1 차이 맵과 제2 신뢰도 맵을 포함하는 적어도 하나의 슈퍼 프레임을 준비하는 단계로 구성된다.(28) In the computer-readable storage medium of any one of configurations (22) to (27), outputting the video stream causes the computer processor to display at least one super file including a first difference map and a first reliability map. Preparing a frame, and having a computer processor prepare at least one super frame including a first difference map and a second confidence map.

(29) 구성 (22) 내지 구성 (28) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 신뢰도 맵의 일부 및 제2 신뢰도 맵의 일부로 구성된 적어도 하나의 슈퍼 프레임을 준비하는 단계로 구성된다.(29) In the computer-readable storage medium of any one of configurations (22) to (28), the step of outputting the video stream comprises at least one of a computer processor configured to include a portion of a first reliability map and a portion of a second reliability map. It consists of the steps of preparing a super frame.

(30) 구성 (22) 내지 구성 (29) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 여기서, 제1 이미지 데이터는 스테레오-비전 데이터로 구성되고, 제2 이미지 데이터는 라이다 데이터 또는 레이더 데이터 또는 음향 데이터로 구성된다.(30) The computer-readable storage medium of any one of configurations (22) to (29), wherein the first image data consists of stereo-vision data and the second image data is lidar data or radar. It consists of data or sound data.

(31) 구성 (22) 내지 구성 (30) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 비디오 스트림의 각각의 슈퍼 프레임을 준비하는 단계로 구성되고, 슈퍼 프레임은 장면의 이차원(2D) 이미지, 장면의 깊이 맵, 및 장면의 확실성 맵으로 구성된다.(31) In the computer-readable storage medium of any one of configurations (22) to (30), the step of outputting the video stream consists of preparing each super frame of the video stream by the computer processor, A frame consists of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene.

(32) 구성 (22) 내지 구성 (31) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 컴퓨터 프로세서에 의해 각각의 슈퍼 프레임을 준비하는 것은 장면의 2D 이미지의 픽셀들, 장면의 깊이 맵의 픽셀들, 및 장면의 확실성 맵의 픽셀들을 시간적으로 그리고 공간적으로 매칭하는 것으로 구성된다.(32) In the computer-readable storage medium of any one of configurations (22) to (31), preparing each super frame by a computer processor includes pixels of a 2D image of the scene, a depth map of the scene, It consists of temporally and spatially matching pixels, and pixels of a certainty map of a scene.

(33) 구성 (22) 내지 구성 (32) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림의 출력 단계는 컴퓨터 프로세서가 제1 차이 맵으로부터의 차이 정보 및 제1 및 제2 신뢰도 맵으로부터의 신뢰도 정보를 인코딩하여 비디오 스트림의 데이터 크기를 감소시키는 단계로 구성된다.(33) The computer-readable storage medium of any one of configurations (22) to (32), wherein the step of outputting the video stream includes the computer processor generating difference information from the first difference map and the first and second confidence maps. It consists of reducing the data size of the video stream by encoding reliability information from the video stream.

(34) 구성 (22) 내지 구성 (33) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 비디오 스트림의 출력 단계는 이차원(2D) 컬러 이미지를 준비하는 단계를 포함하고, 각각의 2D 컬러 이미지는 복수의 픽셀로 구성되고, 각각의 픽셀의 알파-채널 투명도는 픽셀에 대한 신뢰도 값에 비례하고, 2D 컬러 이미지의 컬러는 깊이 범위를 나타낸다.(34) The computer-readable storage medium of any one of configurations (22) to (33), wherein the step of outputting the video stream includes preparing a two-dimensional (2D) color image, and each 2D color image consists of a plurality of pixels, the alpha-channel transparency of each pixel is proportional to the confidence value for the pixel, and the color of the 2D color image represents the depth range.

본 명세서에 설명되는 기술에 따른 스테레오 비전 시스템들은 상이한 구성들로 구현될 수 있다. 예시적인 구성들은 다음과 같이 구성들(35) 내지(46)의 조합들을 포함한다:Stereo vision systems according to the technology described herein may be implemented in different configurations. Exemplary configurations include combinations of configurations 35-46 as follows:

(35) 스테레오 비전 시스템으로서, 이미지들의 쌍들의 시퀀스를 캡처하도록 구성된 스테레오 카메라 시스템- 이미지들의 각각의 쌍은 동시에 캡처된 제1 이미지 및 제2 이미지를 포함함 -; 컴퓨터 프로세서를 포함하고, 컴퓨터 프로세서는 스테레오 카메라 시스템으로부터 이미지 데이터의 스트림을 수신하고- 이미지 데이터는 이미지들의 쌍들의 시퀀스에 대응함 -, 이미지들의 쌍들 각각에 대해: 매칭된 픽셀들의 이차원(2D) 픽셀 맵을 생성하기 위해 제1 및 제2 이미지들을 교정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값을 결정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값에 대한 신뢰도 값을 결정하고, 신뢰도 값들 중 적어도 하나가 이미지 이상을 나타낼 때 제어 신호를 발행하도록 프로그래밍된다.(35) A stereo vision system, comprising: a stereo camera system configured to capture a sequence of pairs of images, each pair of images including a first image and a second image captured simultaneously; comprising a computer processor, the computer processor receiving a stream of image data from the stereo camera system, wherein the image data corresponds to a sequence of pairs of images, and for each pair of images: a two-dimensional (2D) pixel map of matched pixels. Calibrate the first and second images to generate, determine a depth value for each pixel of the pixel map, determine a confidence value for the depth value for each pixel of the pixel map, and determine at least one of the confidence values. It is programmed to issue a control signal when one exhibits an image abnormality.

(36) 구성 (35)의 시스템에 있어서, 이미지 이상은 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 부분의 하나 이상의 픽셀에 대응한다.(36) The system of configuration (35), wherein the image anomaly corresponds to one or more pixels of a portion of the confidence map having a confidence value less than a predetermined threshold.

(37) 구성 (35) 또는 구성 (36)의 시스템에 있어서, 이미지 이상은 시퀀스의 2개 이상의 연속적인 이미지 쌍들에 대해 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 일부의 하나 이상의 픽셀들에 대응한다.(37) The system of configuration (35) or configuration (36), wherein the image anomaly is one or more pixels that are part of a confidence map having a confidence value less than a predetermined threshold for two or more consecutive image pairs in the sequence. corresponds to

(38) 구성 (35) 내지 구성 (37) 중 어느 한 구성의 시스템에 있어서, 이미지 이상은 신뢰도 맵의 연속적 영역의 복수의 픽셀로 구성된다.(38) In the system of any one of configurations (35) to (37), the image anomaly is composed of a plurality of pixels in a continuous area of the confidence map.

(39) 구성 (35) 내지 구성 (38) 중 어느 한 구성의 시스템에 있어서, 제어 신호는 가청 사운드를 유발하도록 구성된다.(39) In the system of any one of configurations (35) to (38), the control signal is configured to cause an audible sound.

(40) 구성 (35) 내지 구성 (39) 중 어느 한 구성의 시스템에 있어서, 가청 사운드는 사전 기록된 메시지이다.(40) In the system of any one of configurations (35) through (39), the audible sound is a pre-recorded message.

(41) 구성 (35) 내지 구성 (40) 중 어느 한 구성의 시스템에 있어서, 제어 신호는 차량의 엔진 제어 모듈에 발행된다.(41) In the system of any one of configurations (35) to (40), a control signal is issued to the engine control module of the vehicle.

(42) 구성 (35) 내지 구성 (41) 중 어느 한 구성의 시스템에 있어서, 픽셀 맵의 각각의 픽셀에 대해, 신뢰도 값은 픽셀 내의 에지의 존재 또는 부재, 픽셀의 조도 레벨, 및 픽셀 맵이 생성되는 제1 및 제2 이미지들의 텍스처 값에 기초하여 결정된다.(42) The system of any of configurations (35) to (41), wherein, for each pixel in the pixel map, the confidence value is determined by the presence or absence of an edge in the pixel, the illuminance level of the pixel, and the pixel map. It is determined based on the texture values of the generated first and second images.

(43) 구성 (35) 내지 구성 (42) 중 어느 한 구성의 시스템에 있어서, 컴퓨터 프로세서는 이미지들의 쌍들의 시퀀스에 대응하는 슈퍼 프레임들의 시퀀스를 출력하도록 프로그래밍되고, 슈퍼 프레임들 각각은 2D 이미지 및 2D 이미지에 대응하는 신뢰도 맵으로 구성된다.(43) The system of any of configurations (35) to (42), wherein the computer processor is programmed to output a sequence of super frames corresponding to the sequence of pairs of images, each of the super frames being a 2D image and It consists of a confidence map corresponding to a 2D image.

(44) 구성 (35) 내지 구성 (43) 중 어느 한 구성의 시스템에 있어서, 2D 이미지는 제1 이미지 또는 제2 이미지이다.(44) In the system of any one of configurations (35) to (43), the 2D image is the first image or the second image.

(45) 구성 (35) 내지 구성 (44) 중 어느 한 구성의 시스템에 있어서, 컴퓨터 프로세서는 디스플레이로 하여금 2D 이미지 및 신뢰도 맵에 대응하는 가시적인 신뢰도 표시자를 보여주도록 하는 디스플레이 신호로서 슈퍼 프레임들의 시퀀스를 출력하도록 프로그래밍된다.(45) The system of any of configurations (35) through (44), wherein the computer processor outputs a sequence of super frames as a display signal to cause the display to show a 2D image and a visible confidence indicator corresponding to the confidence map. It is programmed to output.

(46) 구성 (35) 내지 구성 (45) 중 어느 한 구성의 시스템에 있어서, 디스플레이 신호는 신뢰도 표시자가 2D 이미지의 각각의 픽셀의 투명도로서 픽셀별 기반으로 디스플레이되게 한다.(46) The system of any of configurations (35) to (45), wherein the display signal causes the confidence indicator to be displayed on a pixel-by-pixel basis as the transparency of each pixel of the 2D image.

비일시적 컴퓨터 판독가능 저장 매체는, 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금 본 명세서에 설명된 기술에 따른 차량 보조 시스템의 방법들을 수행하게 하는 코드를 저장하도록 구성될 수 있다. 이러한 컴퓨터 판독가능 저장 매체의 예는 다음과 같은 구성 (47) 내지(59)의 조합을 포함한다:A non-transitory computer-readable storage medium may be configured to store code that, when executed by a computer processor, causes the computer processor to perform methods of a vehicle assistance system according to the technology described herein. Examples of such computer-readable storage media include combinations of configurations (47) through (59) as follows:

(47) 코드를 저장하는 비일시적 컴퓨터 판독가능 저장 매체로서, 코드는 컴퓨터 프로세서에 의해 실행될 때, 컴퓨터 프로세서로 하여금 스테레오 비전 시스템의 방법을 수행하게 하고, 방법은 컴퓨터 프로세서가 스테레오 카메라 시스템으로부터 이미지 데이터의 스트림을 수신하는 단계- 이미지 데이터는 이미지들의 쌍들의 시퀀스에 대응하고, 각각의 이미지 쌍은 동시에 캡처된 제1 이미지 및 제2 이미지로 구성됨 -; 이미지들의 쌍들 각각에 대해, 컴퓨터 프로세서가 매칭된 픽셀들의 이차원(2D) 픽셀 맵을 생성하기 위해 제1 및 제2 이미지를 교정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값을 결정하고, 픽셀 맵의 각각의 픽셀에 대한 깊이 값에 대한 신뢰도 값을 결정하는 단계; 및 컴퓨터 프로세서가 신뢰도 맵들 중 적어도 하나가 이미지 이상을 나타낼 때 제어 신호를 발행하는 단계로 구성된다.(47) A non-transitory computer-readable storage medium storing code, wherein the code, when executed by a computer processor, causes the computer processor to perform a method of a stereo vision system, the method comprising: receiving a stream of, wherein the image data corresponds to a sequence of pairs of images, each image pair consisting of a first image and a second image captured simultaneously; For each pair of images, a computer processor calibrates the first and second images to generate a two-dimensional (2D) pixel map of the matched pixels, determines a depth value for each pixel of the pixel map, and generates a pixel map. determining a confidence value for a depth value for each pixel in; and the computer processor issuing a control signal when at least one of the confidence maps indicates an image abnormality.

(48) 구성 (47)의 컴퓨터 판독가능 저장 매체에 있어서, 이미지 이상은 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 부분의 하나 이상의 픽셀에 대응한다.(48) The computer-readable storage medium of configuration (47), wherein the image anomaly corresponds to one or more pixels of a portion of the confidence map having a confidence value less than a predetermined threshold.

(49) 구성 (47) 또는 구성 (48)의 컴퓨터 판독가능 저장 매체에 있어서, 이미지 이상은 시퀀스의 2개 이상의 연속적인 이미지 쌍들에 대해 미리 결정된 임계값 미만의 신뢰도 값을 갖는 신뢰도 맵의 일부의 하나 이상의 픽셀들에 대응한다.(49) The computer-readable storage medium of configuration (47) or configuration (48), wherein the image anomaly is a portion of the confidence map having a confidence value less than a predetermined threshold for two or more consecutive image pairs of the sequence. Corresponds to one or more pixels.

(50) 구성 (47) 내지 구성 (49) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 이미지 이상은 신뢰도 맵의 연속적 영역의 복수의 픽셀로 구성된다.(50) The computer-readable storage medium of any one of configurations (47) to (49), wherein the image anomaly is comprised of a plurality of pixels in a continuous region of a confidence map.

(51) 구성 (47) 내지 구성 (50) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 제어 신호는 가청 사운드를 유발하도록 구성된다.(51) The computer-readable storage medium of any one of configurations (47) to (50), wherein the control signal is configured to cause an audible sound.

(52) 구성 (47) 내지 구성 (51) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 가청 사운드는 사전 기록된 메시지이다.(52) The computer-readable storage medium of any one of configurations (47) to (51), wherein the audible sound is a pre-recorded message.

(53) 구성 (47) 내지 구성 (52) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 제어 신호는 차량의 엔진 제어 모듈에 발행된다.(53) In the computer-readable storage medium of any one of configurations (47) to (52), a control signal is issued to an engine control module of a vehicle.

(54) 구성 (47) 내지 구성 (53) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 픽셀 맵의 각각의 픽셀에 대해, 신뢰도 값은 픽셀 내의 에지의 존재 또는 부재, 픽셀의 조도 레벨, 및 픽셀 맵이 생성되는 제1 및 제2 이미지들의 텍스처 값에 기초하여 결정된다.(54) The computer-readable storage medium of any of configurations (47) to (53), wherein, for each pixel of the pixel map, the reliability value includes the presence or absence of an edge within the pixel, the illuminance level of the pixel, and a pixel map is determined based on the texture values of the first and second images from which the pixel map is generated.

(55) 구성 (47) 내지 구성 (54) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 방법은 컴퓨터 프로세서가 이미지 쌍들의 시퀀스에 대응하는 슈퍼 프레임들의 시퀀스를 출력하는 단계- 슈퍼 프레임들 각각은 2D 이미지, 2D 이미지에 대응하는 차이 맵, 및 2D 이미지에 대응하는 신뢰도 맵을 포함함 -로 추가로 구성된다.(55) The computer-readable storage medium of any one of configurations (47) to (54), wherein the method includes outputting, by a computer processor, a sequence of super frames corresponding to the sequence of image pairs—each of the super frames. is further composed of - containing a 2D image, a difference map corresponding to the 2D image, and a confidence map corresponding to the 2D image.

(56) 구성 (47) 내지 구성 (55) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 2D 이미지는 제1 이미지 또는 제2 이미지이다.(56) In the computer-readable storage medium of any one of configurations (47) to (55), the 2D image is the first image or the second image.

(57) 구성 (47) 내지 구성 (56) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 슈퍼 프레임들의 시퀀스를 출력하는 단계는 디스플레이가 2D 이미지 및 신뢰도 맵에 대응하는 가시적인 신뢰도 표시자를 보여주도록 하는 디스플레이 신호를 출력하는 단계로 구성된다.(57) The computer-readable storage medium of any one of configurations (47) through (56), wherein outputting the sequence of super frames comprises displaying a visible confidence indicator corresponding to the 2D image and a confidence map. It consists of the step of outputting a display signal to display.

(58) 구성 (47) 내지 구성 (57) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 디스플레이 신호는 신뢰도 표시자가 2D 이미지의 각각의 픽셀의 투명도로서 픽셀별 기반으로 디스플레이되게 한다.(58) The computer-readable storage medium of any one of configurations (47) to (57), wherein the display signal causes the reliability indicator to be displayed on a pixel-by-pixel basis as the transparency of each pixel of the 2D image.

(59) 구성 (47) 내지 구성 (58) 중 어느 한 구성의 컴퓨터 판독가능 저장 매체에 있어서, 슈퍼 프레임들 각각은 2D 이미지, 신뢰도 맵, 및 2D 이미지에 대응하는 차이 맵으로 구성된다.(59) In the computer-readable storage medium of any one of configurations (47) to (58), each of the super frames is composed of a 2D image, a confidence map, and a difference map corresponding to the 2D image.

참조 문헌References

Mohd Saad Hamid, Nurul Fajar Abd Manap, Rostam Affendi Hamzah, and Ahmad Fauzan Kadmin, "Stereo matching algorithm based on deep learning: A survey," Journal of King Saud University - Computer and Information Sciences, 2020, (available at: https://doi.org/10.1016/j.jksuci.2020.08.011).Mohd Saad Hamid, Nurul Fajar Abd Manap, Rostam Affendi Hamzah, and Ahmad Fauzan Kadmin, "Stereo matching algorithm based on deep learning: A survey," Journal of King Saud University - Computer and Information Sciences, 2020, (available at: https: //doi.org/10.1016/j.jksuci.2020.08.011).

H. Hirschmuller, "Stereo Processing by Semiglobal Matching and Mutual Information," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 30, no. 2, pp. 328-341, Feb. 2008 (available at https://core.ac.uk/download/pdf/11134866.pdf).H. Hirschmuller, “Stereo Processing by Semiglobal Matching and Mutual Information,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 30, no. 2, pp. 328-341, Feb. 2008 (available at https://core.ac.uk/download/pdf/11134866.pdf).

Matteo Poggi, Seungryong Kim, Fabio Tosi, Sunok Kim, Filippo Aleotti, Dongbo Min, Kwanghoon Sohn, Stefano Mattoccia, "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation," IEEE Trans Pattern Analysis & Machine Intelligence, April 2021 (available at https://arxiv.org/pdf/2101.00431.pdf).Matteo Poggi, Seungryong Kim, Fabio Tosi, Sunok Kim, Filippo Aleotti, Dongbo Min, Kwanghoon Sohn, Stefano Mattoccia, "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation," IEEE Trans Pattern Analysis & Machine Intelligence , April 2021 (available at https://arxiv.org/pdf/2101.00431.pdf).

H. Hirschmuller and D. Scharstein, "Evaluation of Cost Functions for Stereo Matching," IEEE Conference on Computer Vision and Pattern Recognition, 2007, pp. 1-8.H. Hirschmuller and D. Scharstein, “Evaluation of Cost Functions for Stereo Matching,” IEEE Conference on Computer Vision and Pattern Recognition, 2007, pp. 1-8.

S. Sarika et al., "Census Filtering Based Stereomatching Under Varying Radiometric Conditions," Procedia Computer Science, vol. 58, pp. 315-320, 2015.S. Sarika et al., “Census Filtering Based Stereomatching Under Varying Radiometric Conditions,” Procedia Computer Science, vol. 58, pp. 315-320, 2015.

C. Rhemann, A. Hosni, M. Bleyer, C. Rother, and M. Gelautz, "Fast cost-volume filtering for visual correspondence and beyond," Conference on Computer Vision and Pattern Recognition 2011, pp. 3017-3024.C. Rhemann, A. Hosni, M. Bleyer, C. Rother, and M. Gelautz, "Fast cost-volume filtering for visual correspondence and beyond," Conference on Computer Vision and Pattern Recognition 2011, pp. 3017-3024.

X. Hu and P. Mordohai, "A Quantitative Evaluation of Confidence Measures for Stereo Vision," in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 34, no. 11, pp. 2121-2133, 2012.X. Hu and P. Mordohai, “A Quantitative Evaluation of Confidence Measures for Stereo Vision,” in IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 34, no. 11, pp. 2121-2133, 2012.

S. Kakegawa, H. Matono, H. Kido, and T. Shima, "Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera," International Journal of Intelligent Transportation Systems Research, vol. 16, pp. 90-97, 2018 (available at https://doi.org/10.1007/s13177-017-0140-8 and https://link.springer.com/content/pdf/10.1007/s13177-017-0140-8.pdf).S. Kakegawa, H. Matono, H. Kido, and T. Shima, "Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera," International Journal of Intelligent Transportation Systems Research, vol. 16, pp. 90-97, 2018 (available at https://doi.org/10.1007/s13177-017-0140-8 and https://link.springer.com/content/pdf/10.1007/s13177-017-0140-8. pdf).

H. Badino, U. Franke, R. Mester, "Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming," Workshop on Dynamical Vision, 11th IEEE International Conference on Computer Vision, ICCV, 2007, (available at http://vision.jhu.edu/iccv2007-wdv/WDV07-badino.pdf).H. Badino, U. Franke, R. Mester, "Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming," Workshop on Dynamical Vision, 11th IEEE International Conference on Computer Vision, ICCV, 2007, (available at http:// vision.jhu.edu/iccv2007-wdv/WDV07-badino.pdf).

결론conclusion

다양한 변경들, 수정들, 및 개선들이 위에 논의된 구조들, 구성들, 및 방법들에 대해 이루어질 수 있고, 본 명세서에 개시되는 발명의 사상 및 범위 내에 있는 것으로 의도된다는 점이 이해되어야 한다. 또한, 본 발명의 이점들이 표시되지만, 본 발명의 모든 실시예가 설명된 모든 이점을 포함하는 것은 아님을 이해해야 한다. 일부 실시예들은 본 명세서에서 유리한 것으로 설명된 임의의 특징들을 구현하지 않을 수 있다. 따라서, 전술한 설명 및 첨부 도면들은 단지 예일 뿐이다.It should be understood that various changes, modifications, and improvements may be made to the structures, configurations, and methods discussed above and are intended to remain within the spirit and scope of the invention disclosed herein. Additionally, while advantages of the invention have been indicated, it should be understood that not all embodiments of the invention include all of the advantages described. Some embodiments may not implement any features described as advantageous herein. Accordingly, the foregoing description and accompanying drawings are examples only.

본 기술의 일부 양태들은 하나 이상의 방법으로서 구현될 수 있고, 본 기술의 방법의 일부로서 수행되는 동작들은 임의의 적합한 방식으로 정렬될 수 있다는 것을 이해해야 한다. 그에 따라, 동작들이 도시되고 및/또는 설명된 것과 상이한 순서로 수행되는 실시예들이 구성될 수 있고, 이는 다양한 실시예들에서 순차적인 동작들로서 도시 및/또는 설명되더라도 일부 동작들을 동시에 수행하는 것을 포함할 수 있다.It should be understood that some aspects of the present technology may be implemented in more than one method, and that the operations performed as part of the method of the present technology may be arranged in any suitable manner. Accordingly, embodiments may be configured in which the operations are performed in a different order than that shown and/or described, including performing some operations simultaneously although they are shown and/or described as sequential operations in various embodiments. can do.

본 발명의 다양한 양태들은 단독으로, 조합하여, 또는 전술한 것에 설명된 실시예들에서 구체적으로 논의되지 않은 다양한 배열들로 사용될 수 있고, 따라서 그 응용에서 전술한 설명에 제시되거나 도면들에 예시된 컴포넌트들의 상세들 및 배열로 제한되지 않는다. 예를 들어, 하나의 실시예에서 설명된 양태들은 다른 실시예들에서 설명된 양태들과 임의의 방식으로 조합될 수 있다.The various aspects of the invention can be used alone, in combination, or in various arrangements not specifically discussed in the embodiments described in the foregoing, and thus may be used in their applications as set forth in the foregoing description or illustrated in the drawings. It is not limited to the details and arrangement of components. For example, aspects described in one embodiment may be combined in any way with aspects described in other embodiments.

엘리먼트를 수정하기 위해 설명 및 청구항들에서 "제1", "제2", "제3" 등과 같은 서수 용어들의 사용은 그 자체로 하나의 엘리먼트의 다른 엘리먼트에 대한 임의의 우선순위, 선행, 또는 순서, 또는 방법의 동작들이 수행되는 시간적 순서를 의미하지 않는다. 그러나, 특정 이름을 갖는 하나의 엘리먼트 또는 행위를 동일한 이름을 갖는 (그러나 서수 용어를 사용하는) 다른 엘리먼트 또는 행위와 구별하여 엘리먼트들 또는 행위들을 구별하기 위한 표시들로서만 사용된다.The use of ordinal terms such as “first,” “second,” “third,” etc. in the description and claims to modify elements does not by itself imply any priority, precedence, or priority of one element over another. It does not imply the order, or temporal order in which the operations of the method are performed. However, they are only used as marks to distinguish elements or actions, distinguishing one element or action with a particular name from another element or action with the same name (but using an ordinal term).

모든 정의들은, 본 명세서에서 정의되고 사용되는 바와 같이, 사전적 정의들, 참조로 통합된 문서들에서의 정의들, 및/또는 정의된 용어들의 통상의 의미들에 우선하는 것으로 이해되어야 한다.All definitions, as defined and used herein, are to be construed to take precedence over dictionary definitions, definitions in documents incorporated by reference, and/or ordinary meanings of defined terms.

본 명세서 및 청구항들에서 사용되는 바와 같은 부정 관사들("a" 및 "an")은, 명확히 달리 표시되지 않는 한, "적어도 하나"를 의미하는 것으로 이해되어야 한다.As used in this specification and claims, the indefinite articles “a” and “an” are to be understood to mean “at least one,” unless clearly indicated otherwise.

본 명세서 및 청구항들에서 사용되는 바와 같이, 하나 이상의 엘리먼트들의 목록과 관련하여, "적어도 하나"라는 문구는 엘리먼트들의 목록 내의 엘리먼트들 중 임의의 하나 이상으로부터 선택된 적어도 하나의 엘리먼트를 의미하지만, 엘리먼트들의 목록 내에 구체적으로 열거된 각각의 모든 엘리먼트 중 적어도 하나를 반드시 포함하는 것은 아니며, 엘리먼트들의 목록 내의 엘리먼트들의 임의의 조합들을 배제하지 않는 것으로 이해되어야 한다. 이 정의는 또한, "적어도 하나"라는 문구가 언급하는 엘리먼트들의 목록 내에서 구체적으로 식별된 엘리먼트들 이외의 엘리먼트들이, 구체적으로 식별된 엘리먼트들과 관련되든 관련되지 않든, 선택적으로 존재할 수 있다는 것을 허용한다.As used in this specification and the claims, with respect to a list of one or more elements, the phrase “at least one” means at least one element selected from any one or more of the elements in the list of elements, but It should be understood that it does not necessarily include at least one of each and every element specifically listed within the list, nor does it exclude any combination of elements within the list of elements. This definition also allows that elements other than those specifically identified within the list of elements referred to by the phrase "at least one" may optionally be present, whether or not related to the specifically identified elements. do.

본 명세서 및 청구항들에서 사용되는 바와 같이, 2개의 값(예를 들어, 거리들, 폭들 등)과 관련하여 "동일" 또는 "같다"라는 문구는 2개의 값이 제조 공차들 내에서 동일하다는 것을 의미한다. 따라서, 2개의 값이 동일하거나 같다는 것은 2개의 값이 서로 ±5%만큼 상이하다는 것을 의미할 수 있다.As used in the specification and claims, the phrase “equal” or “equal” with respect to two values (e.g., distances, widths, etc.) indicates that the two values are identical within manufacturing tolerances. it means. Accordingly, two values being the same or equal may mean that the two values differ from each other by ±5%.

본 명세서 및 청구항들에서 사용되는 바와 같은 문구 "및/또는"은 그렇게 결합된 엘리먼트들, 즉 일부 경우들에서는 결합하여 존재하고 다른 경우들에서는 분리하여 존재하는 엘리먼트들의 "어느 하나 또는 양자 모두"를 의미하는 것으로 이해되어야 한다. "및/또는"으로 열거된 다수의 엘리먼트들은 동일한 방식으로, 즉, 그렇게 결합된 엘리먼트들의 "하나 이상"으로 해석되어야 한다. "및/또는" 절에 의해 구체적으로 식별된 엘리먼트들 이외의 다른 엘리먼트들이, 구체적으로 식별된 이들 엘리먼트들과 관련되든 관련되지 않든, 선택적으로 존재할 수 있다. 따라서, 비제한적인 예로서, "A 및/또는 B"에 대한 참조는, "포함하는"과 같은 개방형 언어와 함께 사용될 때, 하나의 실시예에서, A만(선택적으로 B 이외의 엘리먼트들을 포함함); 다른 실시예에서, B만(선택적으로, A 이외의 엘리먼트들을 포함함); 또 다른 실시예에서, A 및 B 양자 모두(선택적으로 다른 엘리먼트들을 포함함) 등을 지칭할 수 있다.As used in the specification and claims, the phrase “and/or” refers to “either or both” of the elements so combined, that is, elements that exist in combination in some cases and separately in other cases. It must be understood as meaning. Multiple elements listed as “and/or” should be interpreted in the same way, i.e., as “one or more” of the elements so combined. Other elements, other than those specifically identified by the “and/or” clause, may optionally be present, whether related or unrelated to those specifically identified elements. Thus, by way of non-limiting example, reference to “A and/or B”, when used with open language such as “comprising,” means that, in one embodiment, only A (optionally including elements other than B) box); In another embodiment, B only (optionally including elements other than A); In another embodiment, it may refer to both A and B (optionally including other elements), etc.

본 명세서 및 청구항들에서 사용되는 바와 같이, "또는"은 위에서 정의된 바와 같은 "및/또는"과 동일한 의미를 갖는 것으로 이해되어야 한다. 예를 들어, 리스트에서 항목들을 분리할 때, "또는" 또는 "및/또는"은 포괄적인 것으로, 즉, 다수의 엘리먼트들 또는 엘리먼트들의 리스트 중 적어도 하나를 포함하지만, 또한 2개 이상을 포함하고, 선택적으로, 추가적인 열거되지 않은 항목들을 포함하는 것으로 해석되어야 한다. "~중 단지 하나" 또는 "~중 정확히 하나", 또는 청구범위에서 사용될 때 "~로 구성된"과 같은 명확히 달리 표시되는 용어들만이 다수의 엘리먼트들 또는 엘리먼트들의 리스트 중 정확히 하나의 엘리먼트의 포함을 지칭할 것이다. 일반적으로, 사용된 용어 "또는"은 "~ 중 어느 하나", "~ 중 하나", "~ 중 단 하나", 또는 "~ 중 정확히 하나"와 같은 배타적 용어가 후속할 때, 배타적 대안들(즉, "하나 또는 다른 하나, 그러나 둘 다는 아님")을 나타내는 것으로 해석되어야 한다. 청구항들에서 사용될 때, "본질적으로 ~로 이루어지는"은 특허법 분야에서 사용될 때의 일반적인 의미를 가질 것이다.As used in this specification and the claims, “or” should be understood to have the same meaning as “and/or” as defined above. For example, when separating items in a list, "or" or "and/or" is inclusive, that is, includes at least one of a number of elements or a list of elements, but also includes two or more. , optionally, should be construed to include additional unlisted items. Only clearly alternative terms such as “only one of” or “exactly one of” or “consisting of” when used in the claims indicate the inclusion of exactly one element of a plurality of elements or a list of elements. will refer to Generally, the term "or" as used refers to exclusive alternatives ( That is, it should be interpreted as indicating “one or the other, but not both.” When used in the claims, “consisting essentially of” will have its ordinary meaning when used in the field of patent law.

또한, 본 명세서에서 사용되는 어구 및 용어는 설명을 위한 것이며, 제한적인 것으로 고려되어서는 안 된다. 본 명세서에서 "포함하는(including)", "포함하는(comprising)", "구성되는(comprised of)", "갖는(having)", "함유하는(containing)" 및 "수반하는(involving)"과 같은 용어들 및 이들의 변형들의 사용은 그 이후에 열거되는 항목들 및 이들의 균등물들 뿐만 아니라 추가적인 항목들을 포함하는 것으로 의도된다.Also, the phraseology and terminology used herein is for the purpose of description and should not be regarded as limiting. As used herein, “including,” “comprising,” “comprised of,” “having,” “containing,” and “involving.” The use of terms such as and variations thereof are intended to include additional items as well as the items listed thereafter and their equivalents.

용어들 "대략" 및 "약"은 본 명세서에 사용되는 경우 일부 실시예들에서 목표 값의 ±20% 이내, 일부 실시예들에서 목표 값의 ±10% 이내, 일부 실시예들에서 목표 값의 ±5% 이내, 및 일부 실시예들에서 목표 값의 ±2% 이내를 의미하는 것으로 해석될 수 있다. 용어들 "대략" 및 "약"은 목표 값과 동일할 수 있다.The terms “approximately” and “about” when used herein mean, in some embodiments, within ±20% of the target value, in some embodiments, within ±10% of the target value, and in some embodiments, within ±20% of the target value. It can be interpreted to mean within ±5%, and in some embodiments, within ±2% of the target value. The terms “approximately” and “about” may be equivalent to a target value.

용어 "실질적으로"는 본 명세서에 사용되는 경우 일부 실시예들에서 목표 값의 95% 이내, 일부 실시예들에서 목표 값의 98% 이내, 일부 실시예들에서 목표 값의 99% 이내, 및 일부 실시예들에서 목표 값의 99.5% 이내를 의미하는 것으로 해석될 수 있다. 일부 실시예들에서, "실질적으로"라는 용어는 목표 값의 100%와 동일할 수 있다.The term “substantially” when used herein means within 95% of the target value in some embodiments, within 98% of the target value in some embodiments, within 99% of the target value in some embodiments, and in some embodiments. In embodiments, it may be interpreted to mean within 99.5% of the target value. In some embodiments, the term “substantially” can be equal to 100% of the target value.

Claims (21)

차량의 감독 또는 비감독 이동을 위한 비전 시스템으로서,
장면의 제1 이미지 데이터를 캡처하도록 구성되는 한 쌍의 카메라 센서들;
상기 장면의 제2 이미지 데이터를 캡처하도록 구성되는 보조 센서; 및
센서 시스템
을 포함하고, 상기 센서 시스템은,
상기 한 쌍의 카메라 센서들로부터 상기 제1 이미지 데이터를 수신하고,
상기 보조 센서로부터 상기 제2 이미지 데이터를 수신하고,
상기 제1 이미지 데이터로부터 제1 거리 값들 및 제1 신뢰도 값들을 계산하고,
상기 제1 거리 값들을 포함하는 제1 거리 맵을 생성하고, 상기 제1 신뢰도 값들을 포함하는 제1 신뢰도 맵을 생성하고,
상기 제2 이미지 데이터로부터 획득된 제2 거리 값들을 포함하는 제2 거리 맵을 생성하고,
상기 제1 신뢰도 맵을 이용하여, 상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜, 융합된 거리 맵을 획득하고, 그리고
상기 융합된 거리 맵에 기초하여 상기 차량을 제어하기 위해 상기 차량의 전자 제어 유닛(ECU)에 제1 제어 신호를 출력하도록 구성되는, 비전 시스템.
A vision system for supervised or unsupervised movement of a vehicle, comprising:
a pair of camera sensors configured to capture first image data of the scene;
an auxiliary sensor configured to capture second image data of the scene; and
sensor system
It includes, and the sensor system includes,
Receive the first image data from the pair of camera sensors,
Receive the second image data from the auxiliary sensor,
Calculate first distance values and first confidence values from the first image data,
Generating a first distance map including the first distance values, generating a first confidence map including the first confidence values,
Generating a second distance map including second distance values obtained from the second image data,
Using the first confidence map, fuse the first distance map with the second distance map to obtain a fused distance map, and
The vision system is configured to output a first control signal to an electronic control unit (ECU) of the vehicle to control the vehicle based on the fused distance map.
제1항에 있어서,
상기 센서 시스템은, 적어도 부분적으로, 상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜,
낮은 신뢰도 부분이 상기 제1 신뢰도 맵에 포함되는지를 결정하고 - 상기 낮은 신뢰도 부분은 미리 결정된 임계값 미만의 적어도 하나의 신뢰도 값을 포함함 -, 그리고
상기 제1 신뢰도 맵이 상기 낮은 신뢰도 부분을 포함하는 것으로 결정되면, 상기 낮은 신뢰도 부분에 대응하는 상기 제1 거리 맵의 부분을 상기 제2 거리 맵으로부터 획득된 대체 부분으로 대체함으로써 상기 융합된 맵을 생성함으로써,
융합된 거리 맵을 획득하도록 구성되는, 비전 시스템.
According to paragraph 1,
The sensor system, at least in part, fuses the first distance map with the second distance map,
determine whether a low confidence portion is included in the first confidence map, wherein the low confidence portion includes at least one confidence value below a predetermined threshold, and
If it is determined that the first confidence map includes the low confidence portion, the fused map is generated by replacing the portion of the first distance map corresponding to the low confidence portion with a replacement portion obtained from the second distance map. By creating,
A vision system configured to obtain a fused distance map.
제1항에 있어서,
상기 제1 제어 신호는 상기 장면이 상기 한 쌍의 카메라 센서들 및 상기 보조 센서에 의해 캡처될 때까지 실시간으로 또는 거의 실시간으로 출력되는, 비전 시스템.
According to paragraph 1,
and the first control signal is output in real time or near real time until the scene is captured by the pair of camera sensors and the auxiliary sensor.
제1항에 있어서,
상기 보조 센서는,
레이더 센서,
라이다 센서,
보조 카메라 센서, 및
음향 센서
중 임의의 하나 또는 임의의 조합을 포함하는, 비전 시스템.
According to paragraph 1,
The auxiliary sensor is,
radar sensor,
lidar sensor,
a secondary camera sensor, and
acoustic sensor
A vision system, comprising any one or any combination thereof.
제1항에 있어서, 상기 센서 시스템은 상기 제1 이미지 데이터의 각각의 픽셀에 대한 신뢰도 값을 결정하도록 구성되는, 비전 시스템.The vision system of claim 1, wherein the sensor system is configured to determine a confidence value for each pixel of the first image data. 제1항에 있어서, 상기 센서 시스템은 상기 제1 이미지 데이터의 복수의 영역의 각각의 영역에 대한 신뢰도 값을 결정하도록 구성되는, 비전 시스템.The vision system of claim 1, wherein the sensor system is configured to determine a confidence value for each region of the plurality of regions of the first image data. 제1항에 있어서, 상기 융합된 거리 맵은 상기 제2 거리 맵 전체를 포함하는, 비전 시스템.The vision system of claim 1, wherein the fused distance map includes the entire second distance map. 차량의 감독 또는 비감독 이동을 위한 비전 시스템의 방법으로서,
상기 차량 상의 한 쌍의 카메라 센서들로부터 장면의 캡처된 제1 이미지 데이터를 수신하는 단계;,
상기 차량 상의 보조 센서로부터 상기 장면의 캡처된 제2 이미지 데이터를 수신하는 단계;
상기 제1 이미지 데이터로부터 제1 거리 값들 및 제1 신뢰도 값들을 계산하는 단계;
상기 제1 거리 값들을 포함하는 제1 거리 맵을 생성하고, 상기 제1 신뢰도 값들을 포함하는 제1 신뢰도 맵을 생성하는 단계;
상기 제2 이미지 데이터로부터 획득된 제2 거리 값들을 포함하는 제2 거리 맵을 생성하는 단계;
상기 제1 신뢰도 맵을 이용하여, 상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜, 융합된 거리 맵을 획득하는 단계; 및
상기 융합된 거리 맵에 기초하여 상기 차량을 제어하기 위해 상기 차량의 전자 제어 유닛(ECU)에 제1 제어 신호를 출력하는 단계
를 포함하는 방법.
1. A method of a vision system for supervised or unsupervised movement of a vehicle, comprising:
Receiving captured first image data of a scene from a pair of camera sensors on the vehicle;
receiving captured second image data of the scene from an auxiliary sensor on the vehicle;
calculating first distance values and first confidence values from the first image data;
generating a first distance map including the first distance values, and generating a first confidence map including the first confidence values;
generating a second distance map including second distance values obtained from the second image data;
using the first reliability map to fuse the first distance map with the second distance map to obtain a fused distance map; and
outputting a first control signal to an electronic control unit (ECU) of the vehicle to control the vehicle based on the fused distance map.
How to include .
제8항에 있어서, 상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜, 융합된 거리 맵을 획득하는 단계는,
낮은 신뢰도 부분이 상기 제1 신뢰도 맵에 포함되는지를 결정하는 단계 - 상기 낮은 신뢰도 부분은 미리 결정된 임계값 미만의 적어도 하나의 신뢰도 값을 포함함 -, 및
상기 제1 신뢰도 맵이 상기 낮은 신뢰도 부분을 포함하는 것으로 결정되면, 상기 낮은 신뢰도 부분에 대응하는 상기 제1 거리 맵의 부분을 상기 제2 거리 맵으로부터 획득된 대체 부분으로 대체함으로써 상기 융합된 거리 맵을 생성하는 단계
를 포함하는, 방법.
The method of claim 8, wherein fusing the first distance map with the second distance map to obtain a fused distance map comprises:
determining whether a low confidence portion is included in the first confidence map, wherein the low confidence portion includes at least one confidence value below a predetermined threshold, and
If it is determined that the first confidence map includes the low confidence portion, the fused distance map is generated by replacing the portion of the first distance map corresponding to the low confidence portion with a replacement portion obtained from the second distance map. Steps to create
Method, including.
제8항에 있어서,
상기 제1 제어 신호는 상기 장면이 상기 한 쌍의 카메라 센서들 및 상기 보조 센서에 의해 캡처될 때까지 실시간으로 또는 거의 실시간으로 차량 제어 시스템에 출력되는, 방법.
According to clause 8,
wherein the first control signal is output to a vehicle control system in real time or near real time until the scene is captured by the pair of camera sensors and the auxiliary sensor.
제8항에 있어서, 상기 보조 센서는,
레이더 센서,
라이다 센서,
보조 카메라 센서, 및
음향 센서
중 임의의 하나 또는 임의의 조합을 포함하는, 방법.
The method of claim 8, wherein the auxiliary sensor is:
radar sensor,
lidar sensor,
a secondary camera sensor, and
acoustic sensor
A method comprising any one or any combination of the following.
제8항에 있어서, 상기 계산하는 단계는 상기 제1 이미지 데이터의 각각의 픽셀에 대한 신뢰도 값을 결정하는 단계를 포함하는, 방법. 9. The method of claim 8, wherein the calculating step includes determining a confidence value for each pixel of the first image data. 제8항에 있어서, 상기 계산하는 단계는 상기 제1 이미지 데이터의 복수의 영역의 각각의 영역에 대한 신뢰도 값을 결정하는 단계를 포함하는, 방법.The method of claim 8, wherein the calculating step includes determining a confidence value for each region of the plurality of regions of the first image data. 제8항에 있어서, 상기 융합된 거리 맵은 상기 제2 거리 맵 전체를 포함하는, 방법.9. The method of claim 8, wherein the fused distance map includes the entire second distance map. 코드를 저장한 비일시적 컴퓨터 판독가능 저장 매체로서, 상기 코드는 컴퓨터 프로세서에 의해 실행될 때, 상기 컴퓨터 프로세서로 하여금, 차량의 감독 또는 비감독 이동을 위한 비전 시스템의 방법을 수행하게 하고, 상기 방법은,
상기 차량 상의 한 쌍의 카메라에 의해 캡처된 장면의 제1 이미지 데이터로부터 제1 거리 값들 및 제1 신뢰도 값들을 계산하는 단계;
상기 제1 거리 값들을 포함하는 제1 거리 맵을 생성하고, 상기 제1 신뢰도 값들을 포함하는 제1 신뢰도 맵을 생성하는 단계;
상기 차량 상의 보조 센서에 의해 상기 장면의 캡처된 제2 이미지 데이터로부터 획득된 제2 거리 값들을 포함하는 제2 거리 맵을 생성하는 단계;
상기 제1 신뢰도 맵을 이용하여, 상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜, 융합된 거리 맵을 획득하는 단계; 및
상기 융합된 거리 맵에 기초하여 상기 차량을 제어하기 위해 상기 차량의 전자 제어 유닛(ECU)에 제1 제어 신호를 출력하는 단계
를 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
A non-transitory computer-readable storage medium storing code, the code, when executed by a computer processor, causing the computer processor to perform a method of a vision system for supervised or unsupervised movement of a vehicle, the method comprising: ,
calculating first distance values and first confidence values from first image data of a scene captured by a pair of cameras on the vehicle;
generating a first distance map including the first distance values, and generating a first confidence map including the first confidence values;
generating a second distance map including second distance values obtained from second image data captured of the scene by an auxiliary sensor on the vehicle;
using the first reliability map to fuse the first distance map with the second distance map to obtain a fused distance map; and
outputting a first control signal to an electronic control unit (ECU) of the vehicle to control the vehicle based on the fused distance map.
A non-transitory computer-readable storage medium comprising:
제15항에 있어서,
상기 제1 거리 맵을 상기 제2 거리 맵과 융합시켜, 융합된 거리 맵을 획득하는 단계는,
낮은 신뢰도 부분이 상기 제1 신뢰도 맵에 포함되는지를 결정하는 단계 - 상기 낮은 신뢰도 부분은 미리 결정된 임계값 미만의 적어도 하나의 신뢰도 값을 포함함 -, 및
상기 제1 신뢰도 맵이 상기 낮은 신뢰도 부분을 포함하는 것으로 결정되면, 상기 낮은 신뢰도 부분에 대응하는 상기 제1 거리 맵의 부분을 상기 제2 거리 맵으로부터 획득된 대체 부분으로 대체함으로써 상기 융합된 거리 맵을 생성하는 단계
를 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
According to clause 15,
The step of fusing the first distance map with the second distance map to obtain a fused distance map includes:
determining whether a low confidence portion is included in the first confidence map, wherein the low confidence portion includes at least one confidence value below a predetermined threshold, and
If it is determined that the first confidence map includes the low confidence portion, the fused distance map is generated by replacing the portion of the first distance map corresponding to the low confidence portion with a replacement portion obtained from the second distance map. Steps to create
A non-transitory computer-readable storage medium comprising:
제15항에 있어서,
상기 제1 제어 신호는 상기 장면이 상기 한 쌍의 카메라 센서들 및 상기 보조 센서에 의해 캡처될 때까지 실시간으로 또는 거의 실시간으로 출력되는, 비일시적 컴퓨터 판독가능 저장 매체.
According to clause 15,
wherein the first control signal is output in real time or near real time until the scene is captured by the pair of camera sensors and the auxiliary sensor.
제15항에 있어서,
상기 보조 센서는,
레이더 센서,
라이다 센서,
보조 카메라 센서, 및
음향 센서
중 임의의 하나 또는 임의의 조합을 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
According to clause 15,
The auxiliary sensor is,
radar sensor,
lidar sensor,
a secondary camera sensor, and
acoustic sensor
A non-transitory computer-readable storage medium comprising any one or any combination of the following.
제15항에 있어서,
상기 계산하는 단계는 상기 제1 이미지 데이터의 각각의 픽셀에 대한 신뢰도 값을 결정하는 단계를 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
According to clause 15,
The calculating step includes determining a confidence value for each pixel of the first image data.
제15항에 있어서,
상기 계산하는 단계는 상기 제1 이미지 데이터의 복수의 영역의 각각의 영역에 대한 신뢰도 값을 결정하는 단계를 포함하는, 비일시적 컴퓨터 판독가능 저장 매체.
According to clause 15,
The calculating step includes determining a reliability value for each region of the plurality of regions of the first image data.
차량의 감독 또는 비감독 이동을 위한 비전 시스템으로서,
장면의 제1 이미지 데이터를 캡처하도록 구성되는 한 쌍의 카메라 센서들;
상기 장면의 제2 이미지 데이터를 캡처하도록 구성되는 보조 센서; 및
센서 시스템
을 포함하고, 상기 센서 시스템은,
상기 한 쌍의 카메라 센서들로부터 상기 제1 이미지 데이터를 수신하고,
상기 보조 센서로부터 상기 제2 이미지 데이터를 수신하고,
상기 제1 이미지 데이터로부터 제1 거리 값들 및 제1 신뢰도 값들을 계산하고,
상기 제1 거리 값들을 포함하는 제1 거리 맵을 생성하고, 상기 제1 신뢰도 값들을 포함하는 제1 신뢰도 맵을 생성하고,
상기 제2 이미지 데이터로부터 획득된 제2 거리 값들을 포함하는 제2 거리 맵을 생성하고, 그리고
상기 제1 신뢰도 값들, 상기 제1 거리 값들, 및 상기 제2 거리 값들에 기초하여 상기 차량을 제어하기 위해 상기 차량의 전자 제어 유닛(ECU)에 제1 제어 신호를 출력하도록 구성되는, 비전 시스템.
A vision system for supervised or unsupervised movement of a vehicle, comprising:
a pair of camera sensors configured to capture first image data of the scene;
an auxiliary sensor configured to capture second image data of the scene; and
sensor system
It includes, and the sensor system includes,
Receive the first image data from the pair of camera sensors,
Receive the second image data from the auxiliary sensor,
Calculate first distance values and first confidence values from the first image data,
Generating a first distance map including the first distance values, generating a first confidence map including the first confidence values,
generate a second distance map including second distance values obtained from the second image data, and
The vision system is configured to output a first control signal to an electronic control unit (ECU) of the vehicle to control the vehicle based on the first confidence values, the first distance values, and the second distance values.
KR1020237032546A 2021-01-06 2021-12-22 Methods and systems for providing depth maps with confidence estimates KR20230142640A (en)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
PCT/US2021/012294 WO2021150369A1 (en) 2020-01-22 2021-01-06 Non-rigid stereo vision camera system
USPCT/US2021/012294 2021-01-06
US202163229102P 2021-08-04 2021-08-04
US63/229,102 2021-08-04
KR1020227035046A KR102583256B1 (en) 2021-01-06 2021-12-22 Method and system for providing confidence estimates to depth maps
PCT/US2021/064856 WO2022150196A1 (en) 2021-01-06 2021-12-22 Methods and systems for providing depth maps with confidence estimates

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020227035046A Division KR102583256B1 (en) 2021-01-06 2021-12-22 Method and system for providing confidence estimates to depth maps

Publications (1)

Publication Number Publication Date
KR20230142640A true KR20230142640A (en) 2023-10-11

Family

ID=82357552

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020237032546A KR20230142640A (en) 2021-01-06 2021-12-22 Methods and systems for providing depth maps with confidence estimates
KR1020227035046A KR102583256B1 (en) 2021-01-06 2021-12-22 Method and system for providing confidence estimates to depth maps

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020227035046A KR102583256B1 (en) 2021-01-06 2021-12-22 Method and system for providing confidence estimates to depth maps

Country Status (4)

Country Link
EP (1) EP4275194A1 (en)
JP (1) JP2023521765A (en)
KR (2) KR20230142640A (en)
WO (1) WO2022150196A1 (en)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3855812B2 (en) * 2002-03-15 2006-12-13 ソニー株式会社 Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus
JP5117003B2 (en) 2006-07-11 2013-01-09 本田技研工業株式会社 Driving assistance device
JP5194679B2 (en) * 2007-09-26 2013-05-08 日産自動車株式会社 Vehicle periphery monitoring device and video display method
US8922628B2 (en) * 2009-09-01 2014-12-30 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
US9142026B2 (en) * 2010-02-26 2015-09-22 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
JP6323018B2 (en) 2014-01-17 2018-05-16 株式会社デンソー Driving assistance device
JP6337504B2 (en) * 2014-02-21 2018-06-06 株式会社リコー Image processing apparatus, moving body, robot, device control method and program
JP2016048839A (en) 2014-08-27 2016-04-07 株式会社小糸製作所 Electronic control unit and video system for vehicle
JP2017057058A (en) * 2015-09-16 2017-03-23 株式会社イシダ Wireless display system
US10242455B2 (en) * 2015-12-18 2019-03-26 Iris Automation, Inc. Systems and methods for generating a 3D world model using velocity data of a vehicle
US10788836B2 (en) * 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
US10275892B2 (en) * 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US11080590B2 (en) * 2018-03-21 2021-08-03 Nvidia Corporation Stereo depth estimation using deep neural networks
US10930054B2 (en) * 2019-06-18 2021-02-23 Intel Corporation Method and system of robust virtual view generation between camera views

Also Published As

Publication number Publication date
EP4275194A1 (en) 2023-11-15
KR20220167794A (en) 2022-12-21
JP2023521765A (en) 2023-05-25
WO2022150196A1 (en) 2022-07-14
KR102583256B1 (en) 2023-10-04

Similar Documents

Publication Publication Date Title
US11427193B2 (en) Methods and systems for providing depth maps with confidence estimates
US11836989B2 (en) Vehicular vision system that determines distance to an object
CN105313782B (en) Vehicle travel assist system and its method
US8055017B2 (en) Headlamp monitoring apparatus for image exposure adjustment
JP5254102B2 (en) Environment recognition device
US11295145B2 (en) Object detection using vehicular vision system
JP4275378B2 (en) Stereo image processing apparatus and stereo image processing method
CN104512411A (en) Vehicle control system and image sensor
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
JPWO2016113983A1 (en) Image processing apparatus, image processing method, program, and system
CN114902070A (en) Sensor degradation detection and repair
US11577748B1 (en) Real-time perception system for small objects at long range for autonomous vehicles
JP5027710B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP2006318059A (en) Apparatus, method, and program for image processing
JP6674959B2 (en) Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
JP2005285011A (en) Human recognition system and image processing apparatus
KR102583256B1 (en) Method and system for providing confidence estimates to depth maps
KR101868293B1 (en) Apparatus for Providing Vehicle LIDAR
JP6891082B2 (en) Object distance detector
US20230106188A1 (en) Vehicular vision system with object classification based on change in orientation of object
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
JP2006127058A (en) Object recognition system and image processing device
JP6515547B2 (en) PARALLEL VALUE DERIVING DEVICE, DEVICE CONTROL SYSTEM, MOBILE OBJECT, ROBOT, PARALLEL VALUE PRODUCTION METHOD, AND PROGRAM
CN116878658A (en) Scattering imaging system based on transparent window
CN117129002A (en) Vehicle navigation system for improving driving safety

Legal Events

Date Code Title Description
A107 Divisional application of patent
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right