JP2023521765A - Method and system for providing depth maps with confidence estimates - Google Patents

Method and system for providing depth maps with confidence estimates Download PDF

Info

Publication number
JP2023521765A
JP2023521765A JP2022561423A JP2022561423A JP2023521765A JP 2023521765 A JP2023521765 A JP 2023521765A JP 2022561423 A JP2022561423 A JP 2022561423A JP 2022561423 A JP2022561423 A JP 2022561423A JP 2023521765 A JP2023521765 A JP 2023521765A
Authority
JP
Japan
Prior art keywords
map
image
confidence
pixel
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022561423A
Other languages
Japanese (ja)
Inventor
オールデン ジャン、リーフ
ルイス ブルス、カルステン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nodar Inc
Original Assignee
Nodar Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from PCT/US2021/012294 external-priority patent/WO2021150369A1/en
Application filed by Nodar Inc filed Critical Nodar Inc
Publication of JP2023521765A publication Critical patent/JP2023521765A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/023Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for transmission of signals between vehicle parts or subsystems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/54Audio sensitive means, e.g. ultrasound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/35Data fusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

監視ありまたは監視なしの車両移動のための自動車両支援システムが提供される。システムは、制御システムと、第1のセンサシステムとを含む。第1のセンサシステムは、シーンの第1の画像データを受信し得、第1の画像データに基づいて、第1の視差マップと、第1の確信度マップとを出力し得る。制御システムは、第1の視差マップと、第1の確信度マップとに基づいて、ビデオストリームを出力し得る。車両支援システムは、シーンの少なくとも一部分の第2の画像データを受信し、第2の画像データに基づいて、第2の確信度マップを出力する第2のセンサシステムも含み得る。ビデオストリームは、スーパフレームを含み得、各スーパフレームは、シーンの2D画像と、2D画像に対応する深度マップと、深度マップに対応する確実性マップとを含む。An automated vehicle assistance system is provided for supervised or unsupervised vehicle movement. The system includes a control system and a first sensor system. A first sensor system may receive first image data of a scene and may output a first disparity map and a first confidence map based on the first image data. The control system may output a video stream based on the first disparity map and the first confidence map. The vehicle assistance system may also include a second sensor system that receives second image data of at least a portion of the scene and outputs a second confidence map based on the second image data. A video stream may include superframes, each superframe including a 2D image of a scene, a depth map corresponding to the 2D image, and a certainty map corresponding to the depth map.

Description

本発明の技術は、ステレオビジョンシステムに関する。詳細には、本発明の技術は、シーンの画像をキャプチャし、2次元(「2D」)画像データ、シーン内の対象物までの距離に関係する深度推定値データ、および深度推定値データの確実性のレベルに関係する確信度データを出力する、ステレオビジョンシステム(例えば、ステレオカメラシステム)に関する。 The technology of the present invention relates to stereo vision systems. Specifically, the technique of the present invention captures an image of a scene and uses two-dimensional (“2D”) image data, depth estimate data related to distances to objects in the scene, and robustness of the depth estimate data. Stereo vision systems (eg, stereo camera systems) that output confidence data related to sexuality levels.

ステレオビジョンシステムは、典型的には、左カメラによってキャプチャされた画像と、右カメラによってキャプチャされた画像における、マッチしたピクセル間の視差またはパララックスを測定することによって、距離を推定するために、2つのカメラ(例えば、左カメラおよび右カメラ)を使用する。例えば、特許文献1は、カメラのうちの1つ(しばしば、左カメラ)によってキャプチャされた、平行化画像に対応する、ピクセルシフトデータを包含する、2Dマトリックスである、視差マップを出力する、ステレオビジョンシステムおよび方法を開示している。ピクセルの深度は、ピクセルの視差に反比例するので、カメラからピクセルで画像化された対象物までの距離に対応する、画像の各ピクセルについての深度の推定値は、視差マップから容易に計算され得る。そのため、「深度マップ」および「視差マップ」という用語は、それらが、画像のシーンについて、ほぼ同一の情報を提供するので、本願明細書においては、交換可能に使用されることがある。 Stereo vision systems typically use to estimate distance by measuring the disparity or parallax between matched pixels in the image captured by the left camera and the image captured by the right camera. Two cameras (eg, left camera and right camera) are used. For example, US Pat. No. 6,200,300 outputs a disparity map, a 2D matrix containing pixel shift data, corresponding to a rectified image captured by one of the cameras (often the left camera), a stereo A vision system and method are disclosed. Since the depth of a pixel is inversely proportional to the disparity of the pixel, an estimate of the depth for each pixel in the image, corresponding to the distance from the camera to the object imaged by the pixel, can be easily calculated from the disparity map. . As such, the terms "depth map" and "parallax map" are sometimes used interchangeably herein as they provide nearly identical information about the scene of an image.

存在しているステレオビジョンシステムの問題は、深度推定値が、典型的には、推定値が、ピクセルごとに、またはフレームごとにでさえ、どの程度信頼できるか(または信頼できないか)の指標なしに提供されることである。従来の運転者支援システムにおいては、車両を停止させる、または操縦するための自動化された決定は、多数のセンサ(例えば、レーダ、ライダ、カメラなど)からの情報に基づいて、いずれのセンサからの情報についても信頼性の知識なしに、行われることがある。これは、運転者支援システムが、不必要な手順(例えば、きわめて低速での走行、過度に頻繁なブレーキなど)を実行することによって、センサからの相反する情報の不確実性を過大補償する結果となり得、乗客の快適性を低下させることがあり、または運転者支援システムが、恣意的に別のセンサよりも1つのセンサを選ぶことによって、相反する情報の不確実性を過小補償する結果となり得、乗客リスクを低下させることがある。認識されるように、運転者支援システムによって行われる決定は、乗客の安全に大きく影響することがあり、時には、重大な生命に関わる決定となることがある。例えば、車両が、幹線道路での運転に典型的な巡航スピードで走行しているとき、対象物までの距離の正確な知識は、巡航スピードを維持、またはほぼ維持しながら、対象物に衝突することを避けるために、運転者支援システムがどのように車両を制御するかに必須であり得る。 A problem with existing stereo vision systems is that depth estimates typically have no indication of how reliable (or unreliable) the estimate is on a pixel-by-pixel or even frame-by-frame basis. is to be provided to In conventional driver assistance systems, automated decisions to stop or steer a vehicle are based on information from a number of sensors (e.g., radar, lidar, cameras, etc.). Information can also be done without knowledge of its reliability. This results in the driver assistance system overcompensating for the uncertainties of conflicting information from the sensors by performing unnecessary procedures (e.g. driving very slowly, braking too frequently, etc.). which can reduce passenger comfort, or result in driver assistance systems undercompensating for uncertainties in conflicting information by arbitrarily choosing one sensor over another. and may reduce passenger risk. As will be appreciated, decisions made by driver assistance systems can have a significant impact on passenger safety and, at times, can be critical and life-threatening decisions. For example, when a vehicle is traveling at cruising speeds typical of highway driving, accurate knowledge of the distance to the object will allow it to collide with the object while maintaining or nearly maintaining cruising speed. To avoid this, how the driver assistance system controls the vehicle can be essential.

米国特許第8208716号明細書U.S. Pat. No. 8,208,716

自律車両および高度運転者支援システムは、車両の周囲についての情報を獲得して、車両の制御システムが、車両をどのように操縦するか、車両のスピードをどのように調整するか(例えば、どのように加速または減速するか)、安全対策を配備するか(例えば、警告点滅灯をオンにするか)どうかなどについての決定を行うことを可能にするために、様々なタイプのセンサ(例えば、ライダ、レーダ、カメラ、超音波、ステレオカメラなど)からの情報を使用し得る。認識されるように、車両の制御システムは、数十の電子制御モジュールまたはユニット(「ECU」)を、いくつかのケースにおいては、100を超えるECUを含むことがあり、各ECUは、車両動作の一側面を制御する(例えば、スピード制御ECU、ブレーキ制御ECU、変速機制御ECU、エンジン制御ECU、バッテリ管理ECUなど)。 Autonomous vehicles and advanced driver assistance systems acquire information about the vehicle's surroundings to determine how the vehicle's control system steers the vehicle and adjusts the vehicle's speed (e.g., how various types of sensors (such as information from lidar, radar, cameras, ultrasound, stereo cameras, etc.). As will be appreciated, a vehicle's control system may include dozens of electronic control modules or units ("ECUs"), and in some cases over 100 ECUs, each ECU controlling the operation of the vehicle. (eg, speed control ECU, brake control ECU, transmission control ECU, engine control ECU, battery management ECU, etc.).

本発明者らは、異なるタイプのセンサからのデータを最も良く融合させる、または組み合わせるためには、センサの各々からの測定値の確信度または確実性のレベルを知ることが重要であることを認知し、認識した。本技術のいくつかの態様においては、画像のペア内に出現する特徴までの距離を示す、高解像度深度情報は、画像のペアのステレオマッチングを通して決定され得る。ステレオマッチングは、視差特徴、先行画像、コスト曲線、および局所的特性のうちのいずれか1つまたは任意の組み合わせに基づいて、距離確実性情報を提供するために実行され得る。距離確実性情報は、深度情報の信頼性が格付けられることを可能にすることによって、センサ融合における問題を最小化または排除するために使用され得、したがって、深度情報を使用して行われた決定の安全性の程度を増加させ得る。 The inventors have recognized that it is important to know the confidence or level of certainty of the measurements from each of the sensors in order to best fuse or combine data from different types of sensors. and recognized. In some aspects of the present technology, high-resolution depth information, indicating distances to features appearing in pairs of images, may be determined through stereo matching of pairs of images. Stereo matching may be performed to provide range certainty information based on any one or any combination of disparity features, prior images, cost curves, and local characteristics. Range certainty information can be used to minimize or eliminate problems in sensor fusion by allowing the reliability of depth information to be graded, thus allowing decisions made using depth information to be can increase the degree of safety of

本技術の態様によれば、監視ありまたは監視なしの車両移動のための自動車両支援システムが提供される。システムは、コンピュータプロセッサと、コンピュータプロセッサに対して結合されたメモリとから成る、車両制御システムと、シーンの第1の画像データを受信し、第1の画像データに基づいて、第1の視差マップと、第1の確信度マップとを出力するように構成された、第1のセンサシステムとから成り得る。車両制御システムは、第1のセンサシステムから、第1の視差マップと、第1の確信度マップとを受信し、第1の視差マップと、第1の確信度マップとから成る、ビデオストリームを出力するように構成され得る。 According to aspects of the present technology, an automated vehicle assistance system for supervised or unsupervised vehicle travel is provided. A system receives first image data of a vehicle control system and a scene, comprising a computer processor and a memory coupled to the computer processor, and generates a first disparity map based on the first image data. and a first sensor system configured to output a first confidence map. The vehicle control system receives the first disparity map and the first confidence map from the first sensor system and produces a video stream comprising the first disparity map and the first confidence map. output.

この態様のいくつかの実施形態においては、ビデオストリームにおいて、第1の確信度マップは、第1の視差マップの一部になるようにエンコードされ得る。いくつかの実施形態においては、視差マップは、ピクセルの各々についての視差データから成り得、確信度マップは、ピクセルの各々についての確信度データから成り得る。いくつかの実施形態においては、第1の画像データは、左右の2次元(2D)の第1の画像についてのデータから成り得、第1のセンサシステムは、第1の画像データから、左右(2D)の平行化された第1の画像と、第1のコストボリュームマップとを生成するように構成され得、第1のセンサシステムは、2Dの平行化された第1の画像と、第1の視差マップと、第1のコストボリュームマップとから、第1の確信度マップを生成するように構成され得る。いくつかの実施形態においては、第1のセンサシステムは、セミグローバルマッチング(SGM)アルゴリズムから決定される一意性の値、および第1の画像データに対するソーベル演算から決定される画像テクスチャメトリックの一方または両方に基づいて、第1の確信度マップを生成するように構成され得る。 In some embodiments of this aspect, the first confidence map may be encoded to be part of the first disparity map in the video stream. In some embodiments, the disparity map may consist of disparity data for each of the pixels and the confidence map may consist of confidence data for each of the pixels. In some embodiments, the first image data may consist of data for a left and right two-dimensional (2D) first image, and the first sensor system may extract left and right (2D) first images from the first image data. 2D) rectified first image and a first cost volume map, wherein the first sensor system receives the 2D rectified first image and the first cost volume map; and the first cost volume map to generate a first confidence map. In some embodiments, the first sensor system uses one of a uniqueness value determined from a semi-global matching (SGM) algorithm and an image texture metric determined from a Sobel operation on the first image data, or Based on both, it may be configured to generate a first belief map.

この態様のいくつかの実施形態においては、車両支援システムは、シーンの少なくとも一部分の第2の画像データを受信し、第2の画像データに基づいて、第2の確信度マップを出力するように構成された、第2のセンサシステムからさらに成り得る。車両制御システムは、第2のセンサシステムから、第2の確信度マップを受信することと、ビデオストリームを、スーパフレームのシーケンスとして出力することであって、各スーパフレームは、第1の視差マップと、第1の確信度マップと、第2の確信度マップとに基づいた情報から成る、出力することとを行うように構成され得る。いくつかの実施形態においては、車両制御システムは、ビデオストリームの情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力するように構成され得る。いくつかの実施形態においては、第1のセンサシステムは、第1の視差マップと、第1の確信度マップとを生成するために、第1の画像データを処理するように構成された、第1のセンサモジュールであり得、第2のセンサシステムは、第2の確信度マップを生成するために、第2の画像データを処理するように構成された、第2のセンサモジュールであり得、第1のセンサモジュールおよび第2のセンサモジュールは、メモリ内に記憶され得、コンピュータプロセッサは、第1のセンサモジュールおよび第2のセンサモジュールを遂行するように構成され得る。いくつかの実施形態においては、ビデオストリームは、第1の視差マップと、第1の確信度マップとから成る、少なくとも1つのスーパフレームと、第1の視差マップと、第2の確信度マップとから成る、少なくとも1つのスーパフレームとから成り得る。いくつかの実施形態においては、ビデオストリームは、第1の確信度マップの一部分と、第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームから成り得る。いくつかの実施形態においては、第1の画像データは、ステレオビジョンデータから成り得、第2の画像データは、ライダデータから成り得る。 In some embodiments of this aspect, the vehicle assistance system receives second image data of at least a portion of the scene and outputs a second confidence map based on the second image data. It may further comprise a second sensor system configured. The vehicle control system receives a second confidence map from the second sensor system and outputs the video stream as a sequence of superframes, each superframe being a first disparity map. and outputting information based on the first belief map and the second belief map. In some embodiments, the vehicle control system may be configured to output control signals to the vehicle's electronic control unit (ECU) based on the information in the video stream. In some embodiments, the first sensor system is configured to process the first image data to generate a first disparity map and a first confidence map. can be one sensor module and the second sensor system can be a second sensor module configured to process the second image data to generate a second belief map; A first sensor module and a second sensor module may be stored in memory and a computer processor may be configured to perform the first sensor module and the second sensor module. In some embodiments, the video stream comprises at least one superframe consisting of a first disparity map, a first confidence map, a first disparity map and a second confidence map. at least one superframe consisting of In some embodiments, the video stream may consist of at least one superframe consisting of a portion of the first belief map and a portion of the second belief map. In some embodiments, the first image data may consist of stereo vision data and the second image data may consist of lidar data.

この態様のいくつかの実施形態においては、車両支援システムは、シーンの少なくとも一部分の第3の画像データを受信し、第3の画像データに基づいて、第3の確信度マップを出力するように構成された、第3のセンサシステムからさらに成り得る。第3の画像データは、レーダデータ、または音響データから成る。 In some embodiments of this aspect, the vehicle assistance system receives third image data of at least a portion of the scene and outputs a third confidence map based on the third image data. It may further comprise a configured third sensor system. The third image data consists of radar data or acoustic data.

この態様のいくつかの実施形態においては、ビデオストリームの各スーパフレームは、シーンの2次元(2D)画像と、シーンの深度マップと、シーンの確実性マップとから成り得る。いくつかの実施形態においては、シーンの確実性マップは、第1の確信度マップ、もしくは第2の確信度マップ、または第1の確信度マップと第2の確信度マップとの組み合わせから成り得る。いくつかの実施形態においては、シーンの深度マップは、シーンの2D画像に対応する画像データを用いて変調された、第1の視差マップから成り得、シーンの確実性マップは、シーンの2D画像に対応する画像データを用いて変調された、第1の確信度マップ、もしくは第2の確信度マップ、または第1の確信度マップと第2の確信度マップとの組み合わせから成り得る。いくつかの実施形態においては、シーンの2D画像のピクセル、シーンの深度マップのピクセル、およびシーンの確実性マップのピクセルは、時間的および空間的にマッチさせられ得る。いくつかの実施形態においては、車両制御システムは、ビデオストリームのデータサイズを下げるために、第1の視差マップからの視差情報、ならびに第1の確信度マップおよび第2の確信度マップからの確信度情報をエンコードするように構成され得る。 In some embodiments of this aspect, each superframe of the video stream may consist of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene. In some embodiments, the scene certainty map may consist of a first confidence map, or a second confidence map, or a combination of the first and second confidence maps. . In some embodiments, the depth map of the scene may consist of a first disparity map modulated with image data corresponding to a 2D image of the scene, and the certainty map of the scene may consist of the 2D image of the scene. or a second belief map, or a combination of the first and second belief maps, modulated with image data corresponding to . In some embodiments, the pixels of the 2D image of the scene, the pixels of the depth map of the scene, and the pixels of the certainty map of the scene may be temporally and spatially matched. In some embodiments, the vehicle control system combines disparity information from the first disparity map and beliefs from the first and second belief maps to reduce the data size of the video stream. It may be configured to encode degree information.

この態様のいくつかの実施形態においては、車両支援システムは、車両上に搭載されるように構成された、カメラのペアからさらに成り得る。カメラは、第1のセンサシステムに対して、第1の画像データを提供するように構成され得る。 In some embodiments of this aspect, the vehicle assistance system may further comprise a pair of cameras configured to be mounted on the vehicle. The camera may be configured to provide first image data to the first sensor system.

この態様のいくつかの実施形態においては、ビデオストリームは、2次元(2D)カラー画像から成り得、各2Dカラー画像は、複数のピクセルから成り、各ピクセルのアルファチャンネル透明度は、ピクセルについての確信度値に比例する。いくつかの実施形態においては、2Dカラー画像のカラーは、深度範囲を示し得る。 In some embodiments of this aspect, the video stream may consist of two-dimensional (2D) color images, each 2D color image consisting of a plurality of pixels, and the alpha channel transparency of each pixel determines the confidence about the pixel. Proportional to degrees. In some embodiments, the color of the 2D color image may indicate depth range.

本技術の別の態様によれば、コンピュータプロセッサによって遂行されたときに、コンピュータプロセッサに、監視ありまたは監視なしの車両移動のための自動車両支援システムの方法を実行させるコードが記憶された、非一時的コンピュータ可読記憶媒体が提供される。方法は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとを獲得する工程であって、第1の視差マップおよび第1の確信度マップは、シーンの第1の画像データに対応する、工程と、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとから成る、ビデオストリームを出力する工程とから成り得る。 According to another aspect of the present technology, a non-supervised vehicle assistance system having code stored thereon which, when performed by a computer processor, causes the computer processor to perform a method of an automotive vehicle assistance system for supervised or unsupervised vehicle movement. A temporary computer-readable storage medium is provided. The method comprises a computer processor obtaining a first disparity map and a first confidence map, the first disparity map and the first confidence map being first image data of a scene and the computer processor outputting a video stream comprising the first disparity map and the first confidence map.

この態様のいくつかの実施形態においては、ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の視差マップの一部となるように、第1の確信度マップをエンコードする工程から成り得る。いくつかの実施形態においては、第1の画像データは、複数のピクセルから成り得、視差マップは、ピクセルの各々についての視差データから成り得、確信度マップは、ピクセルの各々についての確信度データから成り得る。いくつかの実施形態においては、方法は、コンピュータプロセッサが、シーンの少なくとも一部分の第2の画像データに対応する第2の確信度マップを獲得する工程と、コンピュータプロセッサが、ビデオストリームを、スーパフレームのシーケンスとして出力する工程であって、各スーパフレームは、第1の視差マップと、第1の確信度マップと、第2の確信度マップとに基づいた情報から成る、工程とからさらに成り得る。いくつかの実施形態においては、方法は、コンピュータプロセッサが、ビデオストリームの情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力する工程からさらに成り得る。いくつかの実施形態においては、方法は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとを獲得するために、第1の画像データを処理する工程と、コンピュータプロセッサが、第2の確信度マップを獲得するために、第2の画像データを処理する工程とからさらに成り得る。 In some embodiments of this aspect, outputting the video stream may comprise the computer processor encoding the first confidence map to become part of the first disparity map. In some embodiments, the first image data may consist of a plurality of pixels, the disparity map may consist of disparity data for each of the pixels, and the confidence map may consist of confidence data for each of the pixels. can consist of In some embodiments, the method comprises the steps of: a computer processor obtaining a second confidence map corresponding to second image data of at least a portion of a scene; wherein each superframe consists of information based on the first disparity map, the first confidence map, and the second confidence map . In some embodiments, the method may further comprise the computer processor outputting a control signal to an electronic control unit (ECU) of the vehicle based on the information in the video stream. In some embodiments, the method comprises the steps of: a computer processor processing the first image data to obtain a first disparity map and a first confidence map; processing the second image data to obtain a second confidence map.

この態様のいくつかの実施形態においては、ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程と、コンピュータプロセッサが、第1の視差マップと、第2の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程とから成り得る。いくつかの実施形態においては、ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の確信度マップの一部分と、第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームを準備する工程からさらに成り得る。いくつかの実施形態においては、第1の画像データは、ステレオビジョンデータから成り得、第2の画像データは、ライダデータ、またはレーダデータ、または音響データから成り得る。 In some embodiments of this aspect, the step of outputting the video stream includes the computer processor preparing at least one superframe to consist of the first disparity map and the first confidence map. and a computer processor preparing at least one superframe to consist of a first disparity map and a second confidence map. In some embodiments, the step of outputting the video stream includes the computer processor preparing at least one superframe consisting of a portion of the first belief map and a portion of the second belief map. It can further comprise a step. In some embodiments, the first image data may consist of stereo vision data and the second image data may consist of lidar data, or radar data, or acoustic data.

この態様のいくつかの実施形態においては、ビデオストリームを出力する工程は、コンピュータプロセッサが、シーンの2次元(2D)画像と、シーンの深度マップと、シーンの確実性マップとから成るように、ビデオストリームの各スーパフレームを準備する工程から成り得る。いくつかの実施形態においては、コンピュータプロセッサによって、各スーパフレームを準備する工程は、シーンの2D画像のピクセルと、シーンの深度マップのピクセルと、シーンの確実性マップのピクセルとを、時間的および空間的にマッチさせる工程から成り得る。いくつかの実施形態においては、ビデオストリームを出力する工程は、コンピュータプロセッサが、ビデオストリームのデータサイズを下げるために、第1の視差マップからの視差情報、ならびに第1の確信度マップおよび第2の確信度マップからの確信度情報をエンコードする工程から成り得る。いくつかの実施形態においては、ビデオストリームを出力する工程は、各2Dカラー画像が、複数のピクセルから成り、各ピクセルのアルファチャンネル透明度が、ピクセルについての確信度値に比例し、2Dカラー画像のカラーが、深度範囲を示すように、2次元(2D)カラー画像を準備する工程から成り得る。 In some embodiments of this aspect, the step of outputting the video stream includes: Preparing each superframe of the video stream. In some embodiments, the step of preparing each superframe by a computer processor includes combining pixels of a 2D image of the scene, pixels of a depth map of the scene, and pixels of a certainty map of the scene into temporal and It may consist of a spatial matching step. In some embodiments, the step of outputting the video stream includes the computer processor disparity information from the first disparity map and the first confidence map and the second confidence map to reduce the data size of the video stream. encoding confidence information from the confidence map of the . In some embodiments, the step of outputting the video stream comprises: each 2D color image consisting of a plurality of pixels, an alpha channel transparency for each pixel proportional to a confidence value for the pixel; Color may consist of preparing a two-dimensional (2D) color image to indicate the depth range.

本技術の別の態様によれば、ステレオビジョンシステムが提供される。システムは、画像のペアのシーケンスをキャプチャするように構成された、ステレオカメラシステムであって、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、ステレオカメラシステムと、コンピュータプロセッサであって、ステレオカメラシステムから、画像データのストリームを受信することであって、画像データは、画像のペアのシーケンスに対応する、受信することを行うようにプログラムされた、コンピュータプロセッサとから成り得る。コンピュータプロセッサは、画像のペアの各々について、マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、第1の画像と、第2の画像とを平行化することと、ピクセルマップの各ピクセルについて、深度値を決定することと、ピクセルマップの各ピクセルについて、深度値についての確信度値を決定することとを行うようにもプログラムされ得る。コンピュータプロセッサは、確信度値のうちの少なくとも1つが画像異常を示すとき、制御信号を発行することを行うようにもプログラムされ得る。 According to another aspect of the technology, a stereo vision system is provided. The system is a stereo camera system configured to capture a sequence of image pairs, each pair of images consisting of a first image and a second image captured simultaneously. a camera system and a computer processor programmed to receive a stream of image data from the stereo camera system, the image data corresponding to a sequence of pairs of images. , a computer processor; A computer processor rectifies the first image and the second image to generate a two-dimensional (2D) pixel map of matched pixels for each of the pair of images; and for each pixel of the pixmap a confidence value for the depth value. The computer processor may also be programmed to issue the control signal when at least one of the confidence values indicates an image anomaly.

この態様のいくつかの実施形態においては、画像異常は、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応し得る。いくつかの実施形態においては、画像異常は、シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応し得る。いくつかの実施形態においては、画像異常は、確信度マップの隣接する領域の複数のピクセルから成り得る。いくつかの実施形態においては、制御信号は、事前記録されたメッセージであり得る、可聴音を引き起こすように構成され得る。いくつかの実施形態においては、制御信号は、車両のエンジン制御モジュールに対して発行され得る。いくつかの実施形態においては、ピクセルマップの各ピクセルについて、確信度値は、ピクセルにおけるエッジの有無、ピクセルの照度レベル、ならびにピクセルマップがそれから生成された第1の画像および第2の画像のテクスチャ値に基づいて決定され得る。 In some embodiments of this aspect, the image anomaly may correspond to one or more pixels in the portion of the confidence map that have confidence values below a predetermined threshold. In some embodiments, the image anomaly is one or more pixels of the portion of the confidence map that have confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence. can correspond to In some embodiments, an image anomaly may consist of multiple pixels in contiguous regions of the confidence map. In some embodiments, the control signal may be configured to cause an audible tone, which may be a pre-recorded message. In some embodiments, the control signal may be issued to the vehicle's engine control module. In some embodiments, for each pixel of the pixmap, the confidence value is the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture of the first and second images from which the pixmap was generated. can be determined based on the value.

この態様のいくつかの実施形態においては、コンピュータプロセッサは、画像のペアのシーケンスに対応する、スーパフレームのシーケンスを出力するようにプログラムされ得、スーパフレームの各々は、2D画像と、2D画像に対応する確信度マップとから成る。いくつかの実施形態においては、2D画像は、第1の画像、または第2の画像であり得る。いくつかの実施形態においては、コンピュータプロセッサは、スーパフレームのシーケンスを、2D画像と、確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号として出力するようにプログラムされ得る。表示信号は、確信度インジケータを、2D画像の各ピクセルの透明度として、ピクセルごとに表示させ得る。いくつかの実施形態においては、スーパフレームの各々は、2D画像と、確信度マップと、2D画像に対応する視差マップとから成り得る。 In some embodiments of this aspect, the computer processor may be programmed to output a sequence of superframes corresponding to the sequence of image pairs, each superframe being a 2D image and a 2D image. and the corresponding confidence map. In some embodiments, the 2D image can be the first image or the second image. In some embodiments, the computer processor outputs the sequence of superframes as a display signal that causes the display to show a 2D image and a visual confidence indicator corresponding to the confidence map. can be programmed to The display signal may cause the confidence indicator to be displayed pixel by pixel as the transparency of each pixel of the 2D image. In some embodiments, each superframe may consist of a 2D image, a confidence map, and a disparity map corresponding to the 2D image.

本技術の別の態様によれば、コンピュータプロセッサによって遂行されたとき、コンピュータプロセッサに、ステレオビジョンシステムの方法を実行させるコードが記憶された、非一時的コンピュータ可読記憶媒体が提供される。方法は、コンピュータプロセッサが、ステレオカメラシステムから、画像データのストリームを受信する工程であって、画像データは、画像のペアのシーケンスに対応し、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、工程と、画像のペアの各々について、コンピュータプロセッサが、マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、第1の画像と、第2の画像とを平行化する工程と、ピクセルマップの各ピクセルについて、深度値を決定する工程と、ピクセルマップの各ピクセルについて、深度値についての確信度値を決定する工程と、確信度マップのうちの少なくとも1つが画像異常を示すとき、コンピュータプロセッサが、制御信号を発行する工程とから成り得る。 According to another aspect of the present technology, there is provided a non-transitory computer-readable storage medium having code stored thereon which, when executed by a computer processor, causes the computer processor to perform a method of a stereo vision system. The method comprises the steps of: a computer processor receiving a stream of image data from a stereo camera system, the image data corresponding to a sequence of image pairs, each pair of images captured simultaneously; and a second image, and for each pair of images, the computer processor generates a two-dimensional (2D) pixel map of matched pixels from the first image and , the second image; for each pixel of the pixmap, determining a depth value; for each pixel of the pixmap, determining a confidence value for the depth value; and the computer processor issuing a control signal when at least one of the maps indicates an image anomaly.

この態様のいくつかの実施形態においては、画像異常は、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応し得る。いくつかの実施形態においては、画像異常は、シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応し得る。いくつかの実施形態においては、画像異常は、確信度マップの隣接する領域の複数のピクセルから成り得る。 In some embodiments of this aspect, the image anomaly may correspond to one or more pixels in the portion of the confidence map that have confidence values below a predetermined threshold. In some embodiments, an image anomaly is one or more pixels in a portion of the confidence map that have confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence. can correspond to In some embodiments, an image anomaly may consist of multiple pixels in contiguous regions of the confidence map.

この態様のいくつかの実施形態においては、制御信号は、可聴音を引き起こすように構成され得る。例えば、可聴音は、事前記録されたメッセージであり得る。いくつかの実施形態においては、制御信号は、車両のエンジン制御モジュールに対して発行され得る。いくつかの実施形態においては、ピクセルマップの各ピクセルについて、確信度値は、ピクセルにおけるエッジの有無、ピクセルの照度レベル、ならびにピクセルマップがそれから生成された第1の画像および第2の画像のテクスチャ値に基づいて決定され得る。 In some embodiments of this aspect, the control signal may be configured to cause an audible sound. For example, the audible tone can be a pre-recorded message. In some embodiments, the control signal may be issued to the vehicle's engine control module. In some embodiments, for each pixel in the pixmap, the confidence value is the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture of the first and second images from which the pixmap was generated. can be determined based on the value.

この態様のいくつかの実施形態においては、方法は、コンピュータプロセッサが、画像のペアのシーケンスに対応する、スーパフレームのシーケンスを出力する工程であって、スーパフレームの各々は、2D画像と、2D画像に対応する視差マップと、2D画像に対応する確信度マップとから成る、工程からさらに成り得る。いくつかの実施形態においては、2D画像は、第1の画像、または第2の画像であり得る。いくつかの実施形態においては、スーパフレームのシーケンスを出力する工程は、2D画像と、確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号を出力する工程から成り得る。いくつかの実施形態においては、表示信号は、確信度インジケータを、2D画像の各ピクセルの透明度として、ピクセルごとに表示させ得る。いくつかの実施形態においては、スーパフレームの各々は、2D画像と、確信度マップと、2D画像に対応する視差マップとから成り得る。 In some embodiments of this aspect, the method comprises the step of the computer processor outputting a sequence of superframes corresponding to the sequence of image pairs, each superframe being a 2D image and a 2D It may further comprise a process comprising a disparity map corresponding to the image and a confidence map corresponding to the 2D image. In some embodiments, the 2D image can be the first image or the second image. In some embodiments, outputting the sequence of superframes includes outputting a display signal that causes the display to show a 2D image and a visual confidence indicator corresponding to the confidence map. can consist of In some embodiments, the display signal may cause the confidence indicator to be displayed on a pixel-by-pixel basis as the transparency of each pixel of the 2D image. In some embodiments, each superframe may consist of a 2D image, a confidence map, and a disparity map corresponding to the 2D image.

上述の特徴は、本願明細書で議論される実施形態のいずれにおいても、別個に、または任意の組み合わせで一緒に、使用され得る。
本願明細書において開示される本技術の様々な態様および実施形態が、添付の図を参照して、以下で説明される。図は、必ずしも実寸に比例しているとは限らないことが認識されるべきである。多数の図に出現する項目が、同じ参照番号によって示されることがある。明瞭にする目的で、あらゆる構成要素が、あらゆる図において、ラベル付けされるとは限らないことがある。添付の図のうちの少なくとも1つは、以下に示されるように、少なくとも部分的にカラーで作成される。
The features described above may be used separately or together in any combination in any of the embodiments discussed herein.
Various aspects and embodiments of the technology disclosed herein are described below with reference to the accompanying figures. It should be appreciated that the drawings are not necessarily to scale. Items appearing in multiple figures may be indicated by the same reference numerals. For clarity purposes, not all components may be labeled in all figures. At least one of the accompanying figures, as indicated below, is at least partially drawn in color.

本技術のいくつかの実施形態による、ステレオビジョンシステムのブロック図。1 is a block diagram of a stereo vision system, in accordance with some embodiments of the present technology; FIG. 本技術のいくつかの実施形態による、車両上に配置されたセンサおよび電子制御ユニットの配置を示す図。FIG. 2 illustrates an arrangement of sensors and electronic control units located on a vehicle, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、制御システムに対して結合されたステレオビジョンシステムのブロック図。1 is a block diagram of a stereo vision system coupled to a control system, according to some embodiments of the present technology; FIG. 本技術のいくつかの実施形態による、コストボリュームがどのように決定され得るかを理解するための図。FIG. 4 is a diagram for understanding how cost volume may be determined, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、コスト曲線の例を示す図。FIG. 13 illustrates an example cost curve, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、確信度処理手順によって実行されるプロセスを示す図。FIG. 7 illustrates a process performed by a confidence processing procedure, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリームおよびビデオストリームのスーパフレームの例を示す図(図6の一部はカラー化されている)。FIG. 6 shows an example of a video stream and superframes of the video stream (part of FIG. 6 is in color), in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 illustrates examples of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 shows an example of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 shows an example of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 shows an example of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 shows an example of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、ビデオストリーム内に含まれ得る、異なるタイプのスーパフレームの例を示す図。FIG. 4 shows an example of different types of superframes that may be included within a video stream, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、センサによってキャプチャされたシーンを照明することを備える、ビーム領域を概略的に描いた図。FIG. 14 schematically depicts a beam region comprising illuminating a scene captured by a sensor, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、シーンのキャプチャされた画像内の対象物についての断面積と範囲との間の関係を描いたグラフ。4 is a graph depicting the relationship between cross-sectional area and extent for an object within a captured image of a scene, in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、視差マップおよび確信度マップの例を示す図(図9Aの一部はカラー化されている)。9A-9B show examples of disparity maps and confidence maps (some of which are in color in FIG. 9A), in accordance with some embodiments of the present technology; 本技術のいくつかの実施形態による、視差マップおよび確信度マップの例を示す図。FIG. 4 shows examples of disparity maps and confidence maps, in accordance with some embodiments of the present technology;

車両が動いている最中に、車両の周囲についての情報を獲得して、車両の電子制御システムが、車両をどのように動作させるかについての決定を行うことを可能にするために、および/または車両を操作している運転者を支援するのに有用な情報を運転者に対して提供するために、異なるタイプのセンサシステム(例えば、ライダシステム、レーダシステム、モノビジョンカメラシステム、ステレオビジョンカメラシステム、温度測定システム(例えば、熱電対)、音響システム(例えば、超音波トランスデューサシステム、可聴音マイクロフォンシステムなど))からのセンサ情報が、車両によって使用され得る。例えば、センサ情報は、車両のスピードを調整する(例えば、加速または減速する)、安全手段を配備する(例えば、警告点滅灯、フロントガラスワイパをオンにするなど)、車両の経路内の対象物から離れるように操縦するなどするために、制御システムによって使用され得る。別の例においては、センサ情報は、車両の経路内の特定の対象物を運転者に警告するために、制御システムによって使用され得る。本技術のいくつかの実施形態においては、制御システムは、車両の動作の様々な側面を制御するように構成された、ECUから成る、集中型コンピュータシステムであり得る。ECUの各々は、1つまたは複数のセンサからデータを受信し、車両の一部を動作させるために使用される、1つまたは複数の制御信号を出力するために、データを処理するように構成された、ソフトウェアおよび/またはハードウェアから成り得る。上で述べられたように、移動している車両においては、動作中の100を超えるECUがあることがある。いくつかのECUは、他のECUから独立して動作し得、いくつかのECUは、1つまたは複数の他のECUと相互依存して動作し得る。本技術の他のいくつかの実施形態においては、車両の電子制御システムは、非集中化され得る。例えば、バッテリ管理ECUは、例えば、スピード制御ECUから独立した、別個のシステムとして動作し得る。各ECUは、1つタイプのセンサ、または複数タイプのセンサから、センサ情報を受信し得る。例えば、車室温度ECUは、車両の車室の異なる領域に位置付けられた、1つまたは複数の温度計から、センサ情報を受信し得、ヒータおよび/またはエアコンを制御して、車室の温度を車両の乗員によって設定された温度に維持するために、センサ情報を使用し得る。別の例においては、操縦ECUは、ステレオ画像化のためのカメラの1つまたは複数のセット、1つまたは複数のレーダシステム、1つまたは複数のライダシステム、1つまたは複数のタイヤ圧計、1つまたは複数のマイクロフォン、2D画像化のための1つまたは複数のカメラ、および1つまたは複数のナビゲーションシステム(例えば、GPSシステム)の様々な組み合わせからセンサ情報を受信し得、目的地まで車両を安全に操縦するのに、最も良い一連の行動を決定するために、センサ情報を使用し得る。 To obtain information about the vehicle's surroundings while the vehicle is in motion to enable the vehicle's electronic control system to make decisions about how to operate the vehicle; and/ or different types of sensor systems (e.g., lidar systems, radar systems, monovision camera systems, stereovision cameras, etc.) to provide the driver with useful information to assist him in operating the vehicle. Sensor information from systems, temperature measurement systems (eg, thermocouples), acoustic systems (eg, ultrasonic transducer systems, audio microphone systems, etc.) may be used by the vehicle. For example, sensor information may be used to adjust the speed of the vehicle (e.g., accelerate or decelerate), deploy safety measures (e.g., turn on warning flashing lights, windshield wipers, etc.), or detect objects in the vehicle's path. It can be used by the control system to steer away from, etc. In another example, sensor information may be used by the control system to warn the driver of certain objects in the vehicle's path. In some embodiments of the present technology, the control system may be a centralized computer system consisting of an ECU configured to control various aspects of vehicle operation. Each of the ECUs is configured to receive data from one or more sensors and process the data to output one or more control signals used to operate parts of the vehicle. It may consist of software and/or hardware implemented. As mentioned above, in a moving vehicle there may be over 100 ECUs in operation. Some ECUs may operate independently of other ECUs, and some ECUs may operate interdependently with one or more other ECUs. In some other embodiments of the present technology, the vehicle's electronic control system may be decentralized. For example, the battery management ECU may operate as a separate system, independent from, for example, the speed control ECU. Each ECU may receive sensor information from one type of sensor, or multiple types of sensors. For example, the cabin temperature ECU may receive sensor information from one or more thermometers positioned in different areas of the vehicle cabin and control heaters and/or air conditioners to determine the cabin temperature. can be used to maintain the temperature set by the vehicle occupants. In another example, the steering ECU includes one or more sets of cameras for stereo imaging, one or more radar systems, one or more lidar systems, one or more tire pressure gauges, one Sensor information may be received from various combinations of one or more microphones, one or more cameras for 2D imaging, and one or more navigation systems (e.g., GPS systems) to navigate the vehicle to its destination. Sensor information can be used to determine the best course of action for safe navigation.

本発明者らは、異なるタイプのセンサからのデータの使用を最適化するためには、センサの各々からの測定値の確信度または確実性のレベルを知ることが重要であることを認知し、認識した。本技術のいくつかの実施形態によれば、確信度情報は、対象物までの距離を決定するためのデータのために、どのセンサまたはセンサのどの組み合わせが使用されるべきかを決定するために使用され得る。従来のセンサは、典型的には、測定値についての確信度レベルを示す、誤差推定値(例えば、誤差バー)を報告することなく、測定値または推定された測定値を報告し、それが、正確な融合を困難にしていた。しかしながら、上で述べられたように、自動車用途で特に重要な機能的に安全なシステムは、人命の安全に影響し得る決定を行うために、センサ測定値に依存する。したがって、車両の電子制御システムに対して、正確なセンサデータを提供することに、高められた関心があり、それは、制御システムに対して、センサデータについての確信度のレベルを提供することを伴い得る。確信度データを装備することで、制御システムは、センサデータが、車両を制御するために使用されるほど十分に信用できるか、それともセンサデータが、十分に信頼できず、使用されるべきではないかに関する決定をより良く行うことができることがある。認識されるように、センサ融合は、異なるタイプのセンサからのデータを組み合わせるために、中央制御システムによって実行され得るが、本技術のいくつかの実施形態においては、センサ融合は、車両のECUの1つもしくは複数によって、またはECUおよび/もしくは中央制御システムと連携して動作する、補助システムによって、実行され得る。 The inventors recognize that in order to optimize the use of data from different types of sensors, it is important to know the confidence or certainty level of the measurements from each of the sensors; recognized. According to some embodiments of the present technology, confidence information is used to determine which sensor or combination of sensors should be used for data to determine distance to an object. can be used. Conventional sensors typically report measurements or estimated measurements without reporting error estimates (e.g., error bars) that indicate a level of confidence about the measurements, which making accurate fusion difficult. However, as mentioned above, functionally safe systems, which are of particular importance in automotive applications, rely on sensor measurements to make decisions that can affect the safety of human life. Accordingly, there is an increased interest in providing accurate sensor data to a vehicle's electronic control system, which entails providing the control system with a level of confidence about the sensor data. obtain. Equipped with confidence data, the control system can either trust the sensor data sufficiently to be used to control the vehicle, or the sensor data is not reliable enough and should not be used. You may be able to make better decisions about whether As will be appreciated, sensor fusion may be performed by a central control system to combine data from different types of sensors, but in some embodiments of the present technology sensor fusion is performed by the vehicle's ECU. It may be performed by one or more or by an auxiliary system working in conjunction with the ECU and/or central control system.

本発明者らは、より多くの証拠または情報が利用可能になると、仮説または推定値についての確率を更新するために、ベイズ推論において、推定値の確信度レベルが使用され得ることを認知し、認識した。車両上に配備された同じタイプおよび/または異なるタイプの様々なセンサからのセンサデータが、車両上に配備された特定のセンサからのセンサデータを裏付けるために、使用され得る。本発明者らは、車両の運転者支援システムが、信頼できるデータに基づいて決定を行うことを可能にすることによって、深度推定値についての確信度範囲を報告するセンサが、より安全な車両をもたらし得ることを認知し、認識した。それは、人間の運転者によって制御されないことがある、自律車両にとってとりわけ重要である。例えば、車両が、幹線道路の運転に典型的な巡航スピードで走行しており、センサ(例えば、カメラ)が、(例えば、センサ上のデブリのせいで)センサが車両に近い範囲内にある対象物を間違って検出するように、部分的に妨害された場合、センサによってキャプチャされた画像の分析に織り込まれる様々な因子に基づいて、本技術のいくつかの実施形態によるステレオビジョンシステムは、その対象物に対応するそのセンサデータに対して、相対的に低いレベルの確実性を示す確信度を決定および出力し得、したがって、そのセンサデータは、無視され得る。これは、車両が、その経路上において巡航スピードを継続するように制御されること、または潜在的に偽の(すなわち、存在しない)対象物に衝突することを避けるために、緊急ブレーキをかける、例えば、車両のブレーキを突然適用するような、車両の追突される可能性を増加させ得る制御が行われる代わりに、観察時間を増加させるために、スピードを緩やかに下げるように制御されることを可能にし得る。いくつかの実施形態においては、センサデータと関連付けられた確信度は、センサデータが使用され得るか、それとも相対的に高い確信度を有する、別のセンサからのセンサデータが代わりに使用されるべきかを決定するために使用され得る。例えば、センサデータからの深度情報は、車両の経路内の対象物を示しているが、深度情報が、低い確信度値と関連付けられている場合、対象物らしきものが、より多くの時間にわたって観察されることを可能にするために、および/または対象物らしきものが、他のセンサシステムによってクロスチェックされることを可能にするために、車両は、その走行スピードを下げるように制御され得る。以下で議論されるように、本技術の様々な実施形態によれば、ステレオビジョン技術によって獲得されたデータを裏付けるまたは補足するために、異なるタイプのセンサシステム(例えば、レーダ、ライダ、音響などに基づくシステム)が使用され得る。 We recognize that the confidence level of an estimate can be used in Bayesian inference to update the probability about a hypothesis or estimate as more evidence or information becomes available; recognized. Sensor data from various sensors of the same type and/or different types deployed on the vehicle may be used to corroborate sensor data from a particular sensor deployed on the vehicle. The inventors have found that sensors reporting confidence ranges for depth estimates can lead to safer vehicles by enabling a vehicle's driver assistance systems to make decisions based on reliable data. Recognized and recognized what it could bring. It is especially important for autonomous vehicles, which may not be controlled by a human driver. For example, the vehicle is traveling at cruising speeds typical of highway driving and the sensor (e.g. camera) is subject to the sensor being within close range of the vehicle (e.g. due to debris on the sensor). Based on various factors factored into the analysis of the images captured by the sensors, the stereo vision system according to some embodiments of the present technology may detect an object incorrectly if it is partially obstructed. A confidence factor may be determined and output indicating a relatively low level of certainty for that sensor data corresponding to the object, and thus the sensor data may be ignored. This involves the vehicle being controlled to continue cruising speed on its path, or applying emergency braking to avoid potentially colliding with spurious (i.e., non-existent) objects. For example, instead of controlling the vehicle to increase the likelihood of a rear-end collision, such as suddenly applying the vehicle's brakes, it is controlled to slow down gradually to increase the observation time. can make it possible. In some embodiments, the confidence associated with the sensor data may be used, or sensor data from another sensor with a relatively high confidence should be used instead. can be used to determine whether For example, depth information from sensor data indicates an object in the vehicle's path, but if the depth information is associated with a low confidence value, likely objects are observed over more time. The vehicle may be controlled to slow its travel speed to allow the vehicle to be detected and/or to allow possible objects to be cross-checked by other sensor systems. As discussed below, various embodiments of the present technology employ different types of sensor systems (e.g., radar, lidar, acoustic, etc.) to corroborate or supplement data acquired by stereo vision techniques. based system) can be used.

本発明者らは、特定のセンサが部分的または全体的に誤動作している(例えば、デブリによって部分的または全体的に覆われている)かどうかを、運転者支援システムが決定することを可能にすることによって、各センサからの深度推定値の確信度レベルまたは確実性の程度が、乗客の安全を増加させるために、有利に使用され得ることを認知し、認識した。いくつかの実施形態においては、確信度レベルから導出された情報は、センサにおける異常を運転者に対して警告するために使用され得る。いくつかの実施形態においては、ステレオビジョンシステム、またはステレオビジョンシステムと連携して動作するデバイスは、複数の画像にわたって、低い確信度(例えば、閾値確信度レベルを下回る値)の発生を追跡し得、センサが異常に機能していることがあるかどうかを決定するために、例えば、低い確信度の頻度を使用し得る。 The inventors have determined that a driver assistance system can determine if a particular sensor is partially or totally malfunctioning (e.g. partially or totally covered by debris). By doing so, the confidence level or degree of certainty of the depth estimate from each sensor can be used advantageously to increase passenger safety. In some embodiments, information derived from confidence levels may be used to warn the driver of anomalies in sensors. In some embodiments, a stereo vision system, or a device operating in conjunction with a stereo vision system, may track occurrences of low confidence (e.g., values below a threshold confidence level) across multiple images. , the low confidence frequency, for example, may be used to determine whether the sensor may be functioning abnormally.

本技術のいくつかの実施形態によれば、ステレオビジョンシステムは、画像についての全般的な確信度を決定および出力するように構成され得る。「確信度」、「確信度範囲」、および「確信度レベル」という用語は、本願明細書においては、交換可能に使用されることがある。画像は、移動する車両(例えば、車、トラック、飛行機など)上のセンサによってキャプチャされたシーンのものであり得、または固定された構造物(例えば、街灯、管制塔、住居、オフィスビルなど)上に搭載されたセンサによってキャプチャされたシーンのものであり得る。ステレオビジョンシステムは、車両上に配備されたスタンドアロンシステムであり得、または車両の制御システム内に組み込まれ得る。いくつかの実施形態においては、ステレオビジョンシステムは、画像の複数の領域の各領域についての確信度を決定および出力し得る。例えば、画像は、(例えば、左上、右上、左下、右下)象限に分割され得、ステレオビジョンシステムは、各象限についての確信度を決定および出力し得る。いくつかの実施形態においては、ステレオビジョンシステムは、画像の各ピクセルについての確信度を決定および出力し得る。 According to some embodiments of the present technology, a stereo vision system may be configured to determine and output a general belief about an image. The terms "belief," "belief range," and "belief level" may be used interchangeably herein. The images can be of scenes captured by sensors on moving vehicles (e.g. cars, trucks, planes, etc.) or fixed structures (e.g. streetlights, control towers, residences, office buildings, etc.). It can be of a scene captured by an on-board sensor. The stereo vision system may be a stand-alone system deployed on the vehicle or may be integrated within the vehicle's control system. In some embodiments, a stereo vision system may determine and output a confidence measure for each region of multiple regions of an image. For example, an image may be divided into quadrants (eg, upper left, upper right, lower left, lower right) and the stereo vision system may determine and output a confidence score for each quadrant. In some embodiments, a stereo vision system may determine and output a confidence score for each pixel of an image.

本技術のいくつかの実施形態によれば、ステレオビジョンシステムは、シーンのキャプチャされた画像に対応する、深度マップを出力するように構成され得る。画像は、キャプチャされたデジタル画像であり得、またはアナログ画像からデジタル化され得る。深度マップは、深度値、またはステレオビジョンシステムのセンサからシーン内の対象物までの距離のマップであり得る。深度マップは、深度マップの各ピクセル(および画像の各ピクセル)が、関連付けられた深度値を有し得るように、画像のピクセルに対応する、ピクセルから成り得る。ステレオビジョンシステムは、深度マップとともに、確信度データを出力するようにも構成され得る。いくつかの実施形態においては、確信度データは、深度マップの確実性または確信度を示す、確信度マップであり得る。いくつかの実施形態においては、確信度マップは、確信度マップの各ピクセル(および画像の各ピクセル)が、関連付けられた確信度を有し得るように、深度マップ(および画像)のピクセルに対応する、ピクセルから成り得る。いくつかの実施形態においては、確信度マップは、誤差バーとして、標準偏差値として、バケット(例えば、高確信度、中確信度、低確信度)で、または各推定された確信度の品質レベルを示すことが可能な他の任意のメトリックで、確信度の推定値を表し得る。 According to some embodiments of the present technology, a stereo vision system may be configured to output a depth map corresponding to captured images of a scene. The image can be a captured digital image or can be digitized from an analog image. The depth map may be a map of depth values or distances from the stereo vision system's sensors to objects in the scene. A depth map may consist of pixels that correspond to pixels of the image such that each pixel of the depth map (and each pixel of the image) may have an associated depth value. A stereo vision system may also be configured to output confidence data along with the depth map. In some embodiments, the confidence data may be a confidence map that indicates the certainty or confidence of the depth map. In some embodiments, the belief map corresponds to pixels of the depth map (and image) such that each pixel of the belief map (and each pixel of the image) may have an associated belief. can consist of pixels. In some embodiments, the confidence map is displayed as error bars, as standard deviation values, in buckets (e.g., high confidence, medium confidence, low confidence), or as quality levels for each estimated confidence. Any other metric that can indicate the confidence estimate can be represented.

上で述べられたように、ピクセルの深度は、ピクセルの視差に反比例するので、画像の各ピクセルについての深度の推定値は、視差マップから計算され得る。そのため、「深度マップ」および「視差マップ」という用語は、それらが、画像内のキャプチャされたシーンについて、ほぼ同一の情報を提供し、当技術分野で知られた単純な代数変換によって関係付けられるので、本願明細書においては、交換可能に使用されることがある。 As mentioned above, since the depth of a pixel is inversely proportional to the disparity of the pixel, a depth estimate for each pixel of the image can be calculated from the disparity map. As such, the terms "depth map" and "disparity map" are used because they provide nearly identical information about the captured scene in an image and are related by simple algebraic transformations known in the art. As such, they may be used interchangeably herein.

本技術のいくつかの実施形態によれば、自律車両、および/または高度運転者支援システム(ADAS)は、事故を避けるために、および/または信頼できないデータがあるときに、運転者に対して警告するために、深度マップ、および深度マップと関連付けられた確信度値を有利に使用し得る。いくつかの実施形態においては、確信度値は、深度マップの各ピクセルに対して提供され得るので、低い確信度値を有するいくつかのピクセルがあるときに、シーンのキャプチャされたビデオシーケンスのフレーム全体を破棄する必要がないことがある。代わりに、低い確信度値を有するピクセルは、破棄され得、十分に高い確信度値を有する残りのピクセルが、深度算出のために使用され得る。この選択性は、運転中に視野内のシーンを処理するとき、車両のAピラー、車両のフロントガラスワイパなどの妨害対象物を、運転手は自然に見えないことにし得るという、人間の視覚に非常に似ている。すなわち、運転者は、視野内のシーンを評価しながら、妨害対象物を自動的に無視する。いくつかの実施形態においては、フレームのいくつかが無視された場合であっても、ビデオシーケンスのフレームは使用され得るので、確信度マップは、センサ利用可能性を増加させ得、それは、車両のセンサが、より大きい範囲の環境状況において、より高いデューティーサイクルで、動作することを可能にする。例えば、センサのレンズの一部に汚れがあるときであっても、またはフロントガラスワイパがセンサの視野を部分的に妨害することがあるときも、またはセンサによってキャプチャされた画像の一区画が露出過多であるときも、またはセンサによってキャプチャされた画像の一区画が低い光レベルを有するときも、または画像の他のいくつかのピクセルが無視されるべきデータを有することがある場合であっても、センサによってキャプチャされた画像のいくつかのピクセルが有用なデータを有し得る、いずれの状況があるときも、センサは動作し得る。ピクセルごとの確信度値から成る、確信度マップを提供することによって、車両の電子制御システムは、有効で、相対的に高い確信度値を有する、深度マップのエリアに注意を払うことを可能にされ得る。 According to some embodiments of the present technology, autonomous vehicles and/or Advanced Driver Assistance Systems (ADAS) may instruct drivers to avoid accidents and/or when there is unreliable data. Depth maps and confidence values associated with depth maps may be advantageously used to warn. In some embodiments, a confidence value may be provided for each pixel of the depth map so that when there are some pixels with low confidence values, frames of the captured video sequence of the scene Sometimes it is not necessary to discard the whole thing. Alternatively, pixels with low confidence values can be discarded and the remaining pixels with sufficiently high confidence values can be used for depth calculation. This selectivity is attributed to human vision, which can make obstructing objects such as vehicle A-pillars, vehicle windshield wipers, etc. naturally invisible to the driver when processing the scene in the field of view while driving. very similar. That is, the driver automatically ignores obstructing objects while evaluating the scene within the field of view. In some embodiments, the confidence map may increase sensor availability, as frames of the video sequence may be used even if some of the frames are ignored, which may increase the vehicle's Allows the sensor to operate at higher duty cycles in a larger range of environmental conditions. For example, even when part of the sensor's lens is dirty, or when a windshield wiper may partially obstruct the sensor's field of view, or even when a section of the image captured by the sensor is exposed. even when there are too many, or when a section of the image captured by the sensor has low light levels, or when some other pixels of the image may have data that should be ignored. The sensor may operate in any situation where some pixels of the image captured by the sensor may have useful data. By providing a confidence map consisting of per-pixel confidence values, the vehicle's electronic control system is enabled to pay attention to areas of the depth map that are valid and have relatively high confidence values. can be

本技術のいくつかの実施形態によれば、自律車両は、信頼性および安全を増加させるために、カメラ、ライダ、レーダ、および/または超音波センサなどの、異なるセンサからの情報を融合し得る。そのようなセンサは、対象物までの距離に関する情報を報告または提供し得るが、異なるセンサについて異なる距離が報告されたとき、どのセンサを信用すべきかが、不明確なことがある。いくつかの実施形態においては、センサ融合アルゴリズムは、異なるセンサからのデータを組み合わせ得、1つまたは別のセンサからの融合されていない情報が、個別に使用されるときに可能であるよりも、小さい不確実性を有する、融合された情報を出力し得る。本発明者らは、アルゴリズムに対して、異なるセンサの各々についての確実性パラメータ(例えば、分散)を提供することによって、センサ融合アルゴリズムが、融合された情報の確実性を増加させるように、強化され得ることを認知し、認識した。いくつかの実施形態においては、確信度マップは、ピクセルごとに、異なるセンサについて、決定され得るので、センサ融合は、異なるが重なり合う視野を有する2つ以上のセンサについて、可能にされ得る。いくつかの実施形態においては、対象物を包含する重なり合う視野があるとき、対象物についてのレーダ距離推定値は、対象物についてのステレオビジョン距離推定値と比較され得る。例えば、晴天の日中に走行する車の上のセンサは、車上のカメラによってキャプチャされた画像に基づいた、ステレオビジョン距離決定について、非常に高い確信度値を有し得、したがって、とりわけ、車上の他のセンサが、高い確信度値を返すことを期待され得ない、300メートル以上の範囲または距離にある対象物について、ステレオビジョン距離決定は、車の電子制御システムによって、信用され得る。(例えば、濃霧、土砂降りの雨など)天候が、悪くなった場合、視程は、より低くなり得、結果として、光減衰が、ステレオビジョン距離推定値を悪化させ、関連付けられた確信度値を低くさせ得る。車の制御システムは、そのときは、カメラからのデータの代わりに、レーダデータから距離推定値を獲得するように、切り替え得る。同様に、車が、夜間、または霧もしくは他の降水のない、低い周囲光レベルにおいて走行している場合、典型的なライダシステムは、それ独自の能動的な照明源を有するので、車の制御システムは、レーダデータまたはカメラからのデータからの代わりに、ライダデータから距離推定値を獲得するように、切り替え得る。いくつかの実施形態においては、車の制御システムが、ステレオビジョン距離推定値、ライダ距離推定値、レーダ距離推定値、または音響距離推定値の間の切り替えをいつ行うべきかを決定する代わりに、切り替えは、車の主要なセンサシステムであり得る、車のステレオビジョンシステムによって、実行され得る。認識されるように、上述の例は、車についての距離推定値に関係するが、本技術は、車に限定されず、他の車両(例えば、トラックおよび他の道路車両、列車および他の鉄道車両、船および他の海上車両、ならびに飛行機および他の航空車両など)に適用可能であり得る。 According to some embodiments of the present technology, autonomous vehicles may fuse information from different sensors, such as cameras, lidar, radar, and/or ultrasonic sensors, to increase reliability and safety. . Such sensors may report or provide information about the distance to an object, but it may be unclear which sensor to trust when different distances are reported for different sensors. In some embodiments, the sensor fusion algorithm may combine data from different sensors, providing more information than is possible when unfused information from one or another sensor is used individually. It can output fused information with a small uncertainty. We enhance the sensor fusion algorithm to increase the certainty of the fused information by providing the algorithm with certainty parameters (e.g. variance) for each of the different sensors. Recognized and recognized that it can be done. In some embodiments, confidence maps may be determined for different sensors on a pixel-by-pixel basis, so sensor fusion may be enabled for two or more sensors with different but overlapping fields of view. In some embodiments, the radar range estimate for the object may be compared to the stereo vision range estimate for the object when there are overlapping fields of view encompassing the object. For example, sensors on a car driving during a sunny day may have very high confidence values for stereovision range determinations based on images captured by cameras on the car; Stereovision range determinations can be trusted by the vehicle's electronic control system for objects at ranges or distances greater than 300 meters where other sensors on the vehicle cannot be expected to return high confidence values. . If the weather deteriorates (e.g., heavy fog, torrential rain, etc.), visibility may be lower, and as a result light attenuation worsens the stereovision range estimate and lowers the associated confidence value. can let The vehicle's control system may then switch to obtaining range estimates from radar data instead of data from the camera. Similarly, when a vehicle is traveling at night or in low ambient light levels without fog or other precipitation, a typical lidar system has its own active lighting source, so the vehicle's control The system may switch to obtain range estimates from lidar data instead of from radar data or data from cameras. In some embodiments, instead of the vehicle's control system determining when to switch between stereo vision range estimates, lidar range estimates, radar range estimates, or acoustic range estimates, The switching may be performed by the car's stereo vision system, which may be the car's primary sensor system. As will be appreciated, the examples above relate to distance estimates for cars, but the technology is not limited to cars, but other vehicles (e.g., trucks and other road vehicles, trains and other railroad vehicles). vehicles, ships and other marine vehicles, as well as airplanes and other air vehicles, etc.).

図1は、本技術のいくつかの実施形態による、ステレオマッチング確信度または確実性についての値を提供するように構成された、ステレオビジョンシステム1のブロック図を示している。ステレオビジョンシステム1は、複数のセンサシステムに対して結合され、センサシステムの各々から、測定値またはセンサデータを受信するように構成された、コンピュータプロセッサ10から成り得る。いくつかの実施形態においては、プロセッサ10に対して結合されたセンサシステムは、カメラ、ライダセンサ、レーダセンサ、および/または超音波センサであり得る、センサ100から成る、画像化システムから成り得る。いくつかの実施形態においては、ステレオビジョンシステム1は、自律的に動く(すなわち、人間の制御なし)、および/または半自律的に動く(すなわち、人間の制御もしくは限定された人間の制御あり)ことが可能な車両の上に、搭載され得る。例えば、車両は、自動車、トラック、ロボット、海上船舶、および飛行車両などであり得る。 FIG. 1 illustrates a block diagram of a stereo vision system 1 configured to provide values for stereo matching confidence or certainty, in accordance with some embodiments of the present technology. Stereo vision system 1 may consist of a computer processor 10 coupled to a plurality of sensor systems and configured to receive measurements or sensor data from each of the sensor systems. In some embodiments, the sensor system coupled to processor 10 may comprise an imaging system comprising sensor 100, which may be a camera, lidar sensor, radar sensor, and/or ultrasonic sensor. In some embodiments, the stereo vision system 1 moves autonomously (i.e., without human control) and/or semi-autonomously (i.e., with human control or limited human control). can be mounted on vehicles capable of For example, vehicles can be cars, trucks, robots, marine vessels, flying vehicles, and the like.

本技術のいくつかの実施形態によれば、センサ100は、同時に、すなわち、時間の同じまたはほぼ同じ瞬間に、車両の環境の画像をキャプチャするように構成された、2つのステレオカメラ100から成り得る。表記を簡略化するために、カメラ100は、それらが、互いに対して垂直(例えば、上下)に、または互いに対して斜めに、または(例えば、一方のカメラは車両の前部分にあり、他方のカメラは車両の後部分にあるなど)異なる範囲ビン内にオフセットされて位置決めされることがあっても、本願明細書においては、「左」カメラおよび「右」カメラと呼ばれ得る。カメラ100は、例えば、カラーCMOS(相補型金属酸化膜半導体)カメラ、グレースケールCMOSカメラ、CCD(電荷結合素子)カメラ、SWIR(短波長赤外線)カメラ、LWIR(長波長赤外線)カメラ、または焦点面アレイセンサであり得る。 According to some embodiments of the present technology, the sensor 100 consists of two stereo cameras 100 configured to capture images of the vehicle's environment at the same time, i.e. at the same or approximately the same instant in time. obtain. To simplify the notation, the cameras 100 may be arranged so that they are either perpendicular to each other (e.g., above and below), or oblique to each other, or (e.g., one camera at the front of the vehicle and the other Although the cameras may be offset and positioned within different range bins (such as at the rear of the vehicle), they may be referred to herein as "left" and "right" cameras. Camera 100 may be, for example, a color CMOS (complementary metal oxide semiconductor) camera, a grayscale CMOS camera, a CCD (charge coupled device) camera, a SWIR (short wavelength infrared) camera, a LWIR (long wavelength infrared) camera, or a focal plane It can be an array sensor.

本技術のいくつかの実施形態によれば、センサS1、S2、S3、S4、S5、S6、S7、S8、S9は、図2に概略的に描かれているように、車両20上の複数の異なる場所に位置付けられ得る。いくつかの実施形態においては、センサS1、S2、・・・、S9のうちのいくつかは、車両20の車室の内部に位置付けられ得、したがって、埃および雨から保護され得る。いくつかの実施形態においては、センサS1、S2、・・・、S9のいくつかは、車両20の車室の外部に位置付けられ得、したがって、ベースライン(すなわち、2つのセンサ間の距離)が、車室の幅よりも大きくなることを可能にし得、これは、車室の幅に制限されたベースラインと比較して、相対的により遠い距離にある対象物が、検出されることを可能にし得る。いくつかの実施形態においては、センサS1、S2、・・・、S9は、センサS1、S2、・・・、S9からデータを受信し、および/またはセンサS1、S2、・・・、S9に電力を供給するように構成された、1つまたは複数のECU22、24に対して、無線または有線で、結合され得る。いくつかの実施形態においては、ECU22、24のうちの少なくともいくつかは、コンピュータプロセッサ10の一部であり得る。いくつかの他の実施形態においては、ECU22、24のうちの少なくともいくつかは、コンピュータプロセッサ10の外部に位置付けられ得、コンピュータプロセッサ10に対して、無線または有線で、信号を送信するように構成され得る。いくつかの実施形態においては、ヘッドライト内のカメラのペア(例えば、S1とS9)、またはサイドビューミラー内のカメラのペア(例えば、S2とS8)、またはフロントガラス内のカメラのペア(例えば、S3とS7、もしくは代替として、S3とS5)、またはルーフ上のカメラのペア(例えば、S4とS6)など、2つのカメラだけが、必要とされる。 According to some embodiments of the present technology, sensors S1, S2, S3, S4, S5, S6, S7, S8, S9 are multiple sensors on vehicle 20, as schematically depicted in FIG. can be located at different locations in the In some embodiments, some of the sensors S1, S2, . In some embodiments, some of the sensors S1, S2, . , can be larger than the width of the passenger compartment, which allows objects at relatively greater distances to be detected compared to a baseline limited to the width of the passenger compartment. can be In some embodiments, sensors S1, S2, . . . , S9 receive data from sensors S1, S2, . It may be coupled wirelessly or by wire to one or more ECUs 22, 24 configured to supply power. At least some of the ECUs 22 , 24 may be part of the computer processor 10 in some embodiments. In some other embodiments, at least some of the ECUs 22, 24 may be located external to the computer processor 10 and configured to transmit signals to the computer processor 10, either wirelessly or by wire. can be In some embodiments, a pair of cameras in the headlights (e.g. S1 and S9), or a pair of cameras in the side view mirrors (e.g. S2 and S8), or a pair of cameras in the windshield (e.g. , S3 and S7, or alternatively S3 and S5), or a pair of cameras on the roof (eg S4 and S6) are required.

本技術のいくつかの実施形態によれば、ステレオビジョンシステム1は、図3において概略的に示されるように、車両のメインシステムコントローラ30に対して、結合され得る。いくつかの実施形態においては、メインシステムコントローラ30は、車両動作のすべての自動化された側面を制御するように構成され得る、車両の制御システムであり得る。いくつかの実施形態においては、ステレオビジョンシステム1は、メインシステムコントローラ30によって指令されるように構成され得、指令および制御ライン32を介して、メインシステムコントローラ30に対する信号、およびメインシステムコントローラ30からの信号を通信し得る。認識されるように、指令および制御ライン32は、有線通信メカニズム(例えば、データバス、通信ライン)であり得、または当技術分野において知られた通信技法を使用する、無線通信メカニズムであり得る。いくつかの実施形態においては、メインシステムコントローラ30は、高レベル機能(例えば、自動緊急ブレーキ、ルート選択など)を編成し、高レベル機能を実施するために、様々なサブシステムまたはECU(例えば、ステレオビジョンシステム1)と通信するように構成された、コンピュータから成り得る。いくつかの実施形態においては、指令および制御ライン32を介した通信のために、共通通信プロトコルが、使用され得る(例えば、イーサネット(登録商標)、CAN(コントローラエリアネットワーク)、I2C(集積回路間)、LIN(ローカル相互接続ネットワーク)など)。ステレオビジョンシステム1は、図3において、メインシステムコントローラ30から分離して示されているが、ステレオビジョンシステム1は、いくつかの実施形態においては、メインシステムコントローラ30の一部であり得、いくつかの実施形態においては、メインシステムコントローラ30の筐体内に、物理的に位置付けられ得る。 According to some embodiments of the present technology, the stereo vision system 1 may be coupled to the vehicle's main system controller 30, as shown schematically in FIG. In some embodiments, main system controller 30 may be a vehicle control system that may be configured to control all automated aspects of vehicle operation. In some embodiments, the stereo vision system 1 may be configured to be commanded by a main system controller 30, with signals to and from the main system controller 30 via command and control lines 32. signals can be communicated. As will be appreciated, command and control line 32 may be a wired communication mechanism (eg, data bus, communication line) or may be a wireless communication mechanism using communication techniques known in the art. In some embodiments, main system controller 30 orchestrates high-level functions (e.g., automatic emergency braking, route selection, etc.) and uses various subsystems or ECUs (e.g., It may consist of a computer arranged to communicate with the stereo vision system 1). In some embodiments, a common communication protocol may be used for communication over command and control lines 32 (e.g., Ethernet, CAN (controller area network), I2C (inter-integrated circuit ), LIN (Local Interconnection Network), etc.). Although stereo vision system 1 is shown separate from main system controller 30 in FIG. 3, stereo vision system 1 may be part of main system controller 30 in some embodiments, and may In some embodiments, it may be physically located within the housing of main system controller 30 .

図1に戻ると、カメラ100は、本技術のいくつかの実施形態によれば、画像取得モジュール102に対して、無線でまたは有線接続で、結合され得る。いくつかの実施形態においては、カメラ100によってキャプチャされたシーンの画像データは、知られた通信インターフェース(例えば、USB(ユニバーサルシリアルバス)コネクタ、イーサネット(登録商標)コネクタ、MIPI(モバイル業界プロセッサインターフェース)CSI(カメラシリアルインターフェース)コネクタ、GMSL(ギガビットマルチメディアシリアルリンク)コネクタ、およびフラットパネルディスプレイリンク(FPDリンク)コネクタなど)を介して、画像取得モジュール102に対して、転送され得る。いくつかの実施形態においては、カメラ100は、画像取得モジュール102に対して画像データを、リアルタイムまたはほぼリアルタイムで、直接的に、またはカメラ100に組み込まれ得る、バッファメモリデバイス(例えば、RAM)を介して、送信するように構成され得る。いくつかの実施形態においては、カメラ100は、画像取得モジュール102、およびコンピュータプロセッサ10の他の一部によってアクセス可能な、データ記憶メモリデバイス140と関連付けられ得、カメラ100は、データ記憶デバイス140に対して、画像データを送信するように構成され得る。いくつかの実施形態においては、カメラ100は、シーンのビデオデータのストリームをキャプチャするように構成された、ビデオカメラであり得る。ビデオデータのストリームは、左ストリームと、右ストリームとから成り得、各ストリームは、フレームのシーケンスから成る。したがって、本願明細書において使用される場合の「画像データ」という用語は、いくつかの実施形態においては、ビデオデータのフレームに言及していることがある。 Returning to FIG. 1, the camera 100 may be coupled wirelessly or with a wired connection to the image acquisition module 102, according to some embodiments of the present technology. In some embodiments, the image data of the scene captured by the camera 100 is transmitted through known communication interfaces (e.g., USB (Universal Serial Bus) connector, Ethernet connector, MIPI (Mobile Industry Processor Interface)). CSI (Camera Serial Interface) connector, GMSL (Gigabit Multimedia Serial Link) connector, and Flat Panel Display Link (FPD Link) connector, etc.) to image acquisition module 102 . In some embodiments, the camera 100 transmits image data to the image acquisition module 102 in real-time or near real-time, either directly or through a buffer memory device (e.g., RAM), which may be incorporated into the camera 100. may be configured to transmit via In some embodiments, the camera 100 may be associated with a data storage memory device 140 accessible by the image acquisition module 102 and other portions of the computer processor 10, the camera 100 storing data in the data storage device 140. In return, it may be configured to transmit image data. In some embodiments, camera 100 may be a video camera configured to capture a stream of video data of a scene. A stream of video data may consist of a left stream and a right stream, each stream consisting of a sequence of frames. Accordingly, the term "image data" as used herein may, in some embodiments, refer to a frame of video data.

本技術のいくつかの実施形態によれば、画像取得モジュール102は、原デジタル画像データまたは「原画像データ」を生成するために、カメラ100からの画像データをデジタル化するように構成され得る。いくつかの実施形態においては、画像取得モジュール102は、画像前処理モジュール104に対して、原画像データを提供し得る。いくつかの実施形態においては、画像取得モジュール102は、将来の処理のために原画像データを記憶し得る、メモリ140に対して、原画像データを提供し得る。 According to some embodiments of the present technology, image acquisition module 102 may be configured to digitize image data from camera 100 to generate raw digital image data or "raw image data." In some embodiments, image acquisition module 102 may provide raw image data to image preprocessing module 104 . In some embodiments, image acquisition module 102 may provide original image data to memory 140, which may store the original image data for future processing.

本技術のいくつかの実施形態によれば、画像前処理モジュール104は、補正された左画像および右画像を生成するために、原画像データを補正するように構成され得る。例えば、画像前処理モジュール104は、デモザイク、自動焦点、自動露出、および自動ホワイトバランス補正、口径食、ノイズリダクション、不良ピクセルフィルタリング、HDR(ハイダイナミックレンジ)ルックアップテーブルカラー処理、および画像圧縮のうちのいずれか1つまたは任意の組み合わせを実行し得る。補正された左画像および右画像は、画像平行化モジュール106に対して、転送され得る。 According to some embodiments of the present technology, image preprocessing module 104 may be configured to correct the original image data to generate corrected left and right images. For example, the image preprocessing module 104 includes demosaicing, autofocus, autoexposure, and autowhite balance correction, vignetting, noise reduction, bad pixel filtering, HDR (high dynamic range) lookup table color processing, and image compression among: any one or any combination of The corrected left and right images may be forwarded to image rectification module 106 .

本技術のいくつかの実施形態によれば、画像平行化モジュール106は、補正された左画像および右画像のピクセルの対応する行が、同じエピポーラ平面上にあるように、それらを歪ませることによって、補正された左画像および右画像を平行化するように構成され得る。歪ませた後、画像平行化モジュール106は、カラー画像またはグレースケール画像であり得る、左右の平行化2D画像114を出力し得る。認識されるように、画像平行化は、補正された左画像および右画像における共通の対象物のマッチングを簡略化するために使用される、知られた技法である。画像平行化モジュール106は、ステレオマッチングモジュール108、確信度処理モジュール110、およびエンコーダモジュール112に対して、左右の平行化2D画像114を提供し得る。 According to some embodiments of the present technology, image rectification module 106 distorts corresponding rows of pixels of the corrected left and right images so that they lie on the same epipolar plane. , to parallelize the corrected left and right images. After warping, image rectification module 106 may output left and right rectified 2D images 114, which may be color images or grayscale images. As will be appreciated, image rectification is a known technique used to simplify matching of common objects in corrected left and right images. Image rectification module 106 may provide left and right rectified 2D images 114 to stereo matching module 108 , belief processing module 110 , and encoder module 112 .

本技術のいくつかの実施形態によれば、ステレオマッチングモジュール108は、平行化2D画像114における各マッチングピクセルペア間の視差を計算するように構成され得る。ステレオマッチングモジュール108によって実行される処理は、いくつかの実施形態においては、4つの手順、すなわち、コスト計算手順、コスト集約手順、視差計算手順、および視差精緻化手順から成り得、それらの各々は、以下で議論される。 According to some embodiments of the present technology, stereo matching module 108 may be configured to calculate disparity between each matching pixel pair in rectified 2D image 114 . The processing performed by stereo matching module 108 may, in some embodiments, consist of four procedures: a cost calculation procedure, a cost aggregation procedure, a disparity calculation procedure, and a disparity refinement procedure, each of which is , discussed below.

本技術のいくつかの実施形態によれば、コスト計算手順は、可能な視差値のセットのうちの各視差値における、各ピクセルについてのマッチングコストを計算することによって、「視差空間画像」と呼ばれることもある、3次元(3D)コストボリュームマップ118を構築することから成り得る。以下で議論されるように、コストボリューム(またはより正しくは、マッチングコストボリューム)は、W×H×Dの積として決定され得、WおよびHは、各画像の幅寸法および高さ寸法であり、Dは、視差仮説または可能な視差の数である。特定のピクセルと特定の視差値とについてのマッチングコストは、その特定のピクセルが、その特定の視差値を有する可能性がどれだけ低いかを表す。典型的には、以下で議論されるように、与えられたピクセルについて、最も低いマッチングコストを有する視差値が、視差マップにおいて使用されるために、選定される。与えられたピクセルについての視差値を選択するためのこのアプローチは、いわゆる勝者総取り(WTA)アプローチであり、勝者は、最も低いマッチングコストを有する視差値、すなわち、すべての視差仮説の中で最良のものである。マッチングコストは、例えば、絶対差技法、相互情報量(MI)技法(例えば、階層的MI(HMI)技法)、正規化相互相関(NCC)技法、ハミング距離技法など、知られた技法を使用して、計算され得る。いくつかの実施形態においては、NCC技法は、H.ヒルシュミュラ(H.Hirschmuller)らによる、「ステレオマッチングのためのコスト関数の評価(Evaluation of Cost Functions for Stereo Matching)」(2007 IEEE Conference on Computer Vision and Pattern Recognition)において説明されているように、考察中のピクセルの周りの2つのサブウィンドウ(左右の平行化2D画像114の各々において1つのサブウィンドウ)についてのコストをマッチさせるために、使用され得る。いくつかの実施形態においては、ハミング距離技法は、S.サリカ(S.Sarika)らによる、「変動する放射測定条件下におけるセンサスフィルタリングベースのステレオマッチング(Census Filtering Based Stereomatching Under Varying Radiometric Conditions)」(2015 Procedia Computer Science)において説明されているように、考察中のピクセルを取り囲む近隣ピクセルが、これらのピクセルの強度値が、考察中のピクセルのそれよりも大きいか、それとも小さいかに応じて、ビットストリングにマッピングされる、センサス変換において、使用され得る。 According to some embodiments of the present technology, the cost calculation procedure is called a "disparity space image" by calculating the matching cost for each pixel at each disparity value of the set of possible disparity values. It may consist of constructing a three-dimensional (3D) cost volume map 118 . As discussed below, the cost volume (or more correctly, the matching cost volume) can be determined as the product of W×H×D, where W and H are the width and height dimensions of each image. , D is the number of disparity hypotheses or possible disparities. The matching cost for a particular pixel and a particular disparity value represents how unlikely that particular pixel has that particular disparity value. Typically, for a given pixel, the disparity value with the lowest matching cost is chosen to be used in the disparity map, as discussed below. This approach for choosing a disparity value for a given pixel is the so-called winner-take-all (WTA) approach, where the winner is the disparity value with the lowest matching cost, i.e. the best among all disparity hypotheses belongs to. Matching costs are determined using known techniques such as, for example, absolute difference techniques, mutual information (MI) techniques (e.g., hierarchical MI (HMI) techniques), normalized cross-correlation (NCC) techniques, Hamming distance techniques, etc. , can be calculated. In some embodiments, the NCC technique is H.264. H. Hirschmuller et al., "Evaluation of Cost Functions for Stereo Matching" (2007 IEEE Conference on Computer Vision and Pattern Recognition) to consider It can be used to match the costs for two sub-windows (one sub-window in each of the left and right rectified 2D images 114) around the pixels in. In some embodiments, the Hamming distance technique is the S.M. Under consideration, as described in S. Sarika et al., "Census Filtering Based Stereomatching Under Varying Radiometric Conditions" (2015 Procedia Computer Science). Neighboring pixels surrounding a pixel of can be used in a census transform that is mapped to a bitstring depending on whether the intensity values of these pixels are greater or less than that of the pixel under consideration.

図4Aは、本技術のいくつかの実施形態による、コストボリュームマップ118がどのように決定され得るかを理解するための図を示している。コストボリューム分析において、コストボリュームマップ118は、平行化2D画像114の左平行化画像(または右平行化画像)内のあらゆるピクセルについてのコスト曲線(例えば、コスト曲線400)を収集することによって、構築され得る。コストボリュームマップ118は、H×W×Dの要素を有し、Hは、画像の高さであり(例えば、Hは、行方向におけるピクセルの数であり得、またはより低い精度のマッチングが許される場合、行方向におけるピクセルグループの数であり得)、Wは、画像の幅であり(例えば、Wは、列方向におけるピクセル数であり得、またはより低い精度のマッチングが許される場合、列方向におけるピクセルグループの数であり得)、Dは、探索される視差の数である。したがって、簡略化して述べると、コストボリュームマップ118は、各ピクセル座標(行および列)についてのコスト曲線を備えると考えられ得る。いくつかの実施形態においては、コストボリュームマップ118は、当技術分野で知られている技法を使用して、より信頼性の高いマッチングコストを獲得するために、(例えば、フィルタリングによって)精緻化され得る。例えば、C.レーマン(C.Rhemann)らによる、「ビジュアルコレスポンデンスおよびその先のための高速コストボリュームフィルタリング(Fast cost-volume filtering for visual correspondence and beyond)」(2011 Conference on Computer Vision and Pattern Recognition)において説明されている技法がある。 FIG. 4A provides a diagram for understanding how the cost volume map 118 may be determined, according to some embodiments of the present technology. In cost volume analysis, cost volume map 118 is constructed by collecting cost curves (e.g., cost curve 400) for every pixel in the left rectified image (or right rectified image) of rectified 2D image 114. can be The cost volume map 118 has H×W×D elements, where H is the height of the image (e.g., H can be the number of pixels in the row direction, or less precision matching is allowed). W is the width of the image (e.g., W can be the number of pixels in the column direction, or the column can be the number of pixel groups in a direction) and D is the number of disparities searched. Simplistically, therefore, the cost volume map 118 can be thought of as comprising a cost curve for each pixel coordinate (row and column). In some embodiments, cost volume map 118 is refined (eg, by filtering) to obtain more reliable matching costs using techniques known in the art. obtain. For example, C.I. C. Rhemann et al., "Fast cost-volume filtering for visual correspondence and beyond," 2011 Conference on Computer Vision and Pattern Recognition on) There is technique.

図4Bは、本技術のいくつかの実施形態による、コストマッチング手順を説明するために使用され得る、コスト曲線400の例を示している。認識されるように、コストマッチングは、典型的には、左平行化画像において(H0,W0)の(行,列)座標を有するピクセルPと、右平行化画像において(H0,W0+D0)の座標を有するピクセルとの間で、実行され得る。マッチングコストと視差との間の関係を示す、コスト曲線400は、考察中の特定のピクセルを表し得る。(言及される「マッチングコスト」という用語は、本願明細書においては、「マッチコスト」または「コスト」と呼ばれることもある)。図4Bに示されるように、コスト曲線400は、視差がdのとき、cd1の最も低いグローバル最小コストを有し、視差がdのとき、cd2の2番目に低いグローバル最小コストを有し、視差がd2mのとき、cd2mの2番目に低いローカル最小コストを有する。認識されるように、「グローバル」という用語は、コスト曲線400におけるすべての点にわたって評価された値に対して使用され得、「ローカル」という用語は、コスト曲線400の一部分にわたって評価された値に対して使用され得る。 FIG. 4B shows an example cost curve 400 that may be used to describe cost matching procedures, in accordance with some embodiments of the present technology. As will be appreciated, cost matching typically involves a pixel P having (row, column) coordinates of (H0, W0) in the left rectified image and a coordinate of (H0, W0+D0) in the right rectified image. can be performed between pixels with A cost curve 400, which shows the relationship between matching cost and disparity, may represent the particular pixel under consideration. (The term "matching cost" referred to is sometimes referred to herein as "matching cost" or "cost"). As shown in FIG. 4B , the cost curve 400 has the lowest global minimum cost of c d1 when the disparity is d1, and the second lowest global minimum cost of c d2 when the disparity is d2 . and has the second lowest local minimum cost of c d2m when the disparity is d 2m . As will be appreciated, the term "global" may be used for values evaluated over all points in cost curve 400, and the term "local" may be used for values evaluated over a portion of cost curve 400. can be used against

本技術のいくつかの実施形態によれば、マッチングコストについての値は、左右の平行化2D画像114における考察中のピクセルの周りの、列方向において5ピクセルにまたがり、行方向において5ピクセルにまたがる、サブウィンドウ(「5×5」サブウィンドウ)について、NCC技法(上を参照)を使用して、決定され得る。 According to some embodiments of the present technology, the value for the matching cost spans 5 pixels in the column direction and 5 pixels in the row direction around the pixel under consideration in the left and right rectified 2D images 114. , for subwindows (“5×5” subwindows), can be determined using the NCC technique (see above).

本技術のいくつかの実施形態によれば、コスト集約手順は、コスト計算手順の結果を利用して、各ピクセルのサポート領域にわたって、マッチングコストを集約することから成り得る。「ローカル」ステレオマッチング技法については、サポート領域は、関心ピクセルの周りの近隣ピクセルのグループにおけるコストの加重和であると理解され得る。「セミグローバル」および「グローバル」ステレオマッチング技法については、サポート領域は、画像内の全ピクセルについてのコストの関数であると理解され得る。 According to some embodiments of the present technology, the cost aggregation procedure may consist of aggregating matching costs over the region of support of each pixel using the results of the cost computation procedure. For "local" stereo matching techniques, the region of support can be understood to be the weighted sum of costs in a group of neighboring pixels around the pixel of interest. For "semi-global" and "global" stereo matching techniques, the area of support can be understood to be a function of cost for all pixels in the image.

本技術のいくつかの実施形態によれば、視差計算手順は、コスト集約手順の結果を使用し、ローカルまたはグローバル最適化方法を使用して、各ピクセルについての視差を計算することと、精緻化されていない視差マップを生成することとから成り得る。計算スピード対正確さが、ローカル最適化手法とグローバル最適化手法との間の選定を決定し得る。例えば、ローカル方法は、正確さよりもスピードが望まれる場合に使用され得、一方、グローバル方法は、スピードよりも正確さが望まれる場合に使用され得る。いくつかの実施形態においては、ブロックマッチングなどの、ローカル最適化方法が使用され得る。いくつかの実施形態においては、セミグローバルマッチング(SGM)などの、グローバル最適化方法が使用され得る。 According to some embodiments of the present technology, the disparity calculation procedure uses the results of the cost aggregation procedure and uses local or global optimization methods to calculate disparity for each pixel and refinement and generating a non-parallax map. Computational speed versus accuracy may determine the choice between local and global optimization approaches. For example, local methods may be used when speed is desired over accuracy, while global methods may be used when accuracy is desired over speed. In some embodiments, local optimization methods such as block matching may be used. In some embodiments, global optimization methods such as semi-global matching (SGM) may be used.

本技術のいくつかの実施形態によれば、視差精緻化手順は、左右の平行化2D画像114についての2D視差マップ116を生成するために、精緻化されていない視差マップをフィルタリングすることから成り得る。視差精緻化手順は、視差値を補正するための任意選択の手順である。従来の精緻化ステップは、左右チェックと、穴埋めと、平滑化フィルタと、異常値検出および除去とを含む。 According to some embodiments of the present technology, the disparity refinement procedure consists of filtering the unrefined disparity map to produce a 2D disparity map 116 for the left and right rectified 2D images 114. obtain. The parallax refinement procedure is an optional procedure for correcting parallax values. Conventional refinement steps include left-right checking, hole filling, smoothing filters, and outlier detection and removal.

本技術のいくつかの実施形態によれば、ステレオマッチングモジュール108は、上で説明されたものとは異なる、ステレオマッチング技法を採用し得る。例えば、ステレオマッチングモジュールは、モド サアド ハミド(Mohd Saad Hamid)らによる、「深層学習に基づいたステレオマッチングアルゴリズム:調査(Stereo matching algorithm based on deep learning: A survey)」(2020 Journal of King Saud University - Computer and Information Sciences)において説明されている1つもしくは複数の技法、および/またはH.ヒルシュミュラ(H.Hirschmuller)による、「セミグローバルマッチングおよび相互情報量によるステレオ処理(Stereo Processing by Semi-Global Matching and Mutual Information)」(2008 IEEE Transactions on Pattern Analysis and Machine Intelligence)において説明されている1つもしくは複数の技法を使用し得る。 According to some embodiments of the present technology, stereo matching module 108 may employ different stereo matching techniques than those described above. For example, the stereo matching module is described in Mohd Saad Hamid et al., "Stereo matching algorithm based on deep learning: A survey" (2020 Journal of King Saud University). - Computer and Information Sciences) and/or one or more of the techniques described in H. H. Hirschmuller, "Stereo Processing by Semi-Global Matching and Mutual Information" (2008 IEEE Transactions on Pattern Analysis and Machine) e Intelligence)1 One or more techniques may be used.

本技術のいくつかの実施形態によれば、ステレオマッチングモジュール108は、図1に示されるように、ステレオビジョンシステム1のプロセッサ10のエンコーダモジュール112、および確信度処理モジュール110に対して、2D視差マップ116を出力する。いくつかの実施形態においては、ステレオマッチングモジュール108は、確信度処理モジュール110に対して、視差マップ116を導出することとの関連において上で議論された、3Dコストボリュームマップ118も出力する。 According to some embodiments of the present technology, stereo matching module 108 applies 2D disparity 2D parallax to encoder module 112 and belief processing module 110 of processor 10 of stereo vision system 1, as shown in FIG. Output map 116 . In some embodiments, stereo matching module 108 also outputs 3D cost volume map 118 , discussed above in connection with deriving disparity map 116 , to belief processing module 110 .

本技術のいくつかの実施形態によれば、確信度処理モジュール110は、画像平行化モジュール106から、左右の2D平行化画像114を、ステレオマッチングモジュール108から、コストボリュームマップ118を、およびステレオマッチングモジュール108から、2D視差マップ116を、入力として受信し、これらの入力から、平行化画像114の各ピクセルについて推定される視差の正確さを決定するように構成される。 According to some embodiments of the present technology, the belief processing module 110 processes the left and right 2D rectified images 114 from the image rectification module 106, the cost volume map 118 from the stereo matching module 108, and the stereo matching From module 108 , it receives as input a 2D disparity map 116 and is configured to determine from these inputs the estimated disparity accuracy for each pixel of the rectified image 114 .

確信度処理モジュール110は、本技術のいくつかの実施形態によれば、ビデオストリームの各フレームについての確信度値を計算するように構成され得る。いくつかの実施形態においては、確信度処理モジュール110は、ビデオストリームの各フレームの各ピクセルについての確信度値を計算し得る。したがって、本願明細書における「画像」という用語は、ビデオストリームのフレームを包含し得ることが理解されるべきである。 Confidence processing module 110 may be configured to calculate a belief value for each frame of the video stream, according to some embodiments of the present technology. In some embodiments, belief processing module 110 may calculate a belief value for each pixel of each frame of the video stream. Accordingly, it should be understood that the term "image" herein can encompass frames of a video stream.

図1に戻ると、確信度処理モジュール110は、本技術のいくつかの実施形態によれば、エンコーダモジュール112に対して、確信度情報を出力し得る。確信度情報は、いくつかの実施形態においては、ビデオストリームの各フレームについての確信度マップ120であり得る。確信度マップ120は、ステレオマッチングモジュール108によって、エンコーダモジュール112に対して出力された、視差マップ116と同じ次元(dimensions)を有し得る。いくつかの実施形態においては、確信度マップ120は、視差マップ116内の対応するピクセルについての深度推定値の確信度レベルを表す値を示す、フレームの各ピクセルについての確信度情報を含み得る。いくつかの実施形態においては、特定のピクセルの確信度レベルを表す値は、そのピクセルについて決定された視差または深度の2乗平均平方根誤差であり得、またはそのピクセルについて決定された視差または深度の95%信頼区間であり得、または変動性の任意の尺度(例えば、標準偏差、平均の標準誤差、信頼区間、データ範囲、パーセンタイルなど)であり得る。M.ポッジ(M.Poggi)らによる、「深層学習時代におけるステレオマッチングの確信度について:量的評価(On the confidence of stereo matching in a deep-learning era: a quantitative evaluation)」(2021 IEEE Transactions on Pattern Analysis & Machine Intelligence)、およびX.フー(X.Hu)らによる、「ステレオビジョンのための確信度尺度の量的評価(A Quantitative Evaluation of Confidence Measures for Stereo Vision)」(2012 IEEE Transactions on Pattern Analysis and Machine Intelligence)において説明されているものなど、他の確信度メトリックが使用され得る。 Returning to FIG. 1, belief processing module 110 may output belief information to encoder module 112, in accordance with some embodiments of the present technology. The belief information, in some embodiments, may be a belief map 120 for each frame of the video stream. Confidence map 120 may have the same dimensions as disparity map 116 output by stereo matching module 108 to encoder module 112 . In some embodiments, confidence map 120 may include confidence information for each pixel of the frame that indicates a value representing the confidence level of the depth estimate for the corresponding pixel in disparity map 116 . In some embodiments, the value representing the confidence level for a particular pixel can be the root mean square error of the disparity or depth determined for that pixel, or the disparity or depth determined for that pixel. Can be 95% confidence intervals, or can be any measure of variability (eg, standard deviation, standard error of the mean, confidence intervals, data ranges, percentiles, etc.). M. M. Poggi et al., "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation" (2021 IEEE Transactions on P Attern Analysis & Machine Intelligence), and X. X. Hu et al., "A Quantitative Evaluation of Confidence Measures for Stereo Vision" (2012 IEEE Transactions on Pattern Analysis and Machine Int) elligence) Other confidence metrics may be used, such as .

図5は、本技術のいくつかの実施形態による、確信度処理モジュール110によって実行される処理を示す図である。いくつかの実施形態においては、ブロック500において、第1の確信度尺度プロセスは、ステレオマッチングモジュール108から受信されたコストボリューム118に基づいて、第1の確信度マップ508を計算する。いくつかの実施形態においては、各ピクセルについてのコスト曲線(例えば、コスト曲線400)の勝者マージンが計算され、第1の確信度マップ508上における、そのピクセルの確信度値として使用され得る。勝者マージン(WMN)は、コスト曲線全体にわたって正規化された、2番目に低いローカル最小コストcd2mと最も低いグローバル最小コストcd1との間の差、または FIG. 5 is a diagram illustrating processing performed by belief processing module 110, in accordance with some embodiments of the present technology. In some embodiments, at block 500 the first confidence measure process computes a first confidence map 508 based on the cost volumes 118 received from the stereo matching module 108 . In some embodiments, a cost curve (eg, cost curve 400 ) winner margin for each pixel may be calculated and used as the belief value for that pixel on the first belief map 508 . The winner margin (WMN) is the difference between the second lowest local minimum cost c d2m and the lowest global minimum cost c d1 normalized over the entire cost curve, or

Figure 2023521765000002
Figure 2023521765000002

として定義され得、pは、考察中のピクセルの座標であり、cは、マッチコストであり、Dは、探索される視差のセットである。いくつかの実施形態においては、第1の確信度マップ308は、M.ポッジ(M.Poggi)らによる、「深層学習時代におけるステレオマッチングの確信度について:量的評価(On the confidence of stereo matching in a deep-learning era: a quantitative evaluation)」(2021 IEEE Transactions on Pattern Analysis & Machine Intelligence)において要約されているものなど、他の尺度からも導出され得る。 where p is the coordinate of the pixel under consideration, c is the match cost, and D is the disparity set to be searched. In some embodiments, the first confidence map 308 is based on the M.O. M. Poggi et al., "On the confidence of stereo matching in a deep-learning era: a quantitative evaluation" (2021 IEEE Transactions on P Attern Analysis & Machine Intelligence) can also be derived from other measures.

本技術のいくつかの実施形態によれば、ブロック502において、確信度処理モジュール110の第2の確信度尺度プロセスは、画像平行化モジュール106から受信された平行化2D画像114に基づいて、第2の確信度マップ510を計算する。いくつかの実施形態においては、テクスチャが、例えば、平行化2D画像114内における変化を決定するために、画像データの導関数(例えば、x導関数)を算出することによって、平行化2D画像114上において測定され、テクスチャ値は、第2の確信度マップ510を導出するために使用され得る。いくつかの実施形態においては、画像テクスチャは、xソーベル演算子を使用して、測定され得る。認識されるように、テクスチャのない特徴、または画像内の複数の他の特徴と同じである特徴をマッチさせる際の困難さのせいで、少ないテクスチャ、または繰り返し構造から成るテクスチャを有する画像上において、3D再構築処理を実行することは困難であることが、ステレオビジョン技術において知られている。この困難さを考慮して、第2の確信度マップ310は、xソーベル演算子: According to some embodiments of the present technology, at block 502, the second confidence measure process of the confidence processing module 110, based on the rectified 2D image 114 received from the image rectification module 106, 2 confidence map 510 is computed. In some embodiments, the texture is applied to the rectified 2D image 114, for example, by calculating a derivative (eg, x-derivative) of the image data to determine changes in the rectified 2D image 114. The texture values measured above may be used to derive a second belief map 510 . In some embodiments, image texture may be measured using the x-Sobel operator. As will be appreciated, due to the difficulty in matching untextured features, or features that are the same as multiple other features in the image, on images with little texture, or texture consisting of repeating structures , is known in stereo vision technology to be difficult to perform the 3D reconstruction process. With this difficulty in mind, the second confidence map 310 uses the x-Sobel operator:

Figure 2023521765000003
Figure 2023521765000003

を用いて畳み込まれた、グレースケール画像から導出され得る。画像内のエッジを強調することが知られている、そのようなソーベル畳み込みまたはフィルタリングは、平行化2D画像114内にエッジがあるとき、高い値を産出し得、したがって、ステレオマッチングを行うのがより容易であり得る、より鮮明な、より良く定義された特徴という結果になり得る。いくつかの実施形態においては、ソーベル畳み込みに加えて、またはソーベル畳み込みの代わりに、第2の確信度マップ510は、ピクセルの強度に基づいて、各ピクセルを評価し、最小閾値を下回る、または最大閾値を上回る強度を有するピクセルにペナルティを与えることによって、導出され得る。例えば、最小閾値を下回る信号強度レベルを有する、各低強度または過小照明ピクセルに対して、ゼロまたは低い確信度値が決定され得、同様に、最大値を上回る信号強度レベルを有する、各過大照明または飽和ピクセルに対して、ゼロまたは低い確信度値が決定され得る。 can be derived from the grayscale image, convolved with Such Sobel convolution or filtering, which is known to enhance edges in the image, may yield high values when there are edges in the rectified 2D image 114, thus making it easier to perform stereo matching. It can result in sharper, better defined features that can be easier. In some embodiments, in addition to or instead of the Sobel convolution, the second confidence map 510 evaluates each pixel based on the intensity of the pixel, below a minimum threshold or maximum It can be derived by penalizing pixels with intensities above a threshold. For example, a zero or low confidence value may be determined for each low-intensity or under-illuminated pixel having a signal intensity level below the minimum threshold, and similarly for each over-illuminated pixel having a signal intensity level above the maximum value. Or a zero or low confidence value may be determined for saturated pixels.

本技術のいくつかの実施形態によれば、ブロック504において、確信度処理モジュール110の第3の確信度尺度プロセスは、ステレオマッチングモジュール108から受信された視差マップ116に基づいて、第3の確信度マップ512を計算する。いくつかの実施形態においては、第3の確信度マップ312についての確信度値は、平行化2D画像114の各ピクセルについて決定された視差の分散から計算され得る。いくつかの実施形態においては、分散は、近隣ピクセル(例えば、考察中のピクセルを取り囲むピクセル)について決定された視差に関する統計的分散であり得る。例えば、相対的により高い分散を有するピクセルは、ピクセルが、よりノイズの多い(例えば、より散在性の)データを有する、視差マップ116の領域の一部であることを示し得、したがって、相対的により低い確信度値を割り当てられ得る。認識されるように、ノイズの多さは、ぼやけを示し得、画像をキャプチャするために使用されたセンサ(例えば、カメラ100)、またはセンサの領域が、汚れている、または部分的に見えなくされている可能性があることを示し得る。視差マップ116における分散を検出するために、知られた技法(例えば、ラプラスフィルタおよび/またはソーベルフィルタに基づいた技法)が使用され得る。いくつかの実施形態においては、閾値分散を下回る分散は、考察中のピクセルが、ぼやけている、またはぼやけた領域内にあることを示し得、したがって、第3の確信度マップ512において、低い確信度値を割り当てられ得る。 At block 504, the third confidence measure process of the confidence processing module 110, based on the disparity map 116 received from the stereo matching module 108, determines the third confidence measure 116, according to some embodiments of the present technology. Calculate the degree map 512 . In some embodiments, the confidence value for the third confidence map 312 may be calculated from the disparity variance determined for each pixel of the rectified 2D image 114 . In some embodiments, the variance may be a statistical variance for disparities determined for neighboring pixels (eg, pixels surrounding the pixel under consideration). For example, a pixel with relatively higher variance may indicate that the pixel is part of a region of disparity map 116 that has noisier (eg, more sparse) data; may be assigned lower confidence values. As will be appreciated, noisiness can indicate blurring, where the sensor (e.g., camera 100) used to capture the image, or the area of the sensor, is dirty or partially obscured. It can be shown that there is a possibility that Known techniques (eg, techniques based on Laplacian and/or Sobel filters) may be used to detect variance in disparity map 116 . In some embodiments, a variance below the threshold variance may indicate that the pixel under consideration is blurred or within a blurred region, and thus a low confidence value in the third confidence map 512. can be assigned a degree value.

認識されるように、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512は、本技術のいくつかの実施形態によれば、画像の各ピクセル、またはビデオストリームの各フレームの各ピクセルについての確信度値から成ると説明されたが、いくつかの他の実施形態においては、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512のうちの1つまたは複数は、画像またはフレームの2つ以上のピクセルを代表する、確信度値から成り得る。例えば、ビデオストリームの各フレームは、n個のグループにカテゴライズされたピクセルから成り得、確信度処理モジュール110は、ビデオストリームの各フレームについて、n個の確信度値(すなわち、n個のグループの各々についての確信度値)を計算するように構成され得る。 As will be appreciated, the first belief map 508, the second belief map 510, and the third belief map 512 may, according to some embodiments of the present technology, each pixel of an image, or Although described as consisting of a confidence value for each pixel of each frame of a video stream, in some other embodiments, a first confidence map 508, a second confidence map 510, and a third One or more of the confidence maps 512 of may consist of confidence values that are representative of two or more pixels of the image or frame. For example, each frame of the video stream may consist of pixels categorized into n groups, and the belief processing module 110 provides n belief values (i.e., n groups of n groups) for each frame of the video stream. confidence value for each).

本技術のいくつかの実施形態によれば、ブロック506において、確信度処理モジュール110の集約器プロセスは、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512を使用し、確信度マップ120を生成するために、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512における推定された確信度値を組み合わせる。したがって、確信度マップ120は、複数の確信度の尺度に基づいた、確実性の最も良い推定値である、強化された確信度値から成り得る。いくつかの実施形態においては、集約器プロセスは、各ピクセルについて、確信度の和を計算することから成り得、和を、確信度マップ120におけるピクセルについての強化された確信度値として使用し得る。いくつかの実施形態においては、集約器プロセスは、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512における確信度を重み付けし、その後、各ピクセルについて、確信度の加重和を計算することを備え得、加重和を、確信度マップ120におけるピクセルについての強化された確信度値として使用し得る。いくつかの実施形態においては、集約器プロセスは、各ピクセルについて、第1の確信度マップ508、第2の確信度マップ510、および第3の確信度マップ512におけるピクセルについての確信度を、確信度マップ120におけるピクセルについての強化された確信度値として使用される、単一の値を出力し得る、ルックアップテーブルに対する、3つの入力値として使用することを備え得る。 At block 506, the aggregator process of the belief processing module 110 processes the first belief map 508, the second belief map 510, and the third belief map, according to some embodiments of the present technology. 512 is used to combine the estimated confidence values in the first confidence map 508 , the second confidence map 510 , and the third confidence map 512 to generate the confidence map 120 . Thus, confidence map 120 may consist of enhanced confidence values that are the best estimates of certainty based on multiple confidence measures. In some embodiments, the aggregator process may consist of computing a sum of beliefs for each pixel, and the sum may be used as the enhanced belief value for the pixel in the belief map 120. . In some embodiments, the aggregator process weights the beliefs in the first belief map 508, the second belief map 510, and the third belief map 512, and then for each pixel: Calculating a weighted sum of the beliefs may comprise calculating the weighted sum and using the weighted sum as the enhanced belief value for the pixel in the belief map 120 . In some embodiments, the aggregator process converts, for each pixel, the belief for the pixel in the first belief map 508, the second belief map 510, and the third belief map 512 into a belief. It may comprise using three input values to a lookup table that may output a single value to be used as the enhanced confidence value for the pixel in degree map 120 .

図1に戻ると、確信度処理モジュール110は、本技術のいくつかの実施形態によれば、コンピュータプロセッサ10のエンコーダモジュール112に対して、確信度マップ120を出力し得る。エンコーダモジュール112は、平行化2D画像114、視差マップ116、および確信度マップ120を受信し、受信された情報をエンコードし、エンコードされた情報から成る、ビデオストリーム122を出力するように構成され得る。いくつかの実施形態においては、ビデオストリーム122は、車両のメインシステムコントローラ30に対して、提供され得る。 Returning to FIG. 1, belief processing module 110 may output belief map 120 to encoder module 112 of computer processor 10, in accordance with some embodiments of the present technology. Encoder module 112 may be configured to receive rectified 2D image 114, disparity map 116, and confidence map 120, encode the received information, and output a video stream 122 consisting of the encoded information. . In some embodiments, the video stream 122 may be provided to the vehicle's main system controller 30 .

本技術のいくつかの実施形態によれば、ビデオストリーム122は、各24ビットカラー値が、カメラ100によってキャプチャされたシーンまでの範囲または距離であるようにエンコードされ得る、24ビットカラー深度ビデオから成り得る。いくつかの実施形態においては、0から近似的に16800メートルまでの距離が、24ビットを用いて表され得、各カラーは、16800メートル範囲の異なる1ミリメートル部分を表す。いくつかの実施形態においては、ビデオストリーム122は、ピクセルから成る2Dフレームから成り得、各フレームのピクセルは、平行化2D画像114のピクセルに対応する。ビデオストリーム122の各フレームの各ピクセルは、強化された確信度値とともに、エンコードされ得る。例えば、各強化された確信度値は、0から255までの8ビット符号なし値であり得、相対的により高い値は、より高いレベルの確信度を示し得る。いくつかの実施形態においては、確信度マップ120の強化された確信度値について、8ビット表現を使用することは、確信度マップ120が、グレースケール画像として表示されることを可能にし得る。いくつかの実施形態においては、ビデオストリーム122は、深度または距離を表す、24ビットカラービデオストリームから成り得、確信度を表す、8ビットモノクロビデオストリームからも成り得る。深度データが確信度データから分離され得るように、ビデオストリーム122を出力することは、いくつかの実施形態においては、例えば、対象物を検出する際、および車両の対象物までの距離を決定する際に、強化された信頼性を提供するために、異なるタイプのセンサ(例えば、ライダ、レーダ、超音波、カメラなど)からのデータが組み合わされ得る、センサ融合を容易にし得る。例えば、シーン内の対象物が、典型的なカメラによってキャプチャされた画像において、明確に見えないことがある、霧がかかった環境においては、画像のピクセルについての確信度値は、一般に、画像全体にわたって低くなり得る。そのようなケースにおいては、車両の制御システム(例えば、メインシステムコントローラ30)は、画像が、使用されるのに十分なほど信頼できないと決定し得る。 According to some embodiments of the present technology, video stream 122 may be encoded such that each 24-bit color value is the range or distance to the scene captured by camera 100 from 24-bit color depth video. It is possible. In some embodiments, distances from 0 to approximately 16800 meters can be represented using 24 bits, with each color representing a different 1 millimeter portion of the 16800 meter range. In some embodiments, the video stream 122 may consist of 2D frames of pixels, each frame pixel corresponding to a pixel in the reconciled 2D image 114 . Each pixel of each frame of video stream 122 may be encoded with an enhanced confidence value. For example, each enhanced confidence value may be an 8-bit unsigned value from 0 to 255, with relatively higher values indicating higher levels of confidence. In some embodiments, using an 8-bit representation for the enhanced belief values of belief map 120 may allow belief map 120 to be displayed as a grayscale image. In some embodiments, video stream 122 may consist of a 24-bit color video stream representing depth or distance, and may also consist of an 8-bit monochrome video stream representing confidence. Outputting the video stream 122 so that the depth data can be separated from the confidence data, in some embodiments, for example, in detecting objects and determining the vehicle's distance to the object In practice, it may facilitate sensor fusion, in which data from different types of sensors (eg, lidar, radar, ultrasound, cameras, etc.) may be combined to provide enhanced reliability. For example, in foggy environments where objects in a scene may not be clearly visible in images captured by a typical camera, confidence values for pixels in an image are generally can be low over In such cases, the vehicle's control system (eg, main system controller 30) may determine that the image is not reliable enough to be used.

本技術のいくつかの実施形態によれば、ステレオビジョンシステム1のコンピュータプロセッサ10は、ライダ確信度処理モジュール124から成り得、センサ100は、レーザ光を用いてシーンを照明し、シーンから受光された反射光から、ライダ画像データ(例えば、ビデオストリーム)と、ライダ確信度データとを生成し、エンコーダモジュール112に対して、ライダ確信度マップ126を出力するように構成された、ライダセンサから成り得る。任意選択で、ライダ画像データは、ライダ確信度マップ126と一緒に出力され得る。いくつかの実施形態においては、コンピュータプロセッサ10は、レーダ確信度処理モジュール128から成り得、センサ100は、知られた波長(例えば、76.5GHz)の波を用いてシーンを照明し、知られた波長を有し、シーンから反射された反射波から、レーダ画像データ(例えば、ビデオストリーム)と、レーダ確信度データとを生成し、エンコーダモジュール112に対して、レーダ確信度マップ130を出力するように構成された、レーダセンサから成り得る。任意選択で、レーダ画像データは、レーダ確信度マップ130と一緒に出力され得る。いくつかの実施形態においては、コンピュータプロセッサ10は、音響確信度処理モジュール132から成り得、センサ100は、知られた波長(例えば、20kHz)の音響波(例えば、超音波)を用いてシーンを照射し、知られた波長を有し、シーンから反射された反射波から、音響画像データ(例えば、ビデオストリーム)と、音響確信度データとを生成し、エンコーダモジュール112に対して、音響確信度マップ134を出力するように構成された、トランスデューサから成り得る。任意選択で、音響画像データは、音響確信度マップ134と一緒に出力され得る。ライダ画像データ、レーダ画像データ、および音響画像データについての確信度値を決定するための技法が、以下で議論される。 According to some embodiments of the present technology, the computer processor 10 of the stereo vision system 1 may consist of a lidar belief processing module 124, the sensor 100 illuminating the scene with laser light and receiving light from the scene. lidar sensor configured to generate lidar image data (e.g., a video stream) and lidar belief data from the reflected light and output a lidar belief map 126 to the encoder module 112. . Optionally, lidar image data may be output along with the lidar belief map 126 . In some embodiments, computer processor 10 may comprise radar confidence processing module 128, sensor 100 illuminates the scene with waves of known wavelength (eg, 76.5 GHz), generated radar image data (e.g., a video stream) and radar confidence data from reflected waves having wavelengths that are reflected from the scene, and outputs a radar confidence map 130 to the encoder module 112. It may consist of a radar sensor configured to: Optionally, radar image data may be output along with radar confidence map 130 . In some embodiments, computer processor 10 may comprise acoustic confidence processing module 132, and sensor 100 scans a scene using acoustic waves (eg, ultrasound) of known wavelength (eg, 20 kHz). Generate acoustic image data (e.g., a video stream) and acoustic confidence data from reflected waves of illuminated and known wavelengths reflected from the scene, and provide the acoustic confidence data to encoder module 112 . It may consist of a transducer configured to output map 134 . Optionally, the acoustic image data may be output together with the acoustic confidence map 134 . Techniques for determining confidence values for lidar image data, radar image data, and acoustic image data are discussed below.

本技術のいくつかの実施形態によれば、ライダ確信度処理モジュール124は、ステレオマッチングモジュール108から、視差マップ116およびコストボリュームマップ118を、確信度処理モジュール110から、確信度マップ120を受信するように構成され得る。図1には示されていないが、ライダ確信度処理モジュール124は、いくつかの実施形態においては、画像平行化モジュール106から、左右の平行化2D画像114の一方または両方を受信するようにも構成され得る。ライダ確信度処理モジュール124は、比較を実行するために、およびライダ確信度データが、確信度マップ120の対応する領域よりも高い確信度値である値を有する領域を識別するために、確信度マップ120と、他の受信された情報(すなわち、視差マップ116、および/またはコストボリュームマップ118、および/または平行化2D画像114の一方もしくは両方)のうちのいくつかまたはすべてとを使用し得る。いくつかの実施形態においては、ライダ確信度処理モジュール124は、エンコーダモジュール112に対して、比較情報を、ライダ確信度マップ126と一緒に提供し得る。同様に、いくつかの実施形態においては、視差マップ116、コストボリュームマップ118、および確信度マップ120が、エンコーダモジュール112に対して、比較情報を、レーダ確信度マップ130と一緒に提供するように構成され得る、レーダ確信度処理モジュール128に対して提供され得る。同様に、いくつかの実施形態においては、視差マップ116、コストボリュームマップ118、および確信度マップ120が、エンコーダモジュール112に対して、比較情報を、音響確信度マップ134と一緒に提供するように構成され得る、音響確信度処理モジュール132に対して提供され得る。 According to some embodiments of the present technology, lidar belief processing module 124 receives disparity map 116 and cost volume map 118 from stereo matching module 108 and belief map 120 from belief processing module 110. can be configured as Although not shown in FIG. 1, the lidar belief processing module 124 also receives one or both of the left and right parallelized 2D images 114 from the image parallelization module 106 in some embodiments. can be configured. The lidar belief processing module 124 performs the comparison and identifies areas where the lidar belief data has values that are higher confidence values than corresponding areas of the belief map 120 . Map 120 and some or all of the other received information (i.e., one or both of disparity map 116, and/or cost volume map 118, and/or rectified 2D image 114) may be used. . In some embodiments, lidar belief processing module 124 may provide comparison information to encoder module 112 along with lidar belief map 126 . Similarly, in some embodiments, disparity map 116 , cost volume map 118 , and confidence map 120 provide comparative information to encoder module 112 along with radar confidence map 130 . It may be provided to a radar confidence processing module 128, which may be configured. Similarly, in some embodiments, disparity map 116, cost volume map 118, and confidence map 120 provide comparative information to encoder module 112 along with acoustic confidence map 134. It may be provided to an acoustic belief processing module 132, which may be configured.

本技術のいくつかの実施形態によれば、エンコーダモジュール112は、カメラ100によって獲得されたセンサデータだけに基づいた深度情報を含むように、ビデオストリーム122をエンコードするか、それとも別のセンサシステム(例えば、ライダセンサ、レーダセンサ、音響センサ、カメラの別のペアなど)だけに基づいた深度情報を含むように、ビデオストリーム122をエンコードするか、それとも車両上の複数の異なるセンサシステムから導出されたセンサデータを組み合わせるために、センサ融合を実行するかを決定するために、確信度マップ120と、ライダ確信度マップ126、レーダ確信度マップ130、および音響確信度マップ134のうちの1つまたは複数とを使用し得る。いくつかの実施形態においては、エンコーダモジュール112は、ビデオストリーム122における画像データ、深度データ、および/または確信度データが、異なるセンサシステムから決定された、最も高い確信度値に対応するように、ビデオストリーム122をエンコードするように構成され得る。いくつかの実施形態においては、ビューストリーム122のフレームは、平行化2D画像114に基づいた、1つまたは複数のフレームと、ライダ画像データに基づいた、1つまたは複数のフレームによって後続される、確信度マップ120と、音響画像データおよび音響確信度マップ134に基づいた、1つまたは複数のフレームによって後続される、ライダ確信度マップ126とから成り得る。いくつかの実施形態においては、ビデオストリーム122の1つまたは複数のフレームは、各々、異なるセンサシステムから導出されたデータの組み合わせから成り得る。例えば、ビデオストリーム122のフレームの各々は、4つの象限(例えば、左上、右上、左下、右下)から成り得、各象限は、最も高い全般的な確信度(例えば、象限のピクセルにわたる最も高い平均確信度レベル)を有するセンサデータから成る。したがって、カメラ100の一方または両方の上のデブリが、確信度マップ120の左上象限に、車両の他のセンサシステムの全般的な確信度と比較して最も低い全般的な確信度を有させるが、確信度マップ120の他の3つの象限は、最も高い全般的な確信度値を有する場合、ビデオストリーム122の対応するフレームの左上象限は、最も高い全般的な確信度を有する、センサシステムからのデータを用いて、置き換えられ得る。認識されるように、ビデオストリーム122のフレームを、フレームごとに、または象限ごとに、最適化する代わりに、フレームは、異なるセンサシステムのセンサによってキャプチャされたシーンの高信頼性の推定値を提供する他のやり方で最適化され得る。いくつかの実施形態においては、車両が、夜間に、または暗い環境において動作させられているとき、エンコーダモジュール112は、カメラベースデータの代わりに、例えば、ライダベースデータを用いて、ビデオストリーム122をエンコードし得る。 According to some embodiments of the present technology, encoder module 112 encodes video stream 122 to include depth information based solely on sensor data acquired by camera 100 or another sensor system ( For example, a lidar sensor, a radar sensor, an acoustic sensor, another pair of cameras, etc.), or encode the video stream 122 to include depth information based solely on sensors derived from multiple different sensor systems on the vehicle. To combine data, confidence map 120 and one or more of lidar confidence map 126, radar confidence map 130, and acoustic confidence map 134 are used to determine whether to perform sensor fusion. can be used. In some embodiments, encoder module 112 is configured such that the image data, depth data, and/or confidence data in video stream 122 correspond to the highest confidence value determined from different sensor systems. It may be configured to encode the video stream 122 . In some embodiments, the frames of viewstream 122 are followed by one or more frames based on rectified 2D image 114 and one or more frames based on lidar image data. It may consist of a belief map 120 and a lidar belief map 126 followed by one or more frames based on the acoustic image data and the acoustic belief map 134 . In some embodiments, one or more frames of video stream 122 may each consist of a combination of data derived from different sensor systems. For example, each of the frames of the video stream 122 may consist of four quadrants (eg, upper left, upper right, lower left, lower right), and each quadrant has the highest overall confidence (eg, the highest over pixels in the quadrant). consists of sensor data with an average confidence level). Debris on one or both of the cameras 100 therefore causes the upper left quadrant of the confidence map 120 to have the lowest overall confidence compared to the overall confidence of the vehicle's other sensor systems. , the upper left quadrant of the corresponding frame of the video stream 122 has the highest overall confidence value if the other three quadrants of the confidence map 120 have the highest overall confidence value. can be replaced using the data of As will be appreciated, instead of optimizing the frames of the video stream 122 on a frame-by-frame or quadrant-by-quadrant basis, the frames provide highly reliable estimates of scenes captured by sensors of different sensor systems. can be optimized in other ways. In some embodiments, when the vehicle is being operated at night or in a dark environment, the encoder module 112 converts the video stream 122 using, for example, lidar-based data instead of camera-based data. can be encoded.

図6は、本技術のいくつかの実施形態による、ビデオストリーム122の例を描いている。ビデオストリーム122は、シーケンスフレームから成り得、そのうちの3つだけが、すなわち、フレームN 600、フレームN+1 602、およびフレームN+2 604だけが示されている。いくつかの実施形態においては、各フレームは、(カラーまたはグレースケールでの)左(または右)平行化2D画像114と、(カラーまたはグレースケールでの)視差マップ116と、(カラーまたはグレースケールでの)確信度マップ120とから成る、スーパフレーム606であり得る。いくつかの実施形態においては、スーパフレーム606は、以下のうちの、すなわち、速度大きさマップ、(x軸に沿った動きを描く)水平速度マップ、(y軸に沿った動きを描く)垂直速度マップ、および(z軸に沿った動きを描く)視線速度マップのうちのいずれか1つまたは任意の組み合わせなどの、1つまたは複数の速度マップも包含し得る。速度マップは、2つ以上のフレームにわたって、密なオプティカルフローを有する、マッチさせられた点(またはピクセル)を追跡し、その後、マッチさせられた点の視差マップ値の差を決定することによって、計算され得る。この方式においては、スーパフレーム606は、ビデオフレームの他の任意のストリームと同じように送信され得、したがって、エンコーディング、デコーディング、送信などのための存在しているビデオ技術を有利に使用し得る。認識されるように、視差マップ116は、代わりに、深度マップであり得、なぜなら、両方のタイプのマップは、センサ(例えば、カメラ100)から、センサによってキャプチャされたシーンまでの距離に関係し、両方のタイプのマップは、典型的には、互いに反比例するからである。いくつかの実施形態においては、各スーパフレームの平行化2D画像114の各ピクセルの「アルファチャンネル」または透明度が、情報を記憶するために、使用され得る。例えば、ピクセルについての深度推定値の確信度または確実性についての値は、ピクセルのアルファチャンネル内に記憶され得る。 FIG. 6 depicts an example video stream 122, in accordance with some embodiments of the present technology. Video stream 122 may consist of a sequence of frames, of which only three are shown: frame N 600, frame N+1 602, and frame N+2 604. In some embodiments, each frame includes a left (or right) rectified 2D image 114 (in color or grayscale), a disparity map 116 (in color or grayscale), and a (color or grayscale ), and the belief map 120 . In some embodiments, the superframe 606 includes a velocity magnitude map, a horizontal velocity map (describing motion along the x-axis), a vertical velocity map (describing motion along the y-axis), and a One or more velocity maps may also be included, such as any one or any combination of a velocity map and a radial velocity map (which depicts motion along the z-axis). The velocity map tracks matched points (or pixels) with dense optical flow over two or more frames, and then by determining the difference in disparity map values of the matched points. can be calculated. In this scheme, the superframes 606 may be transmitted like any other stream of video frames, thus advantageously using existing video technologies for encoding, decoding, transmission, etc. . As will be appreciated, the disparity map 116 may instead be a depth map, since both types of maps relate to the distance from the sensor (e.g. camera 100) to the scene captured by the sensor. , since both types of maps are typically inversely proportional to each other. In some embodiments, the "alpha channel" or transparency of each pixel of the rectified 2D image 114 of each superframe may be used to store information. For example, the confidence or certainty value of the depth estimate for a pixel may be stored in the pixel's alpha channel.

図7A乃至図7Fは、本技術のいくつかの実施形態による、ビデオストリーム122内に含まれ得る、6タイプのスーパフレームを示している。認識されるように、異なるタイプのスーパフレームは、異なるタイプの情報から成り、したがって、異なるサイズを有し得る。図7Aは、垂直に連結された、2D RGB(赤緑青)カラー画像700(例えば、左(または右)平行化2D画像114)と、深度マップまたは視差マップ700(例えば、視差マップ116)と、確信度マップ704(例えば、確信度マップ120)とから成る、スーパフレーム750を示している。いくつかの実施形態においては、スーパフレーム750の各ピクセルは、ピクセルの視差または範囲を記述するために、3バイトを使用し得、3バイトが、ピクセルの確信度レベルを記述するために使用され得る。いくつかの実施形態においては、スーパフレーム750の各ピクセルは、9バイトを用いて指定され得る。図7Bは、2Dカラー画像706と、視差マップおよび確信度マップの連結とから成る、スーパフレーム752を示している。いくつかの実施形態においては、スーパフレーム752の各ピクセルは、視差マップのために2バイト、確信度マップのために1バイトを使用し得、連結すると合計で3バイトである。いくつかの実施形態においては、スーパフレーム752の各ピクセルは、6バイトを用いて指定され得る。図7Cは、赤色画像710のためのチャンネル、緑色画像712のためのチャンネル、および青色画像714のためのチャンネルを含む、チャンネルから形成される、2Dカラー画像から成る、スーパフレーム754を示している。スーパフレーム754は、上位バイト716および下位バイト718を含む、16ビット視差マップと、確信度マップとからも成る。いくつかの実施形態においては、スーパフレーム754の各ピクセルは、6バイトを用いて指定され得る。図7Dは、赤色画像722、緑色画像724、および青色画像726から形成されたカラー画像と、視差マップ728と、確信度マップ730とから成る、スーパフレーム756を示している。いくつかの実施形態においては、視差マップ728の各ピクセルは、5バイトを用いて指定され得る。図7Eは、2Dグレースケール画像732と、視差マップ734と、確信度マップ736とから成る、スーパフレーム758を示している。いくつかの実施形態においては、スーパフレーム758の各ピクセルは、3バイトを用いて指定され得る。図7Fは、2Dカラー画像738と、視差マップ740と、確信度マップ742とから成る、スーパフレーム760を示している。カラー画像738の各ピクセルは、1バイトを用いて指定され得る。例えば、カラー画像738は、ベイヤフィルタパターンまたはルックアップテーブルによって、カラーパレット内に指定され得、これは、スーパフレーム760が、RGBカラー画像におけるのと同じくらいコンパクトであることを可能にし得る。いくつかの実施形態においては、スーパフレーム760の各ピクセルは、3バイトを用いて指定され得る。 7A-7F illustrate six types of superframes that may be included within video stream 122, in accordance with some embodiments of the present technology. As will be appreciated, different types of superframes may consist of different types of information and therefore have different sizes. FIG. 7A shows a vertically concatenated 2D RGB (red-green-blue) color image 700 (e.g., left (or right) rectified 2D image 114), a depth map or disparity map 700 (e.g., disparity map 116), and A superframe 750 is shown, which consists of a belief map 704 (eg, belief map 120). In some embodiments, each pixel of superframe 750 may use 3 bytes to describe the pixel's disparity or range, and 3 bytes are used to describe the pixel's confidence level. obtain. In some embodiments, each pixel of superframe 750 may be specified using 9 bytes. FIG. 7B shows a superframe 752 consisting of the 2D color image 706 and the concatenation of the disparity map and the confidence map. In some embodiments, each pixel of superframe 752 may use 2 bytes for the disparity map and 1 byte for the confidence map, for a total of 3 bytes when concatenated. In some embodiments, each pixel of superframe 752 may be specified using 6 bytes. FIG. 7C shows a superframe 754 consisting of a 2D color image formed from channels including a channel for the red image 710, a channel for the green image 712, and a channel for the blue image 714. . Superframe 754 also consists of a 16-bit disparity map, including upper byte 716 and lower byte 718, and a confidence map. In some embodiments, each pixel of superframe 754 may be specified using 6 bytes. FIG. 7D shows a superframe 756 consisting of a color image formed from red image 722 , green image 724 , and blue image 726 , disparity map 728 and confidence map 730 . In some embodiments, each pixel of disparity map 728 may be specified using 5 bytes. FIG. 7E shows a superframe 758 consisting of a 2D grayscale image 732, a disparity map 734, and a confidence map 736. FIG. In some embodiments, each pixel of superframe 758 may be specified using 3 bytes. FIG. 7F shows a superframe 760 consisting of a 2D color image 738, a disparity map 740 and a confidence map 742. FIG. Each pixel of color image 738 may be specified using one byte. For example, color image 738 may be specified in a color palette by a Bayer filter pattern or lookup table, which may allow superframe 760 to be as compact as in an RGB color image. In some embodiments, each pixel of superframe 760 may be specified using 3 bytes.

上で述べられたように、エンコーダモジュール112に対して、カメラ100からのセンサデータに基づいた、ステレオビジョン確信度マップ120を提供することに加えて、ライダ確信度マップ126、レーダ確信度マップ130、および音響確信度マップ134が、エンコーダモジュール112に対して、提供され得る。ライダセンサ、レーダセンサ、および音響センサは、上で説明されたように、カメラ100と同じまたは同様の視野を有し得、または重なり合う視野を有し得る。いくつかの実施形態においては、ライダ確信度マップ126、レーダ確信度マップ130、および音響確信度マップ134のうちの1つまたは複数は、ビデオストリーム122に対して、付加され得る。例えば、ライダ確信度マップ126(または別の確信度マップ)は、図7A乃至図7Fのスーパフレーム750、752、754、756、758、760のいずれかの確信度マップ内に、別個のビットとしてエンコードされ得、または単純に、例えば、垂直連結によって、スーパフレームに対して付加され得る。 In addition to providing stereo vision confidence map 120 based on sensor data from camera 100 to encoder module 112 as described above, lidar confidence map 126, radar confidence map 130, , and acoustic confidence map 134 may be provided to encoder module 112 . The lidar, radar, and acoustic sensors may have the same or similar field of view as camera 100, or may have overlapping fields of view, as described above. In some embodiments, one or more of lidar confidence map 126 , radar confidence map 130 , and acoustic confidence map 134 may be appended to video stream 122 . For example, the lidar belief map 126 (or another belief map) may be placed as separate bits in the belief maps of any of the superframes 750, 752, 754, 756, 758, 760 of FIGS. 7A-7F. It can be encoded or simply appended to the superframe, eg by vertical concatenation.

本技術のいくつかの実施形態によれば、ライダセンサが、画像の各ピクセルについてのライダ戻り信号を提供するように構成される場合、ライダ確信度マップ(例えば、ライダ確信度マップ126)は、2D画像(例えば、左(または右)平行化2D画像114)の各ピクセルについての確信度値から成り得る。いくつかの実施形態においては、ライダセンサは、例えば、1つ置きのピクセルもしくは2つ置きのピクセルについての、またはピクセルの事前決定されたグループについての、ライダ戻り信号を提供するように構成され得、これは、相対的により疎らであるが、それでも依然として有用なライダ確信度マップという結果になり得る。各ピクセルが、その座標(i,j)によって識別され得る場合、ピクセル(i,j)の確信度値は、mijと表記され得る。いくつかの実施形態においては、ライダ確信度マップは、
R≧Rminの場合、mij=a-2(P+P-1/2
R<Rminの場合、mij=0
に従った、2D画像114と視差マップ116との関数であり得、Rは、視差マップ116によって測定されるような、ピクセル(i,j)における対象物までの距離または範囲であり、Pは、2D画像114によって測定されるような、ピクセル(i,j)の(太陽光または他の光源からの)背景光パワーであり、aは、正規化定数であり、Pは、フィッティング定数であり、Rminは、ライダセンサの最小距離である。いくつかの実施形態においては、Pの値は、例えば、カメラ100についてのセンサゲインおよび露出値によって除算された、ピクセル(i,j)における2D画像114のグレースケール値であり得る。上で示されたように、ライダ確信度マップを生成する際に使用される、2D画像および視差マップは、カメラ100によってキャプチャされた2D画像114、およびステレオビジョン処理に基づいて決定された視差マップ116であり得る。いくつかの実施形態においては、ピクセル(i,j)における対象物が、ライダセンサの最小範囲よりも近いとき、ピクセル(i,j)についての確信度値は、ゼロに設定され得る。確信度値mijについての上記の式は、距離または範囲の2乗、すなわち、Rに反比例し、また背景光パワー、すなわち、Pの平方根にも反比例するように、すなわち、
SNRlidar∝R-2-1/2
となるように、ライダ信号対雑音比(SNR)の推定から、導出される。すなわち、対象物が、ライダセンサから遠く離れるほど、戻り信号は低下し、それ故、ライダ推定の正確さは、戻り信号に対応する受光された光子の数に比例して、低下する。加えて、任意の背景光(例えば、太陽、月、人工)は、ライダセンサによって「ショットノイズ」を感知させることがあり、ノイズエネルギーは、背景光パワーの平方根に等しい。したがって、ライダ確信度マップ126は、2つの物理量、すなわち、ピクセルにおける対象物までの距離と、ピクセルにおける背景光のレベルとに基づき得る。
According to some embodiments of the present technology, if the lidar sensor is configured to provide a lidar return signal for each pixel of the image, the lidar belief map (eg, lidar belief map 126) is a 2D It may consist of a confidence value for each pixel of an image (eg, left (or right) rectified 2D image 114). In some embodiments, the lidar sensor may be configured to provide a lidar return signal, e.g., for every other pixel or every other pixel, or for a predetermined group of pixels, This can result in a relatively sparser, but still useful lidar belief map. If each pixel can be identified by its coordinates (i,j), the confidence value for pixel (i,j) can be denoted as m ij . In some embodiments, the lidar confidence map is
If R≧R min then m ij =a 0 R −2 (P+P 0 ) −1/2
if R<R min then m ij =0
where R is the distance or extent to the object at pixel (i,j), as measured by the disparity map 116, and P is , is the background light power (from sunlight or other light source) at pixel (i,j) as measured by the 2D image 114, a 0 is the normalization constant, and P 0 is the fitting constant and R min is the minimum distance of the lidar sensor. In some embodiments, the value of P may be, for example, the grayscale value of 2D image 114 at pixel (i,j) divided by the sensor gain and exposure values for camera 100 . As indicated above, the 2D image and disparity map used in generating the lidar belief map are the 2D image 114 captured by camera 100 and the disparity map determined based on stereo vision processing. 116. In some embodiments, the confidence value for pixel (i,j) may be set to zero when the object at pixel (i,j) is closer than the minimum range of the lidar sensor. The above formula for the confidence value m ij is inversely proportional to the square of the distance or range, i.e. R2 , and also inversely proportional to the square root of the background light power, i.e. P, i.e.
SNR lidar ∝R −2 P −1/2
It is derived from an estimate of the lidar signal-to-noise ratio (SNR) such that That is, the farther the object is from the lidar sensor, the lower the return signal, and therefore the accuracy of the lidar estimate decreases in proportion to the number of received photons corresponding to the return signal. Additionally, any background light (eg, sun, moon, man-made) can cause "shot noise" to be perceived by a lidar sensor, where noise energy is equal to the square root of the background light power. Thus, the lidar belief map 126 may be based on two physical quantities: the distance to the object in pixels and the background light level in pixels.

レーダセンサおよび音響センサも、ライダセンサと同じく、R-2-1/2に比例する、SNRを有し得る。この特性は、本技術のいくつかの実施形態による、ライダ確信度マップを計算するための、上で説明されたのと同様の方式で、レーダ確信度マップ(例えば、レーダ確信度マップ130)、および/または音響確信度マップ(例えば、音響確信度マップ134)を計算するために、採用され得る。 Radar and acoustic sensors, like lidar sensors, can also have an SNR that is proportional to R −2 P −1/2 . This property is a radar confidence map (e.g., radar confidence map 130), in a manner similar to that described above for computing lidar confidence maps, according to some embodiments of the present technology; and/or to compute an acoustic confidence map (eg, acoustic confidence map 134).

本技術のいくつかの実施形態によれば、車両上の異なるセンサシステムは、異なる距離範囲にある対象物を感知するように、配置され得る。例えば、図8Aは、レーダセンサシステムまたは音響センサシステムによって照射されるビーム領域800を概略的に描いている。ビーム領域800は、多数の距離または範囲R、R、R、Rにおいて、多数の対象物A、B、C、Dを有する、シーンを包含し得る。対象物から反射される戻り信号の強さは、ステレオビジョンシステム1によって測定され得る、対象物の断面積に比例する(例えば、範囲は、視差マップ116に基づき、ターゲットの面積は、左(または右)平行化2D画像114によって与えられる)。いくつかの実施形態においては、センサシステムによって検出された戻り信号は、信号強さに基づいて、異なるビン内にカテゴライズされ得る。図8Bは、対象物A、B、C、Dの各々について、断面積と範囲との間の関係を描いたグラフである。破線は、レーダセンサシステム(またはライダセンサシステム)のノイズフロア802を表す。ノイズフロア802は、レーダおよびライダ技術についての知られた量であり、距離の2乗の関数として劣化することが知られている、センサ感度に対応し得る。上で述べられたように、ライダSNRは、距離または範囲の2乗に反比例する値として、推定され得る。いくつかの実施形態においては、ピクセルについてのライダ(またはレーダ)確信度は、ピクセルについてのSNRに比例する値として、決定され得る。例えば、複数のピクセルにまたがり得る対象物の断面積の、ノイズフロア802の範囲スケール値に対する比は、SNRに比例する値であり、対象物が出現するピクセルについての確信度値として、使用され得る。 According to some embodiments of the present technology, different sensor systems on the vehicle may be arranged to sense objects at different distance ranges. For example, FIG. 8A schematically depicts a beam area 800 illuminated by a radar or acoustic sensor system. Beam region 800 may encompass a scene having multiple objects A, B , C , D at multiple ranges or ranges R A , R B , R C , R D . The strength of the return signal reflected from the object is proportional to the cross-sectional area of the object, which can be measured by the stereo vision system 1 (e.g. range is based on the parallax map 116 and the area of the target is left (or Right) given by the rectified 2D image 114). In some embodiments, return signals detected by the sensor system may be categorized into different bins based on signal strength. FIG. 8B is a graph depicting the relationship between cross-sectional area and extent for each of objects A, B, C, and D; The dashed line represents the noise floor 802 of the radar sensor system (or lidar sensor system). The noise floor 802 is a known quantity for radar and lidar technology and may correspond to sensor sensitivity, which is known to degrade as a function of distance squared. As mentioned above, the lidar SNR can be estimated as a value that is inversely proportional to the square of the distance or range. In some embodiments, the lidar (or radar) confidence for a pixel may be determined as a value proportional to the SNR for the pixel. For example, the ratio of the cross-sectional area of an object, which can span multiple pixels, to the range scale value of the noise floor 802 is a value proportional to the SNR and can be used as the confidence value for the pixel that the object appears. .

本技術の例となる実施形態によれば、ステレオビジョンシステム1がインストールされた車両は、乗用車であり得る。センサ100は、車のフロントガラスの左上部分および右上部分(例えば、図2におけるセンサS3、S7の位置)上に搭載された、2つのカメラであり得、上で議論されたスーパフレーム750などのスーパフレームから成り得る、ビデオストリーム122になるように処理および変換される、画像をキャプチャするように構成され得る。スーパフレーム750のRGB画像700は、画像前処理モジュール104の一部であり得る、またはステレオマッチングが実行される前に、画像が平行化を施される前(または後)に、キャプチャされた画像の画像データを処理する、コンピュータプロセッサ10の別個のモジュールであり得る、対象物検出モジュール(例えば、単眼対象物検出器)によって、解析され得る。例えば、対象物検出モジュールは、キャプチャされた画像のシーンにおいて、様々な形状のバウンディングボックスを決定するために、トレーニングされた畳み込みニューラルネットワークを使用するように構成され得る。形状は、ニューラルネットワークが、車によってしばしば遭遇される典型的な対象物(例えば、他の車両、歩行者、自転車に乗った人、交通標識、交通信号など)として認知するようにトレーニングされた、対象物のカテゴリに対応し得る。スーパフレーム750の視差マップ702は、検出された対象物までの平均距離を決定するために、バウンディングボックスにわたって平均化され得る。さらに、地面または路面が、S.カケガワ(S.Kakegawa)らによる、「ステレオカメラのための垂直ローカル視差ヒストグラムに基づいた路面セグメンテーション(Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera)」(Int’l J. ITS Res. vol.16,pp.90-97,2018)において説明されている、垂直視差ヒストグラムを使用した技法、ならびにH.バジノ(H.Badino)らによる、「確率的占有グリッドおよび動的プログラミングを使用したフリースペース計算(Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming)」(Workshop on Dynamical Vision, ICCV,2007)において説明されている、確率的占有グリッドおよび動的プログラミングを使用した技法など、知られた技法を使用して、視差マップ702から計算され得る。路面から、未分類のロードハザード(例えば、オートバイのヘルメット、レンガ、緩んだ積荷からの木製パレット、マフラ、タイヤから分離したトレッドなど)が、見つけられ、マークされ得る。典型的な路面上の小さい未分類の対象物は、しばしば、よく定義されたエッジおよび輪郭特徴を有し、それが、確信度マップ704における、高い確信度値をもたらし得、したがって、誤検出および不必要な自動緊急ブレーキが発生することを防止し得る。この例となる実施形態においては、カメラ100の一方または両方のキャプチャされた画像の左下の一部を塞ぐ、デブリ(例えば、泥)が、フロントガラス上にある場合、確信度処理モジュール110は、ステレオマッチングモジュール108が、ステレオマッチングモジュール108によって出力される、コストボリュームマップ118の左下の一部において、高いコストを繰り返し報告することを検出し得、したがって、確信度マップ120の対応領域について、低い確信度値を提供し得る。車のメインシステムコントローラ30は、低い確信度値が、許容可能な確信度閾値内にあるかどうかを決定するように構成され得、閾値内にない場合、左下領域からのデータを無効化するように、コンピュータプロセッサ10を制御し得る。すなわち、いくつかの実施形態においては、左下領域についての確信度値が、信頼性閾値よりも低く、したがって、左下領域についての計算された深度値は、無効であり得るので、コンピュータプロセッサ10は、誤読を避け、結果として、車の誤った制御を避ける(例えば、シーン内に実際にはない対象物を避けるために、回避行動を実行するように、車が制御されるのを防止する)ために、左下領域に関連する、カメラ100からのデータを使用して、キャプチャされた画像のシーン内の対象物を検出しないように制御され得る。代わりに、上で議論されたように、データについての確信度値が、確信度閾値を満たしている場合、車上の他のセンサからのデータが使用され得る。 According to example embodiments of the present technology, the vehicle in which the stereo vision system 1 is installed may be a passenger car. The sensors 100 can be two cameras mounted on the upper left and upper right portions of the windshield of the vehicle (e.g., the locations of sensors S3, S7 in FIG. 2), such as the Superframe 750 discussed above. It may be configured to capture images that are processed and converted into a video stream 122, which may consist of superframes. The RGB image 700 of the superframe 750 can be part of the image preprocessing module 104, or an image captured before (or after) the image is subjected to rectification, before stereo matching is performed. can be analyzed by an object detection module (eg, a monocular object detector), which can be a separate module of computer processor 10, which processes the image data of . For example, the object detection module may be configured to use a trained convolutional neural network to determine bounding boxes of various shapes in a scene of captured images. The shapes were trained to perceive the neural network as typical objects often encountered by cars (e.g. other vehicles, pedestrians, cyclists, traffic signs, traffic lights, etc.). It may correspond to a category of objects. Disparity map 702 of superframe 750 may be averaged over the bounding box to determine the average distance to the detected object. Furthermore, if the ground or road surface is S. S. Kakegawa et al., "Road Surface Segmentation based on Vertically Local Disparity Histogram for Stereo Camera" (Int'l J. ITS Res. .vol. 16, pp. 90-97, 2018), as well as techniques using vertical disparity histograms, as well as H. H. Badino et al., "Free Space Computation Using Stochastic Occupancy Grids and Dynamic Programming," Workshop on Dynamical Vision, ICCV, 2007) can be calculated from the disparity map 702 using known techniques, such as techniques using probabilistic occupancy grids and dynamic programming. From the road surface, unclassified road hazards (eg, motorcycle helmets, bricks, wooden pallets from loose cargo, mufflers, treads separated from tires, etc.) can be found and marked. Small unclassified objects on a typical road surface often have well-defined edge and contour features, which can lead to high confidence values in the confidence map 704, thus reducing false positives and It is possible to prevent unnecessary automatic emergency braking from occurring. In this example embodiment, if there is debris (e.g., mud) on the windshield that blocks part of the lower left portion of the captured image of one or both of the cameras 100, the belief processing module 110 will: The stereo matching module 108 may detect that the lower left portion of the cost volume map 118 output by the stereo matching module 108 repeatedly reports a high cost, thus for the corresponding region of the confidence map 120 a low A confidence value may be provided. The vehicle's main system controller 30 may be configured to determine if the low confidence value is within an acceptable confidence threshold, and if not to invalidate data from the lower left region. can control the computer processor 10 at the same time. That is, in some embodiments, the confidence value for the lower left region may be below the confidence threshold, and thus the calculated depth value for the lower left region may be invalid, so computer processor 10 may: To avoid misreadings and, as a result, erroneous control of the car (e.g. to prevent the car from being controlled to perform evasive actions to avoid objects that are not actually in the scene). Additionally, data from the camera 100 associated with the lower left region can be used to control detection of objects within the scene of the captured image. Alternatively, as discussed above, data from other sensors on the vehicle may be used if the confidence value for the data meets the confidence threshold.

図3に戻ると、メインシステムコントローラ30は、本技術のいくつかの実施形態によれば、車両の動作の様々な側面を制御するように構成された、複数のECU34-1、34-2、34-3、34-4、・・・、34-nに対して、制御信号を発行するように構成され得る。例えば、ビデオストリーム122は、車両のディスプレイ(示されず)に対して提供され得、また赤い尾灯が車両の経路の前方にあり、それが交通渋滞または他の潜在的危険を示していることがあると、高い確実性(例えば、90%よりも高い確実性)で決定するために、ビデオストリーム122からの視差情報および確信度情報を使用し得る、メインシステムコントローラ30に対しても提供され得る。メインシステムコントローラ30は、その後、車両を減速させ、停止させるように、車両のパワートレインを制御し得る、ECU34-1に対して、制御信号を発行し得る。いくつかの実施形態においては、コンピュータプロセッサ10および/またはメインシステムコントローラ30による処理は、シーンの画像データが、カメラ100によってキャプチャされ、画像取得モジュール102に対して転送されたときに対して、リアルタイムまたはほぼリアルタイム(例えば、2秒未満または1秒未満)で、ディスプレイが、ビデオストリーム122に対応するビデオを示し得るだけ、十分に高速であり得る。いくつかの実施形態においては、ECU34-1は、シーンの画像データが、カメラ100によってキャプチャされ、画像取得モジュール102に対して転送されたときに対して、リアルタイムまたはほぼリアルタイムで、制御信号を受信し得る。上で述べられたように、メインシステムコントローラ30と、ECU34-1、34-2、34-3、34-4、・・・、34-nとの間の通信は、技法を介し得る。例えば、指令および制御ライン32は、車両に内蔵されたネットワークまたはバスであり得、メインシステムコントローラ30と、ECU34-1、34-2、34-3、34-4、・・・、34-nとの間で信号を送るために、知られたプロトコル(例えば、イーサネット(登録商標)、CAN、I2C、LINなど)を使用し得る。 Returning to FIG. 3, the main system controller 30 comprises a plurality of ECUs 34-1, 34-2, 34-2, 34-1, 34-2, configured to control various aspects of the operation of the vehicle, in accordance with some embodiments of the present technology. 34-3, 34-4, . . . , 34-n. For example, the video stream 122 may be provided to the vehicle's display (not shown) and a red tail light ahead of the vehicle's path, which may indicate a traffic jam or other potential hazard. and to main system controller 30, which may use disparity information and confidence information from video stream 122 to determine with high certainty (eg, greater than 90% certainty). Main system controller 30 may then issue control signals to ECU 34-1, which may control the vehicle's powertrain to slow down and stop the vehicle. In some embodiments, processing by computer processor 10 and/or main system controller 30 is performed in real-time with respect to when image data of a scene is captured by camera 100 and transferred to image acquisition module 102. Or it may be fast enough that the display may show video corresponding to video stream 122 in near real-time (eg, less than 2 seconds or less than 1 second). In some embodiments, ECU 34-1 receives control signals in real time or near real time relative to when image data of a scene is captured by camera 100 and transferred to image acquisition module 102. can. As noted above, communication between the main system controller 30 and the ECUs 34-1, 34-2, 34-3, 34-4, . . . , 34-n may be via techniques. For example, the command and control line 32 may be a network or bus internal to the vehicle, and the main system controller 30 and the ECUs 34-1, 34-2, 34-3, 34-4, . . . , 34-n. Known protocols (eg, Ethernet, CAN, I2C, LIN, etc.) may be used to send signals to and from.

図9Aおよび図9Bは、2つの5メガピクセルカメラによってキャプチャされ、上で説明された本技術の様々な実施形態に従って処理された、シーンの画像からの結果である、データの例を示している。2つのカメラは、それらが1.2mのベースラインによって分離されるように、標準的な乗用車のルーフに搭載された。図9Aは、シーンの距離および明度の両方が、同時に見られ得るように、グレースケールカメラ画像(示されず)とブレンドされた、カラー視差マップを示している。視差マップは、赤色が相対的に近い対象物を示し、青色が相対的により遠く離れた対象物を示す、jetカラーマップを用いてエンコードされた、0から1023までの値を有する。視差マップの透明度は、グレースケールカメラ画像によって変調される。図9Bは、シーンの対応する確信度マップを示している。確信度マップは、H.ヒルシュミュラ(H.Hirschmuller)による、「セミグローバルマッチングおよび相互情報量によるステレオ処理(Stereo Processing by Semi-Global Matching and Mutual Information)」(2008 IEEE Transactions on Pattern Analysis and Machine Intelligence)において説明されているような、セミグローバルマッチングアルゴリズムからの、各ピクセルについての最小集約コスト値を示している。 9A and 9B show example data resulting from images of a scene captured by two 5-megapixel cameras and processed according to various embodiments of the present technology described above. . The two cameras were mounted on the roof of a standard passenger car such that they were separated by a baseline of 1.2m. FIG. 9A shows a color disparity map blended with a grayscale camera image (not shown) so that both the distance and brightness of the scene can be viewed simultaneously. The disparity map has values from 0 to 1023, encoded using the jet colormap, with red indicating relatively closer objects and blue indicating relatively farther away objects. The transparency of the parallax map is modulated by the grayscale camera image. FIG. 9B shows the corresponding confidence map for the scene. Confidence maps are provided by H.I. H. Hirschmuller, "Stereo Processing by Semi-Global Matching and Mutual Information" (2008 IEEE Transactions on Pattern Analysis and Machine) e Intelligence) , shows the minimum aggregated cost value for each pixel from the semi-global matching algorithm.

本技術のいくつかの実施形態によれば、図1、図3、および図5における処理モジュールおよび構成要素は、ハードウェア(例えば、上で説明された手順および方法を実行するようにプログラムされた、1つもしくは複数のコンピュータプロセッサ)で、および/またはソフトウェア(例えば、コンピュータ遂行可能コード)で、実施され得る。いくつかの実施形態においては、ソフトウェアの少なくともいくつかは、コンピュータプロセッサ内に事前プログラムされ得る。いくつかの実施形態においては、ソフトウェアの少なくともいくつかは、非一時的コンピュータ可読記憶媒体上に、または複数の非一時的コンピュータ可読記憶媒体上に記憶され得、それらは、コンピュータプロセッサによってアクセスされ、遂行され得る。いくつかの実施形態においては、プロセスモジュールは、ソフトウェアモジュール、もしくはハードウェアモジュール、またはハードウェアとソフトウェアとを組み合わせたモジュールであり得る。 According to some embodiments of the present technology, the processing modules and components in FIGS. 1, 3, and 5 are hardware (e.g., programmed to perform the procedures and methods described above). , one or more computer processors) and/or in software (eg, computer executable code). In some embodiments, at least some of the software may be pre-programmed into the computer processor. In some embodiments, at least some of the software may be stored on a non-transitory computer-readable storage medium, or on multiple non-transitory computer-readable storage media, which are accessed by a computer processor, can be carried out. In some embodiments, a process module may be a software module, or a hardware module, or a module combining hardware and software.

本願明細書において説明された技術による、車両支援システムは、異なる構成で具現化され得る。例となる構成は、以下のような構成(1)乃至(21)の組み合わせを含む。
(1)監視ありまたは監視なしの車両移動のための自動車両支援システムであって、システムは、コンピュータプロセッサと、コンピュータプロセッサに対して結合されたメモリとから成る、車両制御システムと、シーンの第1の画像データを受信し、第1の画像データに基づいて、第1の視差マップおよび第1の確信度マップを出力するように構成された、第1のセンサシステムとを備え、車両制御システムは、第1のセンサシステムから、第1の視差マップと、第1の確信度マップとを受信し、第1の視差マップと、第1の確信度マップとから成る、ビデオストリームを出力するように構成される、自動車両支援システム。
A vehicle assistance system according to the techniques described herein may be embodied in different configurations. Exemplary configurations include combinations of configurations (1) through (21) as follows.
(1) An automated vehicle assistance system for supervised or unsupervised vehicle movement, the system comprising a vehicle control system comprising a computer processor and a memory coupled to the computer processor; a first sensor system configured to receive one piece of image data and output a first disparity map and a first confidence map based on the first image data; receives the first disparity map and the first confidence map from the first sensor system and outputs a video stream comprising the first disparity map and the first confidence map. An automated vehicle assistance system, comprising:

(2)ビデオストリームにおいて、第1の確信度マップは、第1の視差マップの一部になるように、エンコードされる、構成(1)のシステム。
(3)第1の画像データは、複数のピクセルから成り、視差マップは、ピクセルの各々についての視差データから成り、確信度マップは、ピクセルの各々についての確信度データから成る、構成(1)または構成(2)のシステム。
(2) The system of configuration (1), wherein in the video stream the first confidence map is encoded to become part of the first disparity map.
(3) The first image data consists of a plurality of pixels, the disparity map consists of disparity data for each of the pixels, and the confidence map consists of confidence data for each of the pixels, configuration (1) or a system of configuration (2).

(4)第1の画像データは、左右の2次元(2D)の第1の画像についてのデータから成り、第1のセンサシステムは、第1の画像データから、左右(2D)の平行化された第1の画像と、第1のコストボリュームマップとを生成するように構成され、第1のセンサシステムは、2Dの平行化された第1の画像と、第1の視差マップと、第1のコストボリュームマップとから、第1の確信度マップを生成するように構成される、構成(1)乃至(3)のうちのいずれか1つのシステム。 (4) the first image data comprises data for a left and right two-dimensional (2D) first image, and the first sensor system outputs left and right (2D) collimated data from the first image data; and a first cost volume map, wherein the first sensor system is configured to generate a 2D parallelized first image, a first disparity map, and a first The system of any one of configurations (1)-(3), wherein the system is configured to generate the first confidence map from the cost volume map of the .

(5)第1のセンサシステムは、セミグローバルマッチング(SGM)アルゴリズムから決定される一意性の値、および第1の画像データに対するソーベル演算から決定される画像テクスチャ値の一方または両方に基づいて、第1の確信度マップを生成するように構成される、構成(1)乃至(4)のうちのいずれか1つのシステム。 (5) the first sensor system based on one or both of a uniqueness value determined from a semi-global matching (SGM) algorithm and an image texture value determined from a Sobel operation on the first image data; The system of any one of configurations (1)-(4), configured to generate a first belief map.

(6)シーンの少なくとも一部分の第2の画像データを受信し、第2の画像データに基づいて、第2の確信度マップを出力するように構成された、第2のセンサシステムをさらに備え、車両制御システムは、第2のセンサシステムから、第2の確信度マップを受信することと、ビデオストリームを、スーパフレームのシーケンスとして出力することであって、各スーパフレームは、第1の視差マップと、第1の確信度マップと、第2の確信度マップとに基づいた情報から成る、出力することとを行うように構成される、構成(1)乃至(5)のうちのいずれか1つのシステム。 (6) further comprising a second sensor system configured to receive second image data of at least a portion of the scene and output a second confidence map based on the second image data; The vehicle control system receives a second confidence map from the second sensor system and outputs the video stream as a sequence of superframes, each superframe being a first disparity map. and outputting information based on the first confidence map and the second confidence map. system.

(7)車両制御システムは、ビデオストリームの情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力するように構成される、構成(1)乃至(6)のうちのいずれか1つのシステム。 (7) Any of configurations (1) to (6), wherein the vehicle control system is configured to output a control signal to an electronic control unit (ECU) of the vehicle based on the information in the video stream. any one system.

(8)第1のセンサシステムは、第1の視差マップと、第1の確信度マップとを生成するために、第1の画像データを処理するように構成された、第1のセンサモジュールであり、第2のセンサシステムは、第2の確信度マップを生成するために、第2の画像データを処理するように構成された、第2のセンサモジュールであり、第1のセンサモジュールおよび第2のセンサモジュールは、メモリ内に記憶され、コンピュータプロセッサは、第1のセンサモジュールおよび第2のセンサモジュールを遂行するように構成される、構成(1)乃至(7)のうちのいずれか1つのシステム。 (8) the first sensor system is a first sensor module configured to process the first image data to generate a first disparity map and a first confidence map; Yes, the second sensor system is a second sensor module configured to process the second image data to generate a second belief map, the first sensor module and the second any one of configurations (1) through (7), wherein the two sensor modules are stored in the memory and the computer processor is configured to perform the first sensor module and the second sensor module; system.

(9)ビデオストリームは、第1の視差マップと、第1の確信度マップとから成る、少なくとも1つのスーパフレームと、第1の視差マップと、第2の確信度マップとから成る、少なくとも1つのスーパフレームとから成る、構成(1)乃至(8)のうちのいずれか1つのシステム。 (9) the video stream comprises at least one superframe consisting of a first disparity map, a first confidence map, a first disparity map and a second confidence map; The system of any one of configurations (1) through (8), consisting of one superframe.

(10)ビデオストリームは、第1の確信度マップの一部分と、第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームから成る、構成(1)乃至(9)のうちのいずれか1つのシステム。 (10) any of configurations (1) through (9), wherein the video stream consists of at least one superframe consisting of a portion of the first confidence map and a portion of the second confidence map; one system.

(11)第1の画像データは、ステレオビジョンデータから成り、第2の画像データは、ライダデータから成る、構成(1)乃至(10)のうちのいずれか1つのシステム。
(12)シーンの少なくとも一部分の第3の画像データを受信し、第3の画像データに基づいて、第3の確信度マップを出力するように構成された、第3のセンサシステムをさらに備える、構成(1)乃至(11)のうちのいずれか1つのシステム。
(11) The system of any one of configurations (1)-(10), wherein the first image data comprises stereo vision data and the second image data comprises lidar data.
(12) further comprising a third sensor system configured to receive third image data of at least a portion of the scene and output a third confidence map based on the third image data; The system of any one of configurations (1) through (11).

(13)第3の画像データは、レーダデータ、または音響データから成る、構成(1)乃至(12)のうちのいずれか1つのシステム。
(14)ビデオストリームの各スーパフレームは、シーンの2次元(2D)画像と、シーンの深度マップと、シーンの確実性マップとから成る、構成(1)乃至(13)のうちのいずれか1つのシステム。
(13) The system of any one of configurations (1)-(12), wherein the third image data comprises radar data or acoustic data.
(14) any one of configurations (1) through (13), wherein each superframe of the video stream consists of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene; system.

(15)シーンの確実性マップは、第1の確信度マップ、もしくは第2の確信度マップ、または第1の確信度マップと第2の確信度マップとの組み合わせから成る、構成(1)乃至(14)のうちのいずれか1つのシステム。 (15) The scene certainty map consists of a first confidence map, a second confidence map, or a combination of the first confidence map and the second confidence map, configurations (1) to The system of any one of (14).

(16)シーンの深度マップは、シーンの2D画像に対応する画像データを用いて変調された、第1の視差マップから成り、シーンの確実性マップは、シーンの2D画像に対応する画像データを用いて変調された、第1の確信度マップ、もしくは第2の確信度マップ、または第1の確信度マップと第2の確信度マップとの組み合わせから成る、構成(1)乃至(15)のうちのいずれか1つのシステム。 (16) the scene depth map consists of a first disparity map modulated with image data corresponding to a 2D image of the scene, and the scene certainty map comprises image data corresponding to the 2D image of the scene; of configurations (1) to (15), consisting of a first confidence map, or a second confidence map, or a combination of the first and second confidence maps, modulated using one of our systems.

(17)シーンの2D画像のピクセル、シーンの深度マップのピクセル、およびシーンの確実性マップのピクセルは、時間的および空間的にマッチさせられる、構成(1)乃至(16)のうちのいずれか1つのシステム。 (17) any of configurations (1) through (16), wherein the pixels of the 2D image of the scene, the pixels of the depth map of the scene, and the pixels of the certainty map of the scene are temporally and spatially matched; one system.

(18)車両制御システムは、ビデオストリームのデータサイズを下げるために、第1の視差マップからの視差情報、ならびに第1の確信度マップおよび第2の確信度マップからの確信度情報をエンコードするように構成される、構成(1)乃至(17)のうちのいずれか1つのシステム。 (18) The vehicle control system encodes the disparity information from the first disparity map and the belief information from the first and second belief maps to reduce the data size of the video stream. The system of any one of configurations (1) through (17), wherein the system is configured to:

(19)車両上に搭載されるように構成された、カメラのペアをさらに備え、カメラは、第1のセンサシステムに対して、第1の画像データを提供するように構成される、構成(1)乃至(18)のうちのいずれか1つのシステム。 (19) further comprising a pair of cameras configured to be mounted on the vehicle, the cameras configured to provide first image data to the first sensor system; A system according to any one of 1) to (18).

(20)ビデオストリームは、2次元(2D)カラー画像から成り、各2Dカラー画像は、複数のピクセルから成り、各ピクセルのアルファチャンネル透明度は、ピクセルについての確信度値に比例する、構成(1)乃至(19)のうちのいずれか1つのシステム。 (20) The video stream consists of two-dimensional (2D) color images, each 2D color image consisting of a plurality of pixels, the alpha channel transparency of each pixel being proportional to the confidence value for the pixel, configuration (1 ) through (19).

(21)2Dカラー画像のカラーは、深度範囲を示す、構成(1)乃至(20)のうちのいずれか1つのシステム。
非一時的コンピュータ可読記憶媒体は、コンピュータプロセッサによって遂行されたときに、コンピュータプロセッサに、本願明細書において説明される技術による、監視ありまたは監視なしの車両移動のための自動車両支援システムの方法を実行させるコードを記憶するように構成され得る。そのようなコンピュータ可読記憶媒体の例は、以下のような構成(22)乃至(34)の組み合わせを含む。
(21) The system of any one of configurations (1)-(20), wherein the color of the 2D color image indicates depth range.
The non-transitory computer readable storage medium, when executed by a computer processor, instructs the computer processor to perform an automated vehicle assistance system method for supervised or unsupervised vehicle movement according to the techniques described herein. It may be configured to store code to be executed. Examples of such computer-readable storage media include combinations of structures (22)-(34) as follows.

(22)コンピュータプロセッサによって遂行されたときに、コンピュータプロセッサに、監視ありまたは監視なしの車両移動のための自動車両支援システムの方法を実行させるコードを記憶した、非一時的コンピュータ可読記憶媒体であって、方法は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとを獲得する工程であって、第1の視差マップおよび第1の確信度マップは、シーンの第1の画像データに対応する、工程と、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとから成る、ビデオストリームを出力する工程とから成る、非一時的コンピュータ可読記憶媒体。 (22) A non-transitory computer-readable storage medium storing code that, when executed by a computer processor, causes the computer processor to perform the method of the automated vehicle assistance system for supervised or unsupervised vehicle movement. The method includes, by a computer processor, obtaining a first disparity map and a first belief map, the first disparity map and the first belief map being a first A non-transitory computer-readable storage medium, corresponding to image data, and a computer processor outputting a video stream comprising a first disparity map and a first confidence map.

(23)ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の視差マップの一部となるように、第1の確信度マップをエンコードする工程から成る、構成(22)のコンピュータ可読記憶媒体。 (23) The computer-readable storage medium of arrangement (22), wherein the step of outputting the video stream comprises the step of the computer processor encoding the first confidence map to become part of the first disparity map. .

(24)第1の画像データは、複数のピクセルから成り、視差マップは、ピクセルの各々についての視差データから成り、確信度マップは、ピクセルの各々についての確信度データから成る、構成(22)または構成(23)のコンピュータ可読記憶媒体。 (24) The first image data consists of a plurality of pixels, the disparity map consists of disparity data for each of the pixels, and the confidence map consists of confidence data for each of the pixels. (22) or the computer-readable storage medium of configuration (23).

(25)方法は、コンピュータプロセッサが、シーンの少なくとも一部分の第2の画像データに対応する第2の確信度マップを獲得する工程と、コンピュータプロセッサが、ビデオストリームを、スーパフレームのシーケンスとして出力する工程であって、各スーパフレームは、第1の視差マップと、第1の確信度マップと、第2の確信度マップとに基づいた情報から成る、工程とからさらに成る、構成(22)乃至(24)のうちのいずれか1つのコンピュータ可読記憶媒体。 (25) The method comprises the steps of: a computer processor obtaining a second confidence map corresponding to second image data of at least a portion of the scene; and the computer processor outputting the video stream as a sequence of superframes. wherein each superframe consists of information based on the first disparity map, the first confidence map, and the second confidence map; (24) any one computer readable storage medium.

(26)方法は、コンピュータプロセッサが、ビデオストリームの情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力する工程からさらに成る、構成(22)乃至(25)のうちのいずれか1つのコンピュータ可読記憶媒体。 (26) The method of any of (22) to (25) further comprising the step of the computer processor outputting a control signal to an electronic control unit (ECU) of the vehicle based on the information in the video stream. any one computer-readable storage medium of

(27)方法は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとを獲得するために、第1の画像データを処理する工程と、コンピュータプロセッサが、第2の確信度マップを獲得するために、第2の画像データを処理する工程とからさらに成る、構成(22)乃至(26)のうちのいずれか1つのコンピュータ可読記憶媒体。 (27) The method comprises a computer processor processing the first image data to obtain a first disparity map and a first confidence map; and processing the second image data to obtain the map.

(28)ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程と、コンピュータプロセッサが、第1の視差マップと、第2の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程とから成る、構成(22)乃至(27)のうちのいずれか1つのコンピュータ可読記憶媒体。 (28) Outputting the video stream comprises the computer processor preparing at least one superframe to consist of the first disparity map and the first confidence map; preparing at least one superframe to consist of one disparity map and a second confidence map. .

(29)ビデオストリームを出力する工程は、コンピュータプロセッサが、第1の確信度マップの一部分と、第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームを準備する工程から成る、構成(22)乃至(28)のうちのいずれか1つのコンピュータ可読記録媒体。 (29) The step of outputting the video stream comprises the computer processor preparing at least one superframe consisting of a portion of the first confidence map and a portion of the second confidence map. The computer-readable recording medium of any one of (22)-(28).

(30)第1の画像データは、ステレオビジョンデータから成り、第2の画像データは、ライダデータ、またはレーダデータ、または音響データから成る、構成(22)乃至(29)のうちのいずれか1つのコンピュータ可読記憶媒体。 (30) any one of arrangements (22) through (29), wherein the first image data consists of stereo vision data and the second image data consists of lidar data, or radar data, or acoustic data; one computer-readable storage medium.

(31)ビデオストリームを出力する工程は、コンピュータプロセッサが、シーンの2次元(2D)画像と、シーンの深度マップと、シーンの確実性マップとから成るように、ビデオストリームの各スーパフレームを準備する工程から成る、構成(22)乃至(30)のうちのいずれか1つのコンピュータ可読記憶媒体。 (31) The step of outputting the video stream comprises the computer processor preparing each superframe of the video stream to consist of a two-dimensional (2D) image of the scene, a depth map of the scene, and a certainty map of the scene. The computer-readable storage medium of any one of arrangements (22)-(30) comprising the step of:

(32)コンピュータプロセッサによって、各スーパフレームを準備する工程は、シーンの2D画像のピクセルと、シーンの深度マップのピクセルと、シーンの確実性マップのピクセルとを、時間的および空間的にマッチさせる工程から成る、構成(22)乃至(31)のうちのいずれか1つのコンピュータ可読記憶媒体。 (32) by a computer processor, preparing each superframe temporally and spatially matches pixels of a 2D image of the scene, pixels of a depth map of the scene, and pixels of a certainty map of the scene; The computer-readable storage medium of any one of arrangements (22)-(31), comprising the steps of:

(33)ビデオストリームを出力する工程は、コンピュータプロセッサが、ビデオストリームのデータサイズを下げるために、第1の視差マップからの視差情報、ならびに第1の確信度マップおよび第2の確信度マップからの確信度情報をエンコードする工程から成る、構成(22)乃至(32)のうちのいずれか1つのコンピュータ可読記憶媒体。 (33) The step of outputting the video stream comprises: the computer processor disparity information from the first disparity map and from the first and second confidence maps to reduce the data size of the video stream; 33. The computer-readable storage medium of any one of arrangements (22)-(32), comprising the step of encoding the confidence information.

(34)ビデオストリームを出力する工程は、各2Dカラー画像が、複数のピクセルから成り、各ピクセルのアルファチャンネル透明度が、ピクセルについての確信度値に比例し、2Dカラー画像のカラーが、深度範囲を示すように、2次元(2D)カラー画像を準備する工程から成る、構成(22)乃至(33)のうちのいずれか1つのコンピュータ可読記憶媒体。 (34) outputting the video stream, wherein each 2D color image is composed of a plurality of pixels, the alpha channel transparency of each pixel is proportional to the confidence value for the pixel, and the color of the 2D color image is the depth range; The computer-readable storage medium of any one of arrangements (22)-(33) comprising the step of providing a two-dimensional (2D) color image, as shown in

本願明細書において説明される技術による、ステレオビジョンシステムは、異なる構成で具現化され得る。例となる構成は、以下のような構成(35)乃至(46)の組み合わせを含む。 A stereo vision system according to the techniques described herein may be embodied in different configurations. Exemplary configurations include combinations of configurations (35)-(46) as follows.

(35)画像のペアのシーケンスをキャプチャするように構成された、ステレオカメラシステムであって、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、ステレオカメラシステムと、コンピュータプロセッサであって、ステレオカメラシステムから、画像データのストリームを受信することであって、画像データは、画像のペアのシーケンスに対応する、受信することと、画像のペアの各々について、マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、第1の画像と、第2の画像とを平行化することと、ピクセルマップの各ピクセルについて、深度値を決定することと、ピクセルマップの各ピクセルについて、深度値についての確信度値を決定することと、確信度値のうちの少なくとも1つが、画像異常を示すとき、制御信号を発行することとを行うようにプログラムされた、コンピュータプロセッサとを備える、ステレオビジョンシステム。 (35) A stereo camera system configured to capture a sequence of image pairs, each pair of images consisting of a first image and a second image captured simultaneously. a camera system and a computer processor, receiving a stream of image data from the stereo camera system, the image data corresponding to a sequence of image pairs, each of the image pairs; rectifying the first image and the second image to generate a two-dimensional (2D) pixmap of matched pixels for , and determining a depth value for each pixel of the pixmap determining, for each pixel of the pixmap, a confidence value for the depth value; and issuing a control signal when at least one of the confidence values indicates an image anomaly. a computer processor programmed to a stereo vision system.

(36)画像異常は、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、構成(35)のシステム。
(37)画像異常は、シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、構成(35)または構成(36)のシステム。
(36) The system of configuration (35), wherein the image anomaly corresponds to one or more pixels of the portion of the confidence map having a confidence value below a predetermined threshold.
(37) the image anomaly corresponds to one or more pixels of the portion of the confidence map that have confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence; (35) or system of configuration (36).

(38)画像異常は、確信度マップの隣接する領域の複数のピクセルから成る、構成(35)乃至(37)のうちのいずれか1つのシステム。
(39)制御信号は、可聴音を引き起こすように構成される、構成(35)乃至(38)のうちのいずれか1つのシステム。
(38) The system of any one of configurations (35)-(37), wherein the image anomaly consists of a plurality of pixels in contiguous regions of the confidence map.
(39) The system of any one of configurations (35)-(38), wherein the control signal is configured to cause an audible sound.

(40)可聴音は、事前記録されたメッセージである、構成(35)乃至(39)のうちのいずれか1つのシステム。
(41)制御信号は、車両のエンジン制御モジュールに対して発行される、構成(35)乃至(40)のうちのいずれか1つのシステム。
(40) The system of any one of configurations (35)-(39), wherein the audible tone is a pre-recorded message.
(41) The system of any one of arrangements (35)-(40), wherein the control signal is issued to an engine control module of the vehicle.

(42)ピクセルマップの各ピクセルについて、確信度値は、ピクセルにおけるエッジの有無、ピクセルの照度レベル、ならびにピクセルマップがそれから生成された第1の画像および第2の画像のテクスチャ値に基づいて決定される、構成(35)乃至(41)のうちのいずれか1つのシステム。 (42) For each pixel of the pixelmap, a confidence value is determined based on the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixelmap was generated. The system of any one of configurations (35)-(41).

(43)コンピュータプロセッサは、画像のペアのシーケンスに対応する、スーパフレームのシーケンスを出力するようにプログラムされ、スーパフレームの各々は、2D画像と、2D画像に対応する確信度マップとから成る、構成(35)乃至(42)のうちのいずれか1つのシステム。 (43) the computer processor is programmed to output a sequence of superframes corresponding to the sequence of image pairs, each superframe consisting of a 2D image and a confidence map corresponding to the 2D image; The system of any one of configurations (35)-(42).

(44)2D画像は、第1の画像、または第2の画像である、構成(35)乃至(43)のうちのいずれか1つのシステム。
(45)コンピュータプロセッサは、スーパフレームのシーケンスを、2D画像と、確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号として出力するようにプログラムされる、構成(35)乃至(44)のうちのいずれか1つのシステム。
(44) The system of any one of configurations (35)-(43), wherein the 2D image is the first image or the second image.
(45) the computer processor is programmed to output the sequence of superframes as a display signal that causes the display to show a 2D image and a visible confidence indicator corresponding to the confidence map; The system of any one of configurations (35)-(44).

(46)表示信号は、確信度インジケータを、2D画像の各ピクセルの透明度として、ピクセルごとに、表示させる、構成(35)乃至(45)のうちのいずれか1つのシステム。 (46) The system of any one of arrangements (35)-(45), wherein the display signal causes the confidence indicator to be displayed, pixel by pixel, as transparency for each pixel of the 2D image.

非一時的コンピュータ可読記憶媒体は、コンピュータプロセッサによって遂行されたときに、コンピュータプロセッサに、本願明細書において説明される技術による、車両支援システムの方法を実行させるコードを記憶するように構成され得る。そのようなコンピュータ可読記憶媒体の例は、以下のような構成(47)乃至(59)の組み合わせを含む。 A non-transitory computer-readable storage medium may be configured to store code that, when executed by a computer processor, causes the computer processor to perform methods of vehicle assistance systems in accordance with the techniques described herein. Examples of such computer-readable storage media include combinations of structures (47) through (59) as follows.

(47)コンピュータプロセッサによって遂行されたときに、コンピュータプロセッサに、ステレオビジョンシステムの方法を実行させるコードを記憶した、非一時的コンピュータ可読記憶媒体であって、方法は、コンピュータプロセッサが、ステレオカメラシステムから、画像データのストリームを受信する工程であって、画像データは、画像のペアのシーケンスに対応し、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、工程と、画像のペアの各々について、コンピュータプロセッサが、マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、第1の画像と、第2の画像とを平行化する工程と、ピクセルマップの各ピクセルについて、深度値を決定する工程と、ピクセルマップの各ピクセルについて、深度値についての確信度値を決定する工程と、確信度マップのうちの少なくとも1つが、画像異常を示すとき、コンピュータプロセッサが、制御信号を発行する工程とから成る、非一時的コンピュータ可読記憶媒体。 (47) A non-transitory computer-readable storage medium storing code that, when executed by a computer processor, causes the computer processor to perform a method of a stereo vision system, the method comprising: receiving a stream of image data from, the image data corresponding to a sequence of pairs of images, each pair of images from the first image and the second image captured simultaneously. and for each pair of images, the computer processor parallelizes the first image and the second image to generate a two-dimensional (2D) pixel map of matched pixels. determining a depth value for each pixel of the pixmap; determining a confidence value for the depth value for each pixel of the pixmap; and the computer processor issuing a control signal when indicating a non-transitory computer-readable storage medium.

(48)画像異常は、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、構成(47)のコンピュータ可読記憶媒体。 (48) The computer-readable storage medium of arrangement (47), wherein the image anomaly corresponds to one or more pixels of the portion of the confidence map having a confidence value below the predetermined threshold.

(49)画像異常は、シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、構成(47)または構成(48)のコンピュータ可読記憶媒体。 (49) the image anomaly corresponds to one or more pixels of the portion of the confidence map that have confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence; (47) or computer readable storage medium of configuration (48).

(50)画像異常は、確信度マップの隣接する領域の複数のピクセルから成る、構成(47)乃至(49)のうちのいずれか1つのコンピュータ可読記憶媒体。
(51)制御信号は、可聴音を引き起こすように構成される、構成(47)乃至(50)のうちのいずれか1つのコンピュータ可読記憶媒体。
(50) The computer-readable storage medium of any one of arrangements (47)-(49), wherein the image anomaly consists of a plurality of pixels of contiguous regions of the confidence map.
(51) The computer-readable storage medium of any one of arrangements (47)-(50), wherein the control signal is configured to cause an audible sound.

(52)可聴音は、事前記録されたメッセージである、構成(47)乃至(51)のうちのいずれか1つのコンピュータ可読記憶媒体。
(53)制御信号は、車両のエンジン制御モジュールに対して発行される、構成(47)乃至(52)のうちのいずれか1つのコンピュータ可読記憶媒体。
(52) The computer-readable storage medium of any one of arrangements (47)-(51), wherein the audible tone is a pre-recorded message.
(53) The computer-readable storage medium of any one of arrangements (47)-(52), wherein the control signal is issued to an engine control module of the vehicle.

(54)ピクセルマップの各ピクセルについて、確信度値は、ピクセルにおけるエッジの有無、ピクセルの照度レベル、ならびにピクセルマップがそれから生成された第1の画像および第2の画像のテクスチャ値に基づいて決定される、構成(47)乃至(53)のうちのいずれか1つのコンピュータ可読記憶媒体。 (54) For each pixel of the pixelmap, a confidence value is determined based on the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixelmap was generated. The computer-readable storage medium of any one of arrangements (47)-(53).

(55)方法は、コンピュータプロセッサが、画像のペアのシーケンスに対応する、スーパフレームのシーケンスを出力する工程であって、スーパフレームの各々は、2D画像と、2D画像に対応する視差マップと、2D画像に対応する確信度マップとから成る、工程からさらに成る、構成(47)乃至(54)のうちのいずれか1つのコンピュータ可読記憶媒体。 (55) The method comprises the step of the computer processor outputting a sequence of superframes corresponding to the sequence of image pairs, each superframe being a 2D image and a disparity map corresponding to the 2D image; and a confidence map corresponding to the 2D image.

(56)2D画像は、第1の画像、または第2の画像である、構成(47)乃至(55)のうちのいずれか1つのコンピュータ可読記憶媒体。
(57)スーパフレームのシーケンスを出力する工程は、2D画像と、確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号を出力する工程から成る、構成(47)乃至(56)のうちのいずれか1つのコンピュータ可読記憶媒体。
(56) The computer-readable storage medium of any one of arrangements (47)-(55), wherein the 2D image is the first image or the second image.
(57) Outputting the sequence of superframes comprises outputting a display signal that causes the display to show the 2D image and a visible confidence indicator corresponding to the confidence map, comprising: 47) The computer readable storage medium of any one of (56).

(58)表示信号は、確信度インジケータを、2D画像の各ピクセルの透明度として、ピクセルごとに、表示させる、構成(47)乃至(57)のうちのいずれか1つのコンピュータ可読記憶媒体。 (58) The computer-readable storage medium of any one of arrangements (47)-(57), wherein the display signal causes the confidence indicator to be displayed, pixel by pixel, as transparency for each pixel of the 2D image.

(59)スーパフレームの各々は、2D画像と、確信度マップと、2D画像に対応する視差マップとから成る、構成(47)乃至(58)のうちのいずれか1つのコンピュータ可読記憶媒体。 (59) The computer-readable storage medium of any one of arrangements (47)-(58), wherein each superframe consists of a 2D image, a confidence map, and a disparity map corresponding to the 2D image.

結び
様々な改変、変更、および改良が、上で議論された構造、構成、および方法に対して行われることができ、本願明細書において開示された本発明の主旨および範囲内にあることが意図されていることが理解されるべきである。さらに、本発明の利点が示されたが、本発明のあらゆる実施形態が、あらゆる説明された利点を含むわけではないことが認識されるべきである。いくつかの実施形態は、本願明細書において有利であるとして説明されたいずれかの特徴を実施しないことがある。したがって、上述の説明および添付の図面は、例としてのものにすぎない。
Conclusion Various alterations, modifications, and improvements may be made to the structures, compositions, and methods discussed above and are intended to be within the spirit and scope of the invention disclosed herein. It should be understood that Further, while advantages of the invention have been indicated, it should be appreciated that not every embodiment of the invention will include every described advantage. Some embodiments may not implement any features described as advantageous herein. Accordingly, the above description and accompanying drawings are only exemplary.

本技術のいくつかの態様は、1つまたは複数の方法として具現化され得、本技術の方法の一部として実行される行為は、任意の適切なやり方で、順序付けられ得ることが理解されるべきである。したがって、様々な実施形態において、順次的な行為として示され、および/または説明されるにもかかわらず、いくつかの行為を同時に実行することを含み得る、示されたのと、および/または説明されたのと異なる順序で行為が実行される実施形態が構築され得る。 It will be appreciated that some aspects of the technology may be embodied as one or more methods, and the acts performed as part of the methods of the technology may be ordered in any suitable manner. should. Thus, in various embodiments, the actions shown and/or described may involve performing some acts simultaneously, even though they are shown and/or described as sequential acts. Embodiments may be constructed in which the acts are performed in a different order than they are performed.

本発明の様々な態様は、単独で、組み合わせて、または上で説明された実施形態において具体的には議論されなかった様々な配置で使用され得、したがって、それの適用の際、上述の説明において規定された、または図面において例示された、構成要素の詳細および配置に限定されない。例えば、1つの実施形態において説明された態様は、他の実施形態において説明された態様と、任意の方式で、組み合わされ得る。 Various aspects of the present invention may be used singly, in combination, or in various arrangements not specifically discussed in the above-described embodiments, and therefore, upon application thereof, the above description may be used. It is not limited to the details and arrangements of components defined in or illustrated in the drawings. For example, aspects described in one embodiment may be combined in any manner with aspects described in other embodiments.

要素を修飾するための、説明および特許請求の範囲における、「第1の」、「第2の」、「第3の」などの序数用語の使用は、それ自体では、1つの要素が別の要素よりも上位である、いかなる優先順位、優先権、もしくは順序も、または方法の行為が実行される時間的順序を含意せず、ある名前を有する1つの要素または行為を、(序数用語を使用しなければ)同じ名前を有する別の要素または行為から区別して、要素または行為を区別するためのラベルとして使用されるにすぎない。 The use of ordinal terms such as “first,” “second,” “third,” etc. in the description and claims to modify elements may, by themselves, refer to one element as another. One element or act with a certain name does not imply any precedence, precedence, or order of precedence over the elements, or the temporal order in which the method acts are performed (using ordinal terminology). It is only used as a label to distinguish an element or action (otherwise) from another element or action with the same name.

本願明細書において定義され、使用されるような、すべての定義は、辞書の定義、本願明細書に援用される文書における定義、および/または定義された用語の通常の意味よりも優先されると理解されるべきである。 All definitions, as defined and used herein, supersede dictionary definitions, definitions in documents incorporated herein, and/or the ordinary meaning of the defined terms. should be understood.

本願明細書および特許請求の範囲において使用される場合、不定冠詞「a」および「an」は、明確に反対のことを示していない限り、「少なくとも1つ」を意味すると理解されるべきである。 As used in this specification and claims, the indefinite articles "a" and "an" shall be understood to mean "at least one," unless clearly indicated to the contrary. .

本願明細書および特許請求の範囲において使用される場合、1つまたは複数の要素のリストへの言及における、「少なくとも1つ」という語句は、要素のリスト内の要素のうちのいずれか1つまたは複数から選択された、少なくとも1つの要素を意味するが、必ずしも、要素のリスト内に具体的に列挙された、ありとあらゆる要素の少なくとも1つを含むとは限らず、要素のリスト内の要素の任意の組み合わせを除外しないと理解されるべきである。この定義は、「少なくとも1つ」という語句が言及する、要素のリスト内において具体的に識別された要素以外の要素が、具体的に識別されたそれらの要素に関係があるか、それとも関係がないかにかかわらず、任意選択で存在し得ることも許容する。 As used herein and in the claims, the phrase "at least one" in reference to a list of one or more elements means any one or means at least one element selected from a plurality, but not necessarily including at least one of every and every element specifically recited in the list of elements, any of the elements in the list of elements It should be understood that the combination of This definition does not specify whether elements other than the specifically identified elements in the list of elements to which the phrase "at least one" refers are related to or related to those specifically identified elements. It is also allowed that it may optionally be present, whether or not it is present.

本願明細書および特許請求の範囲において使用される場合、2つの値(例えば、距離、幅など)への言及における、「等しい」または「同じ」という語句は、2つの値が、製造公差内で同じであることを意味する。したがって、等しい、または同じである、2つの値は、2つの値が、±5%だけ互いに異なることを意味し得る。 As used herein and in the claims, the phrase "equal" or "same" in reference to two values (e.g., distance, width, etc.) means that the two values are within manufacturing tolerances. means they are the same. Thus, two values that are equal or the same can mean that the two values differ from each other by ±5%.

本願明細書および特許請求の範囲で使用される場合の「および/または」という語句は、そのように等位接続された要素の「どちらかまたは両方」、すなわち、いくつかのケースにおいては連言的に存在し、他のケースにおいては選言的に存在する要素を意味すると理解されるべきである。「および/または」を用いて列挙された多数の要素は、同じやり方で、すなわち、そのように等位接続された要素のうちの「1つまたは複数」と解釈されるべきである。「および/または」節によって具体的に識別された要素以外の他の要素が、具体的に識別されたそれらの要素に関係があるか、それとも関係がないかにかかわらず、任意選択で存在し得る。したがって、非限定的な例として、「Aおよび/またはB」に対する言及は、「備える」などのオープンエンド語と併せて使用されるとき、1つの実施形態においては、Aだけに(任意選択でB以外の要素を含む)、別の実施形態においては、Bだけに(任意選択でA以外の要素を含む)、また別の実施形態においては、AとBの両方に(任意選択で他の要素を含む)言及するなどすることができる。 The phrase "and/or" as used herein and in the claims means "either or both" of such conjoined elements, i.e., in some cases conjunctive It should be understood to mean an element that exists implicitly and in other cases disjunctively. Multiple elements listed with "and/or" should be construed in the same fashion, ie, "one or more" of the elements so conjoined. Other elements may optionally be present other than the elements specifically identified by the "and/or" clause, whether related or unrelated to those elements specifically identified. . Thus, as a non-limiting example, references to "A and/or B," when used in conjunction with open-ended words such as "comprising," in one embodiment refer only to A (and optionally B), in another embodiment, only B (optionally including elements other than A), and in another embodiment, both A and B (optionally including other (including elements) can be mentioned.

本願明細書および特許請求の範囲において使用される場合、「または」は、上で定義された「および/または」と同じ意味を有すると理解されるべきである。例えば、リスト内の項目を分離するとき、「または」または「および/または」は、包含的であると、すなわち、数々の要素または要素のリストのうちの、2つ以上も含む、少なくとも1つ、および任意選択で、追加の列挙されていない項目を含むと解釈されるものとする。「ただ1つの」、もしくは「正確に1つの」など、明確に反対のことを示す用語だけが、または特許請求の範囲において使用されたときの「から成る」が、数々の要素または要素のリストのうちの正確に1つを含むことに言及している。一般に、本願明細書において使用される場合の「または」という用語は、「どちらか」、「1つの」、「ただ1つの」、または「正確に1つの」などの、排他性の用語によって先行されるときだけ、排他的選択肢(すなわち、「一方または他方であって、両方ではない」)を示すと解釈されるものとする。特許請求の範囲において使用されるときの「から原則的に成る」は、特許法の分野で使用されるような、それの通常の意味を有するものとする。 As used in the specification and claims, "or" should be understood to have the same meaning as "and/or" as defined above. For example, when separating items in a list, "or" or "and/or" are inclusive, i.e., including at least one of a number of elements or lists of elements. , and, optionally, additional unlisted items. Only words that clearly indicate the opposite, such as "only one" or "exactly one", or "consisting of" when used in a claim, a number of elements or a list of elements refers to including exactly one of Generally, the term "or" as used herein is preceded by terms of exclusivity such as "either," "one," "exactly one," or "exactly one." shall be construed to indicate exclusive alternatives (ie, "one or the other, but not both") only when "Consisting essentially of" when used in the claims shall have its ordinary meaning as used in the field of patent law.

また、本願明細書において使用される言葉遣いおよび専門用語は、説明の目的のためのものであり、限定的なものと見なされるべきではない。本願明細書における、「含む」、「備える」、「から成る」、「有する」、「包含する」、および「伴う」などの用語、およびそれらの変形の使用は、その後に列挙される項目、およびそれらの均等物、ならびに追加の項目を包含することを意味する。 Also, the phraseology and terminology used herein is for the purpose of description and should not be regarded as limiting. The use of terms such as “including,” “comprising,” “consisting of,” “having,” “including,” and “accompanied by” herein, and variations thereof, herein, shall be used to refer to the items listed thereafter, and equivalents thereof, as well as additional items.

本願明細書において使用される場合の「近似的に」および「約」という用語は、いくつかの実施形態においては、目標値の±20%以内、いくつかの実施形態においては、目標値の±10%以内、いくつかの実施形態においては、目標値の±5%以内、およびいくつかの実施形態においては、目標値の±2%以内を意味すると解釈され得る。「近似的に」および「約」という用語は、目標値に等しくてよい。 The terms "approximately" and "about" as used herein are in some embodiments within ±20% of a target value, in some embodiments within ±20% of a target value. It can be interpreted to mean within 10%, in some embodiments within ±5% of the target value, and in some embodiments within ±2% of the target value. The terms "approximately" and "about" may equate to a target value.

本願明細書において使用される場合の「実質的に」という用語は、いくつかの実施形態においては、目標値の95%以内、いくつかの実施形態においては、目標値の98%以内、いくつかの実施形態においては、目標値の99%以内、およびいくつかの実施形態においては、目標値の99.5%以内を意味すると解釈され得る。いくつかの実施形態においては、「実質的に」という用語は、目標値の100%に等しくてよい。 The term "substantially" as used herein is in some embodiments within 95% of the target value, in some embodiments within 98% of the target value, in some In embodiments, it can be taken to mean within 99% of the target value, and in some embodiments within 99.5% of the target value. In some embodiments, the term "substantially" may equal 100% of the target value.

Claims (60)

監視ありまたは監視なしの車両移動のための自動車両支援システムであって、前記システムは、
コンピュータプロセッサと、前記コンピュータプロセッサに対して結合されたメモリとから成る、車両制御システムと、
シーンの第1の画像データを受信し、前記第1の画像データに基づいて、第1の視差マップと、第1の確信度マップとを出力するように構成された、第1のセンサシステムと
を備え、
前記車両制御システムは、
前記第1のセンサシステムから、前記第1の視差マップと、前記第1の確信度マップとを受信し、
前記第1の視差マップと、前記第1の確信度マップとから成る、ビデオストリームを出力する
ように構成される、
自動車両支援システム。
An automated vehicle assistance system for supervised or unsupervised vehicle movement, said system comprising:
a vehicle control system comprising a computer processor and a memory coupled to the computer processor;
a first sensor system configured to receive first image data of a scene and to output a first disparity map and a first confidence map based on said first image data; with
The vehicle control system includes:
receiving the first disparity map and the first confidence map from the first sensor system;
configured to output a video stream consisting of the first disparity map and the first confidence map;
Automated vehicle assistance system.
前記ビデオストリームにおいて、前記第1の確信度マップは、前記第1の視差マップの一部になるように、エンコードされる、請求項1に記載の車両支援システム。 2. The vehicle assistance system of claim 1, wherein in the video stream the first confidence map is encoded to become part of the first disparity map. 前記第1の画像データは、複数のピクセルから成り、
前記視差マップは、前記ピクセルの各々についての視差データから成り、
前記確信度マップは、前記ピクセルの各々についての確信度データから成る、
請求項1に記載の車両支援システム。
the first image data consists of a plurality of pixels;
the disparity map comprises disparity data for each of the pixels;
the confidence map consists of confidence data for each of the pixels;
A vehicle assistance system according to claim 1 .
前記第1の画像データは、左右の2次元(2D)の第1の画像についてのデータから成り、
前記第1のセンサシステムは、前記第1の画像データから、左右(2D)の平行化された第1の画像と、第1のコストボリュームマップとを生成するように構成され、
前記第1のセンサシステムは、
前記2Dの平行化された第1の画像と、
前記第1の視差マップと、
前記第1のコストボリュームマップと
から、前記第1の確信度マップを生成するように構成される、
請求項1に記載の車両支援システム。
the first image data comprises data for left and right two-dimensional (2D) first images;
the first sensor system is configured to generate a first left-right (2D) parallelized image and a first cost volume map from the first image data;
The first sensor system includes:
the 2D parallelized first image; and
the first parallax map;
configured to generate the first confidence map from the first cost volume map;
A vehicle assistance system according to claim 1 .
前記第1のセンサシステムは、
セミグローバルマッチング(SGM)アルゴリズムから決定される一意性の値、および
前記第1の画像データに対するソーベル演算から決定される画像テクスチャメトリック
の一方または両方に基づいて、前記第1の確信度マップを生成するように構成される、請求項1に記載の車両支援システム。
The first sensor system includes:
generating the first confidence map based on one or both of a uniqueness value determined from a semi-global matching (SGM) algorithm and an image texture metric determined from a Sobel operation on the first image data. 2. The vehicle assistance system of claim 1, wherein the vehicle assistance system is configured to:
前記シーンの少なくとも一部分の第2の画像データを受信し、前記第2の画像データに基づいて、第2の確信度マップを出力するように構成された、第2のセンサシステム
をさらに備え、
前記車両制御システムは、
前記第2のセンサシステムから、前記第2の確信度マップを受信することと、
前記ビデオストリームを、スーパフレームのシーケンスとして出力することであって、各スーパフレームは、前記第1の視差マップと、前記第1の確信度マップと、前記第2の確信度マップとに基づいた情報から成る、出力することと
を行うように構成される、
請求項1に記載の車両支援システム。
a second sensor system configured to receive second image data of at least a portion of said scene and to output a second confidence map based on said second image data;
The vehicle control system includes:
receiving the second confidence map from the second sensor system;
outputting the video stream as a sequence of superframes, each superframe based on the first disparity map, the first confidence map and the second confidence map; consisting of information configured to output and
A vehicle assistance system according to claim 1 .
前記車両制御システムは、前記ビデオストリームの前記情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力するように構成される、請求項6に記載の車両支援システム。 7. The vehicle assistance system of claim 6, wherein the vehicle control system is configured to output control signals to a vehicle electronic control unit (ECU) based on the information in the video stream. 前記第1のセンサシステムは、前記第1の視差マップと、前記第1の確信度マップとを生成するために、前記第1の画像データを処理するように構成された、第1のセンサモジュールであり、
前記第2のセンサシステムは、前記第2の確信度マップを生成するために、前記第2の画像データを処理するように構成された、第2のセンサモジュールであり、
前記第1のセンサモジュールおよび前記第2のセンサモジュールは、前記メモリ内に記憶され、
前記コンピュータプロセッサは、前記第1のセンサモジュールおよび前記第2のセンサモジュールを遂行するように構成される、
請求項6に記載の車両支援システム。
a first sensor module, wherein the first sensor system is configured to process the first image data to generate the first disparity map and the first confidence map; and
the second sensor system is a second sensor module configured to process the second image data to generate the second belief map;
the first sensor module and the second sensor module are stored in the memory;
the computer processor configured to perform the first sensor module and the second sensor module;
A vehicle assistance system according to claim 6.
前記ビデオストリームは、
前記第1の視差マップと、前記第1の確信度マップとから成る、少なくとも1つのスーパフレームと、
前記第1の視差マップと、前記第2の確信度マップとから成る、少なくとも1つのスーパフレームと
から成る、請求項6に記載の車両支援システム。
The video stream is
at least one superframe consisting of the first disparity map and the first confidence map;
7. The vehicle assistance system of claim 6, comprising: at least one superframe comprising said first disparity map and said second confidence map.
前記ビデオストリームは、前記第1の確信度マップの一部分と、前記第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームから成る、請求項6に記載の車両支援システム。 7. The vehicle assistance system of claim 6, wherein said video stream comprises at least one superframe comprising a portion of said first belief map and a portion of said second belief map. 前記第1の画像データは、ステレオビジョンデータから成り、
前記第2の画像データは、ライダデータから成る、
請求項6に記載の車両支援システム。
the first image data comprises stereo vision data;
wherein the second image data comprises lidar data;
A vehicle assistance system according to claim 6.
前記シーンの少なくとも一部分の第3の画像データを受信し、前記第3の画像データに基づいて、第3の確信度マップを出力するように構成された、第3のセンサシステム
をさらに備える、請求項11に記載の車両支援システム。
a third sensor system configured to receive third image data of at least a portion of said scene and to output a third confidence map based on said third image data; Item 12. A vehicle assistance system according to Item 11.
前記第3の画像データは、レーダデータ、または音響データから成る、請求項12に記載の車両支援システム。 13. Vehicle assistance system according to claim 12, wherein said third image data comprises radar data or acoustic data. 前記ビデオストリームの各スーパフレームは、
前記シーンの2次元(2D)画像と、
前記シーンの深度マップと、
前記シーンの確実性マップと
から成る、請求項6に記載の車両支援システム。
Each superframe of the video stream comprises:
a two-dimensional (2D) image of the scene;
a depth map of the scene;
7. The vehicle assistance system of claim 6, comprising: a certainty map of the scene;
前記シーンの前記確実性マップは、前記第1の確信度マップ、もしくは前記第2の確信度マップ、または前記第1の確信度マップと前記第2の確信度マップとの組み合わせから成る、請求項14に記載の車両支援システム。 3. The certainty map of the scene comprises the first confidence map, the second confidence map, or a combination of the first and second confidence maps. 15. Vehicle assistance system according to 14. 前記シーンの前記深度マップは、前記シーンの前記2D画像に対応する画像データを用いて変調された、前記第1の視差マップから成り、
前記シーンの前記確実性マップは、前記シーンの前記2D画像に対応する画像データを用いて変調された、前記第1の確信度マップ、もしくは前記第2の確信度マップ、または前記第1の確信度マップと前記第2の確信度マップとの組み合わせから成る、
請求項14に記載の車両支援システム。
said depth map of said scene comprising said first disparity map modulated with image data corresponding to said 2D image of said scene;
The certainty map of the scene is the first confidence map, or the second confidence map, or the first confidence map modulated with image data corresponding to the 2D image of the scene. consisting of a combination of a likelihood map and the second confidence map;
15. Vehicle assistance system according to claim 14.
前記シーンの前記2D画像のピクセル、前記シーンの前記深度マップのピクセル、および前記シーンの前記確実性マップのピクセルは、時間的および空間的にマッチさせられる、請求項14に記載の車両支援システム。 15. The vehicle assistance system of claim 14, wherein pixels of the 2D image of the scene, pixels of the depth map of the scene, and pixels of the certainty map of the scene are temporally and spatially matched. 前記車両制御システムは、前記ビデオストリームのデータサイズを下げるために、前記第1の視差マップからの視差情報、ならびに前記第1の確信度マップおよび前記第2の確信度マップからの確信度情報をエンコードするように構成される、請求項17に記載の車両支援システム。 The vehicle control system combines disparity information from the first disparity map and belief information from the first and second belief maps to reduce the data size of the video stream. 18. The vehicle assistance system of claim 17, configured to encode. 車両上に搭載されるように構成された、カメラのペア
をさらに備え、
前記カメラは、前記第1のセンサシステムに対して、前記第1の画像データを提供するように構成される、
請求項6に記載の車両支援システム。
further comprising a pair of cameras configured to be mounted on the vehicle;
the camera is configured to provide the first image data to the first sensor system;
A vehicle assistance system according to claim 6.
前記ビデオストリームは、2次元(2D)カラー画像から成り、各2Dカラー画像は、複数のピクセルから成り、各ピクセルのアルファチャンネル透明度は、前記ピクセルについての確信度値に比例する、請求項6に記載の車両支援システム。 7. The method of claim 6, wherein the video stream consists of two-dimensional (2D) color images, each 2D color image consisting of a plurality of pixels, the alpha channel transparency of each pixel being proportional to the confidence value for the pixel. Vehicle assistance system as described. 前記2Dカラー画像のカラーは、深度範囲を示す、請求項20に記載の車両支援システム。 21. The vehicle assistance system of claim 20, wherein colors of the 2D color image indicate depth range. コンピュータプロセッサによって遂行されたときに、前記コンピュータプロセッサに、監視ありまたは監視なしの車両移動のための自動車両支援システムの方法を実行させるコードを記憶した、非一時的コンピュータ可読記憶媒体であって、前記方法は、
前記コンピュータプロセッサが、第1の視差マップと、第1の確信度マップとを獲得する工程であって、前記第1の視差マップおよび前記第1の確信度マップは、シーンの第1の画像データに対応する、工程と、
前記コンピュータプロセッサが、前記第1の視差マップと、前記第1の確信度マップとから成る、ビデオストリームを出力する工程と
から成る、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing code that, when executed by a computer processor, causes said computer processor to perform a method of an automated vehicle assistance system for supervised or unsupervised vehicle movement, comprising: The method includes:
the computer processor obtaining a first disparity map and a first confidence map, wherein the first disparity map and the first confidence map are first image data of a scene; a step corresponding to
said computer processor outputting a video stream consisting of said first disparity map and said first confidence map.
前記ビデオストリームを出力する前記工程は、前記コンピュータプロセッサが、前記第1の視差マップの一部となるように、前記第1の確信度マップをエンコードする工程から成る、請求項22に記載のコンピュータ可読記憶媒体。 23. The computer of claim 22, wherein said step of outputting said video stream comprises said computer processor encoding said first confidence map to become part of said first disparity map. readable storage medium. 前記第1の画像データは、複数のピクセルから成り、
前記視差マップは、前記ピクセルの各々についての視差データから成り、
前記確信度マップは、前記ピクセルの各々についての確信度データから成る、
請求項22に記載のコンピュータ可読記憶媒体。
the first image data consists of a plurality of pixels;
the disparity map comprises disparity data for each of the pixels;
the confidence map consists of confidence data for each of the pixels;
23. A computer-readable storage medium according to claim 22.
前記方法は、
前記コンピュータプロセッサが、前記シーンの少なくとも一部分の第2の画像データに対応する第2の確信度マップを獲得する工程と、
前記コンピュータプロセッサが、前記ビデオストリームを、スーパフレームのシーケンスとして出力する工程であって、各スーパフレームは、前記第1の視差マップと、前記第1の確信度マップと、前記第2の確信度マップとに基づいた情報から成る、工程と
からさらに成る、請求項22に記載のコンピュータ可読記憶媒体。
The method includes:
said computer processor obtaining a second confidence map corresponding to second image data of at least a portion of said scene;
said computer processor outputting said video stream as a sequence of superframes, each superframe comprising said first disparity map, said first confidence map and said second confidence 23. The computer-readable storage medium of claim 22, further comprising the step of: information based on the map.
前記方法は、
前記コンピュータプロセッサが、前記ビデオストリームの前記情報に基づいて、車両の電子制御ユニット(ECU)に対して、制御信号を出力する工程
からさらに成る、請求項25に記載のコンピュータ可読記憶媒体。
The method includes:
26. The computer readable storage medium of claim 25, further comprising: said computer processor outputting a control signal to a vehicle electronic control unit (ECU) based on said information in said video stream.
前記方法は、
前記コンピュータプロセッサが、前記第1の視差マップと、前記第1の確信度マップとを獲得するために、前記第1の画像データを処理する工程と、
前記コンピュータプロセッサが、前記第2の確信度マップを獲得するために、前記第2の画像データを処理する工程と
からさらに成る、請求項25に記載のコンピュータ可読記憶媒体。
The method includes:
said computer processor processing said first image data to obtain said first disparity map and said first confidence map;
26. The computer-readable storage medium of claim 25, further comprising: said computer processor processing said second image data to obtain said second confidence map.
前記ビデオストリームを出力する前記工程は、
前記コンピュータプロセッサが、前記第1の視差マップと、前記第1の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程と、
前記コンピュータプロセッサが、前記第1の視差マップと、前記第2の確信度マップとから成るように、少なくとも1つのスーパフレームを準備する工程と
から成る、請求項25に記載のコンピュータ可読記憶媒体。
The step of outputting the video stream comprises:
the computer processor preparing at least one superframe to consist of the first disparity map and the first confidence map;
26. The computer-readable storage medium of claim 25, comprising: said computer processor preparing at least one superframe to consist of said first disparity map and said second confidence map.
前記ビデオストリームを出力する前記工程は、前記コンピュータプロセッサが、前記第1の確信度マップの一部分と、前記第2の確信度マップの一部分とから成る、少なくとも1つのスーパフレームを準備する工程から成る、請求項25に記載のコンピュータ可読記憶媒体。 Said step of outputting said video stream comprises said computer processor preparing at least one superframe consisting of a portion of said first belief map and a portion of said second belief map. 26. The computer readable storage medium of claim 25. 前記第1の画像データは、ステレオビジョンデータから成り、
前記第2の画像データは、ライダデータ、またはレーダデータ、または音響データから成る、
請求項25に記載のコンピュータ可読記憶媒体。
the first image data comprises stereo vision data;
wherein the second image data consists of lidar data, radar data, or acoustic data;
26. A computer-readable storage medium according to claim 25.
前記ビデオストリームを出力する前記工程は、前記コンピュータプロセッサが、
前記シーンの2次元(2D)画像と、
前記シーンの深度マップと、
前記シーンの確実性マップと
から成るように、前記ビデオストリームの各スーパフレームを準備する工程から成る、請求項25に記載のコンピュータ可読記憶媒体。
The step of outputting the video stream comprises: the computer processor;
a two-dimensional (2D) image of the scene;
a depth map of the scene;
26. The computer-readable storage medium of claim 25, comprising preparing each superframe of the video stream to consist of: a certainty map of the scene;
前記コンピュータプロセッサによって、各スーパフレームを準備する前記工程は、前記シーンの前記2D画像のピクセルと、前記シーンの前記深度マップのピクセルと、前記シーンの前記確実性マップのピクセルとを、時間的および空間的にマッチさせる工程から成る、請求項31に記載のコンピュータ可読記憶媒体。 By the computer processor, the step of preparing each superframe includes pixels of the 2D image of the scene, pixels of the depth map of the scene, pixels of the certainty map of the scene, and 32. The computer-readable storage medium of Claim 31, comprising the step of spatially matching. 前記ビデオストリームを出力する前記工程は、前記コンピュータプロセッサが、前記ビデオストリームのデータサイズを下げるために、前記第1の視差マップからの視差情報、ならびに前記第1の確信度マップおよび前記第2の確信度マップからの確信度情報をエンコードする工程から成る、請求項31に記載のコンピュータ可読記憶媒体。 In the step of outputting the video stream, the computer processor performs disparity information from the first disparity map and disparity information from the first confidence map and the second confidence map to reduce the data size of the video stream. 32. The computer-readable storage medium of claim 31, comprising encoding belief information from the belief map. 前記ビデオストリームを出力する前記工程は、
各2Dカラー画像が、複数のピクセルから成り、
各ピクセルのアルファチャンネル透明度が、前記ピクセルについての確信度値に比例し、
前記2Dカラー画像のカラーが、深度範囲を示す
ように、2次元(2D)カラー画像を準備する工程から成る、請求項33に記載のコンピュータ可読記憶媒体。
The step of outputting the video stream comprises:
each 2D color image consists of a plurality of pixels,
the alpha channel transparency of each pixel is proportional to the confidence value for that pixel;
34. The computer-readable storage medium of claim 33, comprising preparing a two-dimensional (2D) color image such that colors of the 2D color image indicate depth range.
画像のペアのシーケンスをキャプチャするように構成された、ステレオカメラシステムであって、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、ステレオカメラシステムと、
コンピュータプロセッサであって、
前記ステレオカメラシステムから、画像データのストリームを受信することであって、前記画像データは、画像のペアの前記シーケンスに対応する、受信することと、
画像の前記ペアの各々について、
マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、前記第1の画像と、前記第2の画像とを平行化することと、
前記ピクセルマップの各ピクセルについて、深度値を決定することと、
前記ピクセルマップの各ピクセルについて、前記深度値についての確信度値を決定することと、
前記確信度値のうちの少なくとも1つが、画像異常を示すとき、制御信号を発行することと
を行うようにプログラムされた、コンピュータプロセッサと
を備える、ステレオビジョンシステム。
A stereo camera system configured to capture a sequence of image pairs, each pair of images consisting of a first image and a second image captured simultaneously; ,
a computer processor,
receiving a stream of image data from the stereo camera system, the image data corresponding to the sequence of image pairs;
For each of said pairs of images,
rectifying the first image and the second image to generate a two-dimensional (2D) pixel map of matched pixels;
determining a depth value for each pixel of the pixel map;
determining a confidence value for the depth value for each pixel of the pixel map;
and a computer processor programmed to issue a control signal when at least one of said confidence values indicates an image anomaly.
前記画像異常は、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、請求項35に記載のシステム。 36. The system of claim 35, wherein the image anomaly corresponds to one or more pixels of a portion of a confidence map having a confidence value below a predetermined threshold. 前記画像異常は、前記シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、確信度マップの一部分の1つまたは複数のピクセルに対応する、請求項35に記載のシステム。 3. The image anomalies correspond to one or more pixels of a portion of a confidence map having confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence. 35. The system according to 35. 前記画像異常は、確信度マップの隣接する領域の複数のピクセルから成る、請求項35に記載のシステム。 36. The system of claim 35, wherein the image anomaly consists of a plurality of pixels in contiguous regions of a confidence map. 前記制御信号は、可聴音を引き起こすように構成される、請求項35に記載のシステム。 36. The system of Claim 35, wherein the control signal is configured to cause an audible sound. 前記可聴音は、事前記録されたメッセージである、請求項39に記載のシステム。 40. The system of Claim 39, wherein the audible tone is a pre-recorded message. 前記制御信号は、車両のエンジン制御モジュールに対して発行される、請求項35に記載のシステム。 36. The system of claim 35, wherein the control signal is issued to an engine control module of the vehicle. 前記ピクセルマップの各ピクセルについて、前記確信度値は、前記ピクセルにおけるエッジの有無、前記ピクセルの照度レベル、ならびに前記ピクセルマップがそれから生成された前記第1の画像および前記第2の画像のテクスチャ値に基づいて決定される、請求項35に記載のシステム。 For each pixel of the pixelmap, the confidence value is the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixelmap was generated. 36. The system of claim 35, determined based on: 前記コンピュータプロセッサは、画像のペアの前記シーケンスに対応する、スーパフレームのシーケンスを出力するようにプログラムされ、前記スーパフレームの各々は、2D画像と、前記2D画像に対応する確信度マップとから成る、請求項35に記載のシステム。 The computer processor is programmed to output a sequence of superframes corresponding to the sequence of image pairs, each superframe consisting of a 2D image and a confidence map corresponding to the 2D image. 36. The system of claim 35. 前記2D画像は、前記第1の画像、または前記第2の画像である、請求項43に記載のシステム。 44. The system of claim 43, wherein said 2D image is said first image or said second image. 前記コンピュータプロセッサは、スーパフレームの前記シーケンスを、前記2D画像と、前記確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号として出力するようにプログラムされる、請求項43に記載のシステム。 The computer processor is programmed to output the sequence of superframes as a display signal that causes a display to show the 2D image and a visual confidence indicator corresponding to the confidence map. 44. The system of claim 43. 前記表示信号は、前記確信度インジケータを、前記2D画像の各ピクセルの透明度として、ピクセルごとに、表示させる、請求項45に記載のシステム。 46. The system of claim 45, wherein the display signal causes the confidence indicator to be displayed on a pixel-by-pixel basis as the transparency of each pixel of the 2D image. 前記スーパフレームの各々は、前記2D画像と、前記確信度マップと、前記2D画像に対応する視差マップとから成る、請求項43に記載のシステム。 44. The system of claim 43, wherein each of said superframes consists of said 2D image, said confidence map, and a disparity map corresponding to said 2D image. コンピュータプロセッサによって遂行されたとき、前記コンピュータプロセッサに、ステレオビジョンシステムの方法を実行させるコードを記憶した、非一時的コンピュータ可読記憶媒体であって、前記方法は、
前記コンピュータプロセッサが、ステレオカメラシステムから、画像データのストリームを受信する工程であって、前記画像データは、画像のペアのシーケンスに対応し、画像の各ペアは、同時にキャプチャされた、第1の画像と、第2の画像とから成る、工程と、
画像の前記ペアの各々について、前記コンピュータプロセッサが、
マッチさせられたピクセルの2次元(2D)ピクセルマップを生成するために、前記第1の画像と、前記第2の画像とを平行化する工程と、
前記ピクセルマップの各ピクセルについて、深度値を決定する工程と、
前記ピクセルマップの各ピクセルについて、前記深度値についての確信度値を決定する工程と、
確信度マップのうちの少なくとも1つが、画像異常を示すとき、前記コンピュータプロセッサが、制御信号を発行する工程と
から成る、非一時的コンピュータ可読記憶媒体。
A non-transitory computer-readable storage medium storing code that, when executed by a computer processor, causes the computer processor to perform a method of a stereo vision system, the method comprising:
the computer processor receiving a stream of image data from a stereo camera system, the image data corresponding to a sequence of image pairs, each pair of images captured simultaneously; a step consisting of an image and a second image;
for each of said pairs of images, said computer processor:
rectifying the first image and the second image to generate a two-dimensional (2D) pixel map of matched pixels;
determining a depth value for each pixel of the pixel map;
determining a confidence value for the depth value for each pixel of the pixel map;
and said computer processor issuing a control signal when at least one of the confidence maps indicates an image anomaly.
前記画像異常は、事前決定された閾値を下回る確信度値を有する、前記確信度マップの一部分の1つまたは複数のピクセルに対応する、請求項48に記載のコンピュータ可読記憶媒体。 49. The computer-readable storage medium of claim 48, wherein the image anomaly corresponds to one or more pixels of the portion of the confidence map having a confidence value below a predetermined threshold. 前記画像異常は、前記シーケンスの画像の2つ以上の連続するペアについて、事前決定された閾値を下回る確信度値を有する、前記確信度マップの一部分の1つまたは複数のピクセルに対応する、請求項48に記載のコンピュータ可読記憶媒体。 wherein the image anomaly corresponds to one or more pixels of the portion of the confidence map that have confidence values below a predetermined threshold for two or more consecutive pairs of images of the sequence. 49. The computer-readable storage medium of Clause 48. 前記画像異常は、前記確信度マップの隣接する領域の複数のピクセルから成る、請求項48に記載のコンピュータ可読記憶媒体。 49. The computer-readable storage medium of claim 48, wherein the image anomaly consists of a plurality of pixels in contiguous regions of the confidence map. 前記制御信号は、可聴音を引き起こすように構成される、請求項48に記載のコンピュータ可読記憶媒体。 49. The computer-readable storage medium of Claim 48, wherein the control signal is configured to cause an audible sound. 前記可聴音は、事前記録されたメッセージである、請求項52に記載のコンピュータ可読記憶媒体。 53. The computer-readable storage medium of Claim 52, wherein the audible tone is a pre-recorded message. 前記制御信号は、車両のエンジン制御モジュールに対して発行される、請求項48に記載のコンピュータ可読記憶媒体。 49. The computer readable storage medium of Claim 48, wherein the control signal is issued to an engine control module of a vehicle. 前記ピクセルマップの各ピクセルについて、前記確信度値は、前記ピクセルにおけるエッジの有無、前記ピクセルの照度レベル、ならびに前記ピクセルマップがそれから生成された前記第1の画像および前記第2の画像のテクスチャ値に基づいて決定される、請求項48に記載のコンピュータ可読記憶媒体。 For each pixel of the pixelmap, the confidence value is the presence or absence of an edge at the pixel, the illumination level of the pixel, and the texture values of the first and second images from which the pixelmap was generated. 49. The computer-readable storage medium of claim 48, determined based on. 前記方法は、
前記コンピュータプロセッサが、画像のペアの前記シーケンスに対応する、スーパフレームのシーケンスを出力する工程であって、前記スーパフレームの各々は、2D画像と、前記2D画像に対応する視差マップと、前記2D画像に対応する確信度マップとから成る、工程
からさらに成る、請求項48に記載のコンピュータ可読記憶媒体。
The method includes:
said computer processor outputting a sequence of superframes corresponding to said sequence of image pairs, each of said superframes comprising a 2D image, a disparity map corresponding to said 2D image, and said 2D 49. The computer-readable storage medium of claim 48, further comprising: a confidence map corresponding to the image.
前記2D画像は、前記第1の画像、または前記第2の画像である、請求項56に記載のコンピュータ可読記憶媒体。 57. The computer-readable storage medium of claim 56, wherein said 2D image is said first image or said second image. スーパフレームの前記シーケンスを出力する前記工程は、前記2D画像と、前記確信度マップに対応する可視的な確信度インジケータとを示すことをディスプレイに行わせる、表示信号を出力する工程から成る、請求項56に記載のコンピュータ可読記憶媒体。 3. The step of outputting the sequence of superframes comprises outputting a display signal to cause a display to show the 2D image and a visual confidence indicator corresponding to the confidence map. 57. Computer readable storage medium according to Clause 56. 前記表示信号は、前記確信度インジケータを、前記2D画像の各ピクセルの透明度として、ピクセルごとに、表示させる、請求項58に記載のコンピュータ可読記憶媒体。 59. The computer-readable storage medium of Claim 58, wherein the display signal causes the confidence indicator to be displayed on a pixel-by-pixel basis as transparency for each pixel of the 2D image. 前記スーパフレームの各々は、前記2D画像と、前記確信度マップと、前記2D画像に対応する視差マップとから成る、請求項56に記載のコンピュータ可読記憶媒体。 57. The computer-readable storage medium of Claim 56, wherein each of said superframes consists of said 2D image, said confidence map, and a disparity map corresponding to said 2D image.
JP2022561423A 2021-01-06 2021-12-22 Method and system for providing depth maps with confidence estimates Pending JP2023521765A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
USPCT/US2021/012294 2021-01-06
PCT/US2021/012294 WO2021150369A1 (en) 2020-01-22 2021-01-06 Non-rigid stereo vision camera system
US202163229102P 2021-08-04 2021-08-04
US63/229,102 2021-08-04
PCT/US2021/064856 WO2022150196A1 (en) 2021-01-06 2021-12-22 Methods and systems for providing depth maps with confidence estimates

Publications (1)

Publication Number Publication Date
JP2023521765A true JP2023521765A (en) 2023-05-25

Family

ID=82357552

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561423A Pending JP2023521765A (en) 2021-01-06 2021-12-22 Method and system for providing depth maps with confidence estimates

Country Status (4)

Country Link
EP (1) EP4275194A1 (en)
JP (1) JP2023521765A (en)
KR (2) KR102668282B1 (en)
WO (1) WO2022150196A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269917A (en) * 2002-03-15 2003-09-25 Sony Corp Method of measuring distance, instrument therefor, program therefor, recording medium therefor, and distance measuring instrument mounting type robot apparatus
JP2015158749A (en) * 2014-02-21 2015-09-03 株式会社リコー Image processor, mobile body, robot, device control method and program
JPWO2017057058A1 (en) * 2015-09-30 2018-08-30 ソニー株式会社 Information processing apparatus, information processing method, and program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5117003B2 (en) * 2006-07-11 2013-01-09 本田技研工業株式会社 Driving assistance device
JP5194679B2 (en) * 2007-09-26 2013-05-08 日産自動車株式会社 Vehicle periphery monitoring device and video display method
CA2772607A1 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
WO2011104151A1 (en) * 2010-02-26 2011-09-01 Thomson Licensing Confidence map, method for generating the same and method for refining a disparity map
JP6323018B2 (en) * 2014-01-17 2018-05-16 株式会社デンソー Driving assistance device
JP2016048839A (en) * 2014-08-27 2016-04-07 株式会社小糸製作所 Electronic control unit and video system for vehicle
CA3008886A1 (en) * 2015-12-18 2017-06-22 Iris Automation, Inc. Real-time visual situational awareness system
US10788836B2 (en) * 2016-02-29 2020-09-29 AI Incorporated Obstacle recognition method for autonomous robots
US10275892B2 (en) * 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
WO2019182974A2 (en) * 2018-03-21 2019-09-26 Nvidia Corporation Stereo depth estimation using deep neural networks
US10930054B2 (en) * 2019-06-18 2021-02-23 Intel Corporation Method and system of robust virtual view generation between camera views

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269917A (en) * 2002-03-15 2003-09-25 Sony Corp Method of measuring distance, instrument therefor, program therefor, recording medium therefor, and distance measuring instrument mounting type robot apparatus
JP2015158749A (en) * 2014-02-21 2015-09-03 株式会社リコー Image processor, mobile body, robot, device control method and program
JPWO2017057058A1 (en) * 2015-09-30 2018-08-30 ソニー株式会社 Information processing apparatus, information processing method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
芦ヶ原 隆之 TAKAYUKI YOSHIGAHARA: "最終回 コンピュータビジョンは人のビジョンにどこまで近づいたか 〜難点とそれを回避する実践的アプロー", 映像情報メディア学会誌 第60巻 第12号 THE JOURNAL OF THE INSTITUTE OF IMAGE INFORMATION AND TE, vol. 第60巻, JPN6023018327, JP, ISSN: 0005055049 *

Also Published As

Publication number Publication date
KR102583256B1 (en) 2023-10-04
EP4275194A1 (en) 2023-11-15
WO2022150196A1 (en) 2022-07-14
KR20230142640A (en) 2023-10-11
KR20220167794A (en) 2022-12-21
KR102668282B1 (en) 2024-05-29

Similar Documents

Publication Publication Date Title
US11427193B2 (en) Methods and systems for providing depth maps with confidence estimates
US11836989B2 (en) Vehicular vision system that determines distance to an object
US10558867B2 (en) Image processing apparatus, stereo camera apparatus, vehicle, and image processing method
KR101891460B1 (en) Method and apparatus for detecting and assessing road reflections
US9269006B2 (en) Imaging apparatus, vehicle system, and image-processing method for image magnification and expansion
US11295145B2 (en) Object detection using vehicular vision system
CN111727437A (en) Multispectral system providing pre-crash warning
US9398227B2 (en) System and method for estimating daytime visibility
JP5027710B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP2023184572A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JPWO2016208198A1 (en) Three-dimensional object detection device, stereo camera device, vehicle, and three-dimensional object detection method
KR101868293B1 (en) Apparatus for Providing Vehicle LIDAR
JP6674959B2 (en) Parallax calculating device, stereo camera device, vehicle, and parallax calculating method
JP2023521765A (en) Method and system for providing depth maps with confidence estimates
CN116635919A (en) Object tracking device and object tracking method
US20230286548A1 (en) Electronic instrument, movable apparatus, distance calculation method, and storage medium
CN111043977B (en) Method for determining a relative parameter of a first vehicle with respect to a second vehicle
CN117333358A (en) Three-dimensional model recognition system and method based on deep learning
CN116457854A (en) Object tracking device and object tracking method
KR20230127436A (en) Apparatus and method for detecting nearby vehicle
CN117471463A (en) Obstacle detection method based on 4D radar and image recognition fusion

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221125

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231106

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240611