CN112640413B - 用于显示周围环境的模型的方法、控制设备和车辆 - Google Patents

用于显示周围环境的模型的方法、控制设备和车辆 Download PDF

Info

Publication number
CN112640413B
CN112640413B CN201980056469.8A CN201980056469A CN112640413B CN 112640413 B CN112640413 B CN 112640413B CN 201980056469 A CN201980056469 A CN 201980056469A CN 112640413 B CN112640413 B CN 112640413B
Authority
CN
China
Prior art keywords
camera image
color information
camera
image
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980056469.8A
Other languages
English (en)
Other versions
CN112640413A (zh
Inventor
D·拉普勒格尔
P·R·赫尔佐克
L·R·托里斯洛佩斯
P-S·劳尔
U·布罗施
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN112640413A publication Critical patent/CN112640413A/zh
Application granted granted Critical
Publication of CN112640413B publication Critical patent/CN112640413B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/133Equalising the characteristics of different image components, e.g. their average brightness or colour balance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/53Constructional details of electronic viewfinders, e.g. rotatable or detachable
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/85Camera processing pipelines; Components thereof for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/67Circuits for processing colour signals for matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/74Circuits for processing colour signals for obtaining special effects
    • H04N9/76Circuits for processing colour signals for obtaining special effects for mixing of colour signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种方法,该方法具有检测第一和第二摄像机图像的步骤,其中,第一和第二摄像机图像具有重叠区域,并且第一和第二摄像机图像分别包括多个分别具有颜色信息的图像点,其中,该方法具有以下步骤:将第一摄像机图像的图像点和第二摄像机图像的图像点至少分配给三维网格结构的预给定点,其中,所述预给定点被布置在三维网格结构的表示重叠区域的区域中,针对每个预给定点,根据第一和第二摄像机图像的所分配的颜色信息求取颜色信息差异;根据在相应的预给定点处求取的颜色信息差异求取品质值,根据该颜色信息差异来确定全局颜色变换矩阵,其中,分别根据所属的品质值来对所确定的颜色信息差异进行加权,以及根据所确定的颜色变换矩阵来匹配第二摄像机图像。

Description

用于显示周围环境的模型的方法、控制设备和车辆
技术领域
本发明涉及一种用于显示自身对象的周围环境的模型的方法,一种用于执行该方法的控制设备以及一种具有该控制设备的车辆。
背景技术
文献US 9509 909B2公开一种用于根据布置在车辆上的多个广角摄像机显示车辆的周围环境模型的方法。
本发明的任务是,改善用于显示自身对象的周围环境的模型的方法。
发明内容
根据独立权利要求1、9和10来实现上述任务。
本发明涉及一种用于显示自身对象(尤其车辆作为自身对象)的周围环境的模型的方法,其中,该方法有利地在车辆运行期间执行。例如,在车辆的泊车过程期间执行该方法。替代地,自身对象也可以是建筑物,例如执行该方法来辅助监测建筑物。通过该方法有利地产生自身对象的周围环境的所显示的模型的逼真颜色印象。
用于显示自身对象的周围环境模型的方法具有:借助第一摄像机检测第一摄像机图像以及借助第二摄像机检测第二摄像机图像,其中,第一摄像机图像和第二摄像机图像具有重叠区域。第一摄像机和/或第二摄像机有利地具有广角光学器件。第一和第二摄像机图像还分别包括多个图像点或图像像素,所述图像点或图像像素分别具有颜色信息——例如颜色编码(或者说色度)或亮度值(或者说亮度)。颜色信息例如可以包括三个参数——例如红色值、绿色值和蓝色值。可选地可以设置,在检测到第一或第二摄像机图像之后,在一个方法步骤中对第一和/或第二摄像机图像进行预处理。这种可选的预处理例如包括:根据摄像机特性曲线或色调映射的线性化和/或伽马校正和/或补偿特定于摄像机的图像伪影。图像伪影例如是在第一和/或第二摄像机图像的边缘区域中的渐晕或变暗。这种可选的预处理有利地仅在预给定点处和/或在预给定点的周围进行。在随后的步骤中,根据分别预给定的分配规则将第一摄像机图像的图像点和第二摄像机图像的图像点至少分配给三维网格结构的预给定点,其中,将所述预给定点布置在三维网格结构的如下区域中:该区域表示第一和第二摄像机图像的重叠区域。在此,预给定点有利地均匀布置在三维网格结构的所述区域中。有利地,在网格结构的表示重叠区域的区域中设置超过一百个预给定点。所述预给定的分配规则例如是查找表,这还有利地设置用于修正已借助广角光学器件检测的摄像机图像。给网格结构的预给定点分别分配第一摄像机图像的和第二摄像机图像的颜色信息。换句话说,给预定点分别分配第一摄像机图像的第一颜色信息和第二摄像机图像的第二颜色信息。接下来,针对三维网格结构的每个预给定点,根据第一和第二摄像机图像的分别分配的颜色信息或根据在那里分配的第一颜色信息和在那里分配的第二颜色信息来求取颜色信息差异。换句话说,在固定选择的网格结构的坐标处或预给定点处求取颜色信息差异。然后,根据在相应预给定点处求取的颜色信息差异,分别针对该预给定点求取在每个预给定点处的品质值。高品质值例如表示在第一和第二摄像机图像的相应图像点之间的颜色信息的良好一致性。低品质值例如表示在图像中的失真或遮蔽(Verdeckung)。在另一步骤中,根据在预给定点处求取的多个颜色信息差异来确定全局颜色变换矩阵,其中,分别根据相应预给定点的求取的品质值来对颜色信息差异进行加权。因此,例如不考虑将具有低于阈值的品质值的颜色信息差异用于确定全局颜色变换矩阵。由此,如果相应的预给定点例如位于失真的图像区域、饱和的(即严重过度曝光的或严重阴影的)区域中,则为了求取全局颜色变换矩阵有利地不考虑网格结构的预给定点的颜色信息差异。接下来,根据所确定的颜色变换矩阵使第二摄像机图像尤其(至少在部分区域中)匹配于第一摄像机图像。由此产生如下优点:以较少的计算时间来实现第二摄像机图像的颜色信息与第一摄像机图像的颜色信息的协调或均衡(Angleichung)。在该方法的另一步骤中,根据三维网格结构、第一摄像机图像的至少一个部分区域和经匹配的第二摄像机图像的至少一个部分区域显示自身对象的周围环境的模型。通过该方法来协调所检测的第一摄像机图像与第二摄像机图像之间的颜色信息,使得用户具有如下印象:所显示的模型已经逼真地从共同视角检测,并且所显示的颜色变化过程和亮度变化过程是逼真的。通过三维网格结构,预给定点可以布置在网格结构的三维区域中,也就是说不仅布置在网格结构的平坦底部区域中,由此显著改善两个摄像机图像之间的颜色协调或匹配,因为例如为了求取颜色变换矩阵而考虑第一和第二摄像机图像的大的且均匀的天空区域。此外,通过使用品质值或品质度量排除了:根据摄像机图像的如下图像区域实现颜色变换矩阵:该图像区域表示自身对象的周围环境中受遮挡的和/或网格结构中失真的对象。
在本发明的一个优选构型中,所述方法包括检测自身对象与自身对象的周围环境中的对象之间的距离数据,其中,距离数据也可以包括高度信息。有利地,例如至少借助单目摄像机通过运动结构方法(structure-from-motion-Verfahren)、借助立体摄像机、借助超声传感器、借助雷达传感器和/或借助激光雷达传感器来检测距离数据。可以设置,将不同传感器类型同时地或依次地用于检测距离数据。替代地或附加地可以设置,从电子存储器中下载距离数据的至少一部分,其中,该电子存储器尤其可以布置在服务器设备中。替代地或附加地,例如可以从地图和/或从车辆模型中下载距离数据,所述地图和/或车辆模型可以存储在电子存储器中。然后,根据所检测的距离数据产生或匹配三维网格结构。有利地,所产生的或经匹配的网格结构表示自身对象与自身对象的周围环境中的对象之间的距离。在该构型中,附加地根据经匹配的三维网格结构显示周围环境模型。由此,尤其当自身对象运动时,使基于自身对象周围环境中的邻近对象的失真最小化并且使表示更加逼真。
在一种优选扩展方案中,附加地根据所检测的距离数据求取品质值和/或确定全局颜色变换矩阵。例如,附加地根据预给定点的所分配的距离与自身对象之间的横向距离和/或根据预给定点的高度信息求取预给定点的品质值。由此,可以对用于确定颜色变换矩阵的预给定点进行与距离相关的选择,例如不考虑将近距离的(例如小于1米的和/或具有小于0.3米高度的)和/或远距离的(例如大于5米的和/或具有小于0.3米高度的)预给定点用于确定颜色变换矩阵。
在一种特别优选的扩展方案中,为了确定全局颜色变换矩阵,仅考虑三维网格结构的如下预给定点:所述预给定点位于大于或等于至自身对象的横向最小距离和/或小于或等于至自身对象的预给定横向距离的区域中,其中,最小距离尤其为1米并且预给定的距离尤其为5米。通过该扩展方案,在匹配第二摄像机图像时使所检测的第一摄像机图像与第二摄像机图像之间的颜色信息更好地协调,使得用户具有所显示的模型更加逼真的印象。
在该方法的另一构型中可以设置,尤其借助至少一个神经网络来在第一摄像机图像和/或第二摄像机图像中识别部段。可能的部段例如是第一和/或第二摄像机图像中一致的区域,例如天空区域和/或建筑物区域和/或植物区域和/或车道区域。在该构型中,附加地根据所识别的部段来求取品质值。通过该构型,在第一和第二摄像机图像的特别适用于求取颜色变换矩阵的区域或部段中,通过品质值使预给定点更高地被加权或更强地被考虑,例如考虑天空区域中的预给定点。由此,对于观察者而言进行第二摄像机图像的匹配是特别有利的,也就是说,通过该构型使第二摄像机图像的图像像素的颜色信息与第一摄像机图像的图像像素的颜色信息近似或协调,使得对于观察者来说,颜色信息在所显示的周围环境模型中或第一和第二摄像机图像的共同视图中是逼真的。
在另一构型中,附加地根据第一和/或第二摄像机图像在相应预给定点的周围环境中的多个颜色信息来求取颜色信息差异和/或求取品质值。通过该构型,有利地考虑将颜色信息在围绕预给定点的区域中的方差用于求取品质值,使得例如在预给定点处的颜色噪声对所求取的品质值具有较小影响。由此,使第二摄像机图像的颜色信息非常良好地匹配于第一摄像机图像的颜色信息。
优选地,附加地根据第一和/或第二摄像机图像的沿着相应预给定点的对极线的至少一个区域的多个颜色信息来求取颜色信息差异和/或求取品质值。该对极线根据第一摄像机图像和第二摄像机图像得出,或者该对极线根据第一和第二摄像机的安装位置和/或校准固定预给定。通过该构型,为了求取品质值,有利地考虑在围绕预给定点的可能失真区域中的颜色信息,使得例如仅当颜色信息在第一和/或第二摄像机图像中沿着所分配的对极线的最大方差很小时,预给定点(在该预给定点处例如不存在距离测量或仅存在不精确的距离测量)才对颜色变换矩阵的确定有强的影响。通过该构型,在确定颜色变换矩阵时,可以将少云天空或无纹理墙壁中的对于确定颜色变换矩阵重要相关的图像点高加权。此外,通过该实施方案得到如下优点:尤其当不存在或存在差的距离数据时,在匹配第二摄像机图像之后,第一摄像机图像与第二摄像机图像之间的颜色信息特别良好地协调。
此外,在一种构型中可以设置,共同模型在重叠区域中的显示具有第一摄像机图像或匹配的第二摄像机图像或第一与第二摄像机图像的组合。换句话说,在该构型中,在第一与第二摄像机图像之间不执行简单的取平均,使得以较少可见失真并且因此更逼真地显示自身对象的周围环境的所显示的模型。
有利地,在该方法中附加地检测至少一个第三和第四摄像机图像,所述第三和第四摄像机图像相对于围绕自身对象的第一摄像机图像或第二摄像机图像具有相应的重叠区域,使得尤其检测以360°围绕自身对象的周围环境,其中,分别通过两个另外的特定颜色变换矩阵来匹配第三摄像机图像和第四摄像机图像。
本发明还涉及一种用于执行根据本发明的方法的控制设备。
此外,本发明涉及一种具有根据本发明的控制设备的车辆。
附图说明
由以下参照附图对实施例的描述得到其它优点。
图1示出具有四个广角摄像机的车辆;
图2示出所述方法的流程图;
图3a示出矩形的三维网格结构;
图3b示出具有预给定点的三维网格结构的区域;
图3c示出具有预给定点的替代三维网格结构。
具体实施方式
在图1中示出作为自身对象100的车辆。该自身对象100具有多个超声传感器作为距离传感器130,这些距离传感器在该示例中布置在自身对象100的前部和后部。替代地或附加地,可以将至少一个立体摄像机、雷达传感器和/或激光雷达传感器作为距离传感器130布置在自身对象100上。自身对象100还包括四个广角摄像机101至104,这些广角摄像机分别检测自身对象100的周围环境110的部分区域。从自身对象100观察,第一摄像机101检测车辆100的前方周围环境区域111作为第一摄像机图像,第二摄像机102检测车辆100的右侧周围环境区域112作为第二摄像机图像,第三摄像机103检测车辆100的左侧周围环境区域113作为第三摄像机图像,第四摄像机104检测车辆100的后方周围环境区域114作为第四摄像机图像。因此,四个摄像机101、102、103和104共同地完全或以360°围绕车辆100检测车辆100的周围环境110。前方周围环境区域111和右侧周围环境区域112在第一重叠区域121中相交或重叠。右侧周围环境区域112和后侧周围环境区域114在第二重叠区域122中重叠。前方周围环境区域111和左侧周围环境区域113在第四重叠区域124中重叠。左侧周围环境区域113和后方周围环境区域114在第三重叠区域123中重叠。在检测第一、第二、第三和第四摄像机图像时,分别单独地关于相应的图像像素的颜色信息(例如关于色度或亮度)对这些摄像机图像进行匹配,使得尽管在相应摄像机图像中可能存在不同照明,仍详细地检测和示出相应周围环境区域111、112、113和/或114中包含的情况。通过颜色信息的这种在硬件方面的单独和自动的(例如根据周围环境110中的照明情况和/或图像点直方图的)匹配,第一、第二、第三和第四摄像机图像在对于观察者而言的颜色印象方面或者尤其在重叠区域中相应的对应图像像素的颜色信息方面彼此不同。例如,第三摄像机103检测被太阳过度曝光的左侧周围环境区域113,并且第四摄像机104检测由于阴影而变暗的周围环境区域114,由此,第三和第四摄像机图像在重叠区域123中具有非常不同的颜色信息。例如对于观察者而言,由于在重叠区域123处或重叠区域中的摄像机图像之间的颜色信息差异,(分别包括第三和第四摄像机图像、而未关于颜色信息对摄像机图像的至少一个部分区域进行匹配的)模型引起失真或混乱,因为例如第三与第四摄像机图像之间的过渡在这种情况下是不连续的或不清晰的。在图1中的实施例中,在自身对象100的周围环境中存在具有对象高度的三维对象150。因此,第一摄像机图像和第二摄像机图像包括对象150。此外,第一摄像机101未检测到对象150后方的第一区域151,并且第二摄像机102未检测到对象150后方的第二区域152。
图2中所示的根据本发明的方法的流程图有利地使周围环境模型的表示中的失真(该失真由自身对象100的周围环境中的对象150导致)最小化,并且该方法的流程图使两个摄像机图像之间的颜色信息的差异协调。在检测多于两个摄像机图像时,可以针对相邻摄像机图像的共同表示或者说针对每个重叠区域121、122、123和/或124单独地或重复地执行该方法。通过该方法,例如尽管在周围环境区域111、112、113和/或114中的照明情况不同,但是在周围环境模型的表示中得到共同的周围环境模型的协调的颜色信息,该共同的周围环境模型包括第一至第四摄像机图像。颜色信息的协调分别在两个摄像机图像之间进行。
根据图2,首先借助至少一个距离传感器130可选地检测210自身对象100与自身对象100的周围环境中的对象150之间的距离数据,其中,距离传感器130优选包括单目摄像机(例如第一摄像机101)和/或至少一个超声传感器。然后在可选的步骤220中,根据所检测的距离数据产生或匹配三维网格结构。例如,根据三维点云或距离数据产生网格结构,所述三维点云或距离数据通过运动构造方法根据摄像机图像序列所求取。所产生的或经匹配的网格结构表示自身对象100与自身对象100的周围环境110中的对象150之间的空间距离的或三维距离。在方法步骤230中,借助第一摄像机101检测第一摄像机图像。在另一步骤240中,借助第二摄像机102检测第二摄像机图像,其中,第一摄像机图像和第二摄像机图像具有重叠区域121。第一摄像机图像和第二摄像机图像分别包括多个图像点,这些图像点分别具有颜色信息(例如亮度值或颜色编码),其中,所述颜色信息尤其借助第一或第二摄像机自动地生成。在可选的步骤241(未示出)中,可以至少在重叠区域121中的预给定点处对所检测的第一和/或第二摄像机图像执行预处理。在可选的步骤245中,识别第一和/或第二摄像机图像中的部段。例如,通过借助神经网络的图案识别来进行部段的识别。例如,分别将第一和/或第二摄像机图像中的车道区域或天空区域或对象区域识别为部段。在步骤250中,根据分别预给定的分配规则,至少为三维网格结构的预给定点分配第一和第二摄像机图像的图像点,也就是说,将摄像机图像至少在预给定点处映射到网格结构上。预给定点布置在网格结构的至少一个表示重叠区域121的部分区域中。例如,在网格结构的表示重叠区域121的部分区域中,预给定点均匀地布置在网格中。例如可以设置多于一百个预给定点。通过将第一摄像机图像和第二摄像机图像的图像点分配250给三维网格结构,至少将第一摄像机图像的图像点的第一颜色信息和第二摄像机图像的图像点的第二颜色信息分别分配给网格结构的预给定点。接下来,针对每个预给定点执行颜色信息差异的求取260,其中,在预给定点处分别至少根据在那里分配的第一颜色信息和在那里分配的第二颜色信息来求取颜色信息差异。在一个扩展方案中可以可选地设置,附加地根据第一和/或第二摄像机图像在相应预给定点的周围环境中的和/或沿着至预给定点的对极线的区域的颜色信息来求取预给定点处的颜色差异。在此,周围环境可以以不同方式定义,例如定义为相应预给定点的周围环境中的矩阵(尤其是5*5矩阵)、均匀网格或点图案。然后,在相应预给定点处,还根据针对相应预给定点求取的颜色信息差异求取270品质值。可选地,可以附加地根据第一和/或第二摄像机图像在相应预给定点的周围环境中和/或沿着对极线的至少一个区域的颜色信息实现品质值的求取。品质值表示第一与第二摄像机图像之间的在三维网格结构的预给定点处的相关性。可选地,附加地根据在第一和/或第二摄像机图像中识别的部段来进行品质值的求取270。在另一可选构型中,附加地根据第一和/或第二摄像机图像中的相应预给定点的周围环境中的颜色信息和/或根据沿着至预给定点的对应对极线区域的颜色信息来在相应预给定点处求取270品质值。还可以设置,附加地根据所检测的距离数据来执行品质值的求取270。在另一步骤280中,根据所求取的多个颜色信息差异来确定全局颜色变换矩阵,其中,分别根据相应预给定点的所求取的品质值对所求取的颜色信息差异进行加权。在一种可选扩展方案中,在步骤280中附加地根据所检测的距离数据来确定全局颜色变换矩阵。可以有利地根据三维网格结构的位于如下区域中的预给定点来求取270品质值或确定280颜色变换矩阵:该区域大于或等于至自身对象100的最小距离和/或小于或等于至自身对象的预给定距离。然后在步骤290中,根据所确定的颜色变换矩阵至少在部分区域中对第二摄像机图像进行匹配。最后,根据三维网格结构、第一摄像机图像的至少一个部分区域和经匹配的第二摄像机图像的至少一个部分区域来显示299自身对象100的周围环境模型。可选地,附加地根据经匹配的三维网格结构来显示周围环境模型。共同的周围环境模型的显示优选在表示重叠区域的区域中包括第一摄像机图像或经匹配的第二摄像机图像或第一和第二摄像机图像的组合。例如还可以针对与第一和/或第二摄像机图像具有重叠区域的其他摄像机图像执行该方法,使得例如对于图1中的自身对象100得到具有协调的颜色信息的周围环境模型。
在图3a中示出矩形的三维网格结构300。网格结构300包括底面301和四个侧面302。为了显示299周围环境模型,将摄像机图像或者说第一、第二、第三和/或第四摄像机图像投影到网格结构300上或者说底面301上和侧面302上。例如,将第一摄像机图像投影到网格结构300的如下区域320上:该区域表示借助第一摄像机101检测的周围环境区域111;并且将第二摄像机图像被投影到网格结构300的如下区域330上:该区域表示借助第二摄像机102检测的周围环境区域112。三维网格结构的部分区域310相应于如下区域:在该区域中布置有自身对象100(例如车辆)。因此,不由摄像机检测部分区域310,并且例如可以通过自身对象100的三维合成模型填充该部分区域。可以从到三维网格结构300上的任意观察者视角来显示周围环境模型,并且必要时可以在运行中(例如根据所检测的距离数据或者说当在自身对象100的周围环境110中的对象150低于至自身对象100的距离时)对周围环境的显示进行匹配。优选地,从沿自身对象100的行驶方向从斜上到三维网格结构300的观察者视角显示周围环境模型。在本发明的一个可选构型中可以设置,根据自身对象100与自身对象100的周围环境110中的对象150之间的所检测的距离数据来匹配矩形的三维网格结构300。为此,例如对三维网格结构300的区域进行匹配,也就是说,使其升高和/或弯曲,由此,网格结构300的经匹配的区域表示对象150。
在图3b中,从另一观察者视角示出图3a中的三维网格结构300。三维网格结构的区域340表示第一和第二摄像机图像的重叠区域121。在该实施例中,区域340布置在三维网格结构300的角部区域中。在表示重叠区域121的区域340中布置有预给定点350。可以设置多个预给定点(例如数量大于一百)。给每个预给定点250分配第一摄像机图像的图像像素的颜色信息以及第二摄像机图像的图像像素的第二颜色信息。因此,在预给定点350处可以确定第一与第二摄像机图像的图像点之间的颜色信息差异。底面301和侧面302都在表示重叠区域121的区域340中具有预给定点350。可能的是,预给定点位于网格结构300的根据距离数据匹配的区域340中。在一种实施方案中可以设置,根据在至自身对象100的横向距离区域内的预给定点和/或具有大于预给定高度的预给定点来执行品质值的求取和/或颜色变换矩阵的确定。在每个预给定点350处确定第一摄像机图像与第二摄像机图像之间的颜色信息差异。此外,在每个预给定点350处,随后根据在该预给定点处确定的颜色信息差异来求取该预给定点的品质值。根据每个预给定点350的所求取的颜色信息差异来确定280颜色变换矩阵,其中,根据在该预给定点处的相应品质值对相应预给定点350的颜色信息差异进行加权。在本发明的扩展方案中可以设置,确定预给定点350的周围环境360中的颜色信息差异和/或确定沿着相应预给定点的对极线370的区域的颜色信息差异,并且根据周围环境360中的和/或沿着相应预给定点350的对极线370的区域所确定的颜色信息差异来求取品质值。在另一实施方案中可以设置,附加地根据所检测的距离数据来确定280颜色变换矩阵,其中,例如附加地根据距离数据来对预给定点350进行加权。
在图3c中示出具有盆形的替代三维网格结构300。自身对象100(尤其车辆)作为合成对象布置在盆形网格结构300的中心。周围环境模型的显示299可以包括这种盆形的网格结构300,其中,可以从任意观察者视角进行显示。可以将摄像机图像投影到盆形网格结构300上。在盆形网格结构300的表示摄像机图像之间的重叠区域121、122、123、124的区域340中分别布置有预给定点350。表示重叠区域121的区域340的预给定点分别用于求取颜色信息差异以及用于确定品质值和颜色变换矩阵。在本发明的一个可选构型中可以设置,根据自身对象100与自身对象100的周围环境110中的对象150之间的所检测的距离数据对盆形网格结构300进行匹配。为此,例如对盆形网格结构300的区域进行匹配,也就是说,使其升高和弯曲,由此网格结构300的这些经匹配的区域表示对象150。
给两个摄像机的重叠区域中的或者说网格结构上的预给定点分别分配两个颜色信息,也就是说,分配第一摄像机图像的第一颜色信息和第二摄像机图像的第二颜色信息。将RGB颜色空间(例如sRGB)中的矢量假设为颜色信息,其中,颜色信息例如包括各个颜色值(红、绿和蓝)。在摄像机图像中可能存在非线性效果、例如摄像机渐晕(在图像边缘区域中的阴影)和/或色调映射。为了确定后续的颜色变换矩阵,可以可选地使预给定点处的颜色信息或相应颜色值线性化。如果摄像机例如具有显著渐晕,则补偿该渐晕是有利的。这种渐晕例如仅被考虑为一维的,并且从图像中心径向地增大,并且例如由6次多项式良好地近似:f(r)=1+ar2+br4+cr6,必须确定其中的3个系数(a,b,c)。在此,半径r是相对于图像中心(0.5,0.5)而言。然后,可以校正图像中的输入颜色值/>
为了使摄像机图像线性化,应当已知摄像机特性曲线。
作为替代方案,简单的伽马校正通常足够:参数Gamma(γ)通常是1.0至3.0之间的值。
例如可以直接借助最小二乘法根据预给定点和分别分配的颜色信息来求解颜色变换矩阵(下面称为变量x)。在此,在重叠区域中的预给定点处使第一和第二摄像机图像的两个图像点的颜色信息对应:
在此,源图像(1)与目标图像(2)中的在相应像素位置处的两个点之间的第i个(RGB)颜色对应是:
此外,还将品质值作为权重(W)一起纳入到颜色变换矩阵的求取中。于是,该问题可以在数学上按照如下方式表达:
其中,x是所寻求的最佳颜色变换矩阵(例如12个参数矢量),W是具有所计算的品质值w(p1,i,p2,i)的归一化对角矩阵。其他变量定义如下:
g=[1,0,0,0,0,1,0,0,0,0,1,0]T.
该方程的解借助标准方程紧凑地定义:
x=(ATA+λ*FTF)-1*(ATb+λ*FTg)
=(A′TA′)-1*(A′Tb′)
其中,
例如,将λ置于0.01至1.00之间。矩阵W不被明确表示出,而是直接与矩阵A和矢量b相乘,也就是说,使第一摄像机图像的颜色信息和第二摄像机图像的颜色信息/>直接与相应品质值w(p1,i,p2,i)相乘。
为了更平滑地、无闪烁地显示(299)周围环境模型,值得推荐的是:在时间上对所计算的颜色变换矩阵进行滤波。例如,可以将当前的颜色变换矩阵(xt)与前一个时间步长的颜色变换矩阵(xt-1)进行指数平均:
xt=a*x+(1-a)*xt-1
a的合适值例如处于0.1至0.5之间。
示例性描述的方法用于在线性RGB颜色空间中求取颜色变换矩阵。替代地,可以在另一颜色空间中(例如YUV或CIELab)或者替代地在灰度值方面确定颜色变换矩阵。
对于该方法,在步骤270中可以以不同方式和方法求取品质值。稳健的品质值对第一与第二摄像机图像之间的颜色信息差异或错误颜色对应性(例如不属于相同对象或场景点的预给定点处的颜色信息)较低地加权,并且对其他较高地加权。下面提出的(作为品质值的)对极性品质度量利用关于摄像机的安装校准的现有知识,并且计算在第一和/或第二摄像机图像中沿着对极线(或曲线)的颜色信息的方差,其中,相应的对极线被分配给网格结构的或另一摄像机图像的预给定点。这些对极线由于彼此固定的摄像机而被预给定,并且也可以从存储器中读取这些对极线。沿着这些对极线,在步骤260中和/或在步骤270中例如在第二摄像机图像中针对预给定点分别扫描相应数量的颜色信息(例如n=30),并且由此针对每个颜色通道(红、绿、蓝)确定方差并且将其分配给相应的预给定点。接下来,根据颜色信息沿着对极线在相应预给定点处的方差来确定颜色差异和/或品质值。例如,按照如下方式计算颜色通道的品质值:
其中,是对极线的开始和结束像素坐标,/>是沿着对极线的平均颜色值,s是缩放因子(例如s=8),σ是品质值的最小允许值(例如0.05)。对于鱼眼摄像机,对极几何不是线而是曲线。然而,这可以通过两个对极线部段来近似:/>和/>(代替切线)。针对预给定点和颜色通道计算的这种品质值可以直接用于颜色变换矩阵的计算(如前面描述的那样)。

Claims (9)

1.一种用于显示自身对象的周围环境模型的方法,所述方法至少具有以下步骤:
借助第一摄像机(101)检测(230)第一摄像机图像;
借助第二摄像机(102)检测(240)第二摄像机图像,其中,所述第一摄像机图像和所述第二摄像机图像具有重叠区域(121),并且所述第一摄像机图像和所述第二摄像机图像分别包括多个图像点,所述图像点分别具有颜色信息;
检测(210)所述自身对象(100)与所述自身对象(100)的周围环境中的对象(150)之间的距离数据;
根据所检测的距离数据匹配(220)三维网格结构(300);
根据分别预给定的分配规则将所述第一摄像机图像的图像点和所述第二摄像机图像的图像点至少分配(250)给经匹配的三维网格结构(300)的预给定点(350),其中,将所述预给定点(350)布置在所述三维网格结构(300)的如下区域(340)中:所述区域表示所述重叠区域(121);
针对所述三维网格结构(300)的每个预给定点(350),根据所述第一摄像机图像和第二摄像机图像的在那里分配的颜色信息求取(260)颜色信息差异;
根据在相应的预给定点(350)处求取的颜色信息差异求取(270)品质值;
根据所求取的多个颜色信息差异确定(280)全局颜色变换矩阵,其中,分别根据所述预给定点(350)的所属的品质值对所求取的颜色信息差异进行加权;
根据所确定的全局颜色变换矩阵来匹配(290)所述第二摄像机图像的至少一个部分区域;
根据经匹配的三维网格结构(300)、所述第一摄像机图像的至少一个部分区域和经匹配的第二摄像机图像的至少一个部分区域来显示(299)所述自身对象的周围环境模型。
2.根据权利要求1所述的方法,其特征在于,附加地根据所检测的距离数据求取(270)所述品质值和/或确定(280)所述全局颜色变换矩阵。
3.根据权利要求2所述的方法,其特征在于,仅根据所述三维网格结构(300)的如下预给定点的颜色差异确定(280)所述全局颜色变换矩阵:所述预给定点位于大于或等于至所述自身对象(100)的最小距离和/或小于或等于至所述自身对象的预给定的横向距离的区域内。
4.根据权利要求1至3中任一项所述的方法,其特征在于,执行以下步骤:
在所述第一摄像机图像中和/或在所述第二摄像机图像中识别(245)部段;
附加地根据所识别的部段求取(270)所述品质值。
5.根据权利要求1至3中任一项所述的方法,其特征在于,附加地根据所述第一摄像机图像和/或所述第二摄像机图像的在相应的预给定点(350)的周围环境(360)中的多个颜色信息求取(260)所述颜色信息差异和/或求取(270)所述品质值。
6.根据权利要求1至3中任一项所述的方法,其特征在于,附加地根据所述第一摄像机图像和/或所述第二摄像机图像的沿着相应的预给定点(350)的对极线(370)的至少一个区域的多个颜色信息求取(260)所述颜色信息差异和/或求取(270)所述品质值。
7.根据权利要求1至3中任一项所述的方法,其特征在于,在表示所述重叠区域(121)的区域中,共同模型的显示包括所述第一摄像机图像或经匹配的第二摄像机图像或所述第一摄像机图像和所述第二摄像机图像的组合。
8.一种控制设备,其用于执行根据权利要求1至7中任一项所述的方法。
9.一种车辆,其具有根据权利要求8所述的控制设备。
CN201980056469.8A 2018-08-29 2019-06-19 用于显示周围环境的模型的方法、控制设备和车辆 Active CN112640413B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102018214602.0 2018-08-29
DE102018214602.0A DE102018214602B3 (de) 2018-08-29 2018-08-29 Verfahren zur Anzeige eines Modells einer Umgebung, Steuergerät und Fahrzeug
PCT/EP2019/066165 WO2020043342A1 (de) 2018-08-29 2019-06-19 Verfahren zur anzeige eines modells einer umgebung, steuergerät und fahrzeug

Publications (2)

Publication Number Publication Date
CN112640413A CN112640413A (zh) 2021-04-09
CN112640413B true CN112640413B (zh) 2023-10-13

Family

ID=67001785

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980056469.8A Active CN112640413B (zh) 2018-08-29 2019-06-19 用于显示周围环境的模型的方法、控制设备和车辆

Country Status (5)

Country Link
US (1) US11323618B2 (zh)
EP (1) EP3844943B1 (zh)
CN (1) CN112640413B (zh)
DE (1) DE102018214602B3 (zh)
WO (1) WO2020043342A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112930557A (zh) * 2018-09-26 2021-06-08 相干逻辑公司 任何世界视图生成
DE102021211710A1 (de) 2021-10-18 2023-04-20 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ausgeben eines Steuersignals an eine fahrzeugseitige Anzeigeeinheit eines zumindest eine erste und eine zweite Kameraeinheit umfassenden Fahrzeugs
DE102021212569A1 (de) 2021-11-09 2023-05-11 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zur Anzeige eines Modells einer Umgebung eines Fahrzeugs, Computerprogramm, Steuergerät und Fahrzeug

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107121132A (zh) * 2016-02-25 2017-09-01 罗伯特·博世有限公司 求取车辆环境图像的方法和设备及识别环境中对象的方法
WO2017153284A1 (de) * 2016-03-08 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildverarbeitungsverfahren, bildverarbeitungsmittel und bildverarbeitungsvorrichtung zur erzeugung von abbildungen eines teils eines dreidimensionalen raums
WO2018133996A1 (de) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Verfahren zum kombinieren einer vielzahl von kamerabildern

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5523954B2 (ja) * 2010-06-30 2014-06-18 富士通テン株式会社 画像表示システム
EP2629506A1 (en) * 2012-02-15 2013-08-21 Harman Becker Automotive Systems GmbH Two-step brightness adjustment in around-view systems
DE102013211650A1 (de) * 2013-06-20 2014-12-24 Continental Automotive Gmbh Verfahren und Vorrichtung zum Anpassen eines Bildparameters
EP2846532A1 (en) * 2013-09-06 2015-03-11 Application Solutions (Electronics and Vision) Limited System, device and method for displaying a harmonised combined image
US9509909B2 (en) * 2013-11-18 2016-11-29 Texas Instruments Incorporated Method and apparatus for a surround view camera system photometric alignment
EP3105920B1 (en) 2014-02-11 2020-07-22 Robert Bosch GmbH Brightness and color matching video from multiple-camera system
CN106254844B (zh) 2016-08-25 2018-05-22 成都易瞳科技有限公司 一种全景拼接颜色校正方法
DE102016121755A1 (de) * 2016-11-14 2018-05-17 Connaught Electronics Ltd. Verfahren zum Bestimmen eines zusammengesetzten Bilds eines Umgebungsbereichs eines Kraftfahrzeugs mit Anpassung von Helligkeit und/oder Farbe, Kamerasystem sowie Krafzfahrzeug

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107121132A (zh) * 2016-02-25 2017-09-01 罗伯特·博世有限公司 求取车辆环境图像的方法和设备及识别环境中对象的方法
WO2017153284A1 (de) * 2016-03-08 2017-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bildverarbeitungsverfahren, bildverarbeitungsmittel und bildverarbeitungsvorrichtung zur erzeugung von abbildungen eines teils eines dreidimensionalen raums
WO2018133996A1 (de) * 2017-01-23 2018-07-26 Robert Bosch Gmbh Verfahren zum kombinieren einer vielzahl von kamerabildern

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李洋洋 ; 赵刚 ; 刘利 ; 刘钊 ; .多摄像机图像拼接视觉归一化技术研究.计算机工程与应用.2013,(第20期), *

Also Published As

Publication number Publication date
DE102018214602B3 (de) 2019-11-28
WO2020043342A1 (de) 2020-03-05
US11323618B2 (en) 2022-05-03
EP3844943B1 (de) 2023-03-15
CN112640413A (zh) 2021-04-09
EP3844943A1 (de) 2021-07-07
US20210321038A1 (en) 2021-10-14

Similar Documents

Publication Publication Date Title
KR101742120B1 (ko) 영상 처리 장치 및 방법
CN112640413B (zh) 用于显示周围环境的模型的方法、控制设备和车辆
US8374428B2 (en) Color balancing for partially overlapping images
US20210152796A1 (en) Image calibration for projected images
EP3474236A1 (en) Image processing device
US8831359B2 (en) Apparatus and method for refining a value of a similarity measure
JP2022059013A (ja) 情報処理装置、認識支援方法およびコンピュータプログラム
JP7460579B2 (ja) 暗い画像の強調
CN112200848B (zh) 低光照弱对比复杂环境下的深度相机视觉增强方法及系统
CN110866882A (zh) 基于深度置信度的分层联合双边滤波深度图修复算法
CN114697623A (zh) 投影面选取和投影图像校正方法、装置、投影仪及介质
CN114339185A (zh) 用于车辆相机图像的图像彩色化
US8908994B2 (en) 2D to 3d image conversion
CN111383254A (zh) 一种深度信息获取方法、系统及终端设备
WO2008102296A2 (en) Method for enhancing the depth sensation of an image
CN110782400A (zh) 一种自适应的光照均匀实现方法和装置
CN113421183B (zh) 车辆环视全景图的生成方法、装置、设备和存储介质
CN107403448B (zh) 代价函数生成方法和代价函数生成装置
CN101510306A (zh) 一种视频图像照度分布估计方法
KR20180064028A (ko) 영상 처리 방법 및 장치
KR101507642B1 (ko) 평가 전달량에 기초한 안개 영상 보상 방법
JP4359662B2 (ja) カラー画像の露出補正方法
Shinozaki et al. Correction of color information of a 3D model using a range intensity image
JP6565513B2 (ja) 色補正装置、色補正方法及び色補正用コンピュータプログラム
JP5050141B2 (ja) カラー画像の露出評価方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant