CN111225159A - 用于相机盲区中的物体检测的方法和设备 - Google Patents
用于相机盲区中的物体检测的方法和设备 Download PDFInfo
- Publication number
- CN111225159A CN111225159A CN201910424657.3A CN201910424657A CN111225159A CN 111225159 A CN111225159 A CN 111225159A CN 201910424657 A CN201910424657 A CN 201910424657A CN 111225159 A CN111225159 A CN 111225159A
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- capturing
- vehicle
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000001514 detection method Methods 0.000 title claims abstract description 17
- 230000004044 response Effects 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims description 6
- 230000035945 sensitivity Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/741—Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/75—Circuitry for compensating brightness variation in the scene by influencing optical camera components
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0242—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
本申请总体上涉及一种用于在机动车辆中的相机盲点内进行物体检测的方法和设备。具体地,该系统可操作以确定图像内的盲点,调整相机的动态范围,并且响应于调整的动态范围来检测物体。
Description
技术领域
本公开总体涉及一种相机,并且更具体地,包括在车辆上使用的相机。更具体地,本公开的各方面涉及用于通过使用具有和不具有位置相关信息的具有不同光学特性的多个相机来克服由于照明的剧烈变化(诸如阴影和亮光)引起的相机黑障(blackout)或白障(whiteout)的系统、方法和装置。
背景技术
随着自主车辆或车辆上的自动驾驶辅助功能变得越来越普遍,补偿不同的照明条件对于确保对车辆的适当控制和处理将是必要的。车辆系统采用的数字相机通过镜头接收光,并且可以将入射光线转换成电子信号,以显示、评估或存储由光线限定的图像。当在室外使用时,入射光线可受到强光源(诸如太阳或另一明亮的光源)的影响。当通过相机镜头进入的光包括来自这种光源的光时,辨别周围环境细节的能力可能降低。现有的相机系统可以自动调整其光圈以控制到达图像传感器的光,从而降低强光源的影响。然而,这会使图像整体变暗,并且可导致过滤掉重要的图像细节。
例如,用于自主车辆或自动驾驶辅助系统的相机在进入和离开隧道或建筑物或山丘的强阴影时可能经历黑障和白障。根据这些限制,物体跟踪经常丢失目标或经历跟踪性能的降低。这可能导致不必要的警报或制动以及客户对相机仅有功能的不满意。期望克服这些问题以减少对于车辆相机的相机盲区。
在该背景技术部分中公开的上述信息仅用于增强对本发明背景的理解,并且因此其可包含不构成在本国本领域普通技术人员已知的现有技术的信息。
发明内容
本文公开了用于规定车辆感测和控制系统的物体检测方法和系统以及相关的控制逻辑,用于制造这种系统的方法和用于操作这种系统的方法,以及配备有车载传感器和控制系统的机动车辆。作为示例而非限制,本文公开了具有可配置的相机特性(诸如光圈和灵敏度)的相机系统的各种实施方案。
根据本发明的一个方面,一种设备,包括用于捕获第一图像和第二图像的第一相机,其中,第一相机具有第一可调参数;处理器,用于检测第一图像内的低亮度区域,产生第一控制信号以调整第一可调参数,检测第二图像内的物体并且响应于物体而产生第二控制信号;以及车辆控制器,用于响应于第二控制信号而控制驾驶辅助车辆。
根据本发明的另一方面,一种设备,包括:具有可调动态范围的第一相机,用于捕获第一图像和第三图像;具有固定动态范围的第二相机,用于捕获第二图像;图像处理器,用于检测第一图像和第二图像内的盲点,该图像处理器进一步可操作以产生控制信号,用于调整可调动态范围并且控制第三图像的捕获,该图像处理器进一步可操作用于检测第二图像和第三图像内的物体;以及车辆控制器,用于响应于对物体的检测而控制车辆。
根据本发明的另一方面,一种方法,包括接收激活辅助驾驶算法的请求;用第一相机捕获第一张图像;检测第一图像内的低亮度区域;调整第一相机上的第一参数;用第一相机捕获第二图像;检测第二图像内的物体;以及响应于对第一物体的检测,控制车辆。
根据以下结合附图对优选实施方案的详细描述,本公开的上述优点和其他优点和特征将变得显而易见。
附图说明
通过参考下面结合附图对本发明实施方案的描述,本发明的上述和其他特征和优点以及实现他们的方式将变得更加显而易见,并且将更好地理解本发明,其中:
图1例示了根据本公开的实施方案的用于机动车辆中的相机盲区中的物体检测的方法和设备的示例性应用;
图2示出了例示根据本公开的实施方案的用于机动车辆中的相机盲区中的物体检测的示例性系统的框图;
图3示出了例示根据本公开的实施方案的用于相机盲区中的物体检测的示例性方法的流程图。
本文阐述的示例说明了本发明的优选实施方案,并且这些示例不应被解释为以任何方式限制本发明的范围。
具体实施方式
在本文描述了本公开的实施方案。然而,应该理解,所公开的实施方案仅仅是示例,并且其他实施方案可以采用各种和替代形式。这些附图不一定按比例;某些特征可能被放大或缩小,以示出特定部件的细节。因此,本文公开的具体结构和功能细节不应被解释为限制性的,而仅仅是代表性的。参考附图中的任何一个示出和描述的各种特征可以与一个或多个其他附图中示出的特征组合,以产生未明确示出或描述的实施方案。所示特征的组合提供了典型应用的代表性实施方案。然而,对于特定应用或实施方式,与本公开的教导一致的特征的各种组合和修改可能是期望的。
图1示意性地示出了根据本公开的用于机动车辆100中的相机盲区中的物体检测的方法和设备的示例性应用。在该示例性实施方案中,车辆150沿着接近隧道120的道路130行进。隧道120可以在立交桥140等下面。在该示例性实施方案中,太阳110以低角度位于车辆前方,并且因此位于安装在车辆150上的任何前置相机的视场内。由于太阳110位于相机的视场内,所以与隧道120内的光的对比度很大,并且因此隧道内的要被相机检测的任何东西都可能为暗的。车辆中的驾驶辅助系统可以跟踪车辆150前方的物体,但是当物体进入隧道120时,由于隧道120的黑暗,相机失去物体的视线。
在辅助驾驶系统经历黑障或白障的情况下,当进入或离开隧道或建筑物或山丘的强阴影时,系统可能失去对物体的跟踪。然后,系统可能响应于缺少物体信息而限制自主功能。该示例性系统可操作以通过利用对于每个相机具有不同特性的立体相机来解决由于相机引起的黑障或白障而导致的失去跟踪的物体的问题。例如,一个或多个相机可以具有红外功能,并且IR相机可以用于密切跟踪隧道和阴影的起点和结束点周围的物体。另外,系统可以配备至少一个相机的性能,以应对由于隧道或来自地形或基础结构的强阴影而引起的即将出现的剧烈亮度变化,其中,该方法可操作以融合来自那些相机的物体信息。例如,可以设置一个相机用于低光检测,并且设置一个相机用于亮光检测。然后,该方法可以融合来自每个相机的物体信息以保持对目标物体的跟踪。
现在转向图2,示出了展示用于机动车辆200中的相机盲区中的物体检测的示例性系统的框图。示例性系统包括图像处理器210、第一相机220、第二相机230和车辆控制器260。第一相机220和第二相机230可以安装在车辆上的不同位置处,其中,第一相机220和第二相机230中的每一个具有前视野。第一相机220可以是高动态范围相机、红外相机等。高动态范围相机能够比有限曝光范围或标准动态范围的相机以更大的光度范围成像。红外相机或热成像相机使用红外辐射产生热区图像。在该示例性实施方案中,第二相机230可以是标准动态范围相机以降低整个系统的成本,但是任选地也可以是高动态范围相机等。
图像处理器210可操作以从第一相机220和第二相机230接收图像。图像处理器210可以将这些图像组合成具有高动态范围的单个图像,或者可以单独处理这两个图像并将该信息发送到车辆控制器260。图像处理器210进一步可操作以产生控制信号以耦合到第一相机220和第二相机230中的每一个,以便调整相机的参数。例如,图像处理器210可以根据先前图像确定暗区在某个距离内正在接近,在该距离内相机的当前设置不能检测在暗区情况下的物体。然后,图像处理器210可以产生控制信号,以指示第一相机220调整其检测范围或灵敏度,以便以不检测亮区内的物体的代价检测暗区内的物体。亮区内的物体将继续由第二相机230检测。
在另一示例性实施方案中,图像处理器210可以从车辆控制器260接收数据信号,该数据信号指示失去对进入亮区(诸如离开隧道)的物体的跟踪。然后,图像处理器210可以产生控制信号,该控制信号指示第一相机220改变灵敏度或其他参数,以便检测亮区内的物体。然后,车辆控制器260可操作以接收高动态范围图像、一对图像或指示相机视场内的物体的数据,并且跟踪接近车辆的物体。在配备有辅助驾驶系统的车辆中,车辆处理器然后可操作以响应于跟踪的物体以及其他因素来控制车辆。在一些示例性实施方案中,车辆处理器260可以执行图像处理器210的任务。在一些实例中,车辆控制器可用于从车辆处理器接收命令,以控制车辆的转向、加速和制动。
现在转向图3,示出了展示用于机动车辆中的相机盲区中的物体检测的示例性方法300的流程图。示例性方法300首先可操作以响应于来自车辆控制器的命令而启动第一相机和第二相机310。响应于车辆的辅助驾驶功能的激活或响应于车辆的激活,可发出该命令。
该方法然后可操作以从第一相机捕获至少第一图像320。然后分析图像315,以检测图像内可能是高亮度对比暗区域的区域,诸如在隧道内。如果检测到高亮度对比区域,则该方法可操作以调整相机ISO、光圈或曝光中的至少一个。这将导致相机检测器接收的亮度或检测到的亮度范围的调整。该方法然后从第一相机捕获至少第一图像310。如果未检测到没有高亮度对比的区域325,则该方法可操作以检测图像内的物体325。如果检测到物体,则该方法可操作以修改物体跟踪参数335,诸如物体速度、轨迹等。然后,该方法可操作以更新跟踪器340并返回以捕获另一图像310。如果未检测到物体,则更新跟踪器340,并且该方法可操作以捕获另一图像310。
应该强调的是,可以对本文描述的实施方案进行许多变化和修改,其中的要素应被理解为是其他可接受的示例。所有这些修改和变化旨在包括在本公开的范围内并且由所附权利要求保护。此外,本文描述的任何步骤可以同时或以与本文所排序的步骤不同的顺序进行。此外,应该显而易见的是,本文公开的具体实施方案的特征和属性可以以不同方式组合以形成附加的实施方案,所有这些都落入本公开的范围内。
除非另有说明,或者在所使用的上下文中以其他方式理解,否则在本文使用的条件语言(诸如尤其是“可以(can)”、“可以(could)”、“可能”、“可以(may)”、“例如”等)通常旨在表达某些实施方案包括(而其他实施方案不包括)某些特征、要素和/或状态。因此,这种条件语言通常不旨在暗示一个或多个实施方案以任何方式需要特征、要素和/或状态,或者一个或多个实施方案必须包括用于在有或没有作者输入或提示的情况下决定这些特征、元素和/或状态包括在任何特定实施方案中或将在任何特定实施方案中执行的逻辑。
此外,本文可使用以下术语。除非上下文另有明确规定,否则单数形式“一个/种(a)”,“一个/种(an)”和“该”包括复数指代物。因此,例如,对项的引用包括对一个或多个项的引用。术语“那些(ones)”是指一个、两个或更多个,并且通常适用于选择数量中的一些或全部。术语“多个”是指项中的两个或更多个。术语“约”或“近似”意指数量、尺寸、大小、成分、参数、形状和其他特性不需要精确,但可以根据需要近似和/或更大或更小,从而反映可接受的公差、转换因子、四舍五入、测量误差等以及本领域技术人员已知的其他因素。术语“基本上”意指所述特性、参数或值不需要精确地实现,而是可以以一定量出现偏差或变化(包括例如公差、测量误差、测量精度限制和本领域技术人员已知的其他因素),并不排除该特征旨在提供的效果。
数值数据可以以范围格式表达或呈现。应当理解,这种范围格式仅仅是为了方便和简洁而使用,并且因此应该灵活地解释为不仅包括明确列举为范围限制的数值,而且还解释为包括该范围内包含的所有单个数值或子范围,犹如每个数值和子范围被明确地列举。作为说明,“约1至5”的数值范围应该被解释为不仅包括明确列举的约1至约5的值,而且还应该被解释为还包括在指示范围内的单个值和子范围。因此,包括在该数值范围内的是诸如2、3和4的单个值以及诸如“约1至约3”、“约2至约4”、“约3至约5”、“1至3”、“2至4”、“3至5”等的子范围。该相同原理适用于仅列举一个数值(例如,“大于约1”)的范围,并且无论范围的宽度或所描述的特性如何都应该适用。为方便起见,可以在公共列表中呈现多个项目。然而,这些列表应该被解释为好像列表中的每个成员都被单独标识为唯一且独特的构件。因此,仅基于这些成员在共同组中的呈现而没有相反的指示,不应将这种列表中的单个成员理解为事实上等同于同一列表中的任何其他成员。此外,当术语“和”和“或”与项目列表结合使用时,他们应被广义地解释,因为所列出的项目中的任何一个或多个可以单独使用或与其他列出的项目组合使用。术语“可替换地”是指选择两个或更多个替代方案中的一个,并且不旨在将选择仅限于那些列出的替代方案或者仅限于一次所列出的替代方案中的一个,除非上下文另有明确说明。
本文公开的过程、方法或算法可以由处理装置、控制器或计算机提供/实现,该处理装置、控制器或计算机可以包括任何现有的可编程电子控制单元或专用电子控制单元。类似地,过程、方法或算法可以存储为可由控制器或计算机以许多形式执行的数据和指令,包括但不限于永久存储在不可写存储介质(诸如ROM装置)上的信息和可改变地存储在可写存储介质(诸如软盘、磁带、CD、RAM装置和其他磁性和光学介质)上的信息。这些过程、方法或算法也可以在软件可执行对象中实现。可替换地,可以使用合适的硬件部件全部或部分地实现过程、方法或算法,诸如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、控制器或其他硬件部件或装置或硬件、软件和固件部件的组合。这种示例装置可以作为车辆计算系统的一部分在车上或者在车外定位并且与一个或多个车辆上的装置进行远程通信。
虽然上文描述了示例性实施方案,但这些实施方案不旨在描述权利要求所包含的所有可能的形式。说明书中使用的词语是描述性词语而不是限制性词语,并且应当理解,在不脱离本公开的精神和范围的情况下,可以进行各种改变。如前所述,各种实施方案的特征可以组合以形成可未明确描述或说明的本公开的其他示例性方面。虽然各种实施方案可以被描述为关于一个或多个期望特性提供优点或优于其他实施方案或现有技术实施方式,但是本领域普通技术人员认识到,可以折中一个或多个特征或特性以实现期望的整体系统属性,这取决于具体的应用和实施方式。这些属性可以包括但不限于成本、强度、耐久性、生命周期成本、可销售性、外观、包装、尺寸、可维护性、重量、可制造性、易于组装等。因此,被描述为关于一个或多个特性相比于其他实施方案或现有技术实施方式不太期望的实施方案不在本公开的范围之外,并且对于特定应用可以是期望的。
Claims (10)
1.一种设备,包括:
-第一相机,用于捕获第一图像和第二图像,其中,第一相机具有第一可调参数;
-处理器,用于检测第一图像内的低亮度区域,产生第一控制信号以调整第一可调参数,检测第二图像内的物体并且响应于所述物体而产生第二控制信号;以及
-车辆控制器,用于响应于第二控制信号而控制驾驶辅助车辆。
2.根据权利要求1所述的设备,进一步包括用于捕获第三图像的第二相机,并且其中,响应于第二图像和第三图像,产生第二控制信号。
3.根据权利要求1所述的设备,其中,第一可调参数是曝光时间。
4.根据权利要求1所述的设备,其中,第一可调参数是灵敏度。
5.根据权利要求1所述的设备,其中,第一可调参数是光度范围。
6.根据权利要求1所述的设备,其中,所述低亮度区域表示第一相机的视场内的阴影。
7.根据权利要求1所述的设备,进一步包括第二相机,其中,第二相机是红外相机。
8.一种方法,包括:
-接收激活辅助驾驶算法的请求;
-用第一相机捕获第一张图像;
-检测第一图像内的低亮度区域;
-调整第一相机上的第一参数;
-用第一相机捕获第二图像;
-检测第二图像内的物体;以及
-响应于对第一物体的检测,控制车辆。
9.根据权利要求8所述的方法,进一步包括用第二相机捕获第三图像,并且其中,响应于第二图像和第三图像,检测所述物体。
10.一种设备,包括:
-具有可调动态范围的第一相机,用于捕获第一图像和第三图像;
-具有固定动态范围的第二相机,用于捕获第二图像;
-图像处理器,用于检测第一图像和第二图像内的盲点,所述图像处理器进一步可操作以产生控制信号,用于调整所述可调动态范围并且控制第三图像的捕获,所述图像处理器进一步可操作用于检测第二图像和第三图像内的物体;以及
-车辆控制器,用于响应于对所述物体的检测而控制车辆。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/201,177 US20200169671A1 (en) | 2018-11-27 | 2018-11-27 | Method and apparatus for object detection in camera blind zones |
US16/201,177 | 2018-11-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111225159A true CN111225159A (zh) | 2020-06-02 |
Family
ID=70546082
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910424657.3A Pending CN111225159A (zh) | 2018-11-27 | 2019-05-21 | 用于相机盲区中的物体检测的方法和设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20200169671A1 (zh) |
CN (1) | CN111225159A (zh) |
DE (1) | DE102019116058A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102649032B1 (ko) * | 2019-04-26 | 2024-03-20 | 엘지전자 주식회사 | 자율주행 차량의 영상 처리 방법 |
US20230171510A1 (en) * | 2020-07-15 | 2023-06-01 | Arriver Software Ab | Vision system for a motor vehicle |
US11924527B2 (en) * | 2022-05-10 | 2024-03-05 | GM Global Technology Operations LLC | Optical sensor activation and fusion |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080036576A1 (en) * | 2006-05-31 | 2008-02-14 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
US20130229521A1 (en) * | 2010-07-19 | 2013-09-05 | Hella Kgaa Hueck & Co. | Method and device for recognising pulsing light sources |
US20130321627A1 (en) * | 2012-05-31 | 2013-12-05 | John C. Turn, JR. | Road departure sensing and intelligent driving systems and methods |
CN108513059A (zh) * | 2017-02-24 | 2018-09-07 | 三星电子株式会社 | 图像处理方法、设备以及自动驾驶车辆 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9066017B2 (en) * | 2013-03-25 | 2015-06-23 | Google Inc. | Viewfinder display based on metering images |
US10868981B2 (en) * | 2016-04-27 | 2020-12-15 | Sony Corporation | Shooting control apparatus, shooting control method, and shooting apparatus |
JP2017202741A (ja) * | 2016-05-11 | 2017-11-16 | 株式会社東海理化電機製作所 | 車両用視認装置 |
US9880561B2 (en) * | 2016-06-09 | 2018-01-30 | X Development Llc | Sensor trajectory planning for a vehicle |
-
2018
- 2018-11-27 US US16/201,177 patent/US20200169671A1/en not_active Abandoned
-
2019
- 2019-05-21 CN CN201910424657.3A patent/CN111225159A/zh active Pending
- 2019-06-13 DE DE102019116058.8A patent/DE102019116058A1/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080036576A1 (en) * | 2006-05-31 | 2008-02-14 | Mobileye Technologies Ltd. | Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications |
US20130229521A1 (en) * | 2010-07-19 | 2013-09-05 | Hella Kgaa Hueck & Co. | Method and device for recognising pulsing light sources |
US20130321627A1 (en) * | 2012-05-31 | 2013-12-05 | John C. Turn, JR. | Road departure sensing and intelligent driving systems and methods |
CN108513059A (zh) * | 2017-02-24 | 2018-09-07 | 三星电子株式会社 | 图像处理方法、设备以及自动驾驶车辆 |
Also Published As
Publication number | Publication date |
---|---|
DE102019116058A1 (de) | 2020-05-28 |
US20200169671A1 (en) | 2020-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20180334099A1 (en) | Vehicle environment imaging systems and methods | |
JP6176028B2 (ja) | 車両制御システム、画像センサ | |
CN111225159A (zh) | 用于相机盲区中的物体检测的方法和设备 | |
US20120320207A1 (en) | Vehicle night vision support system and control method for the same | |
US7612798B2 (en) | Photographing system for a moving apparatus | |
US9787949B2 (en) | Apparatus to recognize illumination environment of vehicle and control method thereof | |
CN110998596A (zh) | 夜间感测 | |
JP2007257449A (ja) | 道路区画線検出装置 | |
JP2020121717A (ja) | 車両用の間接視システム | |
WO2020184447A1 (ja) | ゲーティングカメラ、自動車、車両用灯具、物体識別システム、演算処理装置、物体識別方法、画像表示システム、検査方法、撮像装置、画像処理装置 | |
US20210011358A1 (en) | Control method and device, gimbal, unmanned aerial vehicle, and computer-readable storage medium | |
US8373754B2 (en) | Method and system for evaluating brightness values in sensor images of image-evaluating adaptive cruise control systems | |
US20080114518A1 (en) | System for the dynamic correction of the orientation of a light source on a vehicle and the associated method | |
US20200167573A1 (en) | Method and apparatus for object detection in camera blind zones | |
JP2019001325A (ja) | 車載用撮像装置 | |
JP7015665B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2007502588A (ja) | カメラ用露光量制御方法および装置 | |
KR101639685B1 (ko) | 카메라용 액티브 필터 장치 및 그 액티브 필터링 방법 | |
CN110113789B (zh) | 车辆传感器之间的动态带宽调节的方法和系统 | |
JP5151814B2 (ja) | 走行区分帯検出装置及び走行区分帯検出装置用プログラム | |
US10990834B2 (en) | Method and apparatus for object detection in camera blind zones | |
US10668856B2 (en) | Display control device for vehicle, display control system for vehicle, display control method for vehicle | |
KR102197196B1 (ko) | 차량용 블랙박스의 초점 제어 장치 및 그 방법 | |
EP4077089B1 (en) | Safe autonomous driving operation with sun glare | |
US12005837B2 (en) | Enhanced illumination-invariant imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20200602 |