CN114257712A - 控制摄像头模组补光时间的方法及装置 - Google Patents
控制摄像头模组补光时间的方法及装置 Download PDFInfo
- Publication number
- CN114257712A CN114257712A CN202011020997.9A CN202011020997A CN114257712A CN 114257712 A CN114257712 A CN 114257712A CN 202011020997 A CN202011020997 A CN 202011020997A CN 114257712 A CN114257712 A CN 114257712A
- Authority
- CN
- China
- Prior art keywords
- photosensitive chip
- image
- target
- determining
- time period
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 230000001502 supplementing effect Effects 0.000 title abstract description 11
- 239000013589 supplement Substances 0.000 claims abstract description 108
- 230000015654 memory Effects 0.000 claims description 37
- 238000001514 detection method Methods 0.000 description 47
- 241000282414 Homo sapiens Species 0.000 description 42
- 230000008569 process Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 22
- 238000012544 monitoring process Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 238000005096 rolling process Methods 0.000 description 13
- 230000006399 behavior Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 238000013500 data storage Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000005286 illumination Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000010267 cellular communication Effects 0.000 description 3
- 238000002485 combustion reaction Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000446 fuel Substances 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- LFQSCWFLJHTTHZ-UHFFFAOYSA-N Ethanol Chemical compound CCO LFQSCWFLJHTTHZ-UHFFFAOYSA-N 0.000 description 2
- ATUOYWHBWRKTHZ-UHFFFAOYSA-N Propane Chemical compound CCC ATUOYWHBWRKTHZ-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 206010021033 Hypomenorrhoea Diseases 0.000 description 1
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 239000002253 acid Substances 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 229910001416 lithium ion Inorganic materials 0.000 description 1
- 230000003137 locomotive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012806 monitoring device Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 239000001294 propane Substances 0.000 description 1
- 230000000979 retarding effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/73—Circuitry for compensating brightness variation in the scene by influencing the exposure time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/743—Bracketing, i.e. taking a series of images with varying exposure conditions
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
Abstract
本申请提供了一种控制摄像头模组补光时间的方法及装置,可应用到自动驾驶领域的智能汽车上。该方法包括:确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。本申请实施例中的方法,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
Description
技术领域
本申请涉及自动驾驶领域,并且更具体地,涉及一种控制摄像头模组补光时间的方法及装置。
背景技术
人工智能(artificial intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式作出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能领域的研究包括机器人,自然语言处理,计算机视觉,决策与推理,人机交互,推荐与搜索,AI基础理论等。
自动驾驶是人工智能领域的一种主流应用,自动驾驶技术依靠计算机视觉、雷达、监控装置和全球定位系统等协同合作,让机动车辆可以在不需要人类主动操作下,实现自动驾驶。自动驾驶的车辆使用各种计算系统来帮助将乘客或货物从一个位置运输到另一位置。一些自动驾驶车辆可能要求来自操作者(诸如,领航员、驾驶员、或者乘客)的一些初始输入或者连续输入。自动驾驶车辆允许操作者从手动模操作式切换到自动驾驶模式或者介于两者之间的模式。由于自动驾驶技术无需人类来驾驶机动车辆,所以理论上能够有效避免人类的驾驶失误,减少交通事故的发生,且能够提高公路的运输效率。因此,自动驾驶技术越来越受到重视。
随着车辆的数量越来越多,自动驾驶的安全性也得到越来越多的关注。目前的自动驾驶技术还无法实现完全的无人驾驶,可以通过监控摄像头对座舱内进行实时监控,以提高自动驾驶的安全性。例如,可以通过红外(infrared,IR)摄像头对驾驶员进行疲劳检测、对座舱内的驾驶员或其他乘客进行行为识别、手势识别以及遗留物检测等。
红外摄像头可以不受可见光的影响,无论在白天或晚上都可以正常工作。传统的红外摄像头在曝光时,以红外光源作为光源,通过卷帘快门(rolling shutter)门对感光芯片中的各个感光芯片行进行逐行曝光,直至所有的感光芯片行均被曝光,则完成一次完整的曝光。但是,这种红外摄像头模组的发热量较高。
发明内容
本申请提供一种控制摄像头模组补光时间的方法及装置,可以降低红外摄像头模组的发热量。
第一方面,提供了一种控制摄像头模组补光时间的方法,所述方法包括:
确定所述摄像头模组在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
其中,所述摄像头模组可以包括摄像头,所述摄像头可以包括感光芯片。
在本申请实施例中,根据所述第一图像中需要进行补光的区域确定第一目标感光芯片行在当前帧的第一曝光时段,在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
同时,本申请实施例中的控制摄像头模组补光时间的方法并未增加或改变摄像头模组中的硬件模块(或单元),而是根据所述第一目标区域确定所述感光芯片在所述当前帧的补光时段(例如,所述第一曝光时段),并在所述当前帧对所述感光芯片进行曝光时,在所述补光时段内进行补光,以减少所述红外光源的工作时间,从而可以在不增加成本的前提下,降低红外摄像头模组的发热量。
进一步地,由于并未增加或改变摄像头模组中的硬件模块(或单元),本申请实施例中的控制摄像头模组补光时间的方法也没有增大摄像头模组的尺寸,有利于该摄像头模组在车内的配置及使用。
可选地,所述摄像头还可以包括红外光源及卷帘快门。
需要说明的是,本申请实施例中的红外光源即可以为所述摄像头的内置的红外光源,也可以为独立的外置的红外光源,本申请实施例中对此并不限定。
结合第一方面,在第一方面的某些实现方式中,所述确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,包括:根据预设的目标对象确定所述第一图像中的所述第一目标区域。
在本申请实施例中,可以根据预设的目标对象灵活地控制所述感光芯片在当前帧的补光时间。
结合第一方面,在第一方面的某些实现方式中,所述第一目标区域为所述第一图像中的人脸区域。
结合第一方面,在第一方面的某些实现方式中,所述感光芯片包括多个感光芯片行,所述第一图像中的多个像素行对应所述多个感光芯片行;其中,所述根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,包括:确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;确定所述第一目标感光芯片行在当前帧的第一曝光时段。
在本申请实施例中,所述第一图像中的多个像素行对应所述多个感光芯片行,根据所述第一图像中处于所述第一目标区域中的像素行可以便携地确定所述第一目标感光芯片行,从而便于确定所述第一目标感光芯片行在当前帧的第一曝光时段。
结合第一方面,在第一方面的某些实现方式中,所述方法还包括:确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域;根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行;在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
在本申请实施例中,基于所述当前帧获取的第二图像中的第二目标区域,对所述感光芯片在所述后续帧的补光时段进行调整,可以提升摄像头模组拍摄的图像的效果。
结合第一方面,在第一方面的某些实现方式中,所述方法还包括:根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;在后续帧对所述感光芯片进行曝光时,根据所述第三曝光时段指示红外光源进行补光。
在本申请实施例中,基于所述第一曝光时段可以便捷地确定后续帧的补光时段(例如,所述第三曝光时段)。
需要说明的是,本申请实施例中的所述第一曝光时段或所述第三曝光时段即可以以相对时间表示,也可以以绝对时间表示。
在以相对时间表示曝光时段的情况下,例如,假设当前帧的曝光起始时刻为T0,所述第一曝光时段可以指:起始时刻为T0+T1,结束时刻为T0+T2的时间段,即第一曝光时段的起始时刻与当前帧的曝光起始时刻之间的间隔为T1,第一曝光时段的结束时刻与当前帧的曝光起始时刻之间的间隔为T2。
类似地,假设后续帧的曝光起始时刻为T3,所述第三曝光时段可以指:起始时刻为T3+T1,结束时刻为T3+T2的时间段,即第三曝光时段的起始时刻与后续帧的曝光起始时刻之间的间隔为T1,第三曝光时段的结束时刻与后续帧的曝光起始时刻之间的间隔为T2。
在以绝对时间表示曝光时段的情况下,例如,假设当前帧的曝光起始时刻为T0,所述第一曝光时段可以指:起始时刻为T4,结束时刻为T5的时间段,此时,第一曝光时段的起始时刻与当前帧的曝光起始时刻之间的间隔为T4-T0=T1,第一曝光时段的结束时刻与当前帧的曝光起始时刻之间的间隔为T5-T0=T2。
同样地,假设后续帧的曝光起始时刻为T3,所述第三曝光时段可以指:起始时刻为T6,结束时刻为T7的时间段,即第三曝光时段的起始时刻与后续帧的曝光起始时刻之间的间隔为T6-T3=T1,第三曝光时段的结束时刻与后续帧的曝光起始时刻之间的间隔为T7-T3=T2。
第二方面,提供了一种控制摄像头模组补光时间的装置,所述装置包括:
第一确定单元,用于确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;第二确定单元,用于根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;指示单元,用于在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
其中,所述摄像头模组可以包括摄像头,所述摄像头可以包括感光芯片。
在本申请实施例中,根据所述第一图像中需要进行补光的区域确定第一目标感光芯片行在当前帧的第一曝光时段,在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
同时,本申请实施例中的控制摄像头模组补光时间的方法并未增加或改变摄像头模组中的硬件模块(或单元),而是根据所述第一目标区域确定所述感光芯片在所述当前帧的补光时段(例如,所述第一曝光时段),并在所述当前帧对所述感光芯片进行曝光时,在所述补光时段内进行补光,以减少所述红外光源的工作时间,从而可以在不增加成本的前提下,降低红外摄像头模组的发热量。
进一步地,由于并未增加或改变摄像头模组中的硬件模块(或单元),本申请实施例中的控制摄像头模组补光时间的方法也没有增大摄像头模组的尺寸,有利于该摄像头模组在车内的配置及使用。
可选地,所述摄像头还可以包括红外光源及卷帘快门。
需要说明的是,本申请实施例中的红外光源即可以为所述摄像头的内置的红外光源,也可以为独立的外置的红外光源,本申请实施例中对此并不限定。
结合第二方面,在第二方面的某些实现方式中,所述第一确定单元具体用于:根据预设的目标对象确定所述第一图像中的所述第一目标区域。
在本申请实施例中,可以根据预设的目标对象灵活地控制所述感光芯片在当前帧的补光时间。
结合第二方面,在第二方面的某些实现方式中,所述第一目标区域为所述第一图像中的人脸区域。
结合第二方面,在第二方面的某些实现方式中,所述感光芯片包括多个感光芯片行,所述第一图像中的多个像素行对应所述多个感光芯片行;其中,所述第二确定单元具体用于:确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;确定所述第一目标感光芯片行在当前帧的第一曝光时段。
在本申请实施例中,所述第一图像中的多个像素行对应所述多个感光芯片行,根据所述第一图像中处于所述第一目标区域中的像素行可以便携地确定所述第一目标感光芯片行,从而便于确定所述第一目标感光芯片行在当前帧的第一曝光时段。
结合第二方面,在第二方面的某些实现方式中,所述第一确定单元还用于:确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域;所述第二确定单元还用于:根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行;所述指示单元还用于:在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
在本申请实施例中,基于所述当前帧获取的第二图像中的第二目标区域,对所述感光芯片在所述后续帧的补光时段进行调整,可以提升摄像头模组拍摄的图像的效果。
结合第二方面,在第二方面的某些实现方式中,所述指示单元还用于:根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;在后续帧对所述感光芯片进行曝光时,根据所述第三曝光时段指示红外光源进行补光。
在本申请实施例中,基于所述第一曝光时段可以便捷地确定后续帧的补光时段(例如,所述第三曝光时段)。
需要说明的是,本申请实施例中的所述第一曝光时段或所述第三曝光时段即可以以相对时间表示,也可以以绝对时间表示。
在以相对时间表示曝光时段的情况下,例如,假设当前帧的曝光起始时刻为T0,所述第一曝光时段可以指:起始时刻为T0+T1,结束时刻为T0+T2的时间段,即第一曝光时段的起始时刻与当前帧的曝光起始时刻之间的间隔为T1,第一曝光时段的结束时刻与当前帧的曝光起始时刻之间的间隔为T2。
类似地,假设后续帧的曝光起始时刻为T3,所述第三曝光时段可以指:起始时刻为T3+T1,结束时刻为T3+T2的时间段,即第三曝光时段的起始时刻与后续帧的曝光起始时刻之间的间隔为T1,第三曝光时段的结束时刻与后续帧的曝光起始时刻之间的间隔为T2。
在以绝对时间表示曝光时段的情况下,例如,假设当前帧的曝光起始时刻为T0,所述第一曝光时段可以指:起始时刻为T4,结束时刻为T5的时间段,此时,第一曝光时段的起始时刻与当前帧的曝光起始时刻之间的间隔为T4-T0=T1,第一曝光时段的结束时刻与当前帧的曝光起始时刻之间的间隔为T5-T0=T2。
同样地,假设后续帧的曝光起始时刻为T3,所述第三曝光时段可以指:起始时刻为T6,结束时刻为T7的时间段,即第三曝光时段的起始时刻与后续帧的曝光起始时刻之间的间隔为T6-T3=T1,第三曝光时段的结束时刻与后续帧的曝光起始时刻之间的间隔为T7-T3=T2。
第三方面,提供了一种摄像头模组,所述摄像头模组包括存储介质和中央处理器,所述存储介质可以是非易失性存储介质,所述存储介质中存储有计算机可执行程序,所述中央处理器与所述非易失性存储介质连接,并执行所述计算机可执行程序以实现所述第一方面或者第一方面的任一可能的实现方式中的方法。
第四方面,提供一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行第一方面或第一方面的任一可能的实现方式中的方法。
可选地,作为一种实现方式,所述芯片还可以包括存储器,所述存储器中存储有指令,所述处理器用于执行所述存储器上存储的指令,当所述指令被执行时,所述处理器用于执行第一方面或第一方面的任一可能的实现方式中的方法。
第五方面,提供一种计算机可读存储介质,所述计算机可读介质存储用于设备执行的程序代码,所述程序代码包括用于执行第一方面或者第一方面的任一可能的实现方式中的方法的指令。
第六方面,提供一种汽车,所述汽车包括上述第二方面所述的控制摄像头模组补光时间的装置或第三方面所述的摄像头模组。
在本申请实施例中,根据所述第一图像中需要进行补光的区域确定第一目标感光芯片行在当前帧的第一曝光时段,在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
附图说明
图1为本申请实施例提供的一种自动驾驶车辆的结构示意图。
图2为本申请实施例提供的一种自动驾驶系统的结构示意图。
图3为本申请实施例适用的一种摄像头模组的结构示意图。
图4为本申请一个实施例提供的控制摄像头模组补光时间的方法的示意性框图。
图5为本申请实施例提供的一种感光芯片的结构示意图。
图6为本申请实施例提供的一种确定当前帧的补光时段的示意性框图。
图7为本申请另一个实施例提供的控制摄像头模组补光时间的方法的示意性框图。
图8为本申请一个实施例提供的计算人脸框对应的感光芯片行的方法的示意性框图。
图9为本申请另一个实施例提供的控制摄像头模组补光时间的方法的示意性框图。
图10为本申请一个实施例提供的计算人体框对应的感光芯片行的方法的示意性框图。
图11为本申请一个实施例提供的控制摄像头模组补光时间的装置的示意性框图。
图12为本申请另一个实施例提供的控制摄像头模组补光时间的装置的示意性框图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行描述。
本申请实施例的技术方案可以应用于各种车辆,该车辆具体可以为内燃机车、智能电动车或者混合动力车,或者,该车辆也可以为其他动力类型的车辆等,本申请实施例对此并不限定。
本申请实施例中的车辆可以为自动驾驶车辆,例如,所述自动驾驶车辆可以配置有自动驾驶模式,该自动驾驶模式可以为完全自动驾驶模式,或者,也可以为部分自动驾驶模式,本申请实施例对此并不限定。
本申请实施例中的车辆还可以配置有其他驾驶模式,所述其他驾驶模式可以包括运动模式、经济模式、标准模式、越野模式、雪地模式及爬坡模式等多种驾驶模式中的一种或多种。所述自动驾驶车辆可以在自动驾驶模式和上述多种(驾驶员驾驶车辆的)驾驶模型之间进行切换,本申请实施例对此并不限定。
图1是本申请实施例提供的车辆100的功能框图。
在一个实施例中,将车辆100配置为完全或部分地自动驾驶模式。
例如,车辆100可以在处于自动驾驶模式中的同时控制自身,并且可通过人为操作来确定车辆及其周边环境的当前状态,确定周边环境中的至少一个其他车辆的可能行为,并确定该其他车辆执行可能行为的可能性相对应的置信水平,基于所确定的信息来控制车辆100。在车辆100处于自动驾驶模式中时,可以将车辆100置为在没有和人交互的情况下操作。
车辆100可包括各种子系统,例如行进系统102、传感器系统104、控制系统106、一个或多个外围设备108以及电源110、计算机系统112和用户接口116。
可选地,车辆100可包括更多或更少的子系统,并且每个子系统可包括多个元件。另外,车辆100的每个子系统和元件可以通过有线或者无线互连。
行进系统102可包括为车辆100提供动力运动的组件。在一个实施例中,推进系统102可包括引擎118、能量源119、传动装置120和车轮/轮胎121。引擎118可以是内燃引擎、电动机、空气压缩引擎或其他类型的引擎组合,例如,气油发动机和电动机组成的混动引擎,内燃引擎和空气压缩引擎组成的混动引擎。引擎118将能量源119转换成机械能量。
能量源119的示例包括汽油、柴油、其他基于石油的燃料、丙烷、其他基于压缩气体的燃料、乙醇、太阳能电池板、电池和其他电力来源。能量源119也可以为车辆100的其他系统提供能量。
传动装置120可以将来自引擎118的机械动力传送到车轮121。传动装置120可包括变速箱、差速器和驱动轴。
在一个实施例中,传动装置120还可以包括其他器件,比如离合器。其中,驱动轴可包括可耦合到一个或多个车轮121的一个或多个轴。
传感器系统104可包括感测关于车辆100周边的环境的信息的若干个传感器。
例如,传感器系统104可包括定位系统122(定位系统可以是GPS系统,也可以是北斗系统或者其他定位系统)、惯性测量单元(inertial measurement unit,IMU)124、雷达126、激光测距仪128以及相机130。传感器系统104还可包括被监视车辆100的内部系统的传感器(例如,车内空气质量监测器、燃油量表、机油温度表等)。来自这些传感器中的一个或多个的传感器数据可用于检测对象及其相应特性(位置、形状、方向、速度等)。这种检测和识别是自主车辆100的安全操作的关键功能。
定位系统122可用于估计车辆100的地理位置。IMU 124用于基于惯性加速度来感测车辆100的位置和朝向变化。在一个实施例中,IMU 124可以是加速度计和陀螺仪的组合。
雷达126可利用无线电信号来感测车辆100的周边环境内的物体。在一些实施例中,除了感测物体以外,雷达126还可用于感测物体的速度和/或前进方向。
激光测距仪128可利用激光来感测车辆100所位于的环境中的物体。在一些实施例中,激光测距仪128可包括一个或多个激光源、激光扫描器以及一个或多个检测器,以及其他系统组件。
相机130可用于捕捉车辆100的周边环境的多个图像。相机130可以是静态相机或视频相机。其中,相机130还可以包括红外相机、其他相机,例如,相机130可以包括摄像头监控系统(camera monitor system,CMS)中的座舱监控摄像头及驾驶员监控系统(drivermonitor system,DMS)中的驾驶员监控摄像头。
控制系统106为控制车辆100及其组件的操作。控制系统106可包括各种元件,其中包括转向系统132、油门134、制动单元136、传感器融合算法138、计算机视觉系统140、路线控制系统142以及障碍物避免系统144。
转向系统132可操作来调整车辆100的前进方向。例如在一个实施例中可以为方向盘系统。
油门134用于控制引擎118的操作速度并进而控制车辆100的速度。
制动单元136用于控制车辆100减速。制动单元136可使用摩擦力来减慢车轮121。在其他实施例中,制动单元136可将车轮121的动能转换为电流。制动单元136也可采取其他形式来减慢车轮121转速从而控制车辆100的速度。
计算机视觉系统140可以操作来处理和分析由相机130捕捉的图像以便识别车辆100周边环境中的物体和/或特征。所述物体和/或特征可包括交通信号、道路边界和障碍物。计算机视觉系统140可使用物体识别算法、运动中恢复结构(Structure from Motion,SFM)算法、视频跟踪和其他计算机视觉技术。在一些实施例中,计算机视觉系统140可以用于为环境绘制地图、跟踪物体、估计物体的速度等等。
路线控制系统142用于确定车辆100的行驶路线。在一些实施例中,路线控制系统142可结合来自传感器138、GPS 122和一个或多个预定地图的数据以为车辆100确定行驶路线。
障碍物避免系统144用于识别、评估和避免或者以其他方式越过车辆100的环境中的潜在障碍物。
当然,在一个实例中,控制系统106可以增加或替换地包括除了所示出和描述的那些以外的组件。或者也可以减少一部分上述示出的组件。
车辆100通过外围设备108与外部传感器、其他车辆、其他计算机系统或用户之间进行交互。外围设备108可包括无线通信系统146、车载电脑148、麦克风150和/或扬声器152。
在一些实施例中,外围设备108提供车辆100的用户与用户接口116交互的手段。例如,车载电脑148可向车辆100的用户提供信息。用户接口116还可操作车载电脑148来接收用户的输入。车载电脑148可以通过触摸屏进行操作。在其他情况中,外围设备108可提供用于车辆100与位于车内的其它设备通信的手段。例如,麦克风150可从车辆100的用户接收音频(例如,语音命令或其他音频输入)。类似地,扬声器152可向车辆100的用户输出音频。
无线通信系统146可以直接地或者经由通信网络来与一个或多个设备无线通信。例如,无线通信系统146可使用3G蜂窝通信,例如CDMA、EVD0、GSM/GPRS,或者4G蜂窝通信,例如LTE。或者5G蜂窝通信。无线通信系统146可利用WiFi与无线局域网(wireless localarea network,WLAN)通信。在一些实施例中,无线通信系统146可利用红外链路、蓝牙或ZigBee与设备直接通信。其他无线协议,例如各种车辆通信系统,例如,无线通信系统146可包括一个或多个专用短程通信(dedicated short range communications,DSRC)设备,这些设备可包括车辆和/或路边台站之间的公共和/或私有数据通信。
电源110可向车辆100的各种组件提供电力。在一个实施例中,电源110可以为可再充电锂离子或铅酸电池。这种电池的一个或多个电池组可被配置为电源为车辆100的各种组件提供电力。在一些实施例中,电源110和能量源119可一起实现,例如一些全电动车中那样。
车辆100的部分或所有功能受计算机系统112控制。计算机系统112可包括至少一个处理器113,处理器113执行存储在例如数据存储装置114这样的非暂态计算机可读介质中的指令115。计算机系统112还可以是采用分布式方式控制车辆100的个体组件或子系统的多个计算设备。
处理器113可以是任何常规的处理器,诸如商业可获得的CPU。替选地,该处理器可以是诸如ASIC或其它基于硬件的处理器的专用设备。尽管图1功能性地图示了处理器、存储器、和在相同块中的计算机110的其它元件,但是本领域的普通技术人员应该理解该处理器、计算机、或存储器实际上可以包括在相同的物理外壳内的多个处理器、计算机、或存储器。例如,存储器可以是硬盘驱动器或位于不同于计算机110的外壳内的其它存储介质。因此,对处理器或计算机的引用将被理解为包括对可以或者可以不并行操作的处理器或计算机或存储器的集合的引用。不同于使用单一的处理器来执行此处所描述的步骤,诸如转向组件和减速组件的一些组件每个都可以具有其自己的处理器,所述处理器只执行与特定于组件的功能相关的计算。
在此处所描述的各个方面中,处理器可以位于远离该车辆并且与该车辆进行无线通信。在其它方面中,此处所描述的过程中的一些在布置于车辆内的处理器上执行而其它则由远程处理器执行,包括采取执行单一操纵的必要步骤。
在一些实施例中,数据存储装置114可包含指令115(例如,程序逻辑),指令115可被处理器113执行来执行车辆100的各种功能,包括以上描述的那些功能。数据存储装置114也可包含额外的指令,包括向推进系统102、传感器系统104、控制系统106和外围设备108中的一个或多个发送数据、从其接收数据、与其交互和/或对其进行控制的指令。
除了指令115以外,数据存储装置114还可存储数据,例如道路地图、路线信息,车辆的位置、方向、速度以及其它这样的车辆数据,以及其他信息。这种信息可在车辆100在自主、半自主和/或手动模式中操作期间被车辆100和计算机系统112使用。
用户接口116,用于向车辆100的用户提供信息或从其接收信息。可选地,用户接口116可包括在外围设备108的集合内的一个或多个输入/输出设备,例如无线通信系统146、车车在电脑148、麦克风150和扬声器152。
计算机系统112可基于从各种子系统(例如,行进系统102、传感器系统104和控制系统106)以及从用户接口116接收的输入来控制车辆100的功能。例如,计算机系统112可利用来自控制系统106的输入以便控制转向单元132来避免由传感器系统104和障碍物避免系统144检测到的障碍物。在一些实施例中,计算机系统112可操作来对车辆100及其子系统的许多方面提供控制。
可选地,上述这些组件中的一个或多个可与车辆100分开安装或关联。例如,数据存储装置114可以部分或完全地与车辆100分开存在。上述组件可以按有线和/或无线方式来通信地耦合在一起。
可选地,上述组件只是一个示例,实际应用中,上述各个模块中的组件有可能根据实际需要增添或者删除,图1不应理解为对本申请实施例的限制。
在道路行进的自动驾驶车辆,如上面的车辆100,可以识别其周围环境内的物体以确定对当前速度的调整。所述物体可以是其它车辆、交通控制设备、或者其它类型的物体。在一些示例中,可以独立地考虑每个识别的物体,并且基于物体的各自的特性,诸如它的当前速度、加速度、与车辆的间距等,可以用来确定自动驾驶车辆所要调整的速度。
可选地,车辆100或者与车辆100相关联的计算设备(如图1的计算机系统112、计算机视觉系统140、数据存储装置114)可以基于所识别的物体的特性和周围环境的状态(例如,交通、雨、道路上的冰、等等)来预测所述识别的物体的行为。可选地,每一个所识别的物体都依赖于彼此的行为,因此还可以将所识别的所有物体全部一起考虑来预测单个识别的物体的行为。车辆100能够基于预测的所述识别的物体的行为来调整它的速度。换句话说,自动驾驶车辆能够基于所预测的物体的行为来确定车辆将需要调整到(例如,加速、减速、或者停止)什么稳定状态。在这个过程中,也可以考虑其它因素来确定车辆100的速度,诸如,车辆100在行驶的道路中的横向位置、道路的曲率、静态和动态物体的接近度等等。
除了提供调整自动驾驶车辆的速度的指令之外,计算设备还可以提供修改车辆100的转向角的指令,以使得自动驾驶车辆遵循给定的轨迹和/或维持与自动驾驶车辆附近的物体(例如,道路上的相邻车道中的轿车)的安全横向和纵向距离。
上述车辆100可以为轿车、卡车、摩托车、公共汽车、船、飞机、直升飞机、割草机、娱乐车、游乐场车辆、施工设备、电车、高尔夫球车、火车和手推车等,本申请实施例不做特别的限定。
图2是本申请实施例提供的自动驾驶系统的示意图。
如图2所示的自动驾驶系统包括计算机系统101,其中,计算机系统101包括处理器103,处理器103和系统总线105耦合。处理器103可以是一个或者多个处理器,其中每个处理器都可以包括一个或多个处理器核。显示适配器(video adapter)107,显示适配器可以驱动显示器109,显示器109和系统总线105耦合。系统总线105通过总线桥111和输入输出(I/O)总线113耦合。I/O接口115和I/O总线耦合。I/O接口115和多种I/O设备进行通信,比如输入设备117(如:键盘,鼠标,触摸屏等),多媒体盘(media tray)121,(例如,CD-ROM,多媒体接口等)。收发器123(可以发送和/或接受无线电通信信号),摄像头155(可以捕捉静态和动态数字视频图像)和外部USB接口125。其中,可选地,和I/O接口115相连接的接口可以是USB接口。
其中,处理器103可以是任何传统处理器,包括精简指令集计算(reducedinstruction set computer,RISC)处理器、复杂指令集计算(complex instruction setcomputer,CISC)处理器或上述的组合。可选地,处理器可以是诸如专用集成电路(application specific integrated circuit,ASIC)的专用装置。可选地,处理器103可以是神经网络处理器或者是神经网络处理器和上述传统处理器的组合。
可选地,在本文所述的各种实施例中,计算机系统101可位于远离自动驾驶车辆的地方(例如,计算机系统101可位于云端或服务器),并且可与自动驾驶车辆无线通信。在其它方面,本文所述的一些过程在设置在自动驾驶车辆内的处理器上执行,其它由远程处理器执行,包括采取执行单个操纵所需的动作。
计算机101可以通过网络接口129和软件部署服务器149通信。网络接口129是硬件网络接口,比如,网卡。网络127可以是外部网络,比如因特网,也可以是内部网络,比如以太网或者虚拟私人网络(virtual private network,VPN)。可选地,网络127还可以是无线网络,比如WiFi网络,蜂窝网络等。
硬盘驱动接口和系统总线105耦合。硬件驱动接口和硬盘驱动器相连接。系统内存135和系统总线105耦合。运行在系统内存135的数据可以包括计算机101的操作系统137和应用程序143。
操作系统包括解析器139(shell)和内核(kernel)141。shell是介于使用者和操作系统之内核(kernel)间的一个接口。shell是操作系统最外面的一层。shell管理使用者与操作系统之间的交互:等待使用者的输入,向操作系统解释使用者的输入,并且处理各种各样的操作系统的输出结果。
内核141由操作系统中用于管理存储器、文件、外设和系统资源的那些部分组成。直接与硬件交互,操作系统内核通常运行进程,并提供进程间的通信,提供CPU时间片管理、中断、内存管理、IO管理等等。
应用程序143包括控制摄像头模组补光时间相关的程序,比如,确定所述摄像头模组在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;在所述当前帧对所述感光芯片进行曝光时,通过卷帘快门,控制红外光源仅在所述第一曝光时段内进行补光。
应用程序143也可以存在于软件部署服务器149(deploying server)的系统上。在一个实施例中,在需要执行应用程序143时,计算机系统101可以从软件部署服务器149(deploying server)下载应用程序143。
传感器153和计算机系统101关联。传感器153用于探测计算机101周围的环境,或者,传感器153也可以用于监控自动驾驶车辆座舱内的情况。可选地,计算机101位于自动驾驶车辆上。
举例来说,传感器153可以包括驾驶员监控系统(driver monitor system,DMS)中的驾驶员监控摄像头,驾驶员监控摄像头可以用于对自动驾驶车辆的驾驶员进行疲劳检测、人脸识别、分神检测、在环检测等;或者,传感器153也可以包括摄像头监控系统(cameramonitor system,CMS)中的座舱监控摄像头,座舱监控摄像头可以用于对座舱内的驾驶员或其他乘客进行行为识别、手势识别以及遗留物检测等。
例如,应用程序143可以对传感器153采集到的图像进行检测,以确定图像中需要进行补光的区域,并结合该需要进行补光的区域确定感光芯片在当前帧曝光时的补光时段。此时,通过卷帘快门,控制红外光源在所述补光时段内进行补光,可以降低红外摄像头模组的发热量。
图3为本申请实施例适用的一种摄像头模组300的架构示意图。应理解,图3所示的摄像头模组300仅为示例而非限定,摄像头模组300中可以包括更多或更少的步骤,本申请实施例中对此并不限定。
摄像头模组300可以用于驾驶员监控系统(driver monitor system,DMS)中的驾驶员监控摄像头,对自动驾驶车辆的驾驶员进行疲劳检测、人脸识别、分神检测、在环检测等;或者,摄像头模组300也可以用于摄像头监控系统(camera monitor system,CMS)中的座舱监控摄像头,对座舱内的驾驶员或其他乘客进行行为识别、手势识别以及遗留物检测等。
如图3所示,摄像头模组300可以包括镜头301、感光芯片302、图像信号处理器(image signal processor,ISP)303、中央处理器(central processing unit,CPU)/神经处理器(neural processing unit,NPU)304、红外(infrared,IR)光源305及光源控制器306。
其中,镜头301可以包括卷帘快门(rolling shutter),感光芯片302可以为互补金属氧化物半导体(complementary metal–oxide–semiconductor,CMOS),ISP 303可以为集成于COMS上的静态ISP(stack ISP),例如,ISP 303可以集成在感光芯片302上,或者,ISP303也可以为独立的ISP(discrete ISP),红外光源305可以为发光二级管(light emittingdiode,LED),或者,红外光源305也可以为垂直外腔面发射激光器(vertical-extemal-cavity surface-emitting,VECSEL)。
现有技术中,传统的红外摄像头在曝光时,以红外光源作为光源,通过卷帘快门(rolling shutter)门对感光芯片中的各个感光芯片行进行逐行曝光。如图5所示,感光芯片中的各个感光芯片行的曝光时段不同,直至感光芯片中的所有感光芯片行均被曝光,则完成一次完整的曝光。
其中,红外光源指波长780~1400纳米(nm)的光源,是人类肉眼不可见的光,红外光源配合红外摄像头可以使得拍摄不受可见光的影响,无论在白天或晚上都可以正常拍摄。在传统的红外摄像头进行曝光的过程中,红外光源一直都在工作,即,感光芯片(在某一帧)的曝光时长与红外光源的工作时长相等。但是,红外光源在工作会发热,因此,红外光源的长时间工作会导致摄像头模组的发热量较高。
基于上述问题,本申请提出了一种控制摄像头模组补光时间的方法,根据所述第一图像中需要进行补光的区域确定第一目标感光芯片行在当前帧的第一曝光时段,并在当前帧对所述感光芯片进行曝光时,仅在所述第一曝光时段内进行补光,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
下面结合图4至图10对本申请实施例中的控制摄像头模组补光时间的方法进行详细说明。
图4是本申请实施例提供的控制摄像头模组补光时间的方法400的示意性流程图。
图4所示的方法400可以包括步骤410、步骤420及步骤430,应理解,图4所示的方法400仅为示例而非限定,方法400中可以包括更多或更少的步骤,本申请实施例中对此并不限定,下面分别对这几个步骤进行详细的介绍。
图4所示的方法400可以由图1中的车辆100中的相机130中的摄像头模组执行、或者,方法400也可以由图2中的自动驾驶系统中的摄像头155或传感器153中的摄像头模组执行。
其中,所述方法400中的摄像头模组可以包括感光芯片、红外光源及卷帘快门。例如,所述方法400中的摄像头模组可以如图3中的摄像头模组300所示。
S410,确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域。
其中,所述第一目标区域可以为所述第一图像中需要进行补光的区域。
可选地,所述第一图像中需要进行补光的区域中包含的内容可以与所述摄像头模组的用途有关。比如,可以根据预设的目标对象确定所述第一图像中的所述第一目标区域。
例如,所述摄像头模组可以用于驾驶员监控系统(driver monitor system,DMS)中的驾驶员监控摄像头,对自动驾驶车辆的驾驶员进行疲劳检测、人脸识别、分神检测、在环检测等,相应地,在所述摄像头模组用于驾驶员监控摄像头时,所述预设的目标对象可以指所述第一图像中的人脸区域。
又例如,所述摄像头模组也可以用于摄像头监控系统(camera monitor system,CMS)中的座舱监控摄像头,对座舱内的驾驶员或其他乘客进行行为识别、手势识别以及遗留物检测等,相应地,在所述摄像头模组用于座舱监控摄像头时,所述预设的目标对象可以指所述第一图像中的人体区域。
再例如,所述摄像头还可以用于检测周围其他车辆的外摄像头,对所述车辆周围的其他车辆进行检测和识别等,相应地,在所述摄像头用于检测周围其他车辆的外摄像头时,所述预设的目标对象可以指所述第一图像中的车辆(例如,所述车辆周围的其他车辆)区域。
可选地,可以使用深度学习算法或Haar算子对所述第一图像进行检测,以确定出所述第一图像中需要进行补光的区域,即所述第一目标区域。
例如,可以使用神经网络模型确定所述第一图像中人脸区域(或人体区域),即所述第一图像中需要进行补光的所述第一目标区域。
S420,根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段。
其中,所述第一目标感光芯片行可以指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行。
可选地,所述感光芯片可以包括多个感光芯片行,所述第一图像中可以包括多个像素行,所述第一图像中的多个像素行可以对应所述多个感光芯片行。
例如,如图6所示,所述感光芯片可以包括960个感光芯片行,所述第一图像可以包括960个像素(pixel)行,所述第一图像中包括的960个像素行可以与所述感光芯片包括的960个感光芯片行一一对应。
图6中示出的是所述感光芯片中的感光芯片行的行数与所述第一图像中的像素行的行数相等的情况,即感光芯片曝光后生成的图像未经过伸缩变换的情况。
需要说明的是,本申请实施例对所述感光芯片中的感光芯片行的行数,以及所述第一图像中的像素行的行数并不限定,也就是说,本申请实施例中并不限定所述感光芯片中的感光芯片行的行数与所述第一图像中的像素行的行数必须相等,也不限定所述第一图像中的多个像素行与所述多个感光芯片行必须一一对应。
可选地,所述根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,可以包括:
确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;确定所述第一目标感光芯片行在当前帧的第一曝光时段。
例如,如图6所示,可以确定所述第一目标区域的上边界在所述第一图像中的像素行a、以及所述第一目标区域的下边界在所述第一图像中的像素行b;确定像素行a对应的感光芯片中的感光芯片行n,以及像素行b对应的感光芯片中的感光芯片行m,则从感光芯片行n开始,到感光芯片行m为止的所有感光芯片行,即为所述第一目标感光芯片行。
进一步地,可以计算所述第一目标感光芯片行在所述当前帧的曝光时段。
例如,假设第一行感光芯片行开始曝光的时刻为T0,每行感光芯片行曝光所用的时间为T,相邻两行感光芯片行开始曝光的时差为t,则第n行感光芯片行开始曝光的时刻T1为:T1=T0+n*t,第m行感光芯片行开始曝光的时刻T2为:T2=T0+T+m*t,即图6中所示的所述红外光源补光的起始时刻T1,以及所述红外光源补光的结束时刻T2。
此时,所述第一目标感光芯片行在所述当前帧的曝光时段(T1-T2)即为所述第一曝光时段。
S430,在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
在本申请实施例中,根据所述第一图像中需要进行补光的区域确定第一目标感光芯片行在当前帧的第一曝光时段,在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光,可以减少所述红外光源的工作时间,从而可以降低红外摄像头模组的发热量。
同时,本申请实施例中的控制摄像头模组补光时间的方法并未增加或改变摄像头模组中的硬件模块(或单元),而是根据所述第一目标区域确定所述感光芯片在所述当前帧的补光时段(例如,所述第一曝光时段),并在所述当前帧对所述感光芯片进行曝光时,在所述补光时段内进行补光,以减少所述红外光源的工作时间,从而可以在不增加成本的前提下,降低红外摄像头模组的发热量。
进一步地,由于并未增加或改变摄像头模组中的硬件模块(或单元),本申请实施例中的控制摄像头模组补光时间的方法也没有增大摄像头模组的尺寸,有利于该摄像头模组在车内的配置及使用。
可选地,所述方法400还可以包括步骤432。
S432,根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;在后续帧对所述感光芯片进行曝光时,根据所述第三曝光时段指示红外光源进行补光。
也就是说,在后续帧对所述感光芯片进行曝光时,仅在所述第一目标感光芯片行进行曝光的时段内,控制红外光源进行补光。
在本申请实施例中,基于所述第一曝光时段可以便捷地确定后续帧的补光时段(例如,所述第三曝光时段)。
可选地,所述方法400还可以包括步骤434、步骤436及步骤438。
S434,确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域。
S436,根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行。
S438,在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
在本申请实施例中,基于所述当前帧获取的第二图像中的第二目标区域,对所述感光芯片在所述后续帧的补光时段进行调整,可以提升摄像头模组拍摄的图像的效果。
图7是本申请实施例提供的控制摄像头模组补光时间的方法700的示意性流程图。
图7所示的方法700可以由图1中的车辆100中的相机130中的摄像头模组执行、或者,方法700也可以由图2中的自动驾驶系统中的摄像头155或传感器153中的摄像头模组执行。
其中,所述方法700中的摄像头模组可以包括感光芯片、红外光源及卷帘快门。例如,所述方法700中的摄像头模组可以如图3中的摄像头模组300所示。
例如,方法700中的摄像头模组可以用于车载的驾驶员监控摄像头。该驾驶员监控摄像头可以放置于方向盘后的位置或汽车A柱的位置,用于对驾驶员的人脸识别、疲劳检测、分神检测、在环检测等。
图7所示的方法700可以包括步骤710至步骤790,应理解,图7所示的方法700仅为示例而非限定,方法700中可以包括更多或更少的步骤,本申请实施例中对此并不限定,下面分别对这几个步骤进行详细的介绍。
S710,在感光芯片曝光期间,红外光源全程补光,得到第一图像。
例如,在拍摄每一秒中的第一帧图像时,或在摄像头模组进入重置状态时,光源控制器可以控制红外光源在感光芯片曝光期间全程补光,得到所述第一图像,以保证所述第一图像中所有区域都能够得到良好的光照。
S720,对所述第一图像进行人脸检测。
例如,可以将所述第一图像送入CPU/NPU,相应地,CPU/NPU可以使用深度学习算法或使用Haar算子,对所述第一图像进行人脸检测。
如果检测出所述第一图像中的人脸框,则人脸检测成功,执行S730。
如果没有检测出所述第一图像中的人脸框(比如,如图8中B部分所示,所述第一图像中的人脸区域被遮挡或所述第一图像中无人脸区域),则人脸检测失败,执行S710。即在拍摄下一帧图像时,红外光源在感光芯片曝光期间全程补光,得到所有区域都光照良好的图像,并对该得到的图像重新进行人脸检测。
S730,计算人脸框对应的感光芯片行。
可以基于所述人脸框,确定出所述第一图像中的核心区域,计算出所述第一图像中的核心区域对应的感光芯片行。
可选地,在确定所述第一图像中的核心区域时可以考虑裕量。
例如,可以预先设置阈值,在确定所述第一图像中的核心区域时设置裕量,以使得人脸框与无光区域(即所述第一图像中不需要进行补光的区域)之间的距离大于或等于预设的阈值。
如图8中A部分所示,人脸框的上边界与无光区域之间的距离大于或等于预设的阈值,同时,人脸框的下边界与无光区域之间的距离大于或等于预设的阈值。
其中,所述核心区域相当于图4中方法400中的所述第一目标区域,具体可以参考方法400中实施例的描述,这里不再赘述。
S740,计算所述感光芯片行对应的第一补光时段。
计算出所述感光芯片行对应的曝光时段,即所述第一补光时段。
S750,在感光芯片曝光期间,在所述确定的补光时段内进行补光,得到第二图像。
例如,所述确定的补光时段可以为所述第一补光时段或所述第二补光时段。
S760,对所述第二图像进行人脸检测。
如图8中A部分所示,如果检测出所述第二图像中的人脸框,且该人脸框与无光区域(即所述第二图像中不需要进行补光的区域)之间的距离大于或等于所述预设的阈值,则人脸检测成功,执行S770。
如图8中B部分所示,如果没有检测出所述第二图像中的人脸框(比如,所述第二图像中的人脸区域被遮挡或所述第二图像中无人脸区域),则人脸检测失败,且属于失败类型A,执行S780,以确定人脸检测失败的次数是否小于10次。
如图8中C部分所示,如果检测出所述第二图像中的人脸框,但人脸框与无光区域(即所述第二图像中不需要进行补光的区域)之间的距离小于所述预设的阈值,则人脸检测失败,且属于失败类型B,执行S790。
S770,基于所述第一补光时段继续拍摄下一帧图像。
在后续帧拍摄图像的过程中,可以保持所述第一补光时段,即在后续帧拍摄图像的过程中,控制红外光源继续在所述感光芯片行对应的第一补光时段内进行补光。
S780,确定人脸检测失败的次数是否小于10次。
如果没有检测出所述第一图像中的人脸框,且人脸检测失败的次数小于10次,在后续帧拍摄图像的过程中,控制红外光源继续在所述感光芯片行对应的第一补光时段内进行补光;否则,在人脸检测失败的次数大于或等于10次(或每秒定期重置所述第一补光时段)时,则执行S710。
S790,基于所述第二图像确定第二补光时段。
对所述第二图像进行人脸检测,得到所述第二图像的人脸框,计算所述第二图像的人脸框对应的感光芯片行,计算该感光芯片行(所述第二图像的人脸框对应的感光芯片行)对应的第二补光时段。
随后执行S750,并在后续帧拍摄图像的过程中,控制红外光源在所述感光芯片行对应的第二补光时段内进行补光。
图9是本申请实施例提供的控制摄像头模组补光时间的方法900的示意性流程图。
图9所示的方法900可以由图1中的车辆100中的相机130中的摄像头模组执行、或者,方法900也可以由图2中的自动驾驶系统中的摄像头155或传感器153中的摄像头模组执行。
其中,所述方法900中的摄像头模组可以包括感光芯片、红外光源及卷帘快门。例如,所述方法900中的摄像头模组可以如图3中的摄像头模组300所示。
例如,方法900中的摄像头模组可以用于车载的座舱监控摄像头。该座舱监控摄像头可以放置于车辆内部的后视镜的下方,用于对座舱内的驾驶员、副驾进行行为识别、手势识别以及遗留物检测等。
图9所示的方法900可以包括步骤910至步骤990,应理解,图9所示的方法900仅为示例而非限定,方法900中可以包括更多或更少的步骤,本申请实施例中对此并不限定,下面分别对这几个步骤进行详细的介绍。
S910,在感光芯片曝光期间,红外光源全程补光,得到第一图像。
例如,在拍摄每一秒中的第一帧图像时,或在摄像头模组进入重置状态时,光源控制器可以控制红外光源在感光芯片曝光期间全程补光,得到所述第一图像,以保证所述第一图像中所有区域都能够得到良好的光照。
S920,对所述第一图像进行人体检测。
例如,可以将所述第一图像送入CPU/NPU,相应地,CPU/NPU可以使用深度学习算法或使用Haar算子,对所述第一图像进行人体检测。
如果检测出所述第一图像中的人体框,则人体检测成功,执行S930。
如果没有检测出所述第一图像中的人体框(比如,如图10中B部分所示,所述第一图像中的人体区域被遮挡或所述第一图像中无人体区域),则人体检测失败,执行S910。即在拍摄下一帧图像时,红外光源在感光芯片曝光期间全程补光,得到所有区域都光照良好的图像,并对该得到的图像重新进行人体检测。
S930,计算人体框对应的感光芯片行。
可以基于所述人体框,确定出所述第一图像中的核心区域,计算出所述第一图像中的核心区域对应的感光芯片行。
可选地,在确定所述第一图像中的核心区域时可以考虑裕量。
例如,可以预先设置阈值,在确定所述第一图像中的核心区域时设置裕量,以使得人体框与无光区域(即所述第一图像中不需要进行补光的区域)之间的距离大于或等于预设的阈值。
如图10中A部分所示,人体框的上边界与无光区域之间的距离大于或等于预设的阈值,同时,人体框的下边界与无光区域之间的距离大于或等于预设的阈值。
其中,所述核心区域相当于图4中方法400中的所述第一目标区域,具体可以参考方法400中实施例的描述,这里不再赘述。
S940,计算所述感光芯片行对应的第一补光时段。
计算出所述感光芯片行对应的曝光时段,即所述第一补光时段。
S950,在感光芯片曝光期间,在确定的补光时段内进行补光,得到第二图像。
例如,所述确定的补光时段可以为所述第一补光时段或所述第二补光时段。
S960,对所述第二图像进行人体检测。
如图10中A部分所示,如果检测出所述第一图像中的人体框,且该人体框与无光区域(即所述第一图像中不需要进行补光的区域)之间的距离大于或等于所述预设的阈值,则人体检测成功,执行S970。
如图10中B部分所示,如果没有检测出所述第一图像中的人体框(比如,所述第一图像中的人体区域被遮挡或所述第一图像中无人体区域),则人体检测失败,执行S980,以确定人体检测失败的次数是否小于10次。
如图10中C部分所示,如果检测出所述第一图像中的人体框,但人体框与无光区域(即所述第一图像中不需要进行补光的区域)之间的距离小于所述预设的阈值,则人体检测失败,执行S990。
S970,基于所述第一补光时段继续拍摄下一帧图像。
在后续帧拍摄图像的过程中,可以保持所述第一补光时段,即在后续帧拍摄图像的过程中,控制红外光源继续在所述感光芯片行对应的第一补光时段内进行补光。
S980,确定人体检测失败的次数是否小于10次。
如果没有检测出所述第一图像中的人体框,且人体检测失败的次数小于10次,在后续帧拍摄图像的过程中,控制红外光源继续在所述感光芯片行对应的第一补光时段内进行补光;否则,在人体检测失败的次数大于或等于10次(或每秒定期重置所述第一补光时段)时,则执行S910。
S990,基于所述第二图像确定第二补光时段。
对所述第二图像进行人体检测,得到所述第二图像的人体框,计算所述第二图像的人体框对应的感光芯片行,计算该感光芯片行(所述第二图像的人体框对应的感光芯片行)对应的第二补光时段。
随后执行S950,并在后续帧拍摄图像的过程中,控制红外光源在所述感光芯片行对应的第二补光时段内进行补光。
图11是本申请一个实施例提供的控制摄像头模组补光时间的装置1100的示意性框图。应理解,图11示出的控制摄像头模组补光时间的装置1100仅是示例,本申请实施例的装置1100还可包括其他模块或单元。应理解,装置1100能够执行图4、图7及图9的方法中的各个步骤,为了避免重复,此处不再详述。
其中,所述摄像头模组可以包括摄像头,所述摄像头可以包括感光芯片、红外光源及卷帘快门。例如,所述摄像头模组可以如图3中的摄像头模组300所示。
在本申请实施例的一种可能的实现方式中,所述控制摄像头模组补光时间的装置1100可以包括:
第一确定单元1110,用于确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;
第二确定单元1120,用于根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;
指示单元1130,用于在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
其中,所述第一确定单元和所述第一确定单元可以为同一个模块或单元,本申请实施例中对此并不限定。
可选地,所述第一确定单元具体用于:根据预设的目标对象确定所述第一图像中的所述第一目标区域。
可选地,所述第一目标区域为所述第一图像中的人脸区域。
可选地,所述感光芯片包括多个感光芯片行,所述第一图像中的多个像素行对应所述多个感光芯片行;其中,所述第二确定单元1120具体用于:
确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;确定所述第一目标感光芯片行在当前帧的第一曝光时段。
可选地,所述第一确定单元1110还用于:确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域;所述第二确定单元1120还用于:根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行;所述指示单元1130还用于:在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
可选地,所述指示单元1130还用于:根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
应理解,这里的控制摄像头模组补光时间的装置1100以功能模块的形式体现。这里的术语“模块”可以通过软件和/或硬件形式实现,对此不作具体限定。例如,“模块”可以是实现上述功能的软件程序、硬件电路或二者结合。所述硬件电路可能包括应用特有集成电路(application specific integrated circuit,ASIC)、电子电路、用于执行一个或多个软件或固件程序的处理器(例如共享处理器、专有处理器或组处理器等)和存储器、合并逻辑电路和/或其它支持所描述的功能的合适组件。
作为一个示例,本申请实施例提供的控制摄像头模组补光时间的装置1100可以是自动驾驶系统中的摄像头模组,或者,也可以是配置于车机中的摄像头模组,或者,还可以是自动驾驶车辆中的车机(或处理器),或者,还可以是配置于车机中的芯片,以用于执行本申请实施例所述的方法。
图12是本申请一个实施例的控制摄像头模组补光时间的装置800的示意性框图。图12所示的装置800包括存储器801、处理器802、通信接口803以及总线804。其中,存储器801、处理器802、通信接口803通过总线804实现彼此之间的通信连接。
存储器801可以是只读存储器(read only memory,ROM),静态存储设备,动态存储设备或者随机存取存储器(random access memory,RAM)。存储器801可以存储程序,当存储器801中存储的程序被处理器802执行时,处理器802用于执行本申请实施例的控制摄像头模组补光时间的方法的各个步骤,例如,可以执行图4、图7及图9所示实施例的各个步骤。
处理器802可以采用通用的中央处理器(central processing unit,CPU),微处理器,应用专用集成电路(application specific integrated circuit,ASIC),或者一个或多个集成电路,用于执行相关程序,以实现本申请方法实施例的控制摄像头模组补光时间的方法。
处理器802还可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,本申请实施例的控制摄像头模组补光时间的方法的各个步骤可以通过处理器802中的硬件的集成逻辑电路或者软件形式的指令完成。
上述处理器802还可以是通用处理器、数字信号处理器(digital signalprocessing,DSP)、专用集成电路(ASIC)、现成可编程门阵列(field programmable gatearray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器801,处理器802读取存储器801中的信息,结合其硬件完成本申请实施例中控制摄像头模组补光时间的装置包括的单元所需执行的功能,或者,执行本申请方法实施例的控制摄像头模组补光时间的方法,例如,可以执行图4、图7及图9所示实施例的各个步骤/功能。
通信接口803可以使用但不限于收发器一类的收发装置,来实现装置800与其他设备或通信网络之间的通信。
总线804可以包括在装置800各个部件(例如,存储器801、处理器802、通信接口803)之间传送信息的通路。
应理解,本申请实施例所示的装置800可以是自动驾驶系统中的摄像头模组,或者,也可以是配置于车机中的摄像头模组,或者,还可以是自动驾驶车辆中的车机(或处理器),或者,还可以是配置于车机中的芯片,以用于执行本申请实施例所述的方法。
应理解,本申请实施例中的处理器可以为中央处理单元(central processingunit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(digital signalprocessor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
还应理解,本申请实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(read-only memory,ROM)、可编程只读存储器(programmable ROM,PROM)、可擦除可编程只读存储器(erasable PROM,EPROM)、电可擦除可编程只读存储器(electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(random access memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的随机存取存储器(random accessmemory,RAM)可用,例如静态随机存取存储器(static RAM,SRAM)、动态随机存取存储器(DRAM)、同步动态随机存取存储器(synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(double data rate SDRAM,DDR SDRAM)、增强型同步动态随机存取存储器(enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(direct rambus RAM,DR RAM)。
上述实施例,可以全部或部分地通过软件、硬件、固件或其他任意组合来实现。当使用软件实现时,上述实施例可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令或计算机程序。在计算机上加载或执行所述计算机指令或计算机程序时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以为通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集合的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质。半导体介质可以是固态硬盘。
应理解,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系,但也可能表示的是一种“和/或”的关系,具体可参考前后文进行理解。
本申请中,“至少一个”是指一个或者多个,“多个”是指两个或两个以上。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。
应理解,在本申请的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。
Claims (16)
1.一种控制摄像头模组补光时间的方法,其特征在于,所述摄像头模组包括摄像头,所述摄像头包括感光芯片,所述方法包括:
确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;
根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;
在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
2.根据权利要求1所述的方法,其特征在于,所述确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,包括:
根据预设的目标对象确定所述第一图像中的所述第一目标区域。
3.根据权利要求1或2所述的方法,其特征在于,所述第一目标区域为所述第一图像中的人脸区域。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述感光芯片包括多个感光芯片行,所述第一图像中的多个像素行对应所述多个感光芯片行;
其中,所述根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,包括:
确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;
确定所述第一目标感光芯片行在当前帧的第一曝光时段。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域;
根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行;
在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
6.根据权利要求1至4中任一项所述的方法,其特征在于,所述方法还包括:
根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;
在后续帧对所述感光芯片进行曝光时,根据所述第三曝光时段指示红外光源进行补光。
7.一种控制摄像头模组补光时间的装置,其特征在于,所述摄像头模组包括摄像头,所述摄像头包括感光芯片,所述装置包括:
第一确定单元,用于确定所述摄像头在当前帧之前拍摄的第一图像中的第一目标区域,所述第一目标区域为所述第一图像中需要进行补光的区域;
第二确定单元,用于根据所述第一目标区域确定第一目标感光芯片行在当前帧的第一曝光时段,所述第一目标感光芯片行指所述感光芯片中用于生成所述第一目标区域中的图像内容的芯片行;
指示单元,用于在所述当前帧对所述感光芯片进行曝光时,根据所述第一曝光时段指示红外光源进行补光。
8.根据权利要求7所述的装置,其特征在于,所述第一确定单元具体用于:
根据预设的目标对象确定所述第一图像中的所述第一目标区域。
9.根据权利要求7或8所述的装置,其特征在于,所述第一目标区域为所述第一图像中的人脸区域。
10.根据权利要求7至9中任一项所述的装置,其特征在于,所述感光芯片包括多个感光芯片行,所述第一图像中的多个像素行对应所述多个感光芯片行;
其中,所述第二确定单元具体用于:
确定所述第一图像中处于所述第一目标区域中的像素行对应的所述第一目标感光芯片行;
确定所述第一目标感光芯片行在当前帧的第一曝光时段。
11.根据权利要求7至10中任一项所述的装置,其特征在于,所述第一确定单元还用于:确定所述当前帧获取的第二图像中的第二目标区域,所述第二目标区域为所述第二图像中需要进行补光的区域;
所述第二确定单元还用于:根据所述第二目标区域确定第二目标感光芯片行在后续帧的第二曝光时段,所述第二目标感光芯片行指所述感光芯片中用于生成所述第二目标区域中的图像内容的芯片行;
所述指示单元还用于:在后续帧对所述感光芯片进行曝光时,根据所述第二曝光时段指示红外光源进行补光。
12.根据权利要求7至10中任一项所述的装置,其特征在于,所述指示单元还用于:
根据所述第一曝光时段确定所述第一目标感光芯片行在后续帧的第三曝光时段;
在后续帧对所述感光芯片进行曝光时,根据所述第三曝光时段指示红外光源进行补光。
13.一种摄像头模组,其特征在于,包括处理器和存储器,所述存储器用于存储程序指令,所述处理器用于调用所述程序指令来执行权利要求1至6中任一项所述的方法。
14.一种汽车,其特征在于,所述汽车包括权利要求7至12中任一项所述的装置或权利要求13所述的摄像头模组。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有程序指令,当所述程序指令由处理器运行时,实现权利要求1至6中任一项所述的方法。
16.一种芯片,其特征在于,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,以执行如权利要求1至6中任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011020997.9A CN114257712A (zh) | 2020-09-25 | 2020-09-25 | 控制摄像头模组补光时间的方法及装置 |
EP21870960.8A EP4207731A4 (en) | 2020-09-25 | 2021-07-13 | METHOD AND APPARATUS FOR CONTROLLING LIGHT SUPPLY TIME OF A CAMERA MODULE |
PCT/CN2021/106061 WO2022062582A1 (zh) | 2020-09-25 | 2021-07-13 | 控制摄像头模组补光时间的方法及装置 |
US18/189,362 US20230232113A1 (en) | 2020-09-25 | 2023-03-24 | Method and apparatus for controlling light compensation time of camera module |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011020997.9A CN114257712A (zh) | 2020-09-25 | 2020-09-25 | 控制摄像头模组补光时间的方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114257712A true CN114257712A (zh) | 2022-03-29 |
Family
ID=80789044
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011020997.9A Pending CN114257712A (zh) | 2020-09-25 | 2020-09-25 | 控制摄像头模组补光时间的方法及装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230232113A1 (zh) |
EP (1) | EP4207731A4 (zh) |
CN (1) | CN114257712A (zh) |
WO (1) | WO2022062582A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115118847A (zh) * | 2022-04-27 | 2022-09-27 | 一汽奔腾轿车有限公司 | 一种汽车用小型化摄像头 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11902671B2 (en) * | 2021-12-09 | 2024-02-13 | Fotonation Limited | Vehicle occupant monitoring system including an image acquisition device with a rolling shutter image sensor |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106446873A (zh) * | 2016-11-03 | 2017-02-22 | 北京旷视科技有限公司 | 人脸检测方法及装置 |
CN106454044A (zh) * | 2016-10-25 | 2017-02-22 | 浙江宇视科技有限公司 | 一种爆闪补光装置及方法 |
CN106572310A (zh) * | 2016-11-04 | 2017-04-19 | 浙江宇视科技有限公司 | 一种补光强度控制方法与摄像机 |
JP2018113662A (ja) * | 2017-01-13 | 2018-07-19 | パナソニックIpマネジメント株式会社 | 撮像装置 |
CN109314751A (zh) * | 2018-08-30 | 2019-02-05 | 深圳市锐明技术股份有限公司 | 一种补光方法、补光装置及电子设备 |
CN110084207A (zh) * | 2019-04-30 | 2019-08-02 | 惠州市德赛西威智能交通技术研究院有限公司 | 自动调节人脸曝光量的曝光方法、装置和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104853107B (zh) * | 2014-02-19 | 2018-12-14 | 联想(北京)有限公司 | 信息处理的方法及电子设备 |
US9674465B2 (en) * | 2015-06-03 | 2017-06-06 | Omnivision Technologies, Inc. | Non-visible illumination scheme |
EP3370414A4 (en) * | 2015-10-28 | 2019-06-05 | Kyocera Corporation | IMAGING DEVICE, IMAGING SYSTEM, INDIVIDUAL SURVEILLANCE SYSTEM, AND CONTROL METHOD FOR IMAGING DEVICE |
CN107241558B (zh) * | 2017-06-16 | 2019-07-19 | Oppo广东移动通信有限公司 | 曝光处理方法、装置和终端设备 |
CN107846556B (zh) * | 2017-11-30 | 2020-01-10 | Oppo广东移动通信有限公司 | 成像方法、装置、移动终端和存储介质 |
CN111601046B (zh) * | 2020-04-22 | 2022-03-01 | 惠州市德赛西威汽车电子股份有限公司 | 一种暗光环境驾驶状态监测方法 |
-
2020
- 2020-09-25 CN CN202011020997.9A patent/CN114257712A/zh active Pending
-
2021
- 2021-07-13 WO PCT/CN2021/106061 patent/WO2022062582A1/zh unknown
- 2021-07-13 EP EP21870960.8A patent/EP4207731A4/en active Pending
-
2023
- 2023-03-24 US US18/189,362 patent/US20230232113A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106454044A (zh) * | 2016-10-25 | 2017-02-22 | 浙江宇视科技有限公司 | 一种爆闪补光装置及方法 |
CN106446873A (zh) * | 2016-11-03 | 2017-02-22 | 北京旷视科技有限公司 | 人脸检测方法及装置 |
CN106572310A (zh) * | 2016-11-04 | 2017-04-19 | 浙江宇视科技有限公司 | 一种补光强度控制方法与摄像机 |
JP2018113662A (ja) * | 2017-01-13 | 2018-07-19 | パナソニックIpマネジメント株式会社 | 撮像装置 |
CN109314751A (zh) * | 2018-08-30 | 2019-02-05 | 深圳市锐明技术股份有限公司 | 一种补光方法、补光装置及电子设备 |
CN110084207A (zh) * | 2019-04-30 | 2019-08-02 | 惠州市德赛西威智能交通技术研究院有限公司 | 自动调节人脸曝光量的曝光方法、装置和存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115118847A (zh) * | 2022-04-27 | 2022-09-27 | 一汽奔腾轿车有限公司 | 一种汽车用小型化摄像头 |
Also Published As
Publication number | Publication date |
---|---|
EP4207731A4 (en) | 2024-01-17 |
WO2022062582A1 (zh) | 2022-03-31 |
US20230232113A1 (en) | 2023-07-20 |
EP4207731A1 (en) | 2023-07-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110550029B (zh) | 障碍物避让方法及装置 | |
US10962981B2 (en) | Assisted perception for autonomous vehicles | |
CN110379193B (zh) | 自动驾驶车辆的行为规划方法及行为规划装置 | |
US11675050B2 (en) | LiDAR detection systems and methods | |
US10444754B2 (en) | Remote assistance for an autonomous vehicle in low confidence situations | |
WO2021102955A1 (zh) | 车辆的路径规划方法以及车辆的路径规划装置 | |
CN112230642B (zh) | 道路可行驶区域推理方法及装置 | |
CN111123952A (zh) | 一种轨迹规划方法及装置 | |
CN112639793A (zh) | 一种自动驾驶车辆的测试方法及装置 | |
CN110789533B (zh) | 一种数据呈现的方法及终端设备 | |
CN113156927A (zh) | 自动驾驶车辆的安全控制方法及安全控制装置 | |
US20230232113A1 (en) | Method and apparatus for controlling light compensation time of camera module | |
CN113226886A (zh) | 控制车辆行驶的方法、装置及车辆 | |
US20230048680A1 (en) | Method and apparatus for passing through barrier gate crossbar by vehicle | |
CN112810603B (zh) | 定位方法和相关产品 | |
CN112585045A (zh) | 电子机械制动方法和电子机械制动装置 | |
WO2022061702A1 (zh) | 驾驶提醒的方法、装置及系统 | |
CN114261404A (zh) | 一种自动驾驶方法及相关装置 | |
CN113799794B (zh) | 车辆纵向运动参数的规划方法和装置 | |
WO2021159397A1 (zh) | 车辆可行驶区域的检测方法以及检测装置 | |
CN113859265A (zh) | 一种驾驶过程中的提醒方法及设备 | |
CN114643983A (zh) | 控制方法和装置 | |
CN114327842A (zh) | 多任务部署的方法及装置 | |
CN111775962B (zh) | 自动行驶策略的确定方法及装置 | |
CN111845786B (zh) | 自动行驶策略的确定方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |