CN113767395A - 图像识别装置、固态成像装置及图像识别方法 - Google Patents

图像识别装置、固态成像装置及图像识别方法 Download PDF

Info

Publication number
CN113767395A
CN113767395A CN202080032629.8A CN202080032629A CN113767395A CN 113767395 A CN113767395 A CN 113767395A CN 202080032629 A CN202080032629 A CN 202080032629A CN 113767395 A CN113767395 A CN 113767395A
Authority
CN
China
Prior art keywords
image
section
dnn
image recognition
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080032629.8A
Other languages
English (en)
Inventor
渡部刚史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of CN113767395A publication Critical patent/CN113767395A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/702SSIS architectures characterised by non-identical, non-equidistant or non-planar pixel layout
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes

Abstract

本发明提供一种能够提高对象的识别精度的图像识别装置(1)、固态成像装置(CIS2)及图像识别方法。根据本公开的图像识别装置(1)包括:图像捕获部(4);以及识别部(9)。图像捕获部(4)通过在一帧时段中捕获具有不同灵敏度的多个图像来生成图像数据。识别部(9)从图像数据的每个片段中识别对象,并且基于对象的识别结果来识别一帧图像中的对象。

Description

图像识别装置、固态成像装置及图像识别方法
技术领域
本公开涉及图像识别装置、固态成像装置及图像识别方法。
背景技术
存在一种成像装置,其包括高动态范围(HDR)成像模式,该成像模式用于通过捕获和组合在一帧时段内具有不同灵敏度的多个图像来生成HDR图像,并且从HDR图像识别对象(例如参见专利文献1)。
现有技术文献
专利文献
专利文献1:JP 2014-103643 A
发明内容
技术问题
然而,在根据现有技术的上述技术中,识别对象的精度可能恶化。因此,本公开提出了一种图像识别装置、固态成像装置及图像识别方法,该图像识别装置、固态成像装置及图像识别方法能够提高识别对象的精度。
问题的解决方案
根据本公开的图像识别装置包括成像部和识别部。成像部在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据。识别部从每个图像数据中识别对象,并且基于识别对象的结果来识别在一帧图像中捕获的对象。
附图说明
图1是示出根据本公开的第一实施例的图像识别装置的配置的实例的图。
图2是根据本公开的第一实施例的图像识别装置的操作的示图。
图3是根据本公开的第一实施例的曝光时间调节方法的示图。
图4是根据本公开的第一实施例的曝光时间调节方法的示图。
图5是示出根据本公开的第一实施例的识别部执行的处理的实例的流程图。
图6是根据本公开的第一实施例的图像识别装置的第一变型例的操作的示图。
图7是包括在根据本公开的第一实施例的图像识别装置的第二变型例中的光接收部的示图。
图8是根据本公开的第一实施例的图像识别装置的第二变型例的操作的示图。
图9是示出根据本公开的第二实施例的图像识别装置的配置的实例的图。
图10是示出车辆控制系统的示意性配置的实例的框图。
图11是示出车外信息检测部和成像部的安装位置的实例的示图。
具体实施方式
在下文中,将参考附图详细描述本公开的实施例。注意,在下面的每个实施例中,相同的参考符号表示相同的部分,并且将省略重叠的描述。
(1.第一实施例)
[1-1.根据第一实施例的图像识别装置的配置]
图1是示出根据本公开的第一实施例的图像识别装置1的配置的实例的图。如图1所示,图像识别装置1包括互补金属氧化物半导体(CMOS)图像传感器(在下文中,称为CIS2)和应用处理器(在下文中,称为AP 3)。
CIS 2是由一个芯片配置并且捕获图像的固态成像装置的实例,并且除了捕获图像的功能之外,还具有识别捕获图像中的对象并且将对象识别结果输出到AP 3的功能。注意,根据本公开的固态成像器件不限于CIS 2,并且可以是例如其他图像传感器,诸如电荷耦合器件(CCD)图像传感器。
AP 3包括AP控制部31以及与CIS 2执行信息通信的通信接口(I/F)32,该AP控制部31是根据图像识别装置1的应用执行各种应用程序的诸如中央处理单元(CPU)的处理器的实例。
例如,在图像识别装置1安装在车辆上并且用作检测车辆周围的对象等的传感器的情况下,当诸如行人的对象被CIS 2识别时,AP 3执行将识别通知驾驶员或将识别通知自动制动系统的处理。
此外,例如,在图像识别装置1用于面部认证系统的情况下,AP 3执行向面部认证系统输出指示由CIS 2识别的面部是否是预先登记的人的面部的信息的处理。以这种方式,AP 3根据图像识别装置1的应用对由CIS 2识别的对象执行处理。
CIS 2具有在一帧时段(即,捕获一帧的图像的期间)内捕获具有不同灵敏度的多个图像、并且通过HDR组合所捕获的图像来生成高动态范围(HDR)图像的功能;以及识别上述捕获图像中的对象的功能。
具体地说,CIS 2包括:成像部4、高动态范围(HDR)组合单元5、存储器6、图像输出部7、通信I/F 8、以及识别部9。成像部4包括光接收部41和读取部42。
光接收部41例如包括:光学系统,光学系统包括:变焦透镜、聚焦透镜、光圈等;以及像素阵列单元,在该像素阵列单元中,包括诸如光电二极管的光接收元件的单位像素以二维矩阵形式排列。
光接收部41通过光学系统在像素阵列单元的光接收表面上形成从外部入射的光的图像。像素阵列单元的每个单位像素对入射到光接收元件上的光执行光电转换,从而可读地积累与入射光量相对应的电荷。
读取部42包括:读取电路,读取在每个单位像素中积累的电荷作为像素信号;以及模数转换器(ADC),通过将由读取电路读取的模拟像素信号转换为数字值来生成数字图像数据。
在一帧时段内,成像部4捕获具有不同灵敏度的两个图像,即,用比正常曝光时间短的曝光时间捕获的短曝光图像和用比正常曝光时间长的曝光时间捕获的长曝光图像。
结果,成像部4即使在对象的亮度过高并且对象在正常曝光时间中过度曝光的情况下,也可以捕获对象的图像被清晰地捕获的短曝光图像。此外,成像部4即使在对象的亮度过低并且对象在正常曝光时间中曝光不足的情况下,也可以捕获对象的图像被清晰地捕获的长曝光图像。成像部4将捕获的短曝光图像的图像数据和捕获的长曝光图像的图像数据输出到HDR组合部5。
HDR组合部5例如包括微型计算机以及各种电路,微型计算机包括:中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)等。
HDR组合部5通过以CPU使用RAM作为工作区执行存储在ROM中的程序,HDR组合从成像部4输入的短曝光图像的图像数据和长曝光图像的图像数据,从而生成HDR图像的图像数据。
结果,即使在一帧图像的视角内存在暗区域和亮区域两者的情况下,HDR组合部5也可以生成清晰地捕获暗区域中的对象的图像和亮区域中的对象的图像的HDR图像的图像数据。
注意,HDR组合部5可以由诸如专用集成电路(ASIC)或现场可编程门阵列(FPGA)的硬件来实现。HDR组合部5将HDR图像的生成图像数据输出到存储器6。存储器6例如是诸如闪存的存储装置,并且存储从HDR组合部5输入的HDR图像的图像数据。
例如,图像输出部7仅在从AP 3接收到HDR图像获取请求的情况下,才从存储器6读取HDR图像的图像数据,并且经由通信I/F 8将图像数据输出到AP 3,而在其他情况下不将HDR图像的图像数据输出到AP 3。
如上所述,由于图像输出部7只有在从AP 3接收到HDR图像获取请求时才向外部输出HDR图像的图像数据,因此可以减少CIS 2的功耗,并且可以保护安全性和隐私性。
识别部9包括例如微型计算机以及各种电路,微型计算机包括:CPU、ROM、RAM等。识别部9是处理单元,该处理单元以CPU使用RAM作为工作区执行存储在ROM中的程序的方式,从捕获图像的图像数据中识别对象,并且经由通信I/F 8将对象识别结果输出到AP 3。注意,识别部9的部分或全部可以通过诸如ASIC或FPGA的硬件来实现。
这里,例如,在从HDR图像的图像数据中识别对象的情况下,识别对象的精度可能恶化。具体地,如上所述,通过对短曝光图像和长曝光图像进行HDR组合来生成HDR图像。
由于短曝光图像和长曝光图像是以与正常曝光时间不同的曝光时间捕获的图像,所以短曝光图像和长曝光图像可以是与人观看的对象在亮度或颜色上略有不同的图像。
通过如上所述将短曝光图像和长曝光图像进行HDR组合而生成的HDR图像可能包括实际上并不存在的二次生成的伪影。因此,在从HDR图像的图像数据识别对象的情况下,由于伪影而不能准确地识别对象,并且识别对象的精度可能恶化。
因此,根据本公开的识别部9从未包括伪影的HDR组合之前的短曝光图像和长曝光图像的每个图像数据中识别对象,并且基于识别结果识别在一帧图像中捕获的对象,从而提高识别对象的精度。
具体地,识别部9包括:第一深度神经网络(DNN)部91、第二DNN部92、以及识别结果确定部93。DNN是具有多层结构的算法,在该多层结构中使用通过机器学习设计的人脑神经回路(神经网络)作为模型,以便从图像数据中识别对象的特征(模式)。
第一DNN部91是通过使用专门用于从短曝光图像识别对象的DNN的DNN处理,从成像部4输入的短曝光图像的图像数据识别对象的处理单元。
第一DNN部91识别在短曝光图像中捕获的对象,导出包括对象识别结果和表示识别结果的可靠性水平的DNN分数的识别结果信息,并且将识别结果信息输出到识别结果确定部93。
如上所述,由于第一DNN部91是通过使用专门用于短曝光图像的DNN的DNN处理来识别对象,因此可以从短曝光图像的图像数据中精确地识别对象。
第二DNN部92是通过使用专门用于从长曝光图像识别对象的DNN的DNN处理,从成像部4输入的长曝光图像的图像数据识别对象的处理单元。
第二DNN部92识别在长曝光图像中捕获的对象,导出包括对象识别结果和表示识别结果的可靠性水平的DNN分数的识别结果信息,并且将识别结果信息输出到识别结果确定部93。
如上所述,由于第二DNN部92是通过使用专门用于长曝光图像的DNN的DNN处理来识别对象,因此可以从长曝光图像的图像数据中精确地识别对象。
识别结果确定部93基于从第一DNN部91和第二DNN部92输入的识别结果信息来识别在一帧的图像中捕获的对象。例如,识别结果确定部93导出包括具有预定值以上的DNN分数的对象和该对象的DNN分数的最终识别结果信息,并且经由通信I/F 8将最终识别结果信息输出到AP 3。
此外,根据从第一DNN部91和第二DNN部92输入的识别结果信息中包括的DNN分数,识别结果确定部93调节成像部4的曝光时间,使得后续的DNN分数增加。稍后将参考图3和图4描述这种曝光时间调节方法的实例。
注意,识别结果确定部93不是基本组件。识别部9可以被配置为将由第一DNN部91导出的识别结果信息和由第二DNN部92导出的识别结果信息输出到AP 3。
如上所述,识别部9从未包括伪影的HDR组合之前的短曝光图像和长曝光图像的每个图像数据中识别对象,并且基于对象识别结果识别在一帧的图像中捕获的对象。结果,与从可以包括伪影的HDR图像中识别对象的情况相比,识别部9可以提高识别对象的精度。
[1-2.根据第一实施例的图像识别装置的操作实例]
接下来,将描述根据第一实施例的图像识别装置1的操作的实例。图2是根据本公开的第一实施例的图像识别装置1的操作的示图。
如图2所示,在一帧时段t1期间,成像部4捕获曝光时间为t2的短曝光图像,然后捕获曝光时间为长于t2的t3的长曝光图像。然后,成像部4将短曝光图像的图像数据输出到第一DNN部91,并且将长曝光图像的图像数据输出到第二DNN部92。
第一DNN部91从相对暗的短曝光图像的图像数据中识别例如车辆10作为对象,并且将识别结果信息D1输出到识别结果确定部93。识别结果信息D1不是图像数据,而是包括指示上述被识别对象和DNN分数的信息的元数据。
第二DNN部92从相对明亮的长曝光图像的图像数据中识别例如车辆10作为对象,并且将识别结果信息D2输出到识别结果确定部93。识别结果信息D2不是图像数据,而是包括指示上述被识别对象和DNN分数的信息的元数据。此时,第一DNN部91和第二DNN部92并行地执行DNN处理。结果,识别部9可以缩短对象识别处理所需的时间。
识别结果确定部93基于识别结果信息D1和D2将车辆10识别为对象,并且将最终识别结果信息D3发送到通信I/F 8。最终识别结果信息D3也不是图像数据,而是包括指示上述被识别对象和DNN分数的信息的元数据。
通信I/F 8将识别结果信息D3输出到AP 3的通信I/F 32。如上所述,由于CIS 2将不是图像数据而是元数据的识别结果信息D3输出到AP 3,因此与输出图像数据的情况相比,可以减少功耗,并且可以保护隐私和安全性。
[1-3.曝光时间调节法]
接下来,将参考图3和图4描述由识别结果确定部93执行的曝光时间调节方法的实例。图3和图4是根据本公开的第一实施例的曝光时间调节方法的示图。注意,图3和图4中所示的20行和50行是指示曝光时间长度的指标,更多的行对应于更长的曝光时间。
如图3所示,例如,在第一帧时段t1期间捕获的短曝光图像P1的DNN分数可以是80,并且长曝光图像P2的DNN分数可以是60。在这种情况下,此时成像目标的DNN分数随着曝光时间的增加而降低的可能性很高。
因此,在短曝光图像的分数高于长曝光图像的情况下(步骤S1),识别结果确定部93执行曝光时间调节,以缩短在下一帧时段中要捕获的短曝光图像和长曝光图像的曝光时间(步骤S2)。
例如,识别结果确定部93将下一次要捕获的短曝光图像P3的曝光时间从20行缩短到10行,并且将下一次要捕获的长曝光图像P4的曝光时间从50行缩短到40行。结果,识别结果确定部93例如可以将下一次要捕获的短曝光图像的DNN分数从80提高到85,并且可以将下一次要捕获的长曝光图像的DNN分数从60提高到70。
此外,在长曝光图像具有比短曝光图像更高的分数的情况下,识别结果确定部93执行曝光时间调节,以增加在下一帧时段中要捕获的短曝光图像和长曝光图像的曝光时间。
注意,识别结果确定部93可以在曝光时间过长或过短的情况下降低DNN分数。因此,识别结果确定部93重复上述曝光时间调节,直到DNN分数收敛到最大值。
例如,如图4所示,在第一次以20行曝光时间捕获的图像的DNN分数为50,第二次以30行的延长曝光时间捕获的图像的DNN分数提高到60的情况下,识别结果确定部93进一步第三次延长曝光时间。
在第三次通过延长曝光时间40行捕获的图像的DNN分数提高到70的情况下,识别结果确定部93将曝光时间延长到50行以第四次捕获图像。然后,在第四次捕获的图像的DNN分数提高到80的情况下,识别结果确定部93将曝光时间延长到60行,以第五次捕获图像。
此时,在第五次捕获的图像的DNN分数降低到60的情况下,识别结果确定部93确定80作为DNN分数的最大值,该80是曝光时间为50行时捕获的图像的DNN分数。
然后,识别结果确定部93将曝光时间缩短到50行,以第六次捕获图像。结果,第六次捕获的图像的DNN分数提高到最大值80。此后,识别结果确定部93将曝光时间维持在50行以捕获图像,使得捕获图像的DNN分数收敛到最大值80。结果,识别部9此后可以连续导出DNN分数最高的高度可靠的对象识别结果。
[1-4.识别部执行的处理]
接下来,将参考图5描述由识别部9执行的处理的实例。图5是示出根据本公开的第一实施例的识别部9执行的处理的实例的流程图。识别部9在每次由成像部4捕获短曝光图像和长曝光图像时执行图5所示的处理。
具体地说,一旦由成像部4捕获了短曝光图像和长曝光图像,识别部9从成像部4获取短曝光图像的图像数据(步骤S101),并且对短曝光图像的图像数据执行DNN处理(步骤S102)。
此外,识别部9与步骤S101、S102的处理并行地从成像部4获取长曝光图像的图像数据(步骤S103),并且对长曝光图像的图像数据执行DNN处理(步骤S104)。
然后,识别部9基于作为对短曝光图像的图像数据执行的DNN处理的结果的对象识别结果信息D1和作为对长曝光图像的图像数据执行的DNN处理的结果的对象识别结果信息D2来识别对象(步骤S105)。
此后,识别部9经由通信I/F 8向AP 3输出作为对象识别结果的最终识别结果信息D3(步骤S106)。然后,识别部9根据包括在识别结果信息D1和识别结果信息D2中的DNN分数来调节要由成像部4捕获的图像的曝光时间(步骤S107),并且结束处理。
[1-5.图像识别装置的第一变型例]
接下来,将描述图像识别装置1的第一变型例。根据第一变型例的图像识别装置与图1所示的图像识别装置1的不同之处在于,识别部未包括两个DNN部(即第一DNN部91和第二DNN部92),而是包括一个DNN部,并且该识别装置的其他配置与图1所示的图像识别装置的配置相似。
因此,将不重复描述根据第一变型例的图像识别装置的整个配置,并且将参考图6描述根据第一变型例的图像识别装置的操作。此外,这里,与图2中所示的部件相同的部件由与图2中所示的部件相同的附图标记表示,并且将省略重复描述。
图6是根据本公开的第一实施例的图像识别装置1的第一变型例的操作的示图。如图6所示,根据第一变型例的DNN部90按照成像的顺序从成像部4获取短曝光图像和长曝光图像。
然后,DNN部90通过按照获取在一帧时段内捕获的短曝光图像和长曝光图像的图像数据的顺序按时间序列执行DNN处理来识别对象。然后,DNN部90经由通信I/F 8向AP 3顺序地输出识别结果信息D1以及识别结果信息D2,该识别结果信息D1通过对短曝光图像的图像数据执行DNN处理而得,识别结果信息D2通过对长曝光图像的图像数据执行DNN处理而得。
如上所述,由于根据第一变型例的图像识别装置从未包括伪影的HDR组合之前的短曝光图像和长曝光图像的图像数据识别对象,因此可以提高识别在一帧图像中捕获的对象的精度。
此外,在根据第一变型例的图像识别装置中,由于识别部包括一个DNN部90,因此可以简化电路配置,从而可以降低制造成本。此外,在根据第一变型例的图像识别装置中,由于DNN部90只需要使用一种类型的DNN,因此可以减少设计DNN所需的劳动、时间、以及成本。
[1-6.1-5.图像识别装置的第二变型例]
接下来,将描述图像识别装置1的第二变型例。在根据第二变型例的图像识别装置中,成像部中的光接收部的配置不同于图1所示的图像识别装置1,其他配置类似于图1所示的图像识别装置的配置。
因此,将不重复描述根据第二变型例的图像识别装置的整个配置,将参考图7描述根据第二变型例的光接收部41a的配置,并且将参考图8描述根据第二变型例的图像识别装置的操作。此外,这里,与图2中所示的部件相同的部件由与图2中所示的部件相同的附图标记表示,并且将省略重复描述。
图7是包括在根据本公开的第一实施例的图像识别装置的第二变型例中的光接收部41a的示图。图8是根据第一实施例的图像识别装置的操作的示图。注意,图7示出了光接收部41a的平面图和光接收部41a的光接收区域40中由虚线包围的部分的放大图。
如图7所示,光接收部41a包括:小光接收元件43,作为具有相对小的光接收面积的光电转换元件;以及大光接收元件44,作为具有相对大的光接收面积的光电转换元件。在光接收部41a中,例如,小光接收元件43和大光接收元件44在纵向和横向方向上交替布置。
由于小光接收元件43和大光接收元件44具有不同的光接收面积,所以当进行相同时间段的曝光时,经受光电转换和积累的电荷量不同。即,在曝光时间相同的情况下,小光接收元件43比大光接收元件44积累更少的电荷。
利用光接收部41a,可以捕获单次拍摄HDR图像,该图像能够在一次曝光中同时地捕获模拟以一组小光接收元件43作为像素获得的短曝光图像的第一图像和模拟以一组大光接收元件44作为像素获得的长曝光图像的第二图像。
结果,如图8所示,在根据第二变型例的图像识别装置中,可以将包括在由成像部在一帧时段内捕获的单次拍摄HDR图像中的第一图像输入到第一DNN部91,同时可以将第二图像输入到第二DNN部92。结果,第一DNN部91和第二DNN部92可以同时开始DNN处理并且同时地结束DNN处理。
因此,识别结果确定部93不需要等待直到输入第一DNN部91的识别结果信息D1然后输入第二DNN部92的识别结果信息D2,就像在以时间间隔捕获短曝光图像和长曝光图像的情况下那样。
因此,识别结果确定部93可以缩短导出最终识别结果信息D3所需的时间。注意,在导出最终识别结果信息D3之后,与图2所示的图像识别装置1的操作类似,根据第二变型例的图像识别装置经由通信I/F 8将最终识别结果信息D3输出到AP 3。
此外,与图1所示的图像识别装置1类似,根据第二变型例的图像识别装置从未包括伪影的HDR组合之前的第一图像和第二图像的图像数据中识别对象。因此,可以提高识别在一帧图像中捕获的对象的精度。
(2.第二实施例)
接下来,将参考图9描述根据第二实施例的图像识别装置1a。图9是示出根据本公开的第二实施例的图像识别装置1a的配置的实例的图。注意,这里,在图9所示的部件中,与图1所示的部件相同的部件由与图1所示的部件相同的附图标记表示,并且将省略其详细描述。
如图9所示,根据第二实施例的图像识别装置1a与图1所示的图像识别装置1的不同之处在于,CIS 2a未包括识别部9,而AP 3包括识别部9,该CIS 2a其他配置与图1所示的图像识别装置1的配置相同。
CIS 2a的成像部4捕获短曝光图像和长曝光图像,将短曝光图像和长曝光图像的图像数据输出到HDR组合部5,并且还通过通信I/F 8将图像数据输出到AP 3。
HDR组合部5将通过对短曝光图像和长曝光图像的图像数据进行HDR组合而生成的HDR图像输出到存储器6。存储器6存储从HDR组合部5输入的HDR图像。图像输出部7从存储器6读取HDR图像的图像数据,并且仅当从AP 3接收到获取HDR图像的请求时才将图像数据输出到AP 3。
AP 3a的识别部9执行与根据第一实施例的识别部9类似的处理。具体地,第一DNN部91通过对经由通信I/F 32从CIS 2a输入的短曝光图像的图像数据执行DNN处理来识别短曝光图像中的对象,并且将对象识别结果信息D1输出到识别结果确定部93。
第二DNN部92通过对经由通信I/F 32从CIS 2a输入的长曝光图像的图像数据执行DNN处理来识别长曝光图像中的对象,并且将对象识别结果信息D2输出到识别结果确定部93。
识别结果确定部93基于从第一DNN部91输入的识别结果信息D1和从第二DNN部92输入的识别结果信息D2来识别在一帧的图像中捕获的对象。
例如,识别结果确定部93导出包括具有预定值以上的DNN分数的对象和该对象的DNN分数的最终识别结果信息D3。然后,识别结果确定部93将最终识别结果信息D3输出到AP控制部31。AP控制部31对由识别部9识别的对象执行根据图像识别装置1的应用的处理。
同样在根据第二实施例的图像识别装置1a中,识别部9从未包括伪影的HDR组合之前的短曝光图像和长曝光图像的每个图像数据中识别对象,并且基于识别结果识别在一帧图像中捕获的对象。
结果,与从可以包括伪影的HDR图像识别对象的情况相比,图像识别装置1a可以提高识别对象的精度。注意,根据第二实施例的识别部9的配置不限于图9所示的配置。
此外,由于图像识别装置1a以具有比CIS 2a更高的信息处理能力的AP 3a通常执行DNN处理的方式识别对象,因此可以缩短从捕获图像到导出对象识别结果所需的时间。
例如,根据第二实施例的识别部9可以具有类似于根据第一实施例的第一变型例的识别部的配置。此外,根据第二实施例的光接收部41可以具有与根据第一实施例的第二变型例的光接收部41a的配置相似的配置。
(3.移动体的应用实例)
根据本公开的技术(本技术)可以应用于各种产品。例如,根据本公开的技术可以被实现为安装在诸如车辆、电动车辆、混合动力车辆、摩托车、自行车、个人移动装置、飞机、无人机、船舶、以及机器人等移动体中的任何一者中的装置。
图10是示出车辆控制系统的示意性配置的实例的框图,该车辆控制系统是作为可应用根据本公开的实施方式的技术的移动体控制系统的实例。
车辆控制系统12000包括经由通信网络12001彼此连接的多个电子控制单元。在图10所示出的实例中,车辆控制系统12000包括驱动系统控制单元12010、车身系统控制单元12020、车外信息检测单元12030、车内信息检测单元12040以及集成控制单元12050。此外,微型计算机12051、声音/图像输出部12052、车载网络接口(I/F)12053作为集成控制单元12050的功能配置而示出。
驱动系统控制单元12010根据各种程序对与车辆的驱动系统相关的装置的工作进行控制。例如,驱动系统控制单元12010用作控制装置来控制:用于生成车辆的驱动力的驱动力生成装置,诸如内燃机、驱动电机等,用于将驱动力传递至车轮的驱动力传递机构,用于调节车辆的转向角的转向机构,以及用于生成车辆的制动力的制动装置等。
车身系统控制单元12020根据各种程序对车身所配置的各种类型的装置的操作进行控制。例如,车身系统控制单元12020用作控制装置来控制下列项:无钥匙进入系统、智能钥匙系统、电动车窗装置,或前照灯、倒车灯、制动灯、转向灯、雾灯等各种灯。在这种情况下,车身系统控制单元12020可接收来自替代钥匙的移动装置所传输的无线电波或者各种开关的信号作为输入。车身系统控制单元12020接收这些输入的无线电波或信号,以控制车辆的门锁装置、电动车窗装置、灯等。
车外信息检测单元12030检测配有车辆控制系统12000的车辆的外部的信息。例如,车外信息检测单元12030连接有成像部12031。车外信息检测单元12030使成像部12031成像车辆外部的图像,并且接收所成像的图像。基于所接收的图像,车外信息检测单元12030可执行检测对象(诸如路面上的人、车辆、障碍物、标志、符号等)的处理,或者执行检测到对象的距离的处理。
成像部12031是接收光并且输出与所接收的光的光量相对应的电信号的光学传感器。成像部12031能够输出作为图像的电信号,或者能够输出作为关于所测量距离的信息的电信号。此外,由成像部12031接收的光可以是可见光,或者可以是诸如红外线等的不可见光。
车内信息检测单元12040检测关于车辆内部的信息。车内信息检测单元12040可以连接有检测驾驶员的状态的驾驶员状态检测部12041。驾驶员状态检测部12041例如包括捕获驾驶员的相机。基于从驾驶员状态检测部12041输入的检测信息,车内信息检测单元12040可计算驾驶员的疲劳程度或驾驶员的注意力集中程度,或者可辨别驾驶员是否在打瞌睡。
微型计算机12051能够基于由车外信息检测单元12030或车内信息检测单元12040获得的关于车辆内部或外部的信息,计算用于驱动力生成装置、转向机构或制动装置的控制目标值,并且向驱动系统控制单元12010输出控制命令。例如,微型计算机12051能够执行旨在实现高级驾驶员辅助系统(ADAS)的功能的协同控制,该功能包括用于车辆的碰撞回避或撞击缓冲、基于车间距离的跟随驾驶、车速保持驾驶、车辆碰撞的警报、车辆偏离车道的警报等。
此外,微型计算机12051,可通过基于由车外信息检测单元12030或车内信息检测单元12040获得的关于车辆外部或内部的信息以控制驱动力生成装置、转向机构、制动装置,从而执行旨在用于不依赖于驾驶员的操作的自动行驶等的协同控制。
此外,微型计算机12051能够基于由车外信息检测单元12030获得的关于车辆外部的信息向车身系统控制单元12020输出控制命令。例如,微型计算机12051,可基于由车外信息检测单元12030检测的前方车辆或迎面车辆的位置来控制前照灯,将其从远光改变为近光,从而执行旨在通过控制前照灯来防止眩光的协同控制。
声音/图像输出部12052将声音和图像中的至少一者的输出信号传输至输出装置,该输出装置能够向车辆的乘客或车辆外部以视觉或听觉方式通知信息。在图10的实例中,音频扬声器12061、显示部12062和仪表面板12063作为输出装置而示出。显示部12062可例如包括车载显示器和平视显示器中的至少一个。
图11是示出成像部12031的安装位置的实例的示图。
在图11中,成像部12031包括成像部12101、12102、12103、12104和12105。
成像部12101、12102、12103、12104和12105可以被布置在车辆12100的前鼻、侧视镜、后保险杠、后门以及车辆内部的挡风玻璃的上部的位置处。布置在前鼻的成像部12101以及布置在车辆内部的挡风玻璃的上部的成像部12105主要获得车辆12100的前方的图像。布置在侧视镜的成像部12102和12103主要获得车辆12100的侧面的图像。布置在后保险杠或后门的成像部12104主要获得车辆12100的后方的图像。布置在车辆内部的挡风玻璃的上部的成像部12105主要用于检测前方车辆、行人、障碍物、信号、交通标志、车道等。
顺便提及,图11示出成像部12101~12104的捕获范围的实例。成像范围12111表示布置在前鼻的成像部12101的成像范围。成像范围12112和12113分别表示布置在侧视镜的成像部12102和12103的成像范围。成像范围12114表示布置在后保险杠或后门的成像部12104的成像范围。例如,通过叠加由成像部12101~12104成像的图像数据能够获得从上方观察的车辆12100的鸟瞰图像。
成像部12101~12104中的至少一个可具有获得距离信息的功能。例如,成像部12101~12104中的至少一个可以是由多个成像元件组成的立体相机,或者可以是具有用于相位差检测的像素的成像元件。
例如,微型计算机12051能够基于从成像部12101~12104获得的距离信息,确定到成像范围12111~12114内的每个三维对象的距离以及该距离的时间变化(相对于车辆12100的相对速度),并且由此提取最近三维对象作为前方车辆,该最近三维对象具体存在于车辆12100的行驶路径上并且以预定速度(例如,等于或大于0公里/小时)在与车辆12100基本相同的方向上行驶。此外,微型计算机12051能够预先设置要保持的距前方车辆的跟随距离,并且执行自动制动控制(包括跟随的停车控制)、自动加速度控制(包括跟随的起动控制)等。因此,能够执行旨在用于不依赖于驾驶员的操作的自动行驶等的协同控制。
例如,微型计算机12051能够基于从成像部12101~12104获得的距离信息,将关于三维对象的三维对象数据分类为二轮车辆、标准尺寸车辆、大型车辆、行人、电线杆以及其他三维对象的三维对象数据,提取所分类的三维对象数据,以用于障碍物的自动回避。例如,微型计算机12051辨别车辆12100周围的障碍物是车辆12100的驾驶员能视觉识别的障碍物,还是对于车辆12100的驾驶员难以视觉识别的障碍物。于是,微型计算机12051确定碰撞风险,该碰撞风险指示与每个障碍物发生碰撞的风险。在碰撞风险等于或高于设定值存在碰撞的可能性的情况下,微型计算机12051经由音频扬声器12061或显示部12062向驾驶员输出警报,并且经由驱动系统控制单元12010执行强制减速或回避转向。由此微型计算机12051能够协助驾驶以避免碰撞。
成像部12101~12104中的至少一个可以是检测红外线的红外相机。例如,微型计算机12051能够通过确定在成像部12101~12104的成像图像中是否存在行人来识别行人。这种行人识别例如由下列程序执行:提取作为红外相机的成像部12101~12104的成像图像中的特性点的程序,以及通过在表示对象轮廓的一系列特性点上执行图案匹配处理来确定是否是行人的程序。当微型计算机12051确定在成像部12101~12104的成像图像中存在行人并且因此识别到行人时,声音/图像输出部12052控制显示部12062,使其显示叠加在所识别的行人用于强调所识别的行人的方形轮廓线。声音/图像输出部12052还可控制显示部12062,使其在期望的位置处显示表示行人的图标等。
以上,描述了可以应用根据本公开的技术的车辆控制系统的实例。根据本公开的技术可以应用于例如上述配置中的车外信息检测单元12030、成像部12031、车内信息检测单元12040、驾驶员状态检测部12041等。例如,图1中的图像识别装置1可以应用于车内信息检测单元12040和驾驶员状态检测部12041。通过将根据本公开的技术应用到车内信息检测单元12040和驾驶员状态检测部12041,提高了将驾驶员识别为对象时的精度,从而可以更精确地检测疲劳程度、集中程度、驾驶员是否打瞌睡等。
(4.效果)
图像识别装置1包括成像部4和识别部9。成像部4在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据。识别部9从每个图像数据中识别对象,并且基于识别对象的结果识别在一帧的图像中捕获的对象。结果,图像识别装置1通过从未包括伪影的HDR组合之前的图像数据中识别对象,可以提高识别对象的精度。
此外,图像识别装置1包括CIS 2,该CIS 2作为包括成像部4和识别部9的固态成像装置的实例。结果,在图像识别装置1中,可以在CIS2内部执行对象的识别,而无需将图像数据从CIS 2输出到外部。因此,图像识别装置1可以降低CIS 2的功耗,并且保护对象的隐私和安全。
此外,图像识别装置1a包括:CIS 2a,该CIS 2a作为包括成像部4的固态成像装置的实例;以及AP 3a,该AP 3a作为包括识别部9的处理器的实例。结果,图像识别装置1a可以提高识别对象的精度,并进一步缩短导出对象识别结果所需的时间。
此外,识别部9通过执行使用深度神经网络(DNN)的DNN处理,从每个图像数据中识别对象。结果,识别部9可以导出高度可靠的对象识别结果。
此外,识别部9通过对在时间序列中的一帧时段中捕获的多个图像的图像数据执行DNN处理来识别对象。识别部9可以通过使用一种类型的DNN从多个图像中识别对象。结果,图像识别装置1可以减少设计用于识别对象的DNN所需的劳动、时间、以及成本。
此外,识别部9通过并行地对在一帧时段内捕获的多个图像的图像数据执行DNN处理来识别对象。结果,识别部9可以缩短对象识别处理所需的时间。
此外,识别部9通过执行使用专用于具有不同灵敏度的每个图像的DNN的DNN处理来识别对象。结果,图像识别装置1能够高精度地识别在具有与HDR图像的动态范围等效的动态范围的图像中捕获的对象。
另外,成像部4捕获具有不同曝光时间的多个图像。结果,图像识别装置1能够高精度地识别对象,该对象在具有与HDR图像的动态范围等效的动态范围的图像中捕获。
此外,识别部9根据对象识别结果的精度调节成像部4的曝光时间。结果,图像识别装置1通过从以适于识别对象的曝光时间捕获的图像中识别对象,还可以提高对象识别结果。
此外,识别部9重复成像部4的曝光时间的调节,直到对象识别结果的精度收敛到最大值。结果,图像识别装置1通过从以对对象的识别最优的曝光时间捕获的图像中识别对象,还可以提高对象识别结果。
此外,成像部4通过设置在光接收区域40中并且具有不同光接收面积的光接收元件的小光接收元件43和大光接收元件44,来捕获多个图像。结果,图像识别装置1能够以高精度识别在具有与HDR图像的动态范围等效的动态范围的图像中捕获的对象。
CIS 2(作为固态成像装置的实例)包括:成像部4和识别部9。成像部4在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据。识别部9从每个图像数据中识别对象,并且基于识别对象的结果识别在一帧的图像中捕获的对象。结果,CIS 2通过从未包括伪影的HDR组合之前的图像数据中识别对象,可以提高识别对象的精度。
在图像识别方法中,在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;从每个图像数据中识别对象,并且基于识别对象的结果来识别在一帧图像中捕获的对象。结果,利用该图像识别方法,通过从未包括伪影的HDR组合之前的图像数据中识别对象,可以提高识别对象的精度。
注意,在本说明书中描述的每个实施例中的效果仅仅是实例。本公开的效果不限于此,并且可以获得其他效果。
注意,本技术也可以具有以下配置。
(1)一种图像识别装置,包括:
成像部,在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;以及
识别部,从每个图像数据中识别对象,并且基于识别对象的结果识别在一帧图像中捕获的对象。
(2)根据(1)的图像识别装置,其中,该图像识别装置包括:
固态成像装置,包括成像部和识别部。
(3)根据(1)的图像识别装置,其中,该图像识别装置包括:
固态成像装置,包括成像部;以及
处理器,包括识别部。
(4)根据(1)至(3)中任一项的图像识别装置,其中
识别部通过执行使用深度神经网络DNN的DNN处理来从每个图像数据中识别对象。
(5)根据(4)的图像识别装置,其中
识别部通过按时间序列对在一帧时段内捕获的多个图像的图像数据执行DNN处理来识别对象。
(6)根据(4)的图像识别装置,其中
识别部通过并行地对在一帧时段内捕获的多个图像的图像数据执行DNN处理来识别对象。
(7)根据(4)至(6)中任一项的图像识别装置,其中
识别部通过执行使用专用于具有不同灵敏度的每个图像的DNN的DNN处理来识别对象。
(8)根据(1)至(7)中任一项的图像识别装置,其中
成像部捕获具有不同曝光时间的多个图像。
(9)根据(8)的图像识别装置,其中
识别部根据识别对象的结果的可靠性水平来调节成像部的曝光时间。
(10)根据(9)的图像识别装置,其中
识别部重复地对成像部的曝光时间进行调节,直到识别对象的结果的可靠性水平收敛到最大值为止。
(11)根据(1)至(10)中任一项的图像识别装置,其中
成像部通过设置在光接收区域中并且具有不同光接收面积的多个光接收元件捕获多个图像。
(12)一种固态成像装置,包括:
成像部,在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;以及
识别部,从每个图像数据中识别对象,并且基于识别对象的结果识别在一帧图像中捕获的对象。
(13)一种图像识别方法,包括:
在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;并且
从每个图像数据中识别对象,并且基于识别对象的结果识别在一帧图像中捕获的对象。
附图标记列表
1、1A 图像识别装置
2、2a CIS
3、3a AP
31 AP控制部
32 通信I/F
4 成像部
40 光接收区域
41、41A 光接收部
42 读取部
43 小光接收元件
44 大光接收元件
5 HDR组合部
6 存储器
7 图像输出部
8 通信I/F
9 识别部
90 DNN部
91 第一DNN部
92 第二DNN部
93 识别结果确定部。

Claims (13)

1.一种图像识别装置,包括:
成像部,在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;以及
识别部,从每个所述图像数据中识别对象,并且基于识别所述对象的结果来识别在一帧图像中捕获的所述对象。
2.根据权利要求1所述的图像识别装置,其中,所述图像识别装置包括:
固态成像装置,包括所述成像部和所述识别部。
3.根据权利要求1所述的图像识别装置,其中,所述图像识别装置包括:
固态成像装置,包括所述成像部;以及
处理器,包括所述识别部。
4.根据权利要求1所述的图像识别装置,其中,
所述识别部通过执行使用深度神经网络DNN的DNN处理来从每个所述图像数据中识别所述对象。
5.根据权利要求4所述的图像识别装置,其中,
所述识别部通过按时间序列对在一帧时段内捕获的多个图像的图像数据执行所述DNN处理来识别所述对象。
6.根据权利要求4所述的图像识别装置,其中,
所述识别部通过并行地对在一帧时段内捕获的多个图像的图像数据执行所述DNN处理来识别所述对象。
7.根据权利要求4所述的图像识别装置,其中,
所述识别部通过执行使用专用于具有不同灵敏度的每个所述图像的DNN的所述DNN处理,来识别所述对象。
8.根据权利要求1所述的图像识别装置,其中,
所述成像部捕获具有不同曝光时间的多个所述图像。
9.根据权利要求8所述的图像识别装置,其中,
所述识别部根据识别所述对象的结果的可靠性水平来调节所述成像部的所述曝光时间。
10.根据权利要求9所述的图像识别装置,其中,
所述识别部重复地对所述成像部的所述曝光时间进行调节,直到识别所述对象的结果的可靠性水平收敛到最大值。
11.根据权利要求1所述的图像识别装置,其中,
所述成像部通过设置在光接收区域中并且具有不同光接收面积的多个光接收元件捕获多个所述图像。
12.一种固态成像装置,包括:
成像部,在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;以及
识别部,从每个所述图像数据中识别对象,并且基于识别所述对象的结果来识别在一帧图像中捕获的所述对象。
13.一种图像识别方法,包括:
在一帧时段内捕获具有不同灵敏度的多个图像以生成图像数据;并且
从每个所述图像数据中识别对象,并且基于识别所述对象的结果来识别在一帧图像中捕获的所述对象。
CN202080032629.8A 2019-05-10 2020-04-30 图像识别装置、固态成像装置及图像识别方法 Pending CN113767395A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019089782A JP2020187409A (ja) 2019-05-10 2019-05-10 画像認識装置、固体撮像装置、および画像認識方法
JP2019-089782 2019-05-10
PCT/JP2020/018356 WO2020230660A1 (ja) 2019-05-10 2020-04-30 画像認識装置、固体撮像装置、および画像認識方法

Publications (1)

Publication Number Publication Date
CN113767395A true CN113767395A (zh) 2021-12-07

Family

ID=73221764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080032629.8A Pending CN113767395A (zh) 2019-05-10 2020-04-30 图像识别装置、固态成像装置及图像识别方法

Country Status (6)

Country Link
US (1) US11805330B2 (zh)
EP (1) EP3968273A4 (zh)
JP (1) JP2020187409A (zh)
CN (1) CN113767395A (zh)
TW (1) TWI744876B (zh)
WO (1) WO2020230660A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202143119A (zh) * 2020-05-07 2021-11-16 瑞典商安訊士有限公司 在具有光強度廣泛範圍的場景中利用神經網路之物件偵測
JPWO2022196217A1 (zh) * 2021-03-19 2022-09-22
JP2023046965A (ja) * 2021-09-24 2023-04-05 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
TWI786992B (zh) 2021-12-14 2022-12-11 國立清華大學 整合卷積神經網路運算電路的影像感測器
WO2023218935A1 (ja) * 2022-05-10 2023-11-16 ソニーセミコンダクタソリューションズ株式会社 イメージセンサ、情報処理方法、プログラム
CN117132863B (zh) * 2023-10-25 2023-12-22 罗普特科技集团股份有限公司 一种能够进行数据反馈的车辆系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3675246B2 (ja) * 1999-08-13 2005-07-27 Kddi株式会社 正誤答判定機能を有するニューラルネットワーク手段
JP4139641B2 (ja) * 2002-07-19 2008-08-27 富士フイルム株式会社 固体撮像素子
JP2007235640A (ja) 2006-03-02 2007-09-13 Fujifilm Corp 撮影装置及び方法
JP4492724B2 (ja) * 2008-03-25 2010-06-30 ソニー株式会社 画像処理装置、画像処理方法、プログラム
JP2012235332A (ja) 2011-05-02 2012-11-29 Sony Corp 撮像装置、および撮像装置制御方法、並びにプログラム
JP2013172378A (ja) 2012-02-22 2013-09-02 Ricoh Co Ltd 画像処理装置及び車両
US9292787B2 (en) * 2012-08-29 2016-03-22 Microsoft Technology Licensing, Llc Computer-implemented deep tensor neural network
JP2014103643A (ja) 2012-11-22 2014-06-05 Canon Inc 撮像装置及び被写体認識方法
US9665823B2 (en) * 2013-12-06 2017-05-30 International Business Machines Corporation Method and system for joint training of hybrid neural networks for acoustic modeling in automatic speech recognition
JP2015192222A (ja) * 2014-03-27 2015-11-02 パナソニックIpマネジメント株式会社 撮像装置及び撮像制御方法
WO2017051722A1 (ja) * 2015-09-24 2017-03-30 ソニー株式会社 固体撮像素子及び電子機器
US10289822B2 (en) * 2016-07-22 2019-05-14 Nec Corporation Liveness detection for antispoof face recognition
JP2018092610A (ja) * 2016-11-28 2018-06-14 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP2018152777A (ja) 2017-03-14 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、撮像装置および電子機器

Also Published As

Publication number Publication date
US20220232182A1 (en) 2022-07-21
EP3968273A4 (en) 2022-06-29
JP2020187409A (ja) 2020-11-19
WO2020230660A1 (ja) 2020-11-19
TW202101960A (zh) 2021-01-01
EP3968273A1 (en) 2022-03-16
TWI744876B (zh) 2021-11-01
US11805330B2 (en) 2023-10-31

Similar Documents

Publication Publication Date Title
US11805330B2 (en) Image recognition device, solid-state imaging device, and image recognition method
CN111656770B (zh) 固态成像元件、成像装置及固态成像元件的控制方法
WO2020241336A1 (ja) 画像認識装置および画像認識方法
WO2020230636A1 (ja) 画像認識装置および画像認識方法
WO2020105314A1 (ja) 固体撮像素子、および、撮像装置
WO2020110537A1 (ja) 固体撮像素子、および、撮像装置
WO2021117350A1 (ja) 固体撮像素子、および、撮像装置
WO2021241360A1 (ja) 検出装置、検出システム及び検出方法
US20220276379A1 (en) Device, measuring device, distance measuring system, and method
WO2020246186A1 (ja) 撮像システム
WO2020230635A1 (ja) 撮像装置および撮像方法
CN117546477A (zh) 成像装置、电子设备及光检测方法
CN113170067B (zh) 摄像装置、摄像系统和故障检测方法
WO2021002071A1 (ja) 固体撮像素子、撮像装置、および、固体撮像素子の制御方法
US11201997B2 (en) Solid-state imaging device, driving method, and electronic apparatus
WO2021100593A1 (ja) 測距装置及び測距方法
US20230308779A1 (en) Information processing device, information processing system, information processing method, and information processing program
US20220268890A1 (en) Measuring device and distance measuring device
JP2022060730A (ja) 半導体装置、光学構造物
JP2009187066A (ja) 画像認識装置、及び移動体制御装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination