CN113875217A - 图像识别装置和图像识别方法 - Google Patents

图像识别装置和图像识别方法 Download PDF

Info

Publication number
CN113875217A
CN113875217A CN202080038430.6A CN202080038430A CN113875217A CN 113875217 A CN113875217 A CN 113875217A CN 202080038430 A CN202080038430 A CN 202080038430A CN 113875217 A CN113875217 A CN 113875217A
Authority
CN
China
Prior art keywords
image
imaging
unit
pixel
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080038430.6A
Other languages
English (en)
Inventor
奥池和幸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of CN113875217A publication Critical patent/CN113875217A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/12Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with one sensor only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • H04N23/843Demosaicing, e.g. interpolating colour pixel values
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/131Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements including elements passing infrared wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/135Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on four or more different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/585Control of the dynamic range involving two or more exposures acquired simultaneously with pixels having different sensitivities within the sensor, e.g. fast or slow pixels or pixels having different sizes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Evolutionary Computation (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

提供一种能够提高被摄体的识别精度的图像识别装置和图像识别方法。根据本公开的图像识别装置(图像传感器1)具有成像单元(10)和识别单元(14)。成像单元(10)使用用于接收可见光的成像像素(R、Gr、Gb、B)和接收红外光的成像像素(IR),并且在一个帧周期期间在相同的曝光定时捕获多个图像,并且生成图像数据。识别单元(14)从每条图像数据中识别被摄体。

Description

图像识别装置和图像识别方法
技术领域
本公开涉及一种图像识别装置和一种图像识别方法。
背景技术
存在一种成像装置,该成像装置设置有通过在一个帧周期中成像和合成灵敏度不同的多个图像来生成HDR图像的高动态范围(HDR)成像模式,并且从HDR图像中识别被摄体(例如,参见专利文献1)。
此外,还有一种成像装置,该成像装置通过合成通过使用接收可见光的成像像素和接收红外光的成像像素成像的图像来生成HDR图像,并且从HDR图像识别被摄体。
现有技术文献
专利文献
专利文献1:JP 2014-103643 A
发明内容
本发明要解决的技术问题
然而,在上述传统技术中,被摄体的识别精度有时会降低。因此,本公开提出了一种能够提高被摄体的识别精度的图像识别装置和图像识别方法。
问题的解决方案
根据本公开的图像识别装置包括成像单元和识别单元。成像单元使用接收可见光的成像像素和接收红外光的成像像素,并且在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据。识别单元从每条图像数据中识别被摄体。
附图说明
图1是示出根据本公开的像素阵列的说明图;
图2A是示出使用通用DNN的示例的说明图;
图2B是示出使用根据本公开的DNN的示例的说明图;
图3是示出根据本公开的图像识别系统的配置示例的示图;
图4是根据本公开的由信号处理单元执行的处理的说明图;
图5A是根据本公开的由识别单元执行的处理的说明图;
图5B是根据本公开的由识别单元执行的处理的说明图;
图6是示出根据本公开的由信号处理单元执行的处理的修改例的说明图;
图7是示出根据本公开的由识别单元使用的DNN的修改例的说明图;
图8是示出根据本公开的像素阵列的第一修改例的说明图;
图9是示出根据本公开的像素阵列的第二修改例的说明图;
图10是示出当采用根据本公开的像素阵列的第二修改例时使用DNN的示例的说明图;
图11是示出根据本公开的像素阵列的第三修改例的说明图;
图12是示出车辆控制系统的示意性配置的示例的框图;
图13是示出车外信息检测单元和成像单元的安装位置的示例的说明图。
具体实施方式
下面将参考附图给出本公开的实施例的详细描述。注意,在以下各个实施例中,给相同的部分提供相同的附图标记,并且将省略重复的描述。
[1.图像识别方法的概述]
首先,将给出根据本公开的图像识别方法的概述的描述。在根据本公开的图像识别方法中,使用接收可见光的成像像素和接收红外光的成像像素,在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据,并且从每条图像数据中识别被摄体。在此,这种在相同曝光定时的成像例如意味着通过在多个单独的定时开始多个像素的曝光并在相同的定时结束曝光来对图像成像。
为了对多个图像成像,使用了用于对高动态范围(HDR)图像成像的像素阵列。图1是示出根据本公开的像素阵列的说明图。例如,如图1所示,在用于对HDR图像成像的像素阵列A1中,接收红光的成像像素R、接收绿光的成像像素Gr和Gb以及接收蓝光的成像像素B在拜耳阵列中排列。
注意,成像像素Gr是设置在成像像素R所在的行中的成像像素,并且接收绿光。成像像素Gb是设置在成像像素B所在的行中的成像像素,并且接收绿光。
成像像素R、Gr、Gb和B中的每一个包括三个成像元件,这三个成像元件设置成L形并且具有相同的光接收面积。成像元件L是曝光时间比成像元件M和S的曝光时间长的长时间曝光元件。成像元件S是曝光时间比成像元件L和M的曝光时间短的短时间曝光元件。
成像元件M是曝光时间比成像元件S的曝光时间长并且比成像元件L的曝光时间短的中间时间曝光元件。此外,在三个侧面被接收相同颜色的光并且以L形状排列的成像元件L、M和S包围的每个位置处,像素阵列A1包括用作接收红外光的成像像素的成像元件IR。
成像元件L具有长的曝光时间,因此,即使当其周边较暗时,也可以获得足够量的接收光。因此,即使被摄体是具有太低的亮度并且在通常的曝光时间内曝光不足的被摄体,成像元件L也可以对高灵敏度图像进行成像,在该高灵敏度图像上清晰地反射被摄体的图像(在下文中,高灵敏度图像在一些情况下也将被称为“长时间曝光图像”)。
成像元件S具有短的曝光时间,因此,即使当其周边明亮时也不饱和。因此,即使被摄体是具有过高的亮度并且在通常的曝光时间内曝光过度的被摄体,成像元件S也可以对低灵敏度图像进行成像,在该低灵敏度图像上清晰地反射被摄体的图像(在下文中,低灵敏度图像在一些情况下也将被称为“短时间曝光图像”)。注意,成像元件M可以在类似于普通数码相机的曝光时间内对中灵敏度图像(在下文中,在一些情况被下称为“中间时间曝光图像”)进行成像。
成像元件IR接收红外光,因此,可以对红外线(IR)图像进行成像,在该图像中,清晰地反射如下图像,例如,该图像包括:黑暗中的行人或车辆,这在肉眼中很难看到;由于车辆前灯或聚光灯而难以看见的行人;以及由于烟雾而难以看见的被摄体。此外,成像元件红外还可以感测被摄体的热信息。
通过对如上所述的高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像彼此执行HDR合成来生成HDR图像。因此,HDR图像成为图像,其中,清晰地反映所有被摄体(例如,暗被摄体、亮被摄体和肉眼难以看到的被摄体)的图像。
注意,在图1所示的像素阵列A1中,区分曝光时间,由此高灵敏度图像、中灵敏度图像或低灵敏度图像由具有相同光接收面积的成像元件L、M或S成像;然而,这是一个示例。例如,像素阵列A1区分要堆叠在每个成像像素上的滤色器的透光率,从而即使曝光时间设置相同,也可以对高灵敏度图像、中灵敏度图像或低灵敏度图像进行成像。
在这种情况下,在像素阵列A1中,滤色器的透光率高于通常的成像像素变成高灵敏度成像像素,滤色器的透光率与通常的成像像素一样变成中灵敏度成像像素,滤色器的透光率低于通常的成像像素变成低灵敏度成像像素。
注意,即使使用均衡曝光开始时间和区分曝光结束时间的方法、区分曝光开始时间和均衡曝光结束时间的方法、或者区分曝光开始时间和曝光结束时间的方法作为区分曝光开始时间的方法,也可以对高灵敏度图像、中灵敏度图像或低灵敏度图像进行成像。
此外,通过这样的像素阵列A1,可以同时对高灵敏度图像和低灵敏度图像进行成像,因此,可以通过对两个图像执行HDR合成,来成像HDR图像。此外,区分成像像素的光接收区域,由此也可以使具有相同滤色器透光率和相同曝光时间的成像像素用作高灵敏度成像像素或低灵敏度成像像素。
在本文中,作为用于从图像数据识别被摄体的方法的示例,存在使用深度神经网络(DNN)的图像识别方法。DNN是一种具有多层结构的算法,其采用通过机器学习设计的人脑神经回路(神经网络)作为模型,以便从图像数据中识别被摄体的特征(模式)。
图2A是示出使用通用DNN的示例的说明图。例如,在从HDR图像识别被摄体的情况下,如图2A所示,当已经经过HDR合成的HDR图像中的红色R、绿色G和蓝色B的相应像素的信号R、G和B(HDR图像的图像数据)输入到DNN时,从DNN输出被摄体的识别结果。
然而,由于HDR图像经过HDR合成,所以有时会在其中反射实际上不存在的伪影。因此,当HDR图像中各个像素的信号R、G和B输入到DNN时,DNN对被摄体的识别精度有时会由于伪影的有害影响而降低。
因此,在本公开中,从还没有经过HDR合成的高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像中的每一个识别被摄体,由此消除了这种伪影的影响,并且提高了被摄体的识别精度。图2B是示出根据本公开的使用DNN的示例的说明图。
如图2B所示,在本公开中,例如,要从成像元件L输出的长时间曝光信号R、Gr、Gb和B(高灵敏度图像的图像数据)以及要从成像元件M输出的中间时间曝光信号R、Gr、Gb和B(中灵敏度图像的图像数据)被输入到DNN。此外,在本公开中,要从成像元件S输出的短时间曝光信号R、Gr、Gb和B(低灵敏度图像的图像数据)以及要从成像元件IR输出的红外光信号IRr、IRgr、IRgb和IRb(红外图像的图像数据)输入到DNN。
因此,DNN输出从高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像识别被摄体的识别结果。
此时,DNN从不包括伪影的高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像中识别被摄体,因此,可以输出被摄体的高精度识别结果,而不受伪影的影响。
如上所述,在根据本公开的图像识别方法中,使用接收可见光的成像像素和接收红外光的成像像素,在一个帧周期中的多段曝光时间对被摄体成像,并且通过使用所有这些来识别被摄体,因此,可以提高被摄体的识别精度。
[2.图像识别系统的配置]
接下来,参考图3,将给出根据本公开的图像识别系统的配置的描述。图3是示出根据本公开的图像识别系统的配置示例的示图。如图3所示,根据本公开的图像识别系统100包括:图像传感器1,其是图像识别装置的示例;以及应用处理器(以下被称为AP 2)。
图像传感器1包括成像单元10、信号处理单元13、识别单元14、数据发送确定单元15、选择器(以下被称为SEL 16)和发送单元17。成像单元10包括像素阵列A1和模拟/数字(A/D)转换单元12。
像素阵列A1通过成像元件L、M、S和IR对高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像进行成像。然后,像素阵列A1从成像元件L、M、S和IR向A/D转换单元12输出对应于接收光量的模拟像素信号。
A/D转换单元12针对从像素阵列A1输入的模拟像素信号执行A/D以转换为数字像素信号,从而生成高灵敏度图像的图像数据、中灵敏度图像数据、低灵敏度图像的图像数据和红外光的图像数据,并将生成的图像数据输出到信号处理单元13。
信号处理单元13包括:具有中央处理单元(CPU)、只读存储器(ROM)、随机存取存储器(RAM)等的微型计算机;以及各种电路。
信号处理单元13对从A/D转换单元12输入的高灵敏度图像的图像数据、中灵敏度图像数据、低灵敏度图像的图像数据和红外光的图像数据中的每一个执行预定的信号处理。然后,信号处理单元13将已经经过信号处理的高灵敏度图像的图像数据、中灵敏度图像数据、低灵敏度图像的图像数据和红外光的图像数据输出到识别单元14和SEL 16。
在本文中,参考图4,将给出由信号处理单元13执行的处理的流程的描述。图4是根据本公开的由信号处理单元执行的处理的说明图。如图4所示,对于要输入的图像数据,信号处理单元13首先执行阴影校正,并且随后执行混合颜色校正。
此后,信号处理单元13对图像数据执行数字增益调节,并随后执行白平衡增益调节。此后,信号处理单元13对图像数据执行去马赛克,此后,最终对其执行伽马校正,并输出已经经过伽马校正的图像数据。
注意,在去马赛克中,执行用于通过周围像素的颜色来补充高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像的各个像素的颜色的处理。因此,还没有经过去马赛克的高灵敏度图像、中灵敏度图像和低灵敏度图像的图像数据中的每一个都是四种类型的像素信号R、Gr、Gb和B;然而,已经经过去马赛克的每条图像数据变成三种类型的像素信号R、G和B。此外,还没有经过去马赛克的IR图像的图像数据是四种类型的像素信号IRr、IRgr、IRgb和IRb;然而,已经经过去马赛克的图像数据变成一种类型的图像信号IR。
返回图3,识别单元14包括:具有CPU、ROM、RAM等的微型计算机;以及各种电路。识别单元14包括:对象识别单元31,其以这样的方式工作,即通过使用RAM作为工作区域,CPU执行存储在ROM中的对象识别程序;以及对象识别数据存储单元32,设置在RAM或ROM中。在对象识别数据存储单元32中,为用作识别目标的每种类型的对象存储DNN。
对象识别单元31从对象识别数据存储单元32读取与要设置的识别目标的类型相对应的DNN,将通过将图像数据输入到DNN获得并从DNN输出的被摄体的识别结果输出到数据发送确定单元15,并将识别结果的元数据输出到SEL 16。
在本文中,参考图5A和图5B,将给出由识别单元14执行的处理的流程的描述。图5A和图5B是根据本公开的由识别单元执行的处理的说明图。如图5A所示,根据DNN的大小和输入值,识别单元14首先归一化要输入的图像数据的大小和输入值,将已经归一化的图像数据输入到DNN,并执行对象识别。然后,识别单元14将从DNN输出的被摄体的识别结果输出到数据发送确定单元15,并将识别结果的元数据输出到SEL16。
此时,如图5B所示,识别单元14向DNN输入长时间曝光信号R、G和B、中间时间曝光信号R、G和B、短时间曝光信号R、G和B以及红外光信号IR。因此,识别单元14从没有伪影的高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像中的每一个识别被摄体,从而可以提高被摄体的识别精度。
返回图3,根据从识别单元14输入的识别结果,数据发送确定单元15向SEL 16输出用于切换数据的控制信号,使SEL 16从其中输出数据。当识别单元14识别到被摄体时,数据发送确定单元15向SEL 16输出控制信号,以用于使SEL 16向发送单元17输出图像数据和指示识别结果的元数据。
同时,当识别单元14未识别到被摄体时,数据发送确定单元15向SEL 16输出控制信号,以用于使SEL 16向发送单元17输出大意如此的信息(无数据)。根据从数据发送确定单元15输入的控制信号,SEL 16向发送单元17输出一组图像数据和元数据或者无数据。
发送单元17是执行与AP 2的数据通信的通信接口(I/F),并且向AP2发送从SEL 16输入的图像数据和元数据的集合或无数据。
如上所述,图像传感器1仅在识别到被摄体的情况下向AP 2发送图像数据,当未识别到被摄体时不向AP 2发送图像数据,因此,可以减少发送图像数据所需的功耗。
AP 2包括:具有CPU、ROM、RAM等的微型计算机,该微型计算机执行对应于图像识别系统100的使用的各种应用程序;以及各种电路。AP2包括接收单元21、认证单元22和认证数据存储单元23。
在认证数据存储单元23中,存储有用于认证由图像传感器1识别的被摄体的认证程序、认证图像数据等。接收单元21是执行与图像传感器1的数据通信的通信I/F。接收单元21从图像传感器1接收图像数据和元数据的集合或者无数据,并且将接收到的一者输出到认证单元22。
认证单元22在从接收单元21接收到无数据的情况下不激活,并且在接收到图像数据和元数据的集合的情况下被激活。一旦被激活,认证单元22从认证数据存储单元23读取认证程序并执行该程序,并且认证由图像传感器1识别的被摄体。
例如,在接收指示被摄体是人的元数据和图像数据的集合的情况下,认证单元22将图像数据和人类认证图像数据彼此对照,并且执行用于识别谁是这样识别出的人的处理等。
此时,认证单元22基于没有伪影的高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像的图像数据来识别人,并且其中,被摄体被图像传感器1高精度地识别为人。因此,认证单元22可以准确地识别被识别的人是谁。注意,上述实施例仅仅是示例,并且可以以各种方式修改。接下来,将描述根据本公开的实施例的修改例。
[3.由信号处理单元执行的处理的修改例]
图6是示出根据本公开的由信号处理单元执行的处理的修改例的说明图。图7是示出根据本公开的使用DNN的示例的修改例的说明图。
如图6所示,对于输入图像数据,根据修改例的信号处理单元执行阴影校正、混合色校正、数字增益调节、白平衡增益调节和伽马校正,并将已经经过信号处理的图像数据输出到识别单元14和SEL 16。
如上所述,信号处理单元可以从图4所示的信号处理中省略去马赛克。在这种情况下,识别单元14从没有经过去马赛克的图像数据中识别被摄体。如上所述,未经过去马赛克的高灵敏度图像、中灵敏度图像和低灵敏度图像的图像数据中的每一个变成四种类型的像素信号R、Gr、Gb和B。此外,未经过去马赛克的红外图像的图像数据变成像素信号IRr、IRgr、IRgb和IRb。
因此,识别单元14向DNN输入长时间曝光信号R、Gr、Gb和B、中间时间曝光信号R、Gr、Gb和B、短时间曝光信号R、Gr、Gb和B以及红外光信号IRr、IRgr、IRgb和IR(见图2B)。在这种情况下,在识别单元14中,由于到DNN的输入通道的数量增加,其吞吐量增加。然而,高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像的图像数据单独输入到DNN,因此,识别单元14可以高精度地识别被摄体,而不受伪影的影响。
注意,在其他修改例中,也可以省略信号处理单元本身。类似地,在这种情况下,识别单元14向DNN输入长时间曝光信号R、Gr、Gb和B、中间时间曝光信号R、Gr、Gb和B、短时间曝光信号R、Gr、Gb和B以及红外光信号IRr、IRgr、IRgb和IR。因此,尽管识别单元14的吞吐量增加,但是整个图像传感器1的吞吐量大大降低了未执行的信号处理量。
注意,在上述实施例中,在识别到被摄体的情况下,数据发送确定单元15使SEL 16每次都输出识别结果的元数据和图像数据;然而,可以根据电池的剩余容量来选择使SEL16输出的数据。
例如,当被摄体被识别单元14识别时,在电池的剩余容量等于或大于预定的剩余容量的正常模式下,数据发送确定单元15使SEL 16输出元数据和图像数据。此外,在电池的剩余容量小于预定剩余容量的低功耗模式下,数据发送确定单元15使SEL 16仅输出元数据。因此,当电池的剩余容量不足时,数据发送确定单元15可以将图像传感器1的功耗抑制到较低水平。
[4.通过识别单元识别被摄体的修改例]
图7是示出根据本公开的识别单元将使用的DNN的修改例的说明图。在图2B和图5B所示的示例中,识别单元14通过使用一个DNN来识别被摄体;然而,也可以使用两个DNN,如图7所示。
具体地,长时间曝光图像、中间时间曝光图像和短时间曝光图像具有色调;然而,红外图像没有色调。因此,在长时间曝光图像、中间时间曝光图像和短时间曝光图像与红外图像之间,其中的被摄体的特征是不同的。
因此,根据修改例的识别单元通过使用第一DNN和第二DNN来识别被摄体。第一DNN是通过专门从长时间曝光图像、中间时间曝光图像和短时间曝光图像中识别被摄体而经过机器学习的学习模型。第二DNN是通过专门从红外图像中识别被摄体来进行机器学习的学习模型。
根据修改例的识别单元向第一DNN输入长时间曝光信号R、G和B、中间时间曝光信号R、G和B以及短时间曝光信号R、G和B,并且从长时间曝光图像、中间时间曝光图像和短时间曝光图像识别被摄体。此外,识别单元将红外光信号输入到第二DNN,并从红外图像识别被摄体。因此,识别单元可以进一步提高被摄体的识别精度。
[5.像素阵列的修改例]
图8是示出根据本公开的像素阵列的第一修改例的说明图。图9是示出根据本公开的像素阵列的第二修改例的说明图。图10是示出当采用根据本公开的像素阵列的第二修改例时使用DNN的示例的说明图。图11是示出根据本公开的像素阵列的第三修改例的说明图。
如图8所示,根据第一修改例的像素阵列A2包括飞行时间(ToF)传感器,来代替图1所示的成像元件IR。在采用像素阵列A2的情况下,图像传感器1包括向被摄体施加红外光的发光单元。
每个ToF传感器是基于从施加红外光直到接收到被摄体上反射的红外光的时间来测量到被摄体的距离的传感器。通过采用这样的像素阵列A2,图像传感器1可以测量到被摄体的距离并且识别被摄体。
此外,如图9所示,根据第二修改例的像素阵列A3包括:接收红光的成像像素R;接收绿光的成像像素G;接收蓝光的成像像素B;以及接收红外光的成像像素IR。
成像像素R包括长时间曝光的成像元件RL和短时间曝光的成像元件RS。成像像素G包括长时间曝光的成像元件GL和短时间曝光的成像元件GS。成像像素B包括长时间曝光的成像元件BL和短时间曝光的成像元件BS。
如上所述,在像素阵列A3中,成像像素R、G和B分别以一对二的关系包括成像元件RL和RS、GL和GS以及BL和BS。通常,这种像素阵列A3用于自动聚焦,其均衡设置在成像像素R、G和B中的所有成像元件RL和RS、GL和GS以及BL和BS的曝光时间,并且基于由右成像元件和左成像元件接收的每条光之间的相位差自动调节焦点。
在本公开中,单独控制设置在这种像素阵列A3的成像像素R、G和B中的成像元件RL和RS、GL和GS以及BL和BS的曝光时间,由此使得成像元件RL、GL和BL用作长时间曝光像素,并且使得成像元件RS、GS和BS用作短时间曝光像素。
因此,像素阵列A3可以对长时间曝光图像和短时间曝光图像进行成像。此外,像素阵列A3包括成像元件IR,因此,也可以与长时间曝光图像和短时间曝光图像同时对IR图像进行成像。
当采用像素阵列A3时,如图10所示,识别单元14将从成像像素RL、GL和BL输出的长时间曝光信号、从成像像素RS、GS和BS输出的短时间曝光信号以及从成像元件IR输出的红外光信号输入到DNN。因此,识别单元14可以从长时间曝光图像、短时间曝光图像和红外图像中高精度地单独识别被摄体。
此外,类似于图9所示的像素阵列A3,如图11所示,根据第四修改例的像素阵列A4包括接收红光的一对成像元件R和R、接收绿光的一对成像元件G和G以及接收蓝光的成像元件B和B。此外,像素阵列A4包括接收红外光的一对成像元件IR和IR。成像元件R、G、B和IR中的每一个都包括两个光电转换元件PD。
在这样的像素阵列A4中,例如,在设置在成像元件对R和R中的四个光电转换元件PD中,一个被长时间曝光,两个被中间时间曝光,剩余的一个被短时间曝光。此外,在像素阵列A4中,在设置在一对成像元件G和G中的四个光电转换元件PD中,一个被长时间曝光,两个被中间时间曝光,剩余的一个被短时间曝光。
此外,在像素阵列A4中,例如,在设置在成像元件对B和B中的四个光电转换元件PD中,一个被长时间曝光,两个被中间时间曝光,剩余的一个被短时间曝光。因此,像素阵列A4可以对长时间曝光图像、中间时间曝光图像和短时间曝光图像进行成像。
此外,像素阵列A4对成像元件IR和IR进行曝光,从而能够对IR图像进行成像。当采用这种像素阵列A4时,识别单元14将长时间曝光图像、中间时间曝光图像、短时间曝光图像和红外图像的图像数据输入到DNN,从而可以高精度地识别被摄体,而不受伪影的影响。
[6.移动主体的应用示例]
根据本公开的技术(本技术)可以应用于各种产品。例如,根据本公开的技术可以实现为安装在任何类型的移动主体上的装置,例如,汽车、电动汽车、混合电动汽车、摩托车、自行车、个人移动设备、飞机、无人机、轮船和机器人。
图12是示出车辆控制系统的示意性配置的实例的框图,该车辆控制系统是作为可应用根据本公开的实施方式的技术的移动主体控制系统的实例。
车辆控制系统12000包括经由通信网络12001彼此连接的多个电子控制单元。在图12所示出的实例中,车辆控制系统12000包括驱动系统控制单元12010、车身系统控制单元12020、车外信息检测单元12030、车内信息检测单元12040以及集成控制单元12050。此外,微型计算机12051、声音/图像输出部12052、车载网络接口(I/F)12053作为集成控制单元12050的功能配置而示出。
驱动系统控制单元12010根据各种程序对与车辆的驱动系统相关的设备的工作进行控制。例如,驱动系统控制单元12010用作控制设备来控制:用于生成车辆的驱动力的驱动力生成设备,诸如内燃机、驱动电机等,用于将驱动力传递至车轮的驱动力传递机构,用于调节车辆的转向角的转向机构,以及用于生成车辆的制动力的制动设备等。
车身系统控制单元12020根据各种程序对车身所配置的各种类型的设备的操作进行控制。例如,车身系统控制单元12020用作控制设备来控制下列项:无钥匙进入系统、智能钥匙系统、电动车窗设备,或前照灯、倒车灯、制动灯、转向灯、雾灯等各种灯。在这种情况下,车身系统控制单元12020可接收来自替代钥匙的移动设备所发送的无线电波或者各种开关的信号作为输入。车身系统控制单元12020接收这些输入的无线电波或信号,以控制车辆的门锁设备、电动车窗设备、灯等。
车外信息检测单元12030检测配有车辆控制系统12000的车辆的外部的信息。例如,车外信息检测单元12030连接有成像部12031。车外信息检测单元12030使成像部12031成像车辆外部的图像,并且接收所成像的图像。基于所接收的图像,车外信息检测单元12030可执行检测对象(诸如路面上的人、车辆、障碍物、标志、符号等)的处理,或者执行检测到对象的距离的处理。
成像部12031是接收光并且输出与所接收的光的光量相对应的电信号的光学传感器。成像部12031能够输出作为图像的电信号,或者能够输出作为关于所测量距离的信息的电信号。此外,由成像部12031接收的光可以是可见光,或者可以是诸如红外线等的不可见光。
车内信息检测单元12040检测关于车辆内部的信息。车内信息检测单元12040可以连接有检测驾驶员的状态的驾驶员状态检测部12041。驾驶员状态检测部12041例如包括拍摄驾驶员的相机。基于从驾驶员状态检测部12041输入的检测信息,车内信息检测单元12040可计算驾驶员的疲劳程度或驾驶员的注意力集中程度,或者可辨别驾驶员是否在打瞌睡。
微型计算机12051能够基于由车外信息检测单元12030或车内信息检测单元12040获得的关于车辆内部或外部的信息,计算用于驱动力生成设备、转向机构或制动设备的控制目标值,并且向驱动系统控制单元12010输出控制命令。例如,微型计算机12051能够执行旨在实现高级驾驶员辅助系统(ADAS)的功能的协同控制,该功能包括用于车辆的碰撞回避或撞击缓冲、基于车间距离的跟随驾驶、车速保持驾驶、车辆碰撞的警报、车辆偏离车道的警报等。
此外,微型计算机12051,可通过基于由车外信息检测单元12030或车内信息检测单元12040获得的关于车辆外部或内部的信息以控制驱动力生成设备、转向机构、制动设备,从而执行旨在用于不依赖于驾驶员的操作的自动行驶等的协同控制。
此外,微型计算机12051能够基于由车外信息检测单元12030获得的关于车辆外部的信息向车身系统控制单元12020输出控制命令。例如,微型计算机12051,可基于由车外信息检测单元12030检测的前方车辆或迎面车辆的位置来控制前照灯,将其从远光改变为近光,从而执行旨在通过控制前照灯来防止眩光的协同控制。
声音/图像输出部12052将声音和图像中的至少一者的输出信号发送至输出设备,该输出设备能够向车辆的乘客或车辆外部以视觉或听觉方式通知信息。在图12的示例中,音频扬声器12061、显示部12062和仪表面板12063作为输出设备而示出。显示部12062例如可包括车载显示器和平视显示器中的至少一个。
图13是示出成像部12031的安装位置的实例的示图。
在图13中,成像部12031包括成像部12101、12102、12103、12104和12105。
成像部12101、12102、12103、12104和12105可以被设置在车辆12100的前鼻、侧视镜、后保险杠、后门以及车辆内部的挡风玻璃的上部的位置处。设置在前鼻的成像部12101以及设置在车辆内部的挡风玻璃的上部的成像部12105主要获得车辆12100的前方的图像。设置在侧视镜的成像部12102和12103主要获得车辆12100的侧面的图像。设置在后保险杠或后门的成像部12104主要获得车辆12100的后方的图像。设置在车辆内部的挡风玻璃的上部的成像部12105主要用于检测前方车辆、行人、障碍物、信号、交通标志、车道等。
顺便提及,图13示出成像部12101至12104的拍摄范围的实例。成像范围12111表示设置在前鼻的成像部12101的成像范围。成像范围12112和12113分别表示设置在侧视镜的成像部12102和12103的成像范围。成像范围12114表示设置在后保险杠或后门的成像部12104的成像范围。例如,通过叠加由成像部12101至12104成像的图像数据能够获得从上方观察的车辆12100的鸟瞰图像。
成像部12101至12104中的至少一个可具有获得距离信息的功能。例如,成像部12101至12104中的至少一个可以是由多个成像元件组成的立体相机,或者可以是具有用于相位差检测的像素的成像元件。
例如,微型计算机12051能够基于从成像部12101至12104获得的距离信息,确定到成像范围12111至12114内的每个三维对象的距离以及该距离的时间变化(相对于车辆12100的相对速度),并且由此提取最近三维对象作为前方车辆,该最近三维对象具体存在于车辆12100的行驶路径上并且以预定速度(例如,等于或大于0公里/小时)在与车辆12100基本相同的方向上行驶。此外,微型计算机12051能够预先设置要保持的距前方车辆的跟随距离,并且执行自动制动控制(包括跟随的停车控制)、自动加速度控制(包括跟随的起动控制)等。因此,能够执行旨在用于不依赖于驾驶员的操作的自动行驶等的协同控制。
例如,微型计算机12051能够基于从成像部12101至12104获得的距离信息,将关于三维对象的三维对象数据分类为二轮车辆、标准尺寸车辆、大型车辆、行人、电线杆以及其他三维对象的三维对象数据,提取所分类的三维对象数据,以用于障碍物的自动回避。例如,微型计算机12051辨别车辆12100周围的障碍物是车辆12100的驾驶员能视觉识别的障碍物,还是对于车辆12100的驾驶员难以视觉识别的障碍物。于是,微型计算机12051确定碰撞风险,该碰撞风险指示与每个障碍物发生碰撞的风险。在碰撞风险等于或高于设定值存在碰撞的可能性的情况下,微型计算机12051经由音频扬声器12061或显示部12062向驾驶员输出警报,并且经由驱动系统控制单元12010执行强制减速或回避转向。由此微型计算机12051能够协助驾驶以避免碰撞。
成像部12101至12104中的至少一个可以是检测红外线的红外相机。例如,微型计算机12051能够通过确定在成像部12101至12104的成像图像中是否存在行人来识别行人。这种行人识别例如由下列程序执行:提取作为红外相机的成像部12101至12104的成像图像中的特性点的程序,以及通过在表示对象轮廓的一系列特性点上执行图案匹配处理来确定是否是行人的程序。当微型计算机12051确定在成像部12101至12104的成像图像中存在行人并且因此识别到行人时,声音/图像输出部12052控制显示部12062,使其显示叠加在所识别的行人用于强调所识别的行人的方形轮廓线。声音/图像输出部12052还可控制显示部12062,使其在期望的位置处显示表示行人的图标等。
上面已经描述了根据本公开的技术适用的车辆控制系统的示例。根据本公开的技术适用于例如上述组成部分中的车外信息检测单元12030、成像单元12031、车内信息检测单元12040、驾驶员状态检测单元12041等。例如,图1的图像识别装置1可以应用于车内信息检测单元12040和驾驶员状态检测单元12041。根据本公开的技术应用于车内信息检测单元12040和驾驶员状态检测单元12041,由此提高了作为被摄体的驾驶员的识别精度。因此,可以更精确地检测驾驶员的疲劳程度和集中程度、驾驶员是否在打瞌睡等。
[7.效果]
作为图像识别装置的示例的图像传感器1包括成像单元10和识别单元14。成像单元10使用接收可见光的成像像素R、Gr、Gb和B以及接收红外光的成像像素IR,并且在一个帧周期中在相同的曝光定时对多个图像进行成像,以生成图像数据。识别单元从每条图像数据中识别被摄体。因此,图像传感器1消除了伪影的影响,从而可以提高被摄体的识别精度。
此外,成像单元10具有像素阵列A1,其中,具有相同光接收面积和不同曝光时间的多个成像像素R、Gr、Gb和B以及接收红外光的成像像素IR二维排列。因此,图像传感器1从具有不同曝光时间和红外图像的图像数据中的每一个识别被摄体,从而可以高精度地识别被摄体,而不受伪影的影响。
此外,像素阵列A1包括:成像元件L,其是接收可见光的长时间曝光成像像素的示例;成像元件M,其是接收该成像元件的中间时间曝光成像像素的示例;以及成像元件S,其是接收短时间曝光成像像素的示例。因此,图像传感器1从长时间曝光图像、中间时间曝光图像和短时间曝光图像中的每一个识别被摄体,并且由此可以高精度地识别被摄体,而不受伪影的影响。
此外,在像素阵列A3中,每个像素由成像元件RL和RS、GL和GS或BL和BS组成,每对成像元件具有曝光时间不同的两个成像元件。因此,图像传感器1可以通过使用用于自动聚焦的相位差像素来对长时间曝光图像和短时间曝光图像进行成像。
此外,在像素阵列A4中,每个像素由成像元件R和R、G和G或B和B组成,每对成像元件具有两个成像元件。成像元件R、G和B中的每一个包括曝光时间不同的两个光电转换元件PD。因此,图像传感器1控制每个光电转换元件PD的曝光时间,从而可以对长时间曝光图像、中间时间曝光图像和短时间曝光图像进行成像。
此外,在识别到被摄体的情况下,识别单元14将被摄体的识别结果和图像数据输出到作为后续装置的示例的AP 2,并且在未识别到被摄体的情况下,将大意如此的信息输出到AP 2。因此,图像传感器1在未识别到被摄体的情况下不输出图像数据,因此,可以降低功耗。
此外,当电池的剩余容量等于或大于预定剩余容量时,识别单元14将被摄体的识别结果和图像数据输出到AP 2,并且当电池的剩余容量小于预定剩余容量时,识别单元14将被摄体的识别结果输出到AP 2,而不将图像数据输出到AP 2。因此,当电池的剩余容量小于预定剩余容量时,即使在识别被摄体的情况下,图像传感器1也不输出图像数据,因此,可以降低功耗。
此外,识别单元14从经过去马赛克处理的图像数据中识别被摄体。因此,在通过使用DNN识别到被摄体的情况下,图像传感器1减少了DNN的输入通道的数量,从而可以减少处理负荷。
此外,识别单元14从没有经过去马赛克处理的图像数据中识别被摄体。因此,尽管在通过使用DNN识别到被摄体的情况下吞吐量增加,但是图像传感器1可以从高灵敏度图像、中灵敏度图像、低灵敏度图像和红外图像的图像数据中高精度地识别被摄体。
此外,识别单元14从自成像单元10输入的图像数据中识别被摄体。因此,尽管在通过使用DNN识别被摄体的情况下吞吐量增加,但是图像传感器1可以将整个图像传感器1的吞吐量大大减少了未执行的信号处理的量。
此外,接收红外光的成像像素是飞行时间(ToF)传感器。因此,图像传感器1可以测量到被摄体的距离以及识别被摄体。
此外,图像识别方法使用接收可见光的成像像素和接收红外光的成像像素,在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据,并且从每条图像数据中识别被摄体。根据这种图像识别方法,消除了伪影的影响,由此可以提高被摄体的识别精度。
注意,在本说明书中描述的效果仅仅是示例而非限制,并且可以存在其他效果。
注意,本技术也可以采用如下配置。
(1)一种图像识别装置,包括:
成像单元,使用接收可见光的成像像素和接收红外光的成像像素,并且在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据;以及
识别单元,从每条图像数据中识别被摄体。
(2)根据(1)的图像识别装置,其中,
成像单元包括:
像素阵列,在该像素阵列中,具有相同光接收面积和不同曝光时间的多个成像像素和接收红外光的成像像素二维地排列。
(3)根据(2)的图像识别装置,其中,
像素阵列包括:
接收可见光的长时间曝光成像像素、接收可见光的中间时间曝光成像像素以及接收可见光的短时间曝光成像像素。
(4)根据(2)的图像识别装置,其中,
在像素阵列中,
每个像素由曝光时间不同的两个成像元件组成。
(5)根据(2)的图像识别装置,其中,
在像素阵列中,
每个像素由两个成像元件组成,并且
每个成像元件包括
曝光时间不同的两个光电转换元件。
(6)根据(1)至(5)中任一项的图像识别装置,其中,
在识别到被摄体的情况下,识别单元将被摄体的识别结果和图像数据输出到后续装置,并且在未识别到被摄体的情况下,将大意如此的信息输出到后续装置。
(7)根据(6)的图像识别装置,其中,
当电池的剩余容量等于或大于预定剩余容量时,识别单元将被摄体的识别结果和图像数据输出到后续装置,并且当电池的剩余容量小于预定剩余容量时,该识别单元将被摄体的识别结果输出到后续装置,而不将图像数据输出到后续装置。
(8)根据(1)至(7)中任一项的图像识别装置,其中,
识别单元:
从经过去马赛克处理的图像数据中识别被摄体。
(9)根据(1)至(8)中任一项的图像识别装置,其中,
识别单元:
从没有经过去马赛克处理的图像数据中识别被摄体。
(10)根据(1)至(8)中任一项的图像识别装置,其中,
识别单元:
从要从成像单元输入的图像数据中识别被摄体。
(11)根据(1)至(10)中任一项的图像识别装置,其中,
接收红外光的成像像素是:
飞行时间(ToF)传感器。
(12)一种图像识别方法,包括:
使用接收可见光的成像像素和接收红外光的成像像素,并且在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据;并且
从每条图像数据中识别被摄体。
附图标记列表
100图像识别系统
1图像传感器
10成像单元
A1、A2、A3、A4像素阵列
12A/D转换单元
13信号处理单元
14识别单元
15数据发送确定单元
16SEL
17发送单元
2AP
21接收单元
22认证单元
23认证数据存储单元
31对象识别单元
32对象识别数据存储单元。

Claims (12)

1.一种图像识别装置,包括:
成像单元,使用接收可见光的成像像素和接收红外光的成像像素,并且在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据;以及
识别单元,从每条所述图像数据中识别被摄体。
2.根据权利要求1所述的图像识别装置,其中,
所述成像单元包括:
像素阵列,在所述像素阵列中,具有相同的光接收面积和不同曝光时间的多个成像像素和接收所述红外光的所述成像像素二维地排列。
3.根据权利要求2所述的图像识别装置,其中,
所述像素阵列包括:
接收所述可见光的长时间曝光成像像素、接收所述可见光的中间时间曝光成像像素、以及接收所述可见光的短时间曝光成像像素。
4.根据权利要求2所述的图像识别装置,其中,
在所述像素阵列中,
每个像素由曝光时间不同的两个成像元件组成。
5.根据权利要求2所述的图像识别装置,其中,
在所述像素阵列中,
每个像素由两个成像元件组成,并且
每个所述成像元件包括:
曝光时间不同的两个光电转换元件。
6.根据权利要求1所述的图像识别装置,其中,
在识别到所述被摄体的情况下,所述识别单元将所述被摄体的识别结果和所述图像数据输出到后续装置,并且在未识别到所述被摄体的情况下,将大意如此的信息输出到后续装置。
7.根据权利要求6所述的图像识别装置,其中,
当电池的剩余容量等于或大于预定的剩余容量时,所述识别单元将所述被摄体的所述识别结果和所述图像数据输出到所述后续装置,并且当电池的剩余容量小于预定的剩余容量时,所述识别单元将所述被摄体的所述识别结果输出到所述后续装置,而不将所述图像数据输出到所述后续装置。
8.根据权利要求1所述的图像识别装置,其中,
所述识别单元:
从经过去马赛克处理的图像数据中识别所述被摄体。
9.根据权利要求1所述的图像识别装置,其中,
所述识别单元:
从没有经过去马赛克处理的图像数据中识别所述被摄体。
10.根据权利要求1所述的图像识别装置,其中,
所述识别单元:
从自所述成像单元输入的所述图像数据中识别所述被摄体。
11.根据权利要求1所述的图像识别装置,其中,
接收红外光的成像像素是:
飞行时间ToF传感器。
12.一种图像识别方法,包括:
使用接收可见光的成像像素和接收红外光的成像像素,并且在一个帧周期中在相同的曝光定时对多个图像成像,以生成图像数据;并且
从每条所述图像数据中识别被摄体。
CN202080038430.6A 2019-05-30 2020-05-18 图像识别装置和图像识别方法 Pending CN113875217A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-101728 2019-05-30
JP2019101728A JP2020198470A (ja) 2019-05-30 2019-05-30 画像認識装置および画像認識方法
PCT/JP2020/019587 WO2020241336A1 (ja) 2019-05-30 2020-05-18 画像認識装置および画像認識方法

Publications (1)

Publication Number Publication Date
CN113875217A true CN113875217A (zh) 2021-12-31

Family

ID=73552920

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080038430.6A Pending CN113875217A (zh) 2019-05-30 2020-05-18 图像识别装置和图像识别方法

Country Status (6)

Country Link
US (1) US20220201183A1 (zh)
JP (1) JP2020198470A (zh)
KR (1) KR20220016056A (zh)
CN (1) CN113875217A (zh)
DE (1) DE112020002567T5 (zh)
WO (1) WO2020241336A1 (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022086456A (ja) 2020-11-30 2022-06-09 日本光電工業株式会社 癌細胞捕集用多孔質体
JP7351889B2 (ja) * 2021-12-02 2023-09-27 財団法人車輌研究測試中心 車室内監視・状況理解感知方法及びそのシステム
JPWO2023140026A1 (zh) * 2022-01-18 2023-07-27
WO2023166859A1 (ja) * 2022-03-01 2023-09-07 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、情報処理システム及びファクトリーオートメーションシステム
JP7444958B1 (ja) 2022-12-12 2024-03-06 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、及び制御方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102745134A (zh) * 2011-04-19 2012-10-24 株式会社本田艾莱希斯 检测装置以及检测方法
CN104885451A (zh) * 2012-11-23 2015-09-02 Lg电子株式会社 用于获得3d图像的方法和装置
CN105100601A (zh) * 2014-05-21 2015-11-25 佳能株式会社 摄像装置及其控制方法和信号处理装置
US20160037088A1 (en) * 2014-07-30 2016-02-04 Toshiba Tec Kabushiki Kaisha Object recognition apparatus that performs object recognition based on infrared image and visible image
CN105379248A (zh) * 2013-08-22 2016-03-02 索尼公司 控制器件、控制方法及电子装置
US20170126993A1 (en) * 2015-11-04 2017-05-04 Semiconductor Components Industries, Llc Multi-port image pixels
US20180150725A1 (en) * 2016-11-28 2018-05-31 Canon Kabushiki Kaisha Image recognition apparatus, image recognition method, and program
US20180164156A1 (en) * 2016-12-12 2018-06-14 Microsoft Technology Licensing, Llc Hybrid Sensor with Enhanced Infrared Detection Capabilities
CN109005363A (zh) * 2018-08-13 2018-12-14 Oppo广东移动通信有限公司 成像控制方法、装置、电子设备以及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285198A (ja) * 1999-03-31 2000-10-13 Omron Corp 画像認識システムおよび情報採取システム
US7065645B2 (en) * 2003-01-20 2006-06-20 Mordechai Teicher System, method, and apparatus for visual authentication
JP5436281B2 (ja) * 2010-03-16 2014-03-05 富士フイルム株式会社 放射線撮影システム、コンソール、放射線撮影用カセッテ、及びプログラム
JP2012105225A (ja) * 2010-11-12 2012-05-31 Sony Corp 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2014103643A (ja) 2012-11-22 2014-06-05 Canon Inc 撮像装置及び被写体認識方法
KR20150118213A (ko) * 2014-04-11 2015-10-22 에스케이하이닉스 주식회사 이미지 센싱 장치
US10916036B2 (en) * 2018-12-28 2021-02-09 Intel Corporation Method and system of generating multi-exposure camera statistics for image processing

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102745134A (zh) * 2011-04-19 2012-10-24 株式会社本田艾莱希斯 检测装置以及检测方法
CN104885451A (zh) * 2012-11-23 2015-09-02 Lg电子株式会社 用于获得3d图像的方法和装置
CN105379248A (zh) * 2013-08-22 2016-03-02 索尼公司 控制器件、控制方法及电子装置
CN105100601A (zh) * 2014-05-21 2015-11-25 佳能株式会社 摄像装置及其控制方法和信号处理装置
US20160037088A1 (en) * 2014-07-30 2016-02-04 Toshiba Tec Kabushiki Kaisha Object recognition apparatus that performs object recognition based on infrared image and visible image
US20170126993A1 (en) * 2015-11-04 2017-05-04 Semiconductor Components Industries, Llc Multi-port image pixels
US20180150725A1 (en) * 2016-11-28 2018-05-31 Canon Kabushiki Kaisha Image recognition apparatus, image recognition method, and program
US20180164156A1 (en) * 2016-12-12 2018-06-14 Microsoft Technology Licensing, Llc Hybrid Sensor with Enhanced Infrared Detection Capabilities
CN109005363A (zh) * 2018-08-13 2018-12-14 Oppo广东移动通信有限公司 成像控制方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
JP2020198470A (ja) 2020-12-10
US20220201183A1 (en) 2022-06-23
KR20220016056A (ko) 2022-02-08
WO2020241336A1 (ja) 2020-12-03
DE112020002567T5 (de) 2022-04-21

Similar Documents

Publication Publication Date Title
CN113875217A (zh) 图像识别装置和图像识别方法
CN109076163B (zh) 成像控制装置、成像控制方法以及成像装置
WO2020230636A1 (ja) 画像認識装置および画像認識方法
US11805330B2 (en) Image recognition device, solid-state imaging device, and image recognition method
CN110073652B (zh) 成像装置以及控制成像装置的方法
WO2017175492A1 (ja) 画像処理装置、画像処理方法、コンピュータプログラム及び電子機器
CN114270798B (zh) 摄像装置
CN114868148A (zh) 信息处理装置、信息处理系统、信息处理程序及信息处理方法
US20230308779A1 (en) Information processing device, information processing system, information processing method, and information processing program
CN113661700B (zh) 成像装置与成像方法
US10873732B2 (en) Imaging device, imaging system, and method of controlling imaging device
JP7566761B2 (ja) 撮像装置
US20240205551A1 (en) Signal processing device and method, and program
US11483499B2 (en) Imaging apparatus for addition of pixels on the basis of a temperature of an imaging array
WO2022075065A1 (ja) 半導体装置、光学構造物
WO2023210197A1 (ja) 撮像装置および信号処理方法
US20200099852A1 (en) Solid-state imaging device, driving method, and electronic apparatus

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination