CN113039777A - 传感器装置和信号处理方法 - Google Patents

传感器装置和信号处理方法 Download PDF

Info

Publication number
CN113039777A
CN113039777A CN201980067306.XA CN201980067306A CN113039777A CN 113039777 A CN113039777 A CN 113039777A CN 201980067306 A CN201980067306 A CN 201980067306A CN 113039777 A CN113039777 A CN 113039777A
Authority
CN
China
Prior art keywords
detection
unit
array sensor
calculation unit
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201980067306.XA
Other languages
English (en)
Other versions
CN113039777B (zh
Inventor
高塚进
矢岛史
铁川弘树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN113039777A publication Critical patent/CN113039777A/zh
Application granted granted Critical
Publication of CN113039777B publication Critical patent/CN113039777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19113Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/617Upgrading or updating of programs or applications for camera control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/65Control of camera operation in relation to power supply
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/665Control of cameras or camera modules involving internal camera communication with the image sensor, e.g. synchronising or multiplexing SSIS control signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/745Circuitry for generating timing or clock signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

一种传感器装置,包括:阵列传感器,具有以一维或二维方式排列的多个检测元件;信号处理单元,被配置为通过阵列传感器获取检测信号并执行信号处理;以及计算单元。计算单元从来自阵列传感器的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的处理相关的区域信息的指令。

Description

传感器装置和信号处理方法
技术领域
本技术涉及一种传感器装置和一种信号处理方法,尤其涉及一种具有处理由阵列传感器获得的检测信号的功能的传感器装置的技术领域。
背景技术
例如,作为使用其中成像元件阵列排列的阵列传感器的对象检测,阵列传感器捕获图像并将捕获的图像信号发送到阵列传感器外部的处理器,并且处理器侧执行用于对象检测的计算处理是已知的。
下面的专利文献1公开了一种技术,该技术包括在由图像传感器捕获的区域内设置关注区域。
引文列表
专利文献
专利文献1:日本专利申请公开号2014-225868。
发明内容
本发明要解决的问题
在使用图像传感器的对象检测中,捕获的图像信息已经被发送到检测对象的外部处理器,并且处理器已经对所有对象检测执行计算处理,而不管要捕获的目标的类别(类别或流派)。该过程依赖于通用处理器侧的处理能力,并且没有采用限于对象检测目标的有效和最佳的数据压缩方法。结果,存在由于外部处理器侧的重负载计算而导致处理延迟的问题。
如专利文献1中所述,已经存在用矩形指定关注区域(ROI)并读取数据的方法,但是还没有执行按类别改变读取像素的优化形状和密度。
因此,本公开提出根据对象检测的类别来改变ROI的形状和密度(密集)。
问题的解决方案
根据本技术的传感器装置包括:阵列传感器,具有以一维或二维方式排列的多个检测元件;信号处理单元,被配置为获取阵列传感器的检测信号并执行信号处理;以及计算单元,被配置为从阵列传感器的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的信号处理相关的区域信息的指令。
即,由阵列传感器获得的检测信号由信号处理单元处理并从输出单元输出。基于对象的检测来设置关于从阵列传感器的检测信号的获取或在信号处理单元中对检测信号的信号处理的区域信息。
注意,从检测信号检测的对象表示待检测的对象,并且任何对象可以是此处提到的待检测的对象。例如,诸如人、动物、移动对象(汽车、自行车、飞机等)、自然对象(蔬菜、植物等)、工业产品/部件、建筑物、设施、山、海、河、星、太阳、云等的任何对象都可以作为目标。
此外,假设阵列传感器的检测元件是可见光或非可见光成像元件、用于检测声波的声波检测元件、用于检测触感的触觉传感器元件等。
在根据本技术的上述传感器装置中,可以设想,还包括输出单元,该输出单元被配置为将由信号处理单元处理的检测信号输出到外部装置。
即,使用区域信息处理的检测信号被发送并输出到外部装置。假设外部装置是例如检测对象的外部处理器、云中的处理器等。
在根据本技术的上述传感器装置中,可以设想,信号处理单元包括获取单元,其选择性地获取阵列传感器的检测元件的检测信号,并且获取单元获取基于来自计算单元的区域信息选择的检测元件的检测信号,作为检测信号的一帧。
即,信号处理单元使用区域信息仅获取阵列传感器的一些检测元件的输出。
在根据本技术的上述传感器装置中,可以设想,在获取单元未基于区域信息选择检测元件的状态下,计算单元针对从阵列传感器获取的检测信号检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为用于获取单元从阵列传感器获取后续帧的检测信号的区域信息的指令。
即,在从正常的一帧信息中检测到对象之后,计算单元根据对象检测向信号处理单元提供区域信息。
在根据本技术的上述传感器装置中,可以设想,在获取单元已经基于区域信息选择了检测元件的状态下,计算单元针对从阵列传感器获取的检测信号检测对象,并且基于对象的检测来再次生成区域信息,并且向信号处理单元给出关于区域信息作为将用于由获取单元从阵列传感器获取后续帧的检测信号的区域信息的指令。
即,对于仅从阵列传感器获取了一些检测元件的信息的帧,计算单元在从一帧的信息中检测到对象之后,根据对象检测来生成区域信息,并且向信号处理单元提供区域信息。
在根据本技术的上述传感器装置中,可以设想,在获取单元已经基于区域信息选择了检测元件的状态下,计算单元针对从阵列传感器获取的检测信号检测对象,并且在没有检测到目标对象的情况下,在获取单元没有在后续帧中基于区域信息选择检测元件的状态下,给出关于从阵列传感器获取检测信号的指令。
即,当在只有某个检测元件的信息已经从阵列传感器获取的帧中不再能检测到目标对象时,计算单元将获取单元中的检测信号的获取返回到正常状态。
在根据本技术的上述传感器装置中,可以设想,计算单元获得包围从阵列传感器的检测信号中检测到的对象的区域的边界框,并基于边界框生成区域信息。
例如,通过基于检测到的对象的区域周围的边界框来生成区域信息,例如,根据对象在图像中的位置来生成区域信息。
此外,在根据上述本技术的传感器装置中,可以设想,计算单元放大边界框并生成区域信息。
即,生成指定区域的区域信息,在该区域中,围绕检测到的对象的区域的边界框被扩展。
在根据本技术的上述传感器装置中,可以设想,计算单元对检测到的对象逐个检测元素地确定区域,并生成区域信息。
对象的区域不限于矩形,并且例如逐个像素地确定对象的区域,从而生成区域信息。
在根据本技术的上述传感器装置中,可以设想,计算单元检测作为从阵列传感器获得的检测信号的关键帧的帧的对象,并基于对象的检测生成区域信息。
即,计算单元根据预定的选择算法选择该帧作为关键帧,并执行区域信息生成处理。
此外,可以设想,关键帧是以预定时间间隔的帧。
即,关键帧是以预定帧数为间隔的帧。
可选地,可以设想,关键帧是在基于来自外部装置的命令的时间处的帧。
例如,根据来自图像输出目的地的处的外部处理器等的指示来设置关键帧。
在根据本技术的上述传感器装置中,可以设想,计算单元识别从阵列传感器获得的检测信号中检测的对象的类别,确定所识别的类别是否是目标类别,并生成对应于目标类别的对象的区域信息。
类别是使用图像识别来识别的对象的种类。待检测的对象被分类为,例如,“人”、“汽车”、“飞机”、“船”、“卡车”、“鸟”、“猫”、“狗”、“鹿”、“青蛙”或“马”。
目标类别是在类别中被指定为识别目标的类别。
在根据本技术的上述传感器装置中,可以设想,计算单元识别从阵列传感器获得的检测信号中检测的对象的类别,并使用对应于所识别的类别的模板生成对应于该对象的区域信息。
例如,准备对应于类别的区域信息的模板,并且根据类别标识来选择和使用该模板。
此外,在根据本技术的传感器装置中,可以设想,模板指示每个类别的检测信号的获取区域。
例如,模板指示根据诸如“人”或“汽车”等每个类别在阵列传感器的检测元件中的将获取检测信息的检测元件。
在根据本技术的上述传感器装置中,可以设想,还包括输出单元,其被配置为响应于外部装置的请求,输出由信号处理单元处理的检测信号、识别的类别的信息、检测到的对象的数量以及目标类别的存在或不存在的信息中的任何一个或全部。
即,输出单元根据外部装置的请求设置要输出的信息。
在根据本技术的上述传感器装置中,可以设想,信号处理单元包括对来自阵列传感器的检测信号执行压缩处理的压缩处理单元,其中,压缩处理单元基于来自计算单元的区域信息,根据对于每个区域不同的压缩率来执行压缩处理。
即,信号处理单元使用区域信息为每个区域设置压缩率。
此外,在根据本技术的上述传感器装置中,可以设想,压缩处理单元在由区域信息指定的区域中以低压缩率执行压缩处理,并且在其他区域中以高压缩率执行压缩处理。
即,由区域信息指定的区域被视为重要区域,并且数据量没有减少太多。
此外,在根据本技术的上述传感器装置中,可以设想,阵列传感器的检测元件是成像元件。
即,阵列传感器的检测信号是通过成像(光电转换)的图像信号。
在根据本技术的上述传感器装置中,可以设想,计算单元基于关于过去区域信息的信息,设置将从阵列传感器获取的检测信号的有效区域,并且从有效区域的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为关于从阵列传感器获取检测信号或用于检测信号的信号处理的区域信息的指示。
即,不是从阵列传感器的整个区域,而是从被指定为有效区域的区域的信息中,执行用于生成区域信息的对象检测。
注意,关于区域信息的信息是作为区域信息的来源的对象的检测区域的信息、区域信息本身等。
此外,在根据本技术的上述传感器装置中,可以设想,计算单元为在过去的预定时间段中生成的多条区域信息设置有效区域,以在基于每条区域信息的对象检测中包括检测区域。
即,检测对象,以便生成区域信息,并且待检测的对象出现的区域被设置为有效区域。
此外,在根据本技术的上述传感器装置中,可以设想,信号处理单元包括获取单元,其选择性地获取阵列传感器的检测元件的检测信号,获取单元获取基于来自计算单元的区域信息选择的检测元件的检测信号,作为检测信号的一帧,并且在获取单元已经根据区域信息选择了检测元件的状态下,在计算单元针对从阵列传感器获取的检测信号检测对象并且没有检测到目标对象的情况下,计算单元指示获取单元在后续帧中从阵列传感器获取有效区域的检测信号。
即,当在仅从阵列传感器获取了某个检测元件的信息的帧中不再能检测到目标对象时,计算单元将获取单元中的检测信号的获取返回到以有效区域为目标的状态。
此外,在根据本技术的上述传感器装置中,可以设想,计算单元从作为从阵列传感器获得的检测信号的关键帧的帧的有效区域的检测信号中检测对象,并且基于对象的检测来生成区域信息。
即,计算单元根据预定的选择算法选择该帧作为关键帧,并执行有效区域设置处理。
此外,在根据本技术的上述传感器装置中,可以设想,计算单元识别从阵列传感器获得的检测信号中检测的对象的类别,并且使用指示对应于所识别的类别的检测信号的获取区域的模板,来生成对应于对象的区域信息,并且传感器装置还包括阈值设置单元,其被配置为设置用于图像处理单元的图像处理或关于阵列传感器成像的成像处理的所有或一些参数的参数的阈值,并且基于该阈值设置关于由模板指示的获取区域的处理的参数。
设定阈值,使得可以基于该阈值来改变关于由模板指示的获取区域的处理参数。
作为一种传感器装置中的参数设置方法,传感器装置包括具有以一维或二维方式排列的多个检测元件的阵列传感器以及获取阵列传感器的检测信号并执行信号处理的信号处理单元,根据本技术的信号处理方法包括:从阵列传感器的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为关于从阵列传感器的检测信号的获取或对检测信号的信号处理的区域信息的指示。
由此,指定要读取的区域或要处理的区域。
此外,在根据上述现有技术的信号处理方法中,可以设想,还包括基于过去的区域信息为从阵列传感器获取的检测信号设置有效区域;并且从作为阵列传感器的检测信号的有效区域的检测信号中检测对象。
通过使用有效区域的概念,可以使处理变得高效。
附图说明
[图1]是适用于本技术的第一至第五和第七实施例的传感器装置的框图;
[图2]是图像识别精度和图像质量之间的关系的说明图;
[图3]是根据第一实施例的分类图像适配处理的概述的说明图;
[图4]是根据第一实施例的图像质量参数集的说明图;
[图5]是根据第一实施例的分类图像适配处理的流程图;
[图6]是根据第一实施例的对象检测处理的说明图;
[图7]是根据第二实施例的区域剪切框架的说明图;
[图8]是根据第二实施例的区域剪切分析的概述的说明图;
[图9]是根据第二实施例的区域剪切分析的流程图;
[图10]是根据第二实施例的从边界框计算关注区域(ROI)的说明图;
[图11]是根据第二实施例的关注区域的另一示例的说明图;
[图12]是根据第三实施例的高级ROI的说明图;
[图13]是根据第三实施例的高级ROI的说明图;
[图14]是根据第三实施例的使用高级ROI的区域剪切分析的流程图;
[图15]是根据第四实施例的智能压缩的说明图;
[图16]是根据第四实施例的智能压缩的流程图;
[图17]是根据第五实施例的主动采样(actives ampling)的说明图;
[图18]是根据第五实施例的主动采样的流程图;
[图19]是第六实施例的图像适配处理的阈值设置的说明图;
[图20]是根据第六实施例的按类别的阈值设置的说明图;
[图21]是适用于本技术的第六至第九实施例的传感器装置的框图;
[图22]是根据第六实施例的根据阈值的参数设置处理的流程图;
[图23]是根据第六实施例的阈值设置的说明图;
[图24]是根据第六实施例的阈值计算的流程图;
[图25]是适用于第六至第九实施例的另一配置示例的框图;
[图26]是适用于第六至第九实施例的又一配置示例的框图;
[图27]是根据第七实施例的有效区域剪切的说明图;
[图28]是根据第七实施例的有效区域剪切的说明图;
[图29]是根据第七实施例的有效区域剪切的流程图;
[图30]是根据第七实施例的关键帧有效区域计算的流程图;
[图31]是根据第八实施例的高级ROI(AROI)的阈值设置的说明图;
[图32]是根据第八实施例的使用高级ROI的区域剪切分析的流程图;
[图33]是根据第九实施例的主动采样的说明图;
[图34]是根据第九实施例的主动采样的说明图;
[图35]是根据第九实施例的主动采样的流程图;
[图36]是示出车辆控制系统的示意性配置的示例的框图;
[图37]是示出车辆外部信息检测单元和成像单元的安装位置的示例的说明图。
具体实施方式
在下文中,将按以下顺序描述实施例。
<1.传感器装置的配置>
<2.第一实施例:分类图像适配>
<3.第二实施例:区域剪切>
<4.第三实施例:使用AROI进行区域剪切>
<5.第四实施例:智能压缩>
<6.第五实施例:主动采样>
<7.第六实施例:通过阈值设置的图像适配>
<8.第七实施例:有效区域剪切>
<9.第八实施例:阈值设置和使用AROI的区域剪切>
<10.第九实施例:通过阈值设置的主动采样>
<11.应用于移动体>
<12.结论和修改>
注意,作为下面将要描述的实施例,将给出作为图像传感器的传感器装置1,作为示例,该图像传感器具有成像元件阵列并且输出图像信号,作为检测信号。特别地,根据实施例的传感器装置1是通过图像分析而具有对象检测功能的装置,并且可以被称为智能阵列传感器。
<1.传感器装置的配置>
图1中示出了传感器装置1的配置示例。注意,图1还示出了作为与传感器装置1执行数据通信的外部装置的处理器11和外部传感器12。假设处理器11是通信地连接到传感器装置1的任何处理器。
作为硬件,传感器装置1包括图像传感器装置、诸如动态随机存取存储器(DRAM)等存储区域以及作为人工智能(AI)功能处理器的组件。然后,这三个部分通过例如三层堆叠结构、一层所谓的平坦配置或两层(例如,DRAM和AI功能处理器在同一层)堆叠结构被配置为集成装置。
如图1所示,传感器装置1包括阵列传感器2、模数转换器(ADC)/像素选择器3、缓冲器4、逻辑单元5、存储器6、接口单元7和计算单元8。
ADC/像素选择器3、缓冲器4和逻辑单元5是信号处理单元30的示例,该信号处理单元处理由阵列传感器2获得的检测信号,以将检测信号输出到外部。
阵列传感器2包括作为可见光或非可见光成像元件的检测元件,并且具有以一维或二维方式排列的多个成像元件。例如,大量成像元件在行方向和列方向上二维排列,并且通过在每个成像元件中的光电转换输出二维图像信号。
注意,在以下描述中,假设阵列传感器2输出二维图像信号,作为图像传感器,但是传感器装置1中的阵列传感器2可以被配置为其中排列声波检测元件的传感器阵列模块、其中排列触觉信息检测元件的传感器阵列模块等。
ADC/像素选择器3将由阵列传感器2光电转换的电信号数字化,并将图像信号作为数字数据输出。
此外,通过对阵列传感器2的像素(成像元件)具有像素选择功能,ADC/像素选择器3可以仅从阵列传感器2中选择的像素读取光电转换信号,将信号数字化,并输出数字数据。
即,ADC/像素选择器3通常数字化并输出光电转换信号,作为构成一帧图像的所有有效像素的数字数据,但是也可以数字化并输出仅所选像素的光电转换信号,作为数字数据。
ADC/像素选择器3以帧单元读出图像信号,并且每一帧的图像信号临时存储在缓冲器4中,在适当的时间读出,并被逻辑单元5用于处理。
逻辑单元5对每个输入帧图像信号执行各种类型的必要信号处理(图像处理)。
例如,假设逻辑单元5通过诸如颜色校正、伽马校正、颜色灰度处理、增益处理、轮廓增强处理、对比度调整处理、清晰度调整处理和灰度级调整处理等处理来执行图像质量调整。
此外,假设逻辑单元5执行改变数据大小的处理,例如,数据压缩处理、分辨率转换、帧速率转换、纵横比转换和采样率改变。
为由逻辑单元5执行的每个处理设置用于每个处理的参数。例如,存在设定值,例如,颜色和亮度校正系数、增益值、压缩率、帧速率、分辨率、待处理的区域和采样率。逻辑单元5使用为每个处理设置的参数来执行必要的处理。在本实施例中,计算单元8可以如下所述设置这些参数。
由逻辑单元5处理的图像信号存储在存储器6中。
存储在存储器6中的图像信号由接口单元7在必要的时间发送到处理器11等。
注意,假设存储器6是DRAM、静态随机存取存储器(SRAM)、磁阻随机存取存储器(MRAM)等。
注意,MRAM是磁性存储数据的存储器,并且使用隧道磁阻(TMR)元件代替磁芯的存储器是已知的。TMR元件具有夹在磁性材料之间的几个原子的极薄绝缘层,并且其电阻根据磁性材料层的磁化方向而变化。即使当电源关断时,TMR元件的磁化方向也不会改变,从而用作非易失性存储器。随着尺寸变得更小,写入电流需要增加。因此,为了使存储单元更精细,使用自旋扭矩转移(STT)方法的STT-MRAM是已知的,该方法在不使用磁场的情况下以相同的自旋流动和写入电子。
当然,除了上述示例之外的存储元件可以用作存储器6的具体示例。
传感器装置1外部的处理器11对从传感器装置1发送的图像信号执行图像分析和图像识别处理,并执行必要的对象检测等。
处理器11还可以参考外部传感器12的检测信息。
注意,可以设想,处理器11通过有线或无线方式连接到传感器装置1。
可以设想,处理器11设置在传感器装置1的公共外壳中。例如,假设处理器11是配备有传感器装置1的成像装置或终端装置中的处理器。
可选地,处理器11可以设置在与传感器装置1分离的装置中。例如,处理器11可以内置在通过电缆、无线通信等连接到配备有传感器装置1的成像装置或终端装置的信息处理装置、终端装置、图像编辑装置、监视器装置、通信装置等中。
此外,处理器11可以是例如云计算系统中的处理器,并且可以执行与传感器装置1或包含传感器装置1的装置的网络通信。
计算单元8被配置为例如一个AI处理器。然后,作为可执行的计算功能,计算单元8包括关键帧选择单元81、对象区域识别单元82、类别识别单元83和参数选择单元84,如图1所示。注意,这些计算功能可以由多个处理器配置。
关键帧选择单元81根据预定算法或指令执行选择作为运动图像的图像信号的帧内的关键帧的处理。
此外,关键帧选择单元81可以执行切换与帧速率相关的模式的处理(第五实施例中的空闲模式和正常模式)。
对于由阵列传感器2光电转换并由ADC/像素选择器3读取的图像信号的帧,对象区域识别单元82检测作为待检测候选的对象的区域,并执行识别待检测对象的图像(帧)中围绕待检测对象的区域(边界框)的处理。
从图像信号中检测的对象是为了从图像中识别的目的可以作为检测目标的对象。待检测的对象是什么类型的对象取决于传感器装置1和处理器11的检测目的、处理能力、应用类型等,但是任何对象都有可能是在此处提到的待检测的对象。例如,诸如人、动物、移动对象(汽车、自行车、飞机等)、自然对象(蔬菜、植物等)、工业产品/部件、建筑物、设施、山、海、河、星、太阳、云等的任何对象可以对应于待检测的对象,尽管以上仅仅是示例。
此外,如将在第二实施例中描述的,基于边界框,对象区域识别单元82可以执行计算关注区域(ROI)作为指示待处理的区域(关注区域)的区域信息的处理,基于ROI控制ADC/像素选择器3等。
类别识别单元83将由对象区域识别单元82检测到的对象分类成类别。
类别是使用图像识别来识别的对象的种类。待检测的对象被分类为,例如,“人”、“汽车”、“飞机”、“船”、“卡车”、“鸟”、“猫”、“狗”、“鹿”、“青蛙”或“马”。
如将在第一实施例中描述的,参数选择单元84根据每个类别存储用于信号处理的参数,并且使用例如由类别识别单元83识别的检测对象的类别或边界框来选择相应的一个或多个参数。然后,参数选择单元84在逻辑单元5中设置一个或多个参数。
此外,如在第三实施例中,参数选择单元84基于用于基于边界框计算ROI的类别,存储预先按类别计算的高级ROI(AROI)的模板,并且可以执行选择模板的处理。
此外,参数选择单元84可以执行存储第五实施例中的空闲模式和正常模式的设定值、基于对象检测选择模式以及控制信号处理单元30的处理。
计算单元8的这些功能是阵列传感器中通常不执行的处理,并且在本实施例中,在阵列传感器中执行基于这些处理的对象检测、类别识别和控制。由此,根据检测目的,使得要提供给处理器11的图像信号适当,并且在不降低检测性能的情况下减少数据量。
注意,接口单元7可以将图像信号输出到处理器11,并且还将例如在计算单元8中检测到的对象的信息、类别的信息、检测到的对象的数量以及选择的参数的信息作为元数据与图像信号一起输出到处理器11,或者可以独立于图像信号将前述信息输出到处理器11。此外,例如,接口单元7也可以仅输出类别信息。
此外,可以设想,例如,处理器11侧向接口单元7指示必要的信息,并且接口单元7输出相应的信息。
<2.第一实施例:分类图像适配>
分类图像适配处理将被描述为可由具有图1中的配置的传感器装置1执行的第一实施例的处理。
图像识别的精度因图像质量调整而异。例如,通过调整图像质量来提高深度学习的图像识别的精度。
然后,图像识别所需的图像质量(即对象检测的精度高的图像质量)不一定是人感觉漂亮的图像质量。
例如,图2的A示出了人感觉到高质量的图像的示例,而图2B是人感觉到图像质量由于例如灰度数量的减少而稍微劣化的图像。
然而,作为通过神经网络分析图2的A中的图像的情况下的对象检测结果,花被错误地确定为鱼,而在图2的B的图像中花被正确地确定为花。
从这个示例可以看出,为了提高图像识别的精度,期望执行与基于人类审美的图像质量调整不同的图像质量调整。
此外,适合于这种对象检测的图像质量不是由均匀参数调整的图像质量,并且根据要检测的对象而不同。例如,在检测到人的情况和检测到汽车的情况之间,期望的图像质量调整状态不同。即,用于图像质量调整的期望参数的值根据检测目标而不同。
因此,作为分类图像适配处理,为可以作为目标的对象的每个类别存储适当的参数(图像质量调整值)。然后,对于由阵列传感器2捕获的图像,执行所检测对象的对象检测和类别识别,根据识别的类别选择参数并在逻辑单元5中设置,并且在逻辑单元5中执行使用参数的处理。
图3示出了这种分类图像适配处理的概述。注意,图3是用于描述轮廓的图1中的配置的一部分的摘录。
在传感器装置1中,对象光通过成像光学系统40聚焦在阵列传感器2上,并且图像被捕获。获得的图像信号G由逻辑单元5处理,而也提供给计算单元8。
在计算单元8中,对象区域识别单元82检测候选对象并执行识别对象区域的处理。对象区域识别单元82还计算所要求的对象区域的边界框。
此外,在计算单元8中,类别识别单元83对检测到的对象执行类别识别。在检测到多个对象或多种类型的对象的情况下,对多个对象中的每一个执行类别识别,并且将对象分类成类别。例如,在图3的情况下,执行类别识别和分类,使得类别“汽车”中有一个对象、类别“人”中有五个对象和类别“交通灯”中有一个对象。
类别的信息和边界框的信息被提供给参数选择单元84,并且参数选择单元84使用类别的信息从存储的参数集PR1、PR2等中选择一个参数集。图3示出了例如已经选择参数集PR4的状态。
注意,参数集将逻辑单元5的处理中使用的多个参数的值,例如,增益集值、颜色校正系数、灰度数、压缩率和帧速率存储为一个集。
在逻辑单元5中设置选择的参数集PR4。逻辑单元5使用由参数集PR4指示的参数,对图像信号G执行各种类型的信号处理。
阵列传感器响应于处理器11的请求输出所有或任何输出数据(图像信号、类别、对象数量、目标类别的存在或不存在等)。
此外,处理器11可以向传感器装置1发送各种指令。
以这种方式,传感器装置1基于对象检测来执行计算单元8具有类别识别功能(对象分类功能)的分类图像适配(根据来自对象检测的目标类型的参数选择),并且根据类别识别单元的输出来适应地设置逻辑单元5的参数。
关于参数集,通过深度学习的预学习,预先为每个类别生成和存储适当的参数(图像质量集值)。
例如,在生成类别“人”的参数集的情况下,如图4的A所示,使用大量的人图像作为训练数据SD来执行深度学习,并且生成从人的识别的观点来看具有最高图像识别率的参数集PR1。
类似地,对于每个其他类别,使用深度学习生成具有最高图像识别率的参数集PR2、PR3等。
然后,如图4的B所示,存储对应于生成的类别的参数集PR1、PR2、PR3等,使得参数选择单元84可以选择它们。
图5示出了传感器装置1中的分类图像适配处理的具体示例。将参考图6依次描述具体示例。
图5示出了在如于步骤S100开始从阵列传感器2以帧单元输出图像信号之后,在传感器装置1(主要是计算单元8)中执行的处理。
在图5中,计算单元8的处理是由图1所示的关键帧选择单元81、对象区域识别单元82、类别识别单元83和参数选择单元84的功能执行的处理。注意,这类似地适用于图9、图14、图16和图18,这将在下面描述。
在步骤S101中,计算单元8(关键帧选择单元81)执行在根据关键帧选择算法的时间处选择关键帧的处理。
传感器装置1以帧单元从图像信号中选择关键帧,作为阵列传感器2的像素阵列输出信号,并执行图像识别,从而识别待捕获的类别。关键帧选择由关键帧选择算法执行,从而选择静止图像(某一帧)。
给出了一个关键帧选择算法的示例。
首先,存在一种以指定的时间间隔选择一帧的方法。例如,每隔30秒选择一帧,作为关键帧。当然30秒是一个示例。
此外,还可以设想,通过来自传感器装置1的外部(处理器11等)的命令来选择关键帧,作为时间。例如,假设传感器装置1响应于来自安装了传感器装置1的装置侧的指令。例如,在传感器装置1安装在汽车上的情况下,在汽车在停车场中已经从停止状态开始行驶的时间处选择关键帧。
此外,关键帧选择方法可以根据情况而改变。例如,在传感器装置1安装在汽车上的情况下,关键帧间隔在停止期间、正常行驶期间和高速行驶期间而改变。
当选择关键帧时,在步骤S102中,计算单元8(对象区域识别单元82)检测关键帧中的对象的候选位置。
即,计算单元8在关键帧图像中搜索待检测的候选对象,并获得一个或多个候选位置(图像中的位置坐标)。
例如,假设选择图6的A中的输入图像,作为关键帧。计算单元8检测图像中似乎是待检测的对象的部分。例如,图6的B和图6的C中的区域是看起来是待检测的对象的部分。这些部分是候选对象。
在图5的步骤S103中,计算单元8(类别识别单元83)将检测到的对象分类为类别。即,计算单元8对每个候选对象进行识别并分类类别。
如上所述,类别是使用图像识别来识别的对象的种类。
例如,如图6的D和图6的E所示,执行诸如“人”和“花”等类别识别。
在图5的步骤S104中,计算单元8确认目标类别是否存在于作为类别识别结果获得的类别中。
目标类别是由处理器11在类别中专门设置的类别。例如,在目标类别被设置为“人”的情况下,传感器装置1应当进入在识别人时指定的过程。
注意,期望能够指定多个目标类别。
例如,在“人”和“花”是目标类别,并且“人”或“花”存在于步骤S103中识别的类别中的情况下,计算单元8将处理从步骤S104移动到步骤S105。
另一方面,在不存在目标类别的情况下,计算单元8返回到步骤S101并选择下一个关键帧。
在处理由于目标类别的存在而前进到步骤S105的情况下,计算单元8(对象区域识别单元82)计算围绕分类到该类别中的对象区域的精确位置坐标(边界框)。
图6的F和图6的G示出了边界框20。边界框20由作为X轴上的区域范围的最小坐标值Xmin和最大坐标值Xmax以及作为Y轴上的区域范围的最小坐标值Ymin和最大坐标值Ymax来定义。
在图5的步骤S106中,计算单元8(参数选择单元84)基于对象的类别和数量以及边界框20的面积来选择参数集。
例如,在存在一个目标类别的情况下,计算单元8选择对应于该类别的参数集。
在多种类型的目标类别的对象出现在屏幕上的情况下,以下示例是可以设想的。
例如,可以设想,选择对应于类别中对象数量最多的类别的参数集。
可选地,在屏幕上存在多种类型的目标类别的对象的情况下,可以设想,选择对应于具有边界框20的最大面积的对象类别的参数集。
可选地,在屏幕上存在多种类型的目标类别的对象的情况下,可以设想为每个类别选择对应于具有边界框20的最大总面积的类别的参数集。
可选地,在屏幕上存在多种类型的目标类别的对象的情况下,可以设想,从对象的数量和每个类别的边界框20的总面积(或最大值)中获得具有最高优先级的类别,并选择对应于该类别的参数集。
当然,还有各种其他的参数集选择方法,但是在任何情况下,只需要根据屏幕上的主要对象或优先检测的对象的类别来选择参数集。
在步骤S107中,计算单元8(参数选择单元84)执行在逻辑单元5中设置所选参数集的处理。
因此,逻辑单元5使用设置的参数集对依次输入的帧图像信号执行各种类型的图像处理。
处理后的图像信号的信息、设置的参数、识别的类别等被临时存储在DRAM 6中。
在步骤S108中,传感器装置1响应于处理器11的请求,输出图像信号(静止图像或运动图像)、类别识别信息(类别、对象的数量、目标类别的存在与否等)、所使用的参数集等的全部或至少一个信息。
即,响应于处理器11的请求,接口单元7读出并发送暂时存储在DRAM 6中的任何信息。
注意,步骤S108中的处理可以由计算单元8控制,或者可以由经由接口单元7访问DRAM 6的处理器11执行。在计算单元8不控制接口单元7的情况下,计算单元8的处理在步骤S107之后返回到步骤S101。
通过上述处理,向处理器11提供图像信号,根据作为图像中包括的对象的目标类别的存在,已经将参数设置到该图像信号。图像信号是已经对其执行了适于检测目标类别的对象的图像处理的图像信号。
此外,当检测到的类别(目标类别)和对象数量的信息被提供给处理器11时,该信息对于处理器11中的对象检测处理将是有用的信息。
结果,处理器11可以执行高精度的对象检测。
注意,也可以简单地在传感器装置1内部设置类别,并且在外部更详细地识别类别。例如,面部识别和牌照识别不由传感器装置1执行,但是可以由处理器11执行。
此外,在图5中的处理示例中,在步骤S102中检测似乎是对象的部分(图6的B和图6的C),在步骤S103中识别类别(图6的D和图6斐然E),然后在步骤S105中设置边界框20(图6的F和图6的G)。然而,处理不限于该过程。例如,当在步骤S102的阶段检测到似乎是对象的部分时,可以设置边界框20,然后可以在步骤S103中识别类别,并且当目标类别存在时,处理可以从步骤S104前进到步骤S106。
<3.第二实施例:区域剪切>
区域剪切将被描述为具有图1所示的配置的传感器装置1可执行的第二实施例的处理。
关于由阵列传感器2检测的图像信号,可以设想,将帧的所有像素的信息传输到处理器11,以执行图像识别。
然而,当所有帧的所有像素的信息被传送到处理器11并且对象由处理器11检测时,传送的信息量显著增加,并且需要传送时间,尤其是在是阵列传感器2捕获的图像具有更高清晰度的情况下。此外,在云传输的情况下,通信量的增加显著影响通信成本和时间。此外,担心处理器11和云中的存储容量的负担将增加,分析处理负荷和处理时间也将增加,并且对象检测性能将劣化。
因此,在第二实施例中,在识别某一帧的图像中的必要对象之后,从下一帧开始,以对象的区域的像素级粗略地获取和传送图像信号,并且使其他区域的像素作为信息而缺失,以提高处理效率。
图7示出了概图。
图7的A示出了特定帧F1的图像。在“人”被设置为待检测的对象的情况下,在帧F1的图像中检测人的区域。检测到人的区域被设置为关注区域的ROI 21。
在随后的帧F2、F3、...和Fn中,仅从阵列传感器2读取设置为ROI 21的区域中的像素。该图像是仅包括ROI 21部分的信息的图像,如图7的B所示。
然后,基于包括这种部分像素信息的图像信号,在计算单元8中执行分析,或者图像被传送到处理器11,并且执行图像分析。
具体地,如图8的A中示意性示出的,在由阵列传感器2获得的图像信号中,以1/N帧的比率获得的特定帧F1被分析为包括所有有效像素的信息的图像。然后,计算单元8扫描整个屏幕,以检测目标对象的存在或不存在以及位置。然后,设置ROI 21。
当获取后续帧F2时,如图8的B所示,获取仅设置为目标区域的ROI 21的像素已经被AD转换的图像信号。注意,在图8中,由网格分隔的每个正方形表示一个像素。
这样,例如,每N帧中只有一帧被全屏扫描,以检测目标对象,并且在随后的帧F2、F3、F4等中,只分析前一帧中的对象的检测区域,如图8的C所示。
通过执行该处理,减少了分析数据量和通信数据量而未降低作为应用目标的对象检测的精度,减少了传感器装置1的功耗,并且加速了在安装了传感器装置1的整个系统中关于对象检测的图像分析。
图9示出了作为区域剪切分析的传感器装置1的计算单元8的处理示例。将参考图10依次描述该处理。
在步骤S201中,计算单元8(关键帧选择单元81)确定是否是对象检测关键帧记录时间。
对象检测关键帧记录时间是指在用于对象检测的阵列传感器2的整个有效像素区域中获取信息的时间。
对象检测关键帧记录时间可以由例如来自传感器装置1外部(例如,处理器11)的命令来确定。例如,假设响应于60秒的指令,以60秒的间隔确定对象检测关键帧记录时间。
当对象检测关键帧记录时间已经到达时,计算单元8前进到步骤S202,并且获取阵列传感器2的整个有效像素区域中的AD转换图像数据。例如,ADC/像素选择器3为整个有效像素区域从阵列传感器2输出一帧的图像信号。
在步骤S203中,计算单元8(对象区域识别单元82)检测获取的图像中的对象的候选位置。
如图10的A所示,例如,当选择帧F1作为对象检测关键帧时,计算单元8(对象区域识别单元82)检测帧F1的图像中的对象的候选区域23。在这种情况下,包括“人”和“树”的图像的区域被检测为候选区域23。
在图9的步骤S204中,计算单元8(类别识别单元83)将检测为候选的对象分类成类别。
例如,如图10的B所示,对候选区域23中的对象执行诸如“人”和“树”等类别识别。
在图9的步骤S205中,计算单元8确认目标类别是否存在于作为类别识别结果获得的类别中。
例如,在“人”是目标类别的情况下,如图10的B中所示,目标类别作为识别的类别存在。在这种情况下,计算单元8从图9中的步骤S205前进到步骤S206。
另一方面,在目标类别不存在的情况下,计算单元8返回到步骤S201,并等待下一个对象检测关键帧记录时间。
在图9的步骤S206中,计算单元8(对象区域识别单元82)计算包围被分类为目标类别的对象的区域的具有精确位置坐标的边界框20。
例如,图10的C示出了作为目标类别的人的图像的边界框20的示例。即,边界框20被计算为对应于目标类别的对象的更准确的区域。
在图9的步骤S207中,计算单元8(对象区域识别单元82)基于边界框20计算ROI。
图10的D示出了ROI 21和边界框20。通过放大(ax×by)边界框20的垂直和水平尺寸(x×y)来计算ROI 21。放大比例a和b可以在垂直和水平方向分别设置。虽然放大率可以是固定的,但是也可以设想放大率是从传感器装置1(例如,处理器11)的外部指定的。
计算单元8(对象区域识别单元82)将如此计算的ROI传输到ADC/像素选择器3。
响应于ROI的传输,ADC/像素选择器3仅模数转换并输出对应于阵列传感器2中的ROI 21的像素。
在图9的步骤S208中,计算单元8获取仅包括ROI 21中的像素的信息的下一帧的图像数据。然后,计算单元8对获取的帧执行步骤S203和S204中的处理。
图10的E示意性地示出了仅对所有有效像素中的ROI 21中的像素执行模数转换(在图10中,由网格分隔的每个正方形表示一个像素)。
通过这种模数转换,计算单元8获取仅具有如图10的F所示的ROI 21的一部分的信息的帧F2的图像。
然后,在图9的步骤S203和S204中,计算单元8检测对象候选位置并对帧F2的图像进行分类。例如,在图10的F的情况下,由于检测到人,所以处理前进到步骤S206和S207,计算新的边界框20并计算新的基于边界框20的ROI 21。图10的F将新获得的ROI示为“ROI 21(新)”。
注意,边界框20扩展,并且生成ROI 21,以应对作为对象的对象的移动(或者成像装置的对象方向的变化)。
例如,图10的E中的帧F2中的人的位置从图10的A中的帧F1中的人的位置向右改变。然而,由于ROI 21被设置得更宽,所以即使仅利用ROI 21中的像素,获取帧F2中的目标人的图像的可能性也增加了。
注意,ROI 21扩展边界框20,使得即使在下一帧中也可以检测到目标对象,但是可以设想,当扩展(ax×by)垂直和水平尺寸(x×y)时的放大比例a和b可以对应于帧速率。
例如,当帧速率低时,帧之间的时间变长,并且对象(例如,人)的移动量变大,因此可以设想比当帧速率高时扩展ROI 21。
此外,针对每一帧重新计算ROI 21(生成新的ROI 21(新)),以应对作为对象的对象的移动(或成像装置的对象方向的变化)。
与图10的F中的图像相比,由于人的运动,在ROI 21中的右边位置检测到人。因此,通过重新计算围绕人的区域的边界框20并获得ROI 21,ROI被更新,以跟随人的运动,如在ROI 21(新)中。
在步骤S207中,计算单元8将新的ROI 21(新)发送到ADC/像素选择器3。结果,在下一帧中,只有新的ROI 21(新)中的像素被模数转换(见图10的G)。
类似地,在步骤S208中,计算单元8仅获取ROI 21(新)中的像素的信息的图像信号,并执行步骤S203和后续步骤的处理。
重复这样的处理,直到在步骤S205中确定目标类别不存在。因此,例如,由于根据作为对象的人来更新ROI 21的位置,所以即使人的位置移动,如在图10的H中的帧Fn中,也可以基于在前一帧F(n-1)(未示出)中计算的ROI 21来获取包括人的区域的信息的帧Fn的图像信号。
如果检测到的人在框之外,并且变得不能被检测到,则目标类别变得不能被获取。因此,计算单元8从步骤S205返回到S201,并等待下一对象检测关键帧记录时间。
通过执行如上所述的区域剪切分析处理,在对象检测关键帧记录时间的关键帧的图像信号包括所有有效像素的数据,而在随后的帧中,只有对象检测所需的像素包括在数据量极大减少的图像信号中,由此可以获得适于检测目标对象的图像。此外,可以实现由于阵列传感器2中读取的像素数量的减少而获得的功耗的减少。
注意,在图9中的处理示例的情况下,为一个目标类别的每个对象设置ROI 21,并且从阵列传感器2读取对应于每个对象的ROI 21的区域,该ROI 21的区域限于在对象检测关键帧中检测到的对象。例如,即使新对象(例如,人)在帧F2和F3的时间作为对象出现,也可能无法获取该人的图像。
例如,如果使用的目的是以特定的时间间隔跟踪和分析在对象检测关键帧中找到的对象,这不是问题。然而,在用于监视作为对象出现的所有人的监视系统的情况下,例如,希望检测到出现在除了对象检测关键帧之外的帧中的对象。
因此,例如,即使继续检测目标类别的对象(即,即使在步骤S205中继续确定“是”),也可以设想,总是以预定的时间间隔返回到步骤S202,并且获取所有有效像素的图像信号。
同样有利的是,可以从处理器11等指定用于获取所有有效像素的图像信号的时间间隔。
可选地,也可以设想,总是将图像的外围边缘设置为与ROI 21分开的AD转换目标区域,并且当新对象作为对象进入帧中时检测新对象,并且为新对象设置ROI 21。
已经描述了通过扩展边界框20将ROI 21设置为矩形区域的示例。然而,ROI 21不限于矩形区域。
可以使用例如语义分割,即,像素级的对象区域检测,从该目标类别的对象的区域计算ROI 21。
图11示出了基于语义分割的ROI 21。这是通过扩展作为对象(例如,人)的像素区域来设置非矩形ROI 21的示例。
例如,存在一些矩形ROI 21中不包括某些部分或者矩形ROI 21太大的情况,例如,带有突起的轨道,或者骑自行车的人。如果以像素级根据对象位置生成非矩形ROI 21,则可以提高获得既实现数据量的减少又实现必要信息的获取的ROI 21的可能性。
注意,通过结合第一实施例的分类图像适配处理执行第二实施例的区域剪切,可以更有效地获得减少数据量和提高检测精度的效果。
<4.第三实施例:使用AROI进行区域剪切>
使用高级ROI(也写成“AROI”)的区域剪切将被描述为可由具有图1所示的配置的传感器装置1执行的第三实施例的处理。
AROI是使用根据类别设置的模板的ROI集。
阵列传感器2(图像传感器)在光电转换中消耗最大的功率。因此,为了降低功耗,希望尽可能减少待光电转换的像素的数量。
此外,由于阵列传感器2获得的图像信号用于图像分析并且不被人看到,所以图像不需要是人可见和可识别的或者清晰的图像。换言之,能够准确检测对象的图像是重要的。
例如,在第二实施例中,对检测到的对象执行类别识别。如果以这种方式执行类别识别,则只需要将根据类别进行识别的最小区域设置为ROI。因此,设置了如图12和图13所示的AROI 22。
图12示出了使用对应于人的图像区域的类别“人”的模板生成的AROI 22。图12中的网格指示像素,并且暗像素被假设为由AROI指定的像素。
例如,对应于类别“人”的模板具有在面部以高密度排列的必要像素和在身体部分以低密度排列的必要像素,以覆盖整个图像区域。
此外,图13示出了使用对应于类别“汽车”的模板生成的AROI 22。在该示例中,模板适用于汽车的后部图像,并且在牌照所在的部分中具有以高密度排列的必要像素,在其他部分中具有以低密度排列的必要像素,以覆盖整个图像区域。
在实践中,可以设想将类别“人”的模板细分为“转过头去的人”、“面向前方的人”、“坐着的人”等,或者也可以设想将类别“汽车”的模板细分为“侧像”、“前像”、“后像”等。
这样,根据类别选择模板,并且根据实际帧中的区域大小缩放模板,以生成AROI22。
图14示出了使用AROI 22的处理示例。
注意,由于步骤S201至S206是与图9中的处理类似的处理,所以避免了冗余描述。
在步骤S206中,计算单元8(对象区域识别单元82)在目标类别的对象存在于在对象检测关键帧记录时间获得的所有有效像素的图像信号中的情况下计算边界框20。
然后,在步骤S210,计算单元8(参数选择单元84)选择基于类别预先计算和存储的AROI模板。
例如,在“人”是目标类别并且图像中存在人的情况下,选择“人”的模板。
在步骤S211中,计算单元8(对象区域识别单元82)基于边界框20计算AROI 22。
例如,通过根据边界框20的大小调整模板的大小来获得AROI 22。
然后,计算单元8(对象区域识别单元82)将AROI 22(AROI的图案和区域)发送到ADC/像素选择器3。
响应于AROI的传输,ADC/像素选择器3仅模数转换并输出阵列传感器2中对应于AROI 22的像素。
在步骤S212中,计算单元8获取仅包括AROI 22中的像素的信息的下一帧的图像数据。然后,计算单元8对获取的帧执行步骤S203和S204中的处理。
处理的后续流程类似于图9中描述的流程。
通过以这种方式使用根据类别设置的模板来生成AROI 22,即使待被光电转换的像素的数量显著减少,也可以获得根据类别能够准确检测对象的信息。
注意,已经在第二实施例中描述的确保对象检测关键帧记录时间总是以特定时间间隔发生并且图像的外围边缘总是被设置为AD转换目标区域的方法也可以应用于第三实施例。
此外,通过结合第一实施例的分类图像适配处理使用第三实施例的AROI 22执行区域剪切,可以更有效地获得减少数据量和提高检测精度的效果。
<5.第四实施例:智能压缩>
智能压缩处理将被描述为可由具有图1中的配置的传感器装置1执行的第四实施例的处理。
智能压缩就是识别出要检测的对象,以低压缩率压缩对象,以高压缩率压缩非对象区域。
图15示出了一个具体示例。
图15的A示出了在从某一帧的图像中检测到作为目标类别的类别“汽车”的情况下,对应于每个汽车区域生成ROI 21的状态。
图15的B示出了通过以低压缩率压缩ROI 21的区域并以高压缩率压缩其他区域而获得的图像信号。
通过这样做,减少了分析数据的量和通信数据的量,而不会降低作为应用目标的对象检测的精度
此外,减少了传感器装置1的功耗,并且加速了关于安装了传感器装置1的整个系统中的对象检测的图像分析。
图16示出了智能压缩处理的示例。
注意,步骤S201至S206是与图9中的处理类似的处理。由于智能压缩处理具有与上述区域剪切情况略有不同的点,因此将描述该点的处理。
在步骤S201中,计算单元8(关键帧选择单元81)确定是否是对象检测关键帧记录时间。
当对象检测关键帧记录时间已经到达时,计算单元8前进到步骤S202,并且获取阵列传感器2的整个有效像素区域中的模数转换图像数据。
注意,在智能压缩的情况下,ADC/像素选择器3针对每一帧从阵列传感器2读取(执行模数转换)所有像素的信号。
计算单元8(对象区域识别单元82)检测在步骤S201中获取的图像中的对象的候选位置。然后,在步骤S204中,计算单元8(类别识别单元83)将检测到的对象分类为候选。
在步骤S205中,计算单元8确认目标类别是否存在于作为类别识别结果获得的类别中。
在步骤S206中,计算单元8(对象区域识别单元82)在目标类别的对象存在于在对象检测关键帧记录时间获得的所有有效像素的图像信号中的情况下计算边界框20。
在步骤S220中,计算单元8(对象区域识别单元82)基于边界框20计算ROI 21。例如,即使在这种情况下,也可以设想,扩展边界框20并设置ROI 21。
计算单元8(对象区域识别单元82)将如此计算的ROI 21发送到逻辑单元5。
作为响应,在步骤S221中,逻辑单元5以低压缩率对与ROI 21的内部相对应的像素区域执行压缩处理,并且以高压缩率对从阵列传感器2读取的图像信号的其他像素区域执行压缩处理。
压缩的图像信号然后被写入DRAM 6,并由接口单元7传送到处理器11。
处理器11可以以高精度执行对象检测,因为由ROI 21指定的必要区域以低压缩率被压缩,并且存在足够的信息。
作为计算单元8的处理,在步骤S220之后,处理返回到步骤S203,检测下一帧的对象的候选位置,并且在步骤S204中执行检测到的对象的类别识别。
在第四实施例中,从阵列传感器2读取每帧中的所有有效像素。因此,在步骤S220或S211之后处理返回到步骤S203的情况下,计算单元8可以在步骤S203中扫描所有有效像素的范围,以检测对象候选。通过扫描所有有效像素的范围来检测候选对象,总是可以应对在关键帧记录时间期间新目标类别对象的出现。
在这种情况下,如果计算单元8检测仅在ROI 21的区域中的候选对象,则可以减少计算单元8上的处理负荷。
响应于目标类别存在的确认,计算单元8在步骤S206和S220中更新ROI 21。
因此,逻辑单元5中以低压缩率压缩的区域也根据每个帧中对象的位置进行更新。
在步骤S205中确定不存在目标类别的情况下,计算单元8的处理返回到步骤S202,并等待对象检测关键帧记录时间。
通过图16中的处理,执行以低压缩率压缩分析所需的部分(即,目标类别对象存在的ROI 21)并以高压缩率压缩其他区域的智能压缩处理。
注意,已经在第二实施例中描述的确保对象检测关键帧记录时间总是以特定时间间隔发生并且基于语义分割生成关注区域也可以应用于第四实施例。
此外,通过结合第一实施例的分类图像适配处理来执行第四实施例的智能压缩处理,可以更有效地获得减少数据量和提高检测精度的效果。
<6.第五实施例:主动采样>
主动采样将被描述为可由具有图1所示的配置的传感器装置1执行的第五实施例的处理。
主动采样是指根据对象的存在与否动态改变帧速率的处理。主动采样可以说是根据对象的存在与否在时间轴方向上压缩数据量。此外,可以降低传感器装置1的功耗。
将参考图17描述主动采样的概图。
现在,假设从捕获的图像中检测到人,其中,目标类别是“人”。例如,假设使用监控摄像机通过入口拍摄建筑物的外部的情况。
图17的A示出了捕获图像中不包括人的状态。在这种情况下,帧速率被设置为低速率,例如,1fps。
图17的B示出了在捕获图像中检测到人的状态。在这种情况下,帧速率被改变为更高的速率,例如,100fps。
即,通过动态地改变帧速率,限制检测目标,当特别不需要时(当没有检测到人时)降低帧速率,当需要时(当检测到人时)增加帧速率,从而使信息量密集。
图18示出了主动采样的处理示例。
例如,在步骤S301中,计算单元8(关键帧选择单元81)根据预先存储在计算单元8中的空闲模式的设置来设置ADC/像素选择器3中的运动图像捕获设置。
例如,在计算单元8中,参数选择单元84存储空闲模式设置和正常模式设置。
主动采样设置有空闲模式和正常模式。空闲模式是在目标类别对象进入捕获的屏幕中被确认之前模式。
在空闲模式下,以比正常模式慢的帧速率捕获运动图像。
可以设想,通过来自传感器装置1外部的命令来启动空闲模式。此外,空闲模式可以响应于来自传感器装置1外部的空闲模式数据获取时间间隔的命令而启动。例如,在60秒的指令的情况下,以60秒的间隔设置对象检测关键帧记录时间。
正常模式是正常的运动图像捕获模式。例如,正常模式响应于以正常模式数据获取时间间隔来自传感器装置1的外部命令。
在正常模式中,通常以比空闲模式更快的帧速率捕获运动图像。例如,在0.01秒的指令的情况下,以0.01秒(100fps)的间隔捕获图像。
因此,在步骤S301中,计算单元8指示ADC/像素选择器3设置空闲模式,使得如果空闲模式被设置为1fps,则以1秒的间隔捕获运动图像。
注意,空闲模式设置和正常模式设置不一定存储在计算单元8中,而是可以存储在计算单元8的外部存储器中。
空闲模式和正常模式下的帧速率是示例性的。
此外,空闲模式和正常模式的设定值理想地可从外部装置(例如,处理器11)重写。
在步骤S302中,计算单元8(对象区域识别单元82)检测获取的图像中的对象的候选位置。
在步骤S303中,计算单元8(类别识别单元83)将检测为候选的对象分类成类别。
在步骤S304中,计算单元8确认目标类别是否存在于作为类别识别结果而获得的类别中。
当不存在目标类别时,计算单元8执行步骤S301、S302和S303的处理。即,计算单元8在空闲模式下获取下一帧的图像,并且类似地检测对象的候选位置并识别类别。在这种情况下,例如,假设以1fps捕获图像,在1秒之后对图像执行该处理。
例如,在“人”被设置为目标类别并且“人”作为识别的类别存在的情况下,计算单元8将处理从步骤S304移动到步骤S305。
计算单元8(关键帧选择单元81)根据存储的正常模式设置在ADC/像素选择器3中设置运动捕获设置,并指示ADC/像素选择器3以正常模式捕获图像。
因此,如果正常模式被设置为100fps,则例如以0.01秒的间隔捕获运动图像。
在模式被切换到正常模式的状态下,计算单元8执行步骤S302和S303的处理。
然后,只要目标类别存在于捕获的图像中,正常模式就继续,而当目标类别不再存在时处理返回到步骤S301,并且正常模式被切换到空闲模式。
如上所述执行作为主动采样的处理。由此,降低了帧速率,并且压缩了数据量,尤其是在目标类别不存在的时间段期间,从而降低了功耗。
尽管计算单元8指示ADC/像素选择器3改变帧速率,以使帧速率可变,但是计算单元8可以指示逻辑单元5转换帧速率。
例如,从阵列传感器2的读取总是以100fps执行,并且在空闲模式下,指示逻辑单元5精简帧。因此,可以减少关于传输到处理器11的数据量。
注意,通过组合主动采样处理和第二、第三或第四实施例,在不降低检测精度的情况下减少数据量的更有效效果。
此外,通过组合主动采样处理和第一实施例的分类图像适配处理,除了数据量的有效减少之外,还可以提高检测精度。
<7.第六实施例:通过阈值设置的图像适配>
图像适配处理将被描述为第六实施例的处理。在此处描述的示例是将根据阈值设置的参数改变的思想加入到第一实施例的分类图像适配处理的示例。
作为在此处提到的参数的示例,采用在逻辑单元5中的图像处理中使用的参数,并且设置(调整或改变)在逻辑单元5中使用的图像处理的参数,以满足例如在传感器装置1中设置的阈值。
此外,作为参数,还采用成像处理中使用的参数,例如,由ADC/像素选择器3读取的信号或由阵列传感器2进行的曝光操作。设置(调整或改变)ADC/像素选择器3或阵列传感器2的成像处理操作的控制参数,以满足例如在传感器装置1中设置的阈值。
在上述第一实施例中,根据类别识别选择逻辑单元5中使用的参数。可以根据阈值设置(调整或改变)选定的参数。
可选地,参数不必限于基于类别识别选择的参数,并且可以设想,基于阈值设置参数,只要这些参数是在逻辑单元5、ADC/像素选择器3或阵列传感器2中使用的参数。
将描述基于阈值自动设置的与成像处理相关的参数和与图像处理相关的参数的具体示例。
例如,与图像处理相关的参数示例如下:
-图像纵横比;
-分辨率;
-色阶的数量(颜色的数量或位深度);
-对比度调整值;
-锐度调整值;
-灰度级调整值;
-伽马校正值;以及
-采样率转换比率。
图像纵横比和分辨率参数也反映在ROI 21中。
色阶的数量、对比度调整值、锐度调整值、灰度级调整值、伽马校正值和分辨率是与图像质量相关的参数。
采样率转换比率是时间分辨率的一个参数。
此外,与成像处理相关的参数包括:
-采样率;
-分辨率(例如,在ADC/像素选择器3的读取时设置的分辨率);
-阵列传感器2的快门速度(曝光时间);
等等。
当然,基于阈值自动设置的参数包括上述参数之外的参数。
例如,在处理器11基于使用深度神经网络(DNN)的学习来执行数据检测的情况下,根据参数的阈值的这种设置用于减少数据量、加快处理、降低功耗等,同时确保对象检测的输出的实际精度。
即,通过改变诸如分辨率和颜色数量等参数来减少成像数据量。然而,即使降低了,对象检测的精度也保持在要求的水平。
将参考图19描述基于阈值设置参数的思想。
例如,假设在传感器装置1对人成像的情况下,具有阵列传感器2的所有像素(所有有效像素)的信息的全色图像数据以每秒60帧(fps)的帧速率输出,作为输出图像。
然后,假设在处理器11对这样的图像数据执行对象检测的情况下,例如,能够以置信率CR=0.98的98%的比率正确地检测到人。置信率是能够正确识别和检测对象的确定率。
同时,假设在其中分辨率稍微降低的图像数据的情况下,色阶的数量稍微降低,并且输出帧速率被设置为30fps进行输出,获得置信率CR=0.92。
同时,假设在其中分辨率进一步降低的图像数据的情况下,色阶的数量进一步降低,并且输出帧速率被设置为15fps进行输出,获得置信率CR=0.81。
此外,假设在其中分辨率显著降低的图像数据的情况下,色阶的数量显著降低,并且输出帧速率被设置为10fps进行输出,获得置信率CR=0.58。
上述示例仅仅是用于描述的示例,但是置信率通过改变关于成像或图像质量的参数而变化,例如,以这种方式分析的图像数据的分辨率、颜色数量和时间分辨率。即图像分析和对象检测的精度发生变化。
顺便提及,对象检测的置信率不能太高。实际上,并不总是要求最高的比率。
例如,当考虑如图7的A所示的从鸟瞰图捕获公园而获得的图像中粗略检测人数的情况时,不需要那么高的精度。例如,在获得诸如几个人、大约10个人、大约20个人等的检测结果的情况下,CR=0.6左右的置信率就是足够的。
另一方面,在用安全摄像机等严格监视人的入侵的情况下,可能需要置信率CR=0.95左右。
此外,可以在白天使用置信率CR=0.70,但是可以在晚上请求置信率CR=0.90左右。
即,对象检测精度所需的置信率CR根据各种因素而不同,例如,检测的目的、目标、装置/应用程序的类型、时间和区域。
此外,置信率根据处理器11的分析能力和学习程度而变化,并且还根据检测目标和类别而变化。
根据这些事实,例如,通过基于所需的适当置信率确定阈值并相应地改变参数,可以输出满足诸如对象检测等要求的图像信号。
现在,在图19的示例中,假设需要置信率CR=0.80或更高。
在这种情况下,计算其中作为置信率CR的阈值变为0.80或更大的参数,并且设置逻辑单元5等中使用的参数。特别地,设置高于阈值但具有相对少量数据的参数。
例如,设置诸如分辨率、色阶数量和帧速率之类的参数,其中,示出的置信率CR=0.81。
然后,与例如设置参数以获得置信率CR=0.98并且输出图像信号的情况相比,可以显著减少数据量并且可以保持所需的对象检测精度。
注意,“阈值”可以被认为是作为置信率的要求值,但是在为参数调整计算的阈值的意义上,“阈值”可以被认为是用于获得作为“阈值”的要求置信率的参数值。
即,在技术意义上,作为“设置参数的阈值并使得执行使用基于阈值设置的参数的处理”的处理,采用以下处理方法[1]和[2]。
[1]计算指标值的阈值,例如,适合于使用模式或使用环境的置信率,并且设置要实际用作用来获得超过指标值的阈值的指标值的参数值的参数。即,从对象检测的指标值的观点来设定参数的阈值。
[2]计算用于获得所需值作为指标值的参数的阈值,例如,置信率,并基于该阈值设置要实际使用的参数。即,参数的阈值是从参数本身的值的角度来设置的。
在本实施例中,例如,基于置信率将阈值如[1]或[2]设置,并且将实际使用的参数适配为使图像数据量尽可能小。实时计算这些参数(例如,在成像期间周期性地计算),并且动态改变参数。
例如,通过根据传感器装置1的应用、目标类别或成像环境通过DNN处理来计算适当的阈值和相应的参数,并改变参数,实现了速度的提高、功耗的降低以及适应于应用等的高精度。
具体地,在描述为第六实施例的示例中,执行参数调整,使得提供基于对象检测的置信率的阈值,并且计算接近阈值并且不低于阈值的参数的设定值。
此外,为每个类别设置阈值和相应的参数是合适的。
图20的A示出了分类为“人脸”的图像,作为类别,图20的B示出了分类为“路标”的图像,作为类别。
图20的A示出了在人脸的情况下,当图像信号是16777216色的8位RGB数据并且数据量是1.5MB时,置信率是CR=0.99,当图像信号是256色的8位灰度色调并且数据量是540KB时,置信率是CR=0.75,并且当图像信号是黑色和白色两种颜色的数据并且数据量是180KB时,置信率是CR=0.58。
例如,在这种情况下,当人脸的阈值是置信率CR=0.74时,右侧的图像是不合适的,并且中心图像的参数作为参数设置是适合的。
图20的B示出了在路标的情况下,当图像信号是16777216色的8位RGB数据并且数据量是1.4MB时,置信率是CR=0.99,当图像信号是256色的8位灰度色调并且数据量是520KB时,置信率是CR=0.95,并且当图像信号是黑色和白色两种颜色的数据并且数据量是110KB时,置信率是CR=0.88。
例如,在这种情况下,当路标的阈值是置信率CR=0.85时,任何图像都是合适的。右侧图像的参数作为参数设置是适合的。
例如,如上所述,由于检测精度和图像信号质量所需的精度根据对象的类别而不同,因此设置阈值并根据类别改变参数是合适的。
在下文中,将描述第六实施例的具体示例。
首先,图21示出了传感器装置1的配置示例。注意,与图1中相同的组件被赋予相同的附图标记,并且避免了冗余描述。
图21中的配置与图1的不同之处在于,例如,阈值设置单元85被设置为被配置为AI处理器的计算单元8中的计算功能。
阈值设置单元85具有作为DNN引擎的功能,并且执行为逻辑单元5的图像处理中使用的所有或一些参数设置参数阈值的处理或者关于阵列传感器2的成像的成像处理(阵列传感器2和ADC/像素选择器3的处理)。
此外,阈值设置单元85使得逻辑单元5、阵列传感器2和ADC/像素选择器3中的全部或一些使用基于阈值改变的参数来执行处理。
具体地,例如,阈值设置单元85基于阈值改变逻辑单元5中用于图像处理的参数,并且在逻辑单元5中设置改变的参数。
可选地,阈值设置单元85基于阈值改变用于成像处理的参数,例如,阵列传感器2的曝光操作以及ADC/像素选择器3的读取处理和模数转换处理,并且在阵列传感器2和ADC/像素选择器3中设置改变的参数。
图22示出了传感器装置1的计算单元8的处理示例。图22示出了将上述阈值设置单元85的处理添加到图5中的分类图像适配处理的示例。在图22中,与图5中相同的处理被赋予相同的步骤编号,并且省略其描述。
在图22中,作为阈值设置单元85处理的步骤S150和S151被添加到图5中的处理。
在步骤S150中,计算单元8确定它是否是阈值计算时间,并且在它是阈值计算时间的情况下前进到步骤S151,或者在它不是阈值计算时间的情况下前进到步骤S101。
阈值计算时间例如是以下时间:
a.每个预定的时间间隔:例如,从成像开始的每个小时;
b.每个预定的设定时间:例如,每0:00am;
c.预定目标类别的每出现次数:例如,目标类别的每1000次出现;
d.预定目标类别的每个成像时间:例如,目标类别被成像的每五个小时;以及
e.通过外部命令的时间:来自安装传感器装置1的装置/设备侧(例如,处理器11)的指令。
例如,当在步骤S150中确定这些时间等并且阈值计算时间已经到达时,计算单元8在步骤S151中根据阈值计算策略计算阈值。即,确定阈值并设置根据该阈值的参数。
该阈值计算策略(阈值)根据计算阈值时所关注的成像处理或图像处理的参数的类型被分成若干策略,并且根据应用而不同。示例如下。
-使用置信率的下降曲线的拐点。
当降低分辨率时,有减少数据大小和计算成本的优点,但相反,置信率通常降低。
在图23的A中,横轴表示分辨率,纵轴表示置信率。
如图23的A所示,在等于或低于某一分辨率(拐点)的低分辨率下,置信率大大降低。因此,例如,在改变分辨率的同时获得置信率和分辨率之间的关系的曲线的拐点。考虑到拐点或拐点附近,作为阈值,执行参数设置以降低分辨率。
-使用置信率的最大值
在对象检测的分类中,当根据类别,颜色数量大时,置信率不一定高,并且存在根据目标类别使置信率最大化的最佳颜色数量。
在图23的B中,横轴表示色阶的数量,纵轴表示置信率。
在如图23的B所示观察到置信率峰值的情况下,基于最大值计算阈值。例如,最大值(置信率和色阶数量之间的关系曲线的峰值)被认为是阈值,或者接近最大值的预定范围(例如,通过降低置信率的预定百分比获得的值)被认为是阈值。然后,根据阈值设置色阶数量的参数。
-使用剩余的电池电量
基于剩余电池电量获得启用N小时成像的参数设置,并且参数被设置为使置信率最高(或等于或大于指定值)。
例如,可以设想,根据剩余电池电量降低诸如置信率等阈值,从而可以获得尽可能长的成像时间,并根据置信率设置参数。
-使用可以保持对象跟踪的时间分辨率
对象跟踪是在帧行进方向上的连续图像信号的帧中跟踪和识别特定的检测对象(对象)。
通常,随着图像信号的时间分辨率降低,关于对象跟踪的计算成本增加。
将能够维持目标跟踪的参数设置为阈值,通过优先降低对象跟踪的计算成本,来确定时间分辨率和其他参数。
例如,采用上述示例中的一种策略,并且通过预定算法计算阈值。图24示出了计算单元8的阈值计算处理的示例。
图24中的计算单元8的处理是由图21所示的作为对象区域识别单元82、类别识别单元83和阈值设置单元85的功能执行的处理。
在步骤S160中,计算单元8以一帧为单位从阵列传感器2获取图像信号。
在步骤S161中,计算单元8(对象区域识别单元82)检测获取的帧中的对象的候选位置。
即,计算单元8在帧图像中搜索待检测的候选对象,并获得一个或多个候选位置(图像中的位置坐标)。
在步骤S162中,计算单元8(类别识别单元83)将检测到的对象分类成类别。即,计算单元8为每个候选对象识别和分类类别。
在步骤S163中,计算单元8确认目标类别是否存在于作为类别识别结果获得的类别中。
目标类别例如是如上所述由处理器11设置的类别。即,假设处理器11中针对对象检测的类别。
在不存在目标类别的情况下,计算单元8返回到步骤S160并获取下一帧的图像数据。
在存在目标类别的情况下,计算单元8将处理从步骤S163移动到步骤S164。
在处理前进到步骤S164的情况下,计算单元8(对象区域识别单元82)计算分类到类别中的对象区域周围的准确位置坐标(边界框20)。边界框20如参考图6的F、图6的G等所述。
在步骤S165中,计算单元8(阈值设置单元85)计算要在成像处理或图像处理中使用的阈值和参数,同时根据预先设置的阈值计算策略为边界框20包围的目标类别改变阈值和参数。
在步骤S166中,计算单元8(阈值设置单元85)将在步骤S165中计算的阈值和参数、目标类别和阈值计算策略彼此关联地记录下来。
例如,信息记录在计算单元8内部的记录区域中,记录在存储器6的预定区域中,或者被传送到处理器11,用于记录。
由此,根据目标类别设置阈值和参数。
例如,在图22的步骤S151中,如上所述设置阈值和参数。因此,每当阈值计算时间到达时,为某个目标类别设置的参数就会改变。
例如,在人是目标类别的情况下,根据阈值改变与人对应的参数集的所有或一些参数。
由于图22中的步骤S101至S107类似于图5中的处理,因此在这种情况下根据目标类别选择参数集。然后,在步骤S107中,在逻辑单元5中设置参数集。
逻辑单元5中设置的参数集是适用于目标类别的参数集,但是是基于在步骤S151的处理中计算的阈值而改变的参数集。
计算单元8(阈值设置单元85)执行必要的处理,例如,将参数传送到逻辑单元5或改变指令,使得要在逻辑单元5中使用的参数以这种方式改变。
由此,关于图像处理或成像处理的参数基于阈值被设置为具有尽可能小的图像数据量的值。
因此,从接口单元7输出的图像信号可以具有能够保持处理器11所需的对象检测精度的图像质量等,并且可以具有小的数据量。
注意,以上图22中的处理示例是将基于阈值设置的参数改变的思想添加到图5中的分类图像适配处理的示例。然而,该思想不一定必须与分类图像适配处理相结合。
例如,可以设想仅步骤S150、S151、S107和S108的处理示例(在图22中取消步骤S101至S107的处理示例)。
即,在步骤S151中,基于阈值计算来设置要在逻辑单元5中的图像处理中使用的参数或者要在阵列传感器2或ADC/像素选择器3中的成像处理中使用的参数。
然后,在步骤S107时,在逻辑单元5、阵列传感器2或ADC/像素选择器3中设置根据阈值设置的参数。
即,计算单元8(阈值设置单元85)将根据阈值设置的参数传送到逻辑单元5、阵列传感器2和ADC/像素选择器3中的一些或全部,或者给出改变指令。
在这种情况下,实现例如基于阈值依次改变逻辑单元5、阵列传感器2和ADC/像素选择器3中默认设置的参数的处理,而不是使用根据类别设置的参数的想法。
具有阈值设置单元85的配置不限于图21中的配置,也可以设想如图25和图26中的配置示例。
图25示出了作为终端装置100,计算单元8与传感器装置1分开设置的配置示例。注意,作为终端装置100,可以设想诸如信息处理终端和成像装置终端等各种装置。
计算单元8被设置在终端装置100中,作为与传感器装置1分离的芯片,并且可以经由接口单元7与传感器装置1通信。
然后,计算单元8包括用作阈值设置的DNN引擎的阈值设置单元85。
由此,图25中的计算单元8也可以执行与上述图22中的情况类似的处理。
注意,图25所示的配置示例也可以应用于根据第一至第五实施例的图1中的配置示例。计算单元8可以与传感器装置1分离。
图26中的配置示例是用作用于阈值设置的DNN引擎的阈值设置单元85独立于传感器装置1和计算单元8由处理器等形成的示例。
例如,图26中的配置示例是包括传感器装置1(包括计算单元8)、处理器11、外部传感器12和阈值设置单元85作为终端装置100的配置。
即使在这种情况下,阈值设置单元85也可以经由接口单元7与传感器装置1通信,并且可以与计算单元8协作,来执行与上述图22类似的处理。
此外,尽管未示出,但是在传感器装置1和计算单元8是如图26所示的不同配置的配置中,阈值设置单元85可以进一步由单独的处理器等配置。
注意,类似于阈值设置单元85,可以设想,将关键帧选择单元81、对象区域识别单元82、类别识别单元83、参数选择单元84等设置在传感器装置1外部或计算单元8外部。这一点也可以作为图1所示配置的修改来应用。
<8.第七实施例:有效区域剪辑>
使用第二实施例的ROI实现更有效处理的示例将被描述为第七实施例。
注意,下面的第七实施例的处理可以应用于图1、图21、图25和图26所示的任何配置。
在第二实施例中,如图7和图8所示,已经描述了为待检测的对象设置ROI 21,并且从阵列传感器2仅读取被设置为ROI 21的区域中的像素的示例。
注意,聚焦被设置为集中在图像中的特定区域中的ROI 21的区域。
图27的A示出了建筑物中的监视摄像机的图像的示例。假设ROI 21被设置为检测人。图27示出了边界框20在图像中的位置,这些位置是在图像中过去的预定时间段内设置的ROI 21的基础。
例如,在这种情况下,边界框20(和ROI 21)的设置位置在过去的预定时间段内位于图像中靠近地板的区域中。
换言之,由于在图像中天花板附近的区域中没有人出现,所以可以说没有必要在天花板附近的图像区域中执行人检测处理。
因此,例如,如图27的B所示,待检测的“人”出现的区域(即,在过去的预定时间段中已经设置了边界框20的区域)被设置为有效区域RA,而待检测的“人”没有出现的区域(即,在过去的预定时间段中没有设置边界框20的区域)被设置为非有效区域DA。
图28的A示出了用于监视作为在高速公路上待检测的对象的汽车的监视摄像机的图像的示例,并且示出了在过去的预定时间段中设置的边界框20的位置。
同样在这种情况下,由于汽车出现在路面附近,所以可以如图27的B所示设置有效区域RA和非有效区域DA。
如图27的B或图28的B中的上述示例中那样设置有效区域RA,并且从阵列传感器2的捕获像素中的有效区域RA的检测信号中检测对象。然后,与第二实施例中一样,基于对象检测生成的ROI 21的指令被提供给信号处理单元30,作为与检测信号的获取或检测信号的信号处理相关的区域。
即,对于对象检测关键帧,基于对象检测的历史信息部分地执行光电转换,而不是全屏扫描,并且检测对象。
注意,在第二实施例的处理中,对象检测关键帧是在用于对象检测的阵列传感器2的整个有效像素区域中获取信息的帧。仅在关键帧中的有效区域RA的像素区域中获取信息是第七实施例的处理。
图29示出了计算单元8的处理示例。注意,与图9中相同的处理被赋予相同的步骤编号。
在步骤S250中,计算单元8确定是否是关键帧的有效区域的计算时间,并且在是计算时间的情况下前进到步骤S251,或者在不是阈值计算时间的情况下前进到步骤S201。
关键帧的有效区域RA的计算时间可以如下,例如:
a.每个预定的时间间隔:例如,从成像开始的每个小时;
b.每个预定的设定时间:例如,每0:00am;
c.预定目标类别的每出现次数:例如,目标类别的每1000次出现;
d.预定目标类别的每个捕获时间:例如,目标类别被成像的每五个小时;以及
e.通过外部命令的时间:来自安装了传感器装置1的装置/设备侧(例如处理器11)的指令。
在是计算时间并且处理前进到步骤S251的情况下,计算单元8计算关键帧的有效区域RA。
图30示出了计算关键帧的有效区域RA的处理的示例。
在步骤S271中,计算单元8(对象区域识别单元82)计算阵列传感器2上的目标类别的边界框20已经在过去的预定时间段中出现的出现区域的像素。
在这种情况下,每个出现的边界框20中的所有像素都是出现区域的像素。设置以包围方式围绕所有出现的边界框20的范围,并且该范围中的所有像素可以被设置为出现区域的像素。
此外,以包围方式围绕所有出现的边界框20的范围可以在外围方向上扩展,并且扩展范围中的所有像素可以被设置为出现区域的像素。
以这种方式计算的包括边界框20的所有出现区域的像素范围是有效区域RA。
在步骤S272中,计算单元8(对象区域识别单元82)将计算出的像素区域与类别名称一起记录为关键帧的有效区域RA。例如,信息记录在计算单元8内部的记录区域中,记录在存储器6的预定区域中,或者被传送到处理器11,以进行记录。
由此,设置了根据目标类别的有效区域RA。
在图29的步骤S201中,计算单元8(关键帧选择单元81)在步骤S201中确定是否是对象检测关键帧记录时间。
类似于第二实施例(图9),对象检测关键帧记录时间是指从用于对象检测的阵列传感器2获取信息的时间。
对象检测关键帧记录时间可以由例如来自传感器装置1(例如,处理器11)外部的命令来确定。例如,假设响应于60秒的指令,以60秒的间隔确定对象检测关键帧记录时间。
当对象检测关键帧记录时间已经到达时,计算单元8前进到步骤S252,并且获取阵列传感器2的有效区域RA的像素的经模数转换的图像数据。例如,ADC/像素选择器3为有效区域RA从阵列传感器2输出一帧的图像信号。
在步骤S203中,计算单元8(对象区域识别单元82)检测获取的图像中的对象的候选位置。步骤S203至S208类似于图9中的步骤。
根据图29中的处理,步骤S203中的对象检测可以仅在有效区域RA中执行,而不是在一帧的整个有效像素区域中执行。然后,有效区域RA是可以检测目标类别对象的区域。换言之,在除了有效区域RA之外的区域中,目标类别对象检测几乎是不可能的。
因此,例如,通过减少要读取的像素数和减少对象检测关键帧的检测范围,可以实现有效的处理和功耗的减少。
注意,在上述示例中,基于边界框20的历史来设置有效区域RA。然而,可以基于ROI21的历史来设置有效区域RA。在这种情况下,可以设想包括针对每一帧移动的ROI(图10中描述的ROI 21(新))的像素位置的历史。
<9.第八实施例:阈值设置和使用AROI的区域剪切>
作为第八实施例,将描述使用作为第三实施例描述的AROI 22进一步提高区域剪切效率的处理示例。注意,第八实施例的处理可以以图21、图25和图26中的任何配置来执行。
在第八实施例中,在利用使用模板的AROI 22的情况下,例如,针对要检测的对象(类别)或部分,基于设置的阈值来设置参数。即,采用第六实施例的阈值的思想,并且基于由DNN计算的对象检测的正确回答率来确定阈值,并且设置参数。
例如,根据使用置信率设置的阈值来确定AROI 22中关注区域的分辨率分布。
图31示意性地示出了一个示例。考虑人是目标类别的情况和脸是目标类别的情况。
假设满足第一分辨率>第二分辨率>第三分辨率。
面部检测的置信率CR在第一分辨率下为0.95,在第二分辨率下为0.86,在第三分辨率下为0.66。
人(体)检测的置信率CR在第一分辨率下为0.98,在第二分辨率下为0.81,在第三分辨率下为0.65。
在用于面部检测的阈值thF为0.85的情况下,选择第二分辨率,作为适于使图像数据量尽可能小的参数,并且对模板中的像素执行图像处理。
此外,在用于面部检测的阈值thP为0.80的情况下,选择第二分辨率,作为适于使图像数据量尽可能小的参数,并且对模板中的像素执行图像处理。
在这两种情况下,第二分辨率都是有利的。然而,在一些情况下,在阈值thF为0.94的面部检测的情况下设置第一分辨率,或者在阈值thP为0.60的人体检测的情况下设置第三分辨率。
即,在使用AROI 22的情况下,为每个目标类别设置阈值,并且为AROI 22中的像素设置图像处理、读出处理或其他处理的参数。
图32示出了计算单元8的处理示例。
图32中的步骤S250和S251类似于图29中的步骤S250和S251,并且计算单元8在关键帧的有效区域RA的检测时间计算有效区域RA(图30中的处理)。
步骤S260和S261类似于图22中的步骤S150和S151。即,在步骤S260中,计算单元8(阈值设置单元85)确定它是否是阈值计算时间,并且在是阈值计算时间的情况下在步骤S261中计算阈值(图24中的处理)。
作为这种情况下的图24中的阈值计算处理,计算单元8(对象区域识别单元82)类似于以上描述执行步骤S160至S164。然后,在步骤S165中,计算单元8(阈值设置单元85)基于来自对应于作为模板的AROI图案的像素区域的数据的置信率来计算阈值,同时改变由边界框20包围的目标类别的分辨率。
在这种情况下,对于作为根据类别的模板的AROI模式,根据阈值设置参数。例如,设置AROI图案上的区域的分辨率。
然后,在步骤S166中,阈值、目标类别、AROI模式、必要参数和阈值计算策略信息被彼此关联地记录。例如,信息记录在计算单元8内部的记录区域中,记录在存储器6的预定区域中,或者被传送到处理器11以进行记录。
在图32的步骤S201中,计算单元8确定是否是对象检测关键帧记录时间,并且当对象检测关键帧记录时间已经到达时,计算单元8前进到步骤S252,并且获取阵列传感器2的有效区域RA的像素的经模数转换的图像数据。例如,ADC/像素选择器3为有效区域RA从阵列传感器2输出一帧的图像信号。
在步骤S203中,计算单元8(对象区域识别单元82)检测获取的图像中的对象的候选位置。步骤S203至S206类似于图9中的步骤。
在步骤S206中计算边界框20之后,计算单元8(参数选择单元84)在步骤S262中选择基于阈值计算并记录的AROI图案。
在步骤S211中,计算单元8(对象区域识别单元82)基于边界框20计算实际AROI22。即,获得对应于所选AROI图案的实际像素区域。例如,通过根据边界框20的大小调整模板的大小来获得AROI 22。
然后,计算单元8(对象区域识别单元82)将AROI 22(AROI的图案和区域)发送到ADC/像素选择器3。
响应于AROI的传输,ADC/像素选择器3仅模数转换并输出阵列传感器2中对应于AROI 22的像素。
在步骤S212中,计算单元8获取仅包括AROI 22中的像素的信息的下一帧的图像数据。然后,计算单元8对获取的帧执行步骤S203和S204中的处理。
如上所述,例如,根据AROI 22的置信率来设置参数,并且设置诸如分辨率等参数,由此可以在保持对象检测精度的同时有效地进行成像处理和图像处理。
<10.第九实施例:通过阈值设置的主动采样>
作为第九实施例,将描述将基于由DNN计算的对象检测的正确回答率来确定时间分辨率的方法添加到第五实施例中描述的主动采样方法的示例。
即,基于目标类别的每单位时间的平均移动量来执行动态改变帧速率的处理。
注意,第九实施例的处理可以以图21、图25和图26中的任何配置来执行。
在上述第五实施例中,准备正常模式和空闲模式,并且在捕获图像中没有检测到目标类别的存在的时间段期间,将低帧速率设置为空闲模式。然后,当确认目标类别的存在时,增加帧速率,作为正常模式,以使信息量密集。
在第九实施例中,除了处理之外,根据目标类别来设置正常模式下的帧速率。
图33的A示出了在传感器装置1用于捕获公路的监视摄像机的情况下的图像的示例。目标类别是汽车,并且示出了边界框20。虚线箭头表示汽车的行驶方向。
图33的B示出了随着连续帧中的图像中的边界框20的位置(像素位置)的变化的捕获的汽车的运动量。当在许多汽车中考虑这样的运动量时,假设平均运动量是1152像素/秒。
在这种情况下,假设能够保持对象跟踪(在连续帧图像上跟踪对象)的采样率是46fps。
图34的A示出了在传感器装置1用于建筑物中的监视摄像机的情况下的图像的示例。目标类别是人,并且示出了边界框20。虚线箭头表示人的移动方向。
图34的B示出了随着连续帧中的图像中的边界框20的位置(像素位置)的变化的捕获的人的运动量。当考虑许多人的这种运动量时,假设平均运动量是192像素/秒。
在这种情况下,假设能够保持对象跟踪的帧速率是5fps。
例如,如上所述,在目标类别是汽车的情况和目标类别是人的情况之间,可以保持对象跟踪的帧速率不同。
然后,根据目标类别通过DNN获得能够保持对象跟踪的帧速率,并且获得阈值(允许的帧速率下限),使得在跟踪对象的同时能够保持对象检测的精度。
注意,根据阵列传感器2的读取时间的设置或ADC/像素选择器3的采样速率的设置来确定帧速率。
图35示出了计算单元8的处理示例。
步骤S350和S351类似于图22中的步骤S150和S151。即,在步骤S350中,计算单元8(阈值设置单元85)确定是否是阈值计算时间,并且在是阈值计算时间的情况下,在步骤S351中计算阈值(图24中的处理)。
作为这种情况下的图24中的阈值计算处理,计算单元8(对象区域识别单元82)类似于以上描述执行步骤S160至S164。然后,在步骤S165中,计算单元8(阈值设置单元85)计算能够在改变由边界框20包围的目标类别的帧速率的同时保持对象跟踪的阈值(用作阈值的帧速率)。
此后,在步骤S166中,计算单元8(阈值设置单元85)彼此关联地记录在步骤S165中计算的阈值、目标类别和用于计算阈值的阈值计算策略信息。例如,信息记录在计算单元8内部的记录区域中,记录在存储器6的预定区域中,或者被传送到处理器11以进行记录。
由此,例如,设置基于根据目标类别的阈值的参数,即能够保持对象跟踪的尽可能低的帧速率值。
图35中的步骤S301至S106类似于图18中的步骤。
例如,在步骤S301中,计算单元8(关键帧选择单元81)根据预先存储在计算单元8中的空闲模式的设置来设置ADC/像素选择器3中的运动图像捕获设置。
因此,如果空闲模式被设置为1fps,则例如以1秒的间隔捕获运动图像。
在步骤S302中,计算单元8(对象区域识别单元82)检测获取的图像中的对象的候选位置。
在步骤S303中,计算单元8(类别识别单元83)将检测为候选的对象分类成类别。
在步骤S304中,计算单元8确认目标类别是否存在于作为类别识别结果获得的类别中。
当不存在目标类别时,计算单元8经由步骤S350和S351重复步骤S301、S302和S303的处理。
在处理期间,当阈值计算时间已经到达时,执行步骤S351的处理。
在步骤S304中确定目标类别存在的情况下,计算单元8将处理从步骤S304移动到步骤S352。
计算单元8(关键帧选择单元81)将步骤S351中的处理中存储的参数设置为正常模式设置,并且根据存储的正常模式设置在ADC/像素选择器3中设置运动捕获设置,并且指示ADC/像素选择器3以正常模式捕获图像。
例如,在目标类别是人的情况下,如图34的C所示,对象跟踪可以保持在5fps,并且帧速率=5fps,正常模式下的帧速率设置为5fps。
在模式被切换到正常模式的状态下,计算单元8执行步骤S302和S303的处理。
然后,只要目标类别存在于捕获的图像中,正常模式就继续,而当目标类别不再存在并且正常模式被切换到空闲模式时,处理经由步骤S350和S351返回到步骤S301。
如上所述执行作为主动采样的处理。因此,降低了帧速率,并且压缩了数据量,尤其是在目标类别不存在的时间段期间,从而降低了功耗。
此外,即使在正常模式下,也以根据目标类别适配的帧速率执行处理。因此,根据类别(例如,5fps以上),帧速率相当低。因此,即使在正常模式下,数据量也被压缩,并且功耗降低。
尽管计算单元8指示ADC/像素选择器3改变帧速率,以使帧速率可变,但是计算单元8可以指示逻辑单元5转换帧速率。
例如,从阵列传感器2的读取总是以100fps执行,但是指示逻辑单元5根据在空闲模式和正常模式中设置的参数来精简帧。因此,可以减少关于传输到处理器11的数据量。
<11.对移动体的应用>
根据本公开的技术可以应用于各种产品。例如,根据本公开的技术可以实现为安装在任何类型的移动体上的装置,移动体包括汽车、电动汽车、混合电动汽车、摩托车、自行车、个人移动设备、飞机、无人机、轮船、机器人等。
图36是示出作为可应用根据本公开的技术的移动体控制系统的示例的车辆控制系统的示意性配置示例的框图。
车辆控制系统12000包括通过通信网络12001连接的多个电子控制单元。在图36所示的示例中,车辆控制系统12000包括驾驶系统控制单元12010、车身系统控制单元12020、车辆外部信息检测单元12030、车辆内部信息检测单元12040和集成控制单元12050。此外,作为集成控制单元12050的功能配置,示出了微型计算机12051、声音图像输出单元12052和车载网络接口(I/F)12053。
驾驶系统控制单元12010根据各种程序控制关于车辆驾驶系统的装置的操作。例如,驾驶系统控制单元12010用作用于产生车辆驱动力的驱动力产生装置(例如,内燃机或驱动马达)的控制装置、用于将驱动力传输到车轮的驱动力传递机构、调节车辆转向角的转向机构、产生车辆制动力的制动装置等。
车身系统控制单元12020根据各种程序控制装配在车身中的各种装置的操作。例如,车身系统控制单元12020用作无钥匙进入系统、智能钥匙系统、自动车窗装置以及各种灯(例如,前照灯、倒车灯、刹车灯、转向信号灯和雾灯)的控制装置。在这种情况下,从替代按键的移动装置传输的无线电波或各种开关的信号可以输入到车身系统控制单元12020。车身系统控制单元12020接收无线电波或信号的输入,并控制车辆的门锁装置、自动车窗装置、灯等。
车辆外部信息检测单元12030检测安装有车辆控制系统12000的车辆外部的信息。例如,成像单元12031连接到车辆外部信息检测单元12030。车辆外部信息检测单元12030使成像单元12031捕获车辆外部的图像,并接收捕获的图像。车辆外部信息检测单元12030可以基于接收到的图像对人、车辆、障碍物、标志、路面上的字母等执行对象检测处理或距离检测处理。
成像单元12031是接收光并根据光的光接收量输出电信号的光学传感器。成像单元12031可以输出电信号,作为图像,并且可以输出电信号,作为距离测量的信息。此外,由成像单元12031接收的光可以是可见光或者可以是诸如红外光等不可见光。
车辆内部信息检测单元12040检测车辆内部的信息。例如,检测驾驶员状态的驾驶员状态检测单元12041连接到车辆内部信息检测单元12040。驾驶员状态检测单元12041包括例如捕获驾驶员的相机,并且基于从驾驶员状态检测单元12041输入的检测信息,车辆内部信息检测单元12040可以计算驾驶员的疲劳程度或集中程度,或者可以来确定驾驶员是否睡着。
微型计算机12051基于在车辆外部信息检测单元12030或车辆内部信息检测单元12040中获取的车辆外部和内部的信息来计算驱动力产生装置、转向机构或制动装置的控制目标值,并且能够向驾驶系统控制单元12010输出控制命令。例如,微型计算机12051可以执行协作控制,以实现高级驾驶员辅助系统(ADAS)功能,包括车辆的碰撞避免或冲击减轻、基于车辆间隙的跟随行驶、车辆速度保持行驶、车辆的碰撞警告、车辆的车道偏离警告等。
此外,微型计算机12051基于在车辆外部信息检测单元12030或车辆内部信息检测单元12040中获取的车辆附近的信息来控制驱动力产生装置、转向机构、制动装置等,以执行协作控制,用于自动驾驶自主行驶的目的,而不依赖于驾驶员等的操作。
此外,微型计算机12051可以基于在车辆外部信息检测单元12030中获取的车辆外部信息向车身系统控制单元12020输出控制命令。例如,微型计算机12051可以执行协作控制,以实现无眩光的目的,例如,通过根据在车辆外部信息检测单元12030中检测到的前方车辆或迎面而来的车辆的位置来控制前照灯,并且将远光切换到近光。
声音图像输出单元12052将声音或图像中的至少一个的输出信号传输到输出装置,该输出装置可以视觉和听觉地向车辆的乘客或车辆外部通知信息。在图36的示例中,作为输出装置,示例性地示出了音频扬声器12061、显示单元12062和仪表板12063。显示单元12062可以包括例如车载显示器或平视显示器中的至少一种。
图37是示出成像单元12031的安装位置的示例的示图。
在图37中,包括成像单元12101、12102、12103、12104和12105,作为成像单元12031。
例如,成像单元12101、12102、12103、12104和12105设置在例如车辆12100内部的前鼻(front nose)、侧镜、后保险杠或后门、挡风玻璃的上部等位置。设置在前鼻处的成像单元12101和设置在车辆内部挡风玻璃上部的成像单元12105主要获取车辆12100的前方图像。设置在侧镜处的成像单元12102和12103主要获取车辆12100的侧面图像。设置在后保险杠或后门处的成像单元12104主要获取车辆12100的背面图像。设置在车辆内部挡风玻璃上部的成像单元12105主要用于检测前方车辆、行人、障碍物、交通信号、交通标志、车道等。
注意,图37示出了成像单元12101至12104的成像范围的示例。成像范围12111表示设置在前鼻处的成像单元12101的成像范围,成像范围12112和12113分别表示设置在侧镜处的成像单元12102和12103的成像范围,成像范围12114表示设置在后保险杠或后门处的成像单元12104的成像范围。例如,可以通过叠加由成像单元12101至12104捕获的图像数据来获得从上方观看的车辆12100的鸟瞰图像。
成像单元12101至12104中的至少一个可以具有获取距离信息的功能。例如,成像单元12101至12104中的至少一个可以是包括多个成像元件的立体相机,或者可以是具有用于相位差检测的像素的图像传感器。
例如,微型计算机12051基于从成像单元12101至12104获得的距离信息,获得到成像范围12111至12114中的三维物体的距离以及距离的时间变化(对车辆12100的相对速度),从而特别提取在行驶道路上最靠近车辆12100并且以预定速度(例如,0km/h或更高)在与车辆12100基本相同的方向上行驶的三维物体作为前方车辆。此外,微型计算机12051可以预先设置要与前方车辆确保的车间距,并且执行自动制动控制(包括跟随停止控制)和自动加速控制(包括跟随启动控制)等。以这种方式,可以执行用于自动驾驶自主行驶的目的的协作控制,而不依赖于驾驶员的操作等。
例如,微型计算机12051基于从成像单元12101至12104获得的距离信息,将关于三维对象的三维对象数据分类为两轮车辆、普通汽车、大型车辆、行人和要提取的其他三维对象,例如,电线杆,并且可以使用该数据来自动避开障碍物。例如,微型计算机12051将车辆12100周围的障碍物区分为车辆12100的驾驶员视觉上可识别的障碍物和驾驶员视觉上不可识别的障碍物。然后,微型计算机12051确定指示与每个障碍物碰撞的风险的碰撞风险,并且在碰撞风险为设定值或更大并且存在碰撞可能性的情况下,通过音频扬声器12061或显示单元12062向驾驶员输出警告,并且通过驾驶系统控制单元12010执行强制减速或躲避转向,可以执行用于避免碰撞的驾驶辅助。
成像单元12101至12104中的至少一个可以是检测红外光的红外相机。例如,微型计算机12051确定在成像单元12101至12104的捕获图像中是否存在行人,从而识别行人。通过提取成像单元12101至12104(例如,红外相机)的捕获图像中的特征点的过程以及通过对指示物体轮廓的一系列特征点执行模式匹配处理并确定物体是否是行人的过程,来执行行人的这种识别。当微型计算机12051确定在成像单元12101至12104的捕获图像中存在行人并且识别该行人时,声音图像输出单元12052使显示单元12062在识别的行人上叠加并显示用于强调的方形轮廓线。此外,声音图像输出单元12052可以使显示单元12062在期望的位置显示表示行人的图标等。
已经描述了根据本公开的技术适用的车辆控制系统的示例。根据本公开的技术适用于例如上述配置的成像单元12031。具体地,作为安装在成像单元12031上的图像传感器,应用本公开的传感器装置1,并且可以执行分割图像适配、区域剪切、智能压缩和主动采样中的一些或全部。因此,例如,适于检测车辆外部信息的图像处理以及通过适当减少信息量而不降低检测精度来减少处理负荷成为可能。
<12.结论和修改>
在上述实施例中,可以获得以下效果。
如第一和第六实施例中所述,传感器装置1包括阵列传感器2、逻辑单元5(图像处理单元)和计算单元8,在阵列传感器2中以一维或二维方式设置多个可见光或不可见光成像元件,逻辑单元5使用对通过阵列传感器2中的成像而获得的图像信号给出指令的参数来执行图像处理。计算单元8对从通过阵列传感器2中的成像而获得的图像信号中检测到的对象执行类别识别,基于所识别的类别选择要用于图像处理的参数,并且使用所选择的参数为逻辑单元5执行处理设置。
即,逻辑单元5对阵列传感器2获得的图像信号应用图像处理。基于图像信号中检测到的对象的类别识别来设置图像处理的参数。
在从图像中检测对象的情况下,人感知为高质量的图像不一定是具有高识别精度的图像。此外,期望的图像质量根据要识别的对象的类别而不同。即,应用根据正常参数设置的图像处理以具有视觉上高质量的图像不一定是适合于对象检测的图像质量。此外,期望的图像处理参数根据要识别的对象的类别而不同。
因此,预先为每个类别存储参数集,并且根据捕获图像中检测到的对象的类别识别来选择要使用的参数集。结果,执行适合于检测目标对象的图像处理。根据已经对其执行了这种图像处理的图像,可以提高对象检测精度。
此外,由于对象检测所期望的图像质量调整不同于人感觉漂亮的图像质量调整,所以例如不使用用于给予漂亮优先权的模糊过滤器。因此,设置的参数通常会降低处理负荷。
此外,数据量通常根据根据类别的参数(例如,与灰度变化和压缩相关的参数)而减少,并且在这种情况下,可以避免由于处理器11侧的高计算负荷或整个系统的功耗增加而导致的处理延迟。
每个实施例的传感器装置1包括接口单元7(输出单元),接口单元7将由逻辑单元5(图像处理单元)处理的图像信号输出到外部装置。
传感器装置1通过内部逻辑单元5根据对象的类别执行图像处理,并且将图像信号发送并输出到处理器11(图5中的步骤S108),从而消除了在处理器11中为了改善对象检测而进行图像质量调整的需要。因此,可以在降低处理器11的处理负荷的同时高精度地检测对象。
此外,基于类别识别选择的参数集不一定是用于获得人视觉识别的最高图像质量的参数集。在某些情况下,待处理的图像的数据量减少。即,不一定输出由人观看的具有最高图像质量的图像,而是输出具有适合于由处理器识别的对象的图像质量的图像,并且在某些情况下,可以减少要传输的图像信号的数据量。
因此,可以降低通信成本,而不会降低对象检测的精度。还改善了在云中执行计算处理的情况下的传输延迟。
已经描述了该实施例的接口单元7(输出单元)还发送关于输出图像信号的类别识别的信息(图5中的步骤S108)。
结果,例如,输出目的地处理器11或云AI处理器可以在识别类别之后检测对象,并且可以执行更精确的对象检测。
在第一和第六实施例中,已经陈述了计算单元8执行在图像信号的一帧中检测待检测对象的候选对象区域的对象区域识别处理、识别在对象区域识别处理中检测到的对象区域中的对象的类别识别处理、以及基于类别识别处理的识别结果选择参数并执行逻辑单元5的处理设置的参数选择处理(参见图1和图5)。
即,计算单元8包括执行对象区域识别处理的对象区域识别单元82、执行类别识别处理的类别识别单元83和执行参数选择处理的参数选择单元84,从而实现从图像信号的一帧的对象候选检测、类别识别和基于类别识别的参数选择。
在第一和第六实施例中,计算单元8执行在图像信号的一帧中检测待检测的对象的候选对象区域的对象区域识别处理、识别在对象区域识别处理中检测的对象区域中的对象的类别识别处理、确定在类别识别处理中识别的类别中是否存在目标类别的处理以及在目标类别存在的情况下基于目标类别的类别识别结果选择参数并执行逻辑单元5的处理设置的参数选择处理(参见图1、图5和图22)。
通过确定目标类别的存在,可以有效地执行基于待识别的对象的类别的参数选择。换言之,由于不执行基于非目标对象的检测的参数选择,由于不存在不必要的参数选择、存在有效的处理以及不存在不必要的参数设置,可以提高目标对象的图像识别精度。
在第一和第六实施例中,可以设置多个目标类别,并且在多个目标类别的对象存在于一个帧中的情况下,基于所选择的一个目标类别来执行参数选择处理(参见图5和图22中的步骤S106)。
通过使多个目标类别可设置,可以应对多个类别的对象的图像识别。
此外,在多个目标类别的对象存在于一个帧中的情况下,可以通过例如通过选择主导或主要目标类别,使得基于一个目标类别执行参数选择,来选择适当的参数集。
此外,在第一或第六实施例(图5或图22中的步骤S105和S106)中,已经描述了计算围绕对应于目标类别的对象区域的边界框20并且在存在多个目标类别的情况下使用边界框20的区域选择一个目标类别的示例。
在存在多个目标类别的对象的情况下,每个对象的区域由边界框20指定,并且获得每个目标类别的对象的一帧中的主要区域,从而可以确定优先化的目标类别。因此,可以适当地选择参数。
在第一和第六实施例中,已经描述了计算单元8基于所识别的类别选择包括为每个类别设置的多个参数的参数集的示例。即,预先存储包括逻辑单元的各种类型的处理的参数集,作为集合,并且在逻辑单元中选择和设置该参数集(参见图4、图5和图22中的步骤S107)。
因此,根据逻辑单元5的图像处理的各种类型,可以将适合于目标类别的多个参数设置为参数。
在第一实施例中,已经描述了参数集是通过使用对应于每个类别的对象的图像进行深度学习而获得的多个参数的集合的示例。
例如,通过使用人物图像作为训练数据的深度学习来获得人物识别的图像识别率高的图像处理的参数,并且将获得的参数的参数集设置为对应于“人”类别的参数集(参见图4)。
由此,可以准备适合于每个类别的参数集,并且可以通过参数集的选择来选择适合于目标图像识别的参数。
在第一和第六实施例中,已经描述了计算单元8对通过阵列传感器2中的成像而获得的图像信号中用作关键帧的帧执行类别识别,并且基于所识别的类别选择将在图像处理中使用的参数的示例(参见图5和图22中的步骤S101和S102)。
通过以关键帧而不是所有帧为目标,计算单元8上的处理负荷不会变得过大。此外,通过基于适当的选择算法选择关键帧,可以保持执行适当参数选择的状态。
在第一和第六实施例中,已经描述了关键帧是以预定时间间隔的帧的示例。
因此,周期性地执行参数选择。例如,通过以30秒的间隔选择一帧作为关键帧,计算单元8的处理不会过多,并且可以保持适当的参数设置。
注意,关键帧的间隔理想地根据各种情况来设置,例如,用于图像识别的目标对象、传感器装置1的使用环境、使用目的以及配备有传感器装置1的装置的类型。
此外,已经描述了关键帧是基于来自外部装置的命令的时间的帧的情况。
例如,在图像输出目的地,根据来自处理器11等的指令设置关键帧。由此,可以根据例如图像信号的输出目的地的装置的识别处理的目的和关于类别识别的信息来执行关键帧选择和参数选择。例如,根据配备有传感器装置1的装置的类型和用途来设置关键帧。
在这种情况下,例如,假设在车载装置中,关键帧可以在汽车开始行驶时以密集的间隔设置。
作为图像信号的图像处理,每个实施例的逻辑单元5执行颜色校正、伽马校正、颜色灰度处理、增益处理、轮廓增强处理、数据压缩处理、帧速率转换、分辨率转换、纵横比转换、对比度调整处理、锐度调整处理、灰度级调整处理、采样率变化处理等。
通过上述处理来执行图像质量调整和数据量转换。由于执行了用于图像质量调整和数据量转换的参数设置,所以执行了适合于待识别对象的类别的图像质量调整和数据大小调整(分辨率、帧速率等)。结果,获得了变得适合于目标类别的对象检测的图像和数据大小,并且抑制了不必要的高图像质量和数据量的增加,从而有助于降低通信成本、提高处理速度、提高对象检测精度等。
已经描述了每个实施例的接口单元7(输出单元)响应于外部装置的请求,输出由逻辑单元5处理的图像信号、识别的类别的信息、检测到的对象的数量以及目标类别的存在或不存在的信息中的任何一个或全部。这是第一至第五实施例的常见操作。
即,接口单元7响应于来自处理器11、云处理器等的请求,从由逻辑单元5处理的图像信号、由计算单元8识别的类别信息、对象的数量以及目标类别的存在或不存在的信息中输出处理器11所需的信息。结果,可以避免不必要的信息传送,可以减少通信量,并且可以减少功耗。
另外,可以根据处理器11等中的处理来提供信息。
尽管在每个实施例中图像信号是目标,但是假设阵列传感器2是声波检测元件阵列或触觉传感器元件阵列。在这种情况下,接口单元7响应外部装置的请求输出上述传感器的检测信号(逻辑单元5处理后的检测信号)。
如第二、第三、第四、第七和第八实施例中所述,传感器装置1包括具有以一维或二维方式排列的多个检测元件的阵列传感器2、获取阵列传感器2的检测信号并执行信号处理的信号处理单元30、以及计算单元8,该计算单元8从阵列传感器2的检测信号中检测对象,并向信号处理单元30给出关于基于对象(ROI 21或AROI 22)的检测而生成的区域信息作为与从阵列传感器2的检测信号的获取或检测信号的信号处理相关的区域信息的指令。
即,由阵列传感器2获得的检测信号由信号处理单元30处理并从接口单元7输出。基于对象的检测来设置与从阵列传感器2的检测信号的获取或在信号处理单元30中对检测信号的信号处理有关的区域信息。
在如实施例中那样从图像中检测对象的情况下,不总是需要每个帧的所有像素的信息。例如,在检测人的情况下,在帧中捕获人的区域的检测信息是足够的。因此,基于计算单元8中的对象检测和信号处理单元30的处理(即,通过ADC/像素选择器3从阵列传感器2获取检测信号)来生成ROI 21或AROI 22,并且使用ROI 21或AROI 22来执行逻辑单元5中的压缩处理。
结果,可以实现要处理的数据量的减少、处理速度的提高,并且可以获得不降低检测精度的图像信号。
注意,不仅可以对图像信号执行对象检测,还可以对从阵列传感器获得的检测信号(例如,声波检测信号或触觉检测信号)执行对象检测,并且可以向信号处理单元给出关于基于对象检测生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的信号处理相关的区域信息的指令。
结果,即使在使用声波传感器阵列或接触传感器阵列的情况下,也可以实现要处理的数据量的减少和处理速度的提高,并且可以获得不降低检测精度的获得检测信号的效果。
在第二、第三、第四、第七和第八实施例的情况下,接口单元7(输出单元)将由信号处理单元30处理的检测信号输出到外部装置。
由于通过使用ROI 21或AROI 22仅对一些像素进行模数转换而获得的图像信号或者使用ROI 21对每个区域具有改变的压缩率的图像信号被输出到处理器11等,所以要传输的数据量显著减少。结果,可以降低通信成本并缩短传输时间。然后,由于包括了对象检测所需的信息,所以不会降低处理器11等中的对象检测的精度。此外,由于数据量减少,处理器11上的处理负荷也减少。
此外,可以避免由于处理器11侧的高计算负荷而导致的处理延迟和整个系统的功耗增加。
在每个实施例中,信号处理单元30包括ADC/像素选择器3(获取单元),其选择性地从阵列传感器2的检测元件获取检测信号。
然后,在第二、第三、第七和第八实施例中,ADC/像素选择器3从计算单元8获取基于ROI 21或AROI 22选择的检测元件的检测信号,作为检测信号的一帧(见图9、图14、图29和图32)。
ADC/像素选择器3仅在由ROI 21或AROI 22指定的范围内从已经检测到对象的下一帧进行模数转换并获取光电转换信号,由此可以显著减少一帧的数据量。通过基于对象检测设置ROI 21或AROI 22,可以适当地获得对象检测所需的像素信息。
在第二、第三、第七和第八实施例中,描述了一个示例,其中,计算单元8在ADC/像素选择器3(获取单元)不通过区域信息(ROI 21或AROI 22)选择检测元件的状态下对从阵列传感器2获得的检测信号执行对象检测,并且向信号处理单元30给出关于基于对象检测生成的ROI 21或AROI 22作为用于由ADC/像素选择器3从阵列传感器2获取后续帧的检测信号的区域信息的指令(参见图9、图14、图29和图32)。
通过从包括一帧的所有有效像素的图像信号执行对象检测,可以准确地检测捕获图像中待检测的对象。然后,基于检测到的对象生成ROI 21或AROI 22,并将其提供给ADC/像素选择器3,由此可以从下一帧中仅获得对象检测所需的像素的信息。因此,可以在减少数据量的同时获取适当的检测信息(必要像素的信息)。
在第二、第三、第七和第八实施例中,描述了一个示例,其中,在ADC/像素选择器3已经通过ROI 21或AROI 22选择了检测元件的状态下,计算单元8对从阵列传感器2获得的检测信号执行对象检测,基于对象检测再次生成区域信息,并向信号处理单元30给出关于再次生成的区域信息作为用于通过ADC/像素选择器3从阵列传感器2获取后续帧的检测信号的区域信息(参见图9、图14、图29和图32以及图10中的步骤S203)的指令。
通过从仅具有一些像素信息的图像信号的帧中执行对象检测,可以根据对象位置的变化来修改ROI 21或AROI 22。因此,在随后的帧中,由ADC/像素选择器3获取的区域随着图像中对象(例如,人)的移动而改变。即,即使目标对象的位置在每一帧的图像中改变,也可以在每一帧的改变之后的位置选择和读取像素。因此,如果帧前进,同时减少数据量,则可以继续获得适当的检测信息(像素信息)的状态。
在第二、第三、第七和第八实施例中,在ADC/像素选择器3已经通过ROI 21或AROI22选择了检测元件的状态下,计算单元8对从阵列传感器2获得的检测信号执行对象检测,并且在没有检测到目标对象的情况下,在ADC/像素选择器3没有在后续帧中通过ROI 21或AROI 22选择检测元件的状态下,给出关于从阵列传感器2获取检测信号的指令(参见图9、图14、图29和图32中的步骤S205、S201和S202)。
即,当在仅从阵列传感器2获取了一些检测元件的信息的帧中不能检测到目标对象时,计算单元8将获取单元中的检测信号的获取返回到正常状态。
结果,状态返回到从包括一帧的所有有效像素的图像信号执行对象检测的状态,并且可以在整个捕获图像中再次执行目标对象检测。即,可以监控整个图像。
在第二、第三、第四、第七和第八实施例中,已经描述了一个示例,其中,计算单元8获得包围从阵列传感器2的检测信号检测到的对象的区域的边界框20,并且基于边界框20生成作为区域信息的ROI 21或AROI 22(参见图9、图14、图16、图29和图32)。
通过由对象检测生成边界框20并从边界框20生成ROI 21或AROI 22,可以根据图像中目标对象的位置生成ROI 21或AROI 22。结果,可以适当地选择下一帧中的读出像素。
在第二、第四、第七和第八实施例中,计算单元8扩展边界框20,以生成ROI 21(参见图9、图16、图29和图32)。
边界框20包围当前帧中对象的区域,但是在后续帧中对象的位置有可能改变。因此,边界框20被扩展,以生成ROI 21。
因此,可以增加包括对象作为在下一帧中获得的信息(经模数转换的像素的信号)的可能性。即,可以继续尽可能多地读取包括必要信息的像素。
在第二实施例的描述中,已经描述了计算单元8对于检测对象逐个检测元件地确定区域并生成区域信息的示例(参见图11)。
即,基于语义分割生成ROI 21。由此,也产生了非矩形的ROI 21。
存在一些情况,其中,当一个区域被依赖于对象的矩形剪切时,会缺少信息。例如,如果用矩形剪切,具有突起的卡车或骑自行车的人可能具有突起部分,覆盖突起部分的ROI21变得不必要的大,并且数据减少效果降低。因此,所需区域是可以以像素级选择的。因此,能够以最小的数据量获取必要的信息。
这种基于语义分割的ROI 21在第四实施例中设置具有低压缩率的区域的情况下也是有用的。
在第二、第三、第四、第七和第八实施例中,计算单元8在从阵列传感器2获得的检测信号中的对象检测关键帧记录时间对帧(关键帧)执行对象检测,并且基于对象检测生成区域信息(参见图9、图14、图16、图29和图32中的步骤S201)。
通过以关键帧而不是所有帧为目标,计算单元8上的处理负荷不会变得过大。此外,通过基于适当的选择算法选择关键帧,可以保持执行适当参数选择的状态。
同样在这种情况下,关键帧是以预定时间间隔或基于来自外部装置的命令的时间的帧。
例如,通过根据配备有传感器装置1的装置的类型和目的来设置关键帧,在装置或应用所需的时间对帧的所有像素执行对象检测,并且可以在后续帧中减少数据量。
在第二、第三、第四、第七和第八实施例中,计算单元8对从阵列传感器2获得的检测信号中检测到的对象执行类别分类,确定分类的类别是否是目标类别,并生成对应于目标类别的对象的区域信息(ROI 21或AROI 22)(参见图9、图14、图16、图29和图32中的步骤S204和S205)。
通过确定目标类别的存在,并使用用于目标类别的目标区域的目标类别来生成ROI 21或AROI 22,可以准确地生成用于获得待检测对象的信息的区域信息。
在第三和第八实施例中,已经描述了一个示例,其中,计算单元8对从阵列传感器2获得的检测信号中检测到的对象执行类别识别,并且使用与识别的类别对应的模板生成与对象对应的区域信息(AROI 22)(参见图14中的S210和S211以及图32中的S262和S211)。
通过使用对应于该类别的模板,能够生成适于每个类别不同的重要区域的AROI22。
特别地,在使用成像元件形成阵列传感器2的情况下,光电转换中的功耗最大。在这种情况下,希望尽可能减少要光电转换的像素的数量。通过根据模板缩小要被光电转换的像素,可以有效地减少数据量而不影响检测精度。特别地,图像不由人观看,并且处理器11可准确识别的图像比人感觉漂亮的图像更重要。指定了要使用模板进行光电转换并转换成数字数据的像素的图像适用于具有小数据量的有效对象检测。
此外,模板指示每个类别的检测信号的获取区域。
例如,模板根据每个类别(例如,“人”或“汽车”)指示阵列传感器的检测元件中的从其获取检测信息的检测元件(见图12和图13)。
通过使用指定对应于类别的要读取的像素的模板,可以从阵列传感器2读取每个类别的适当信息。特别地,如图12和图13中的示例所示,由于一些部分(面部和牌照部分)被致密化,所以可以集中地获取每个类别的特别必要的部分的信息。
在第四实施例中,在信号处理单元30中,逻辑单元5对来自阵列传感器2的检测信号执行压缩处理,并且逻辑单元5基于来自计算单元8的区域信息以针对每个区域不同的压缩率执行压缩处理的示例(参见图16)。
因此,信号处理单元30(逻辑单元5)可以通过区分帧中重要区域和不重要区域之间的压缩率来执行数据压缩,以不减少重要信息。
此外,逻辑单元5在由区域信息指定的区域中以低压缩率执行压缩处理,并且在其他区域中以高压缩率执行压缩处理(参见图16)。
信号处理单元30(逻辑单元5)在已经检测到对象的下一帧中在由ROI 21指定的区域中以低压缩率执行压缩处理,并且在其他区域中以高压缩率减少数据量。由于根据对象检测生成ROI 21,所以由ROI 21指示的区域也是处理器11进行对象检测的重要区域,并且该区域以低压缩率压缩,以便不减少信息。因此,检测精度没有降低。同时,除了由ROI 21指示的区域之外的区域是不影响对象检测的区域。因此,以高压缩率压缩该区域,以有效减少数据量。
如第五或第九实施例所述,传感器装置1包括具有以一维或二维方式排列的多个检测元件的阵列传感器2、获取阵列传感器2的检测信号并执行信号处理的信号处理单元30、以及计算单元8,该计算单元8根据阵列传感器2的检测信号执行对象检测,并基于对象检测给出用于使来自阵列传感器2的检测信号的帧速率可变的指令。
在如实施例中那样从图像中检测对象的情况下,不总是需要具有高帧速率的图像信号。例如,在检测人的情况下,如果在没有捕获到人的帧中帧速率低,则没有问题。相反,通过在人出现期间增加帧速率,信息量变得丰富,并且可以增加对象(人)检测和与对象检测一起可识别的信息。
即,通过根据对象检测改变帧速率,可以在必要时自适应地增加数据量,在不必要时减少数据量,并且可以在不降低对象检测性能的情况下减少处理的数据量和传输的数据量。
注意,不仅可以对图像信号执行对象检测,还可以对从阵列传感器获得的检测信号(例如,声波检测信号或触觉检测信号)执行对象检测,并且可以基于对象检测给出使来自阵列传感器的检测信号的帧速率可变的指令。结果,即使在使用声波传感器阵列或接触传感器阵列的情况下,在必要时也可以自适应地增加数据量,在不必要时可以减少数据量,并且可以获得在不降低对象检测性能的情况下减少处理的数据量或传送的数据量的效果。
该帧在阵列传感器是成像元件阵列的情况下是图像帧,在声波检测元件或触觉传感器元件的情况下具有相同的含义,并且是在一个读出周期中从阵列传感器的多个检测元件读取的数据的单位,而与阵列传感器的类型无关。帧速率是单位时间内这种帧的密度。
在第五和第九实施例的情况下,将由信号处理单元30处理的检测信号输出到外部装置的接口单元7(输出单元)将具有基于对象检测结果改变的帧速率的检测信号输出到处理器11等。
因此,要传输的数据量显著减少。结果,可以降低通信成本并缩短传输时间。然后,由于包括了目标对象检测所需的信息,所以不会降低处理器11等中的对象检测的精度。此外,由于数据量减少,处理器11上的处理负荷也减少。
此外,可以避免由于处理器11侧的高计算负荷而导致的处理延迟和整个系统的功耗增加。
在第五和第九实施例中,计算单元8至少存储第一模式(空闲模式)的帧速率的设定值和第二模式(正常模式)的帧速率的设定值,并根据对象检测结果根据第一模式或第二模式的设定值执行控制(见图18和图35)。
由此,作为主动采样的控制可以通过根据对象检测结果(即,目标类别的对象的存在或不存在)选择设定值的简单处理来实现。
在第五和第九实施例中,第一模式的帧速率的设定值和第二模式的帧速率的设定值中的一个或两个理想地可从外部装置重写。例如,根据外部处理器的使用或处理能力、应用的使用等,设置值是可变的。
通过使设定值可从处理器11等重写,可以根据处理器11或应用程序的目的设定帧速率。
在第五和第九实施例中,描述了一个示例,其中,计算单元8给出关于阵列传感器2的检测信号的读出间隔的指令,以使帧速率可变(见图18和图35)。
例如,计算单元8(关键帧选择单元81)指示阵列传感器2和ADC/像素选择器3切换空闲模式和正常模式,并通过阵列传感器2和ADC/像素选择器3改变图像信号的读出间隔,从而切换帧速率。
在这种情况下,在降低帧速率的空闲模式中,光电转换和从阵列传感器2读出本身之间的间隔被加宽。由于阵列传感器2因为光电转换而具有大的功耗,所以加宽阵列传感器2中的读出间隔具有降低功耗的显著效果。
在第五和第九实施例的描述中,计算单元8可以指示信号处理单元30(逻辑单元5)改变帧速率,以使帧速率可变。
即,在信号处理过程中通过帧速率转换来切换帧速率。
逻辑单元5可以转换帧速率。例如,可以通过帧细化处理(frame thinningprocessing)来降低帧速率。在这种情况下,由于阵列传感器2总是以高帧速率执行读出,所以不会出现阵列传感器2的功耗降低效果,但是可以获得减少要传送到处理器11的数据量的效果。
在第五和第九实施例中,已经描述了一个示例,其中,计算单元8对从阵列传感器2获得的检测信号中检测到的对象执行类别识别,确定所识别的类别是否是目标类别,并且根据确定结果给出用于使帧速率可变的指令(参见图18中的步骤S304、S305和S301以及图35中的步骤S304、S352和S301)。
确定目标类别的存在,并且由于目标类别的对象的存在,帧速率作为正常模式增加。在没有检测到目标类别的对象的情况下,作为空闲模式,降低帧速率。因此,可以根据待检测对象的存在来精确地执行检测。
例如,在诸如监视作为目标类别的人等使用中,通过提高帧速率,精细监控成为可能。在其他情况下,设置空闲模式,并且降低功耗和数据量成为可能。
在每个实施例中,阵列传感器2的检测元件是成像元件,即,阵列传感器2的检测信号是通过成像(光电转换)的图像信号。
因此,在使用捕获图像的对象检测中,可以实现能够保持对象检测精度的数据量的适当减少、与数据量的减少相关联的处理负荷的减少、传输成本的减少等。
在该实施例中,假设传感器装置1具有集成感测模块配置,该集成感测模块配置具有作为计算单元8的AI芯片或DRAM芯片。
相对照地,还可以设想,将AI芯片或DRAM芯片配置为阵列传感器2外部的计算单元8,并允许外部计算单元执行每个实施例中描述的信号处理的读出和控制。
此外,还可以设想,将阵列传感器2和AI芯片集成为计算单元8,并使用外部DRAM芯片。
在第六实施例中,提供阈值设置单元85,其为逻辑单元5(图像处理单元)的图像处理或关于阵列传感器2的成像的成像处理中要使用的所有或一些参数设置阈值,并且使得能够使用基于阈值设置的参数执行处理。
例如,通过使用阈值设置(改变)参数,可以以诸如对象检测等处理所需的最小质量(例如,最小所需分辨率)输出图像信号。因此,在减少要输出的图像信号的数据量的同时,可以不降低后续处理(例如,对象检测)的性能和精度。
此外,相应地,可以降低功耗并加快处理。
注意,在第六实施例中描述的图22中的处理示例是这样的示例,其中,计算单元8对从通过阵列传感器2中的成像而获得的图像信号检测的对象执行类别识别,基于识别的类别选择要在图像处理中使用的参数集,使用选择的参数对逻辑单元5执行处理设置,并且根据阈值设置(调整)选择的参数。因此,根据阈值进一步调整和设置适用于每个类别的参数集中的一些或所有参数。参数集与类别相适应,并且在保持对象检测等的检测精度的同时,可以获得必要和足够的数据量。由于进一步调整了适应于该类别的参数集,因此可以进一步减少数据量,并且可以降低功耗并加快处理速度。
注意,实施例不限于图22中的这种示例,可以基于阈值来改变不考虑类别而设置的一些或所有参数。即使在这种情况下,也可以减少图像信号的数据量,降低功耗,并且可以加快处理,同时保持对象检测等所需的性能和精度。
在第六实施例中,阈值设置单元85根据从图像信号中检测到的对象的类别来设置阈值。例如,根据“人”、“汽车”或“标志”等类别设置适当的阈值。
用于对象检测等的图像所需的分辨率和检测精度之间的关系根据类别而不同。因此,通过根据类别设置阈值并改变从逻辑单元5等输出的图像信号的分辨率,可以根据类别以最小所需分辨率等输出。即,可以实现数据减少、功耗减少、处理加速等,同时根据类别优化诸如分辨率等参数,并将对象检测精度等保持在所需水平。
在第六实施例中,阈值设置单元85基于对图像信号的学习处理来设置阈值。例如,传感器装置1执行作为局部学习的学习处理,以获得阈值。通过对图像信号执行学习处理,确定作为阈值的期望值和根据阈值的参数。结果,根据成像环境、捕获图像的内容、待检测对象等自适应地设置参数。
此外,通过在传感器装置1或包括传感器装置1的终端装置100中执行这种局部学习,可以计算适合于传感器装置1中所需的图像精度等的阈值。
此外,通过对每个类别进行局部学习来设置阈值,可以通过设置适合于该类别的参数来优化输出图像信号的分辨率等。
在第六实施例中,阈值设置单元85设置阈值,使得可以获得预定比率,作为置信率(对象检测的确定性比率)。
根据检测的目的、目标、装置/应用程序的类型、时间、区域等,从图像中检测对象的精度所需的置信率不同。
例如,在80%足够的情况下,可以设置阈值,以获得80%或更多的确定性,并且可以相应地设置参数。此外,在需要95%或更高的确定性的情况下,可以增加阈值并设置参数。
因此,基于对象检测所需的置信率来设置阈值(并因此设置参数),从而可以实现期望的图像信号质量以及根据期望的图像信号质量的数据减少、功耗减少、处理加速等,作为根据处理的执行的适应。
在第六实施例中,已经描述了阈值设置单元85设置在与逻辑单元5相同的外壳装置中的示例(参见图21、图25和图26)。例如,阈值设置单元85设置在作为传感器装置1的单元中或者包括传感器装置1的终端装置100中。然后,阈值设置单元85执行局部学习,并设置阈值和根据阈值的参数。这意味着通过学习适合于作为传感器装置1或终端装置100的装置的状态来设置阈值。由此,实现作为传感器装置1或终端装置100所需的输出的适当阈值设置变得可能。
在第七和第八实施例中,计算单元8基于关于过去区域信息(作为区域信息的基础的对象的边界框20以及作为区域信息本身的ROI 21或AROI 22)的信息,为从阵列传感器2获取的检测信号设置有效区域RA(图29和图32中的S251)。
然后,计算单元8从有效区域RA的检测信号执行对象检测,并且向信号处理单元30给出关于基于对象检测生成的ROI 21或AROI 22作为与从阵列传感器2的检测信号的获取或对检测信号的信号处理相关的区域信息的指令。
结果,用于设置ROI 21或AROI 22的对象检测的处理负荷显著降低。具体地,步骤S203的处理减少。因此,可以获得降低处理负荷、加速处理以及降低功耗的效果。
在第七和第八实施例中,计算单元8设置有效区域RA,以便包括基于过去的ROI 21或AROI 22的对象检测的检测区域,即边界框20。
通过继续处理,在一些情况下,在图像上存在根本没有设置边界框20的区域。这样的区域可以被设置为未检测到目标对象的非有效区域DA,并且相反地,其他区域可以被设置为有效区域RA,即可以检测到对象的区域。
可以基于多个过去的边界框20来容易且适当地设置有效区域RA。另外,可以设置适合于成像环境、成像方向等的有效区域RA。
在第七和第八实施例中,在ADC/像素选择器3已经通过ROI 21或AROI 22选择了检测元件的状态下,计算单元8对从阵列传感器2获得的检测信号执行对象检测,并且在没有检测到目标对象的情况下,指示ADC/像素选择器3在后续帧中从阵列传感器获取有效区域中的检测信号(参见图29和图32中的步骤S205、S201和S252)。
即,当在仅从阵列传感器2获取了某个检测元件的信息的帧中不再能够检测到目标对象时,计算单元8将获取单元中的检测信号的获取返回到正常状态。
结果,状态返回到从一帧的有效区域的图像信号执行对象检测的状态,并且可以在捕获图像中的必要范围内再次执行目标对象检测。几乎可以监控整个图像。
在第七和第八实施例中,已经描述了一个示例,其中,计算单元8针对从阵列传感器2获得的检测信号中的关键帧,基于来自有效区域RA的检测信号的对象检测来生成区域信息(参见图29和图32中的S201和S252)。
通过以关键帧而不是所有帧为目标,计算单元8上的处理负荷不会变得过大。此外,通过基于适当的选择算法选择关键帧,可以保持执行适当参数选择的状态。
同样在这种情况下,可以设想,关键帧是以预定时间间隔或基于来自诸如处理器11等外部的命令的时间的帧。
在第八实施例中,计算单元8对从阵列传感器2获得的检测信号中检测到的对象执行类别识别,并使用与识别的类别对应的模板生成与对象对应的区域信息(AROI 22)。在这种情况下,使用AROI 22,其中,基于阈值来计算和记录诸如分辨率等参数(参见图32中的S262和S211)。
例如,通过使用阈值设置(改变)由AROI 22指示的获取区域的参数,可以以诸如对象检测等处理所需的最小质量(例如,最小所需分辨率)输出图像信号。
此外,指定了要使用模板进行光电转换并转换成数字数据的像素的图像适合于具有小数据量的有效对象检测。
因此,通过使用模板并通过阈值设置诸如分辨等参数,可以在减少要输出的图像信号的数据量的同时不降低后续处理(例如,对象检测)的性能和精度。此外,相应地,可以降低功耗并加快处理。
此外,因为模板指示每个类别(例如,“人”或“汽车”)的检测信号的获取区域,所以可以集中地获取每个类别的特别必要的部分的信息。
在第九实施例中,提供了阈值设置单元85,其根据从阵列传感器2获得的检测信号中检测到的对象所识别的类别来设置帧速率的阈值,并且使得能够使用基于阈值设置的帧速率执行处理(参见图35)。
通过使用阈值设置(改变)帧速率,可以应用适合于要检测的类别的帧速率。具体地,可以通过降低帧速率同时不降低待检测类别的对象检测的性能,来减少图像信号的数据量,降低功耗并加速处理。
在第九实施例中,阈值设置单元85将阈值设置为能够保持从图像跟踪对象的帧速率。
结果,可以实现根据类别的数据减少、功耗减少、处理的加速等,同时保持在从图像执行对象跟踪的同时执行的对象检测的精度。
在第九实施例中,计算单元8使用由阈值设置单元85设置的帧速率作为帧速率变高的第二模式(正常模式)的帧速率。结果,在帧速率变高的情况下,根据类别使用较低的帧速率。
第一、第二、第三、第四、第五、第六、第七、第八和第九实施例可以适当地组合。
实施例的效果可以通过组合来增加。即,可以增加减少图像信号的数据量、减少功耗、加速处理等的效果,同时保持诸如从图像检测对象等处理的精度。
注意,在本说明书中描述的效果仅仅是示例,并且不限于此,还可以表现出其他效果。
注意,本技术也可以具有以下配置。
(1)一种传感器装置,包括:
阵列传感器,具有以一维或二维方式排列的多个检测元件,
信号处理单元,被配置为获取阵列传感器的检测信号并执行信号处理;以及
计算单元,被配置为从阵列传感器的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的信号处理相关的区域信息的指令,。
(2)根据(1)所述的传感器装置,还包括:
输出单元,被配置为将由信号处理单元处理的检测信号输出到外部装置。
(3)根据(1)或(2)所述的传感器装置,其中,
信号处理单元包括获取单元,所述获取单元选择性地获取阵列传感器的检测元件的检测信号,并且
获取单元获取基于来自计算单元的区域信息选择的检测元件的检测信号,作为检测信号的一帧。
(4)根据(3)所述的传感器装置,其中,
在获取单元未基于区域信息选择检测元件的状态下,计算单元针对从阵列传感器获取的检测信号检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为用于由获取单元从阵列传感器获取后续帧的检测信号的区域信息的指令。
(5)根据(4)所述的传感器装置,其中,
在获取单元已经基于区域信息选择了检测元件的状态下,所述计算单元针对从阵列传感器获取的检测信号检测对象,并且基于对象的检测来再次生成区域信息,并且向信号处理单元给出关于区域信息作为用于由获取单元从阵列传感器获取后续帧的检测信号的区域信息的指令。
(6)根据(5)所述的传感器装置,其中,
在获取单元已经基于区域信息选择了检测元件的状态下,计算单元检测从阵列传感器获取的检测信号的对象,并且在没有检测到目标对象的情况下,在获取单元没有在后续帧中基于区域信息选择检测元件的状态下,给出关于从阵列传感器的检测信号的获取的指令。
(7)根据(1)至(6)中任一项所述的传感器装置,其中,
计算单元获得包围从阵列传感器的检测信号中检测到的对象的区域的边界框,并基于边界框生成区域信息。
(8)根据(7)所述的传感器装置,其中,
计算单元放大边界框并生成区域信息。
(9)根据(1)至(6)中任一项所述的传感器装置,其中,
计算单元对检测到的对象逐个检测元件地确定区域,并生成区域信息。
(10)根据(1)至(9)中任一项所述的传感器装置,其中,
计算单元检测作为从阵列传感器获得的检测信号的关键帧的帧的对象,并基于对象的检测生成区域信息。
(11)根据(10)所述的传感器装置,其中,
关键帧是以预定时间间隔的帧。
(12)根据(10)所述的传感器装置,其中,
关键帧是在基于来自外部装置的命令的时间处的帧。
(13)根据(1)至(12)中任一项所述的传感器装置,其中,
计算单元识别从阵列传感器获得的检测信号中检测到的对象的类别,确定所识别的类别是否是目标类别,并生成对应于目标类别的对象的区域信息。
(14)根据(1)至(13)中任一项所述的传感器装置,其中,
计算单元识别从阵列传感器获得的检测信号中检测到的对象的类别,并使用对应于所识别的类别的模板生成对应于该对象的区域信息。
(15)根据(14)所述的传感器装置,其中,
模板指示每个类别的检测信号的获取区域。
(16)根据(13)所述的传感器装置,还包括:
输出单元,被配置为响应于外部装置的请求,输出由信号处理单元处理的检测信号、识别的类别的信息、检测到的对象的数量以及目标类别的存在或不存在的信息中的任何一个或全部。
(17)根据(1)至(16)中任一项所述的传感器装置,其中,
信号处理单元包括对来自阵列传感器的检测信号执行压缩处理的压缩处理单元,并且
压缩处理单元基于来自计算单元的区域信息,根据对于每个区域不同的压缩率来执行压缩处理。
(18)根据(17)所述的传感器装置,其中,
压缩处理单元在由区域信息指定的区域中以低压缩率执行压缩处理,并且在其他区域中以高压缩率执行压缩处理。
(19)根据(1)至(18)中任一项所述的传感器装置,其中,
阵列传感器的检测元件是成像元件。
(20)根据(1)、(2)、(3)、(5)、(7)、(8)、(9)和(13)中任一项所述的传感器装置,其中,
所述计算单元
基于关于过去区域信息的信息,设置将从阵列传感器获取的检测信号的有效区域,并且
从有效区域的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的信号处理相关的区域信息的指令。
(21)根据(20)所述的传感器装置,其中,
计算单元为在过去的预定时间段中生成的多条区域信息设置有效区域,以在基于每条区域信息的对象检测中包括检测区域。
(22)根据(20)或(21)所述的传感器装置,其中,
信号处理单元包括获取单元,所述获取单元选择性地获取阵列传感器的检测元件的检测信号,
获取单元获取基于来自计算单元的区域信息选择的检测元件的检测信号,作为检测信号的一帧,并且
在获取单元已经根据区域信息选择了检测元件的状态下,在计算单元针对从阵列传感器获取的检测信号检测对象,并且没有检测到目标对象的情况下,计算单元指示获取单元在后续帧中从阵列传感器获取有效区域的检测信号。
(23)根据(20)至(22)中任一项所述的传感器装置,其中,
计算单元从作为从阵列传感器获得的检测信号的关键帧的帧的有效区域的检测信号中检测对象,并且基于对象的检测来生成区域信息。
(24)根据(1)至(23)中任一项所述的传感器装置,其中,
计算单元识别从阵列传感器获得的检测信号中检测到的对象的类别,并且使用指示对应于所识别的类别的检测信号的获取区域的模板,来生成对应于对象的区域信息,并且
传感器装置还包括阈值设置单元,所述阈值设置单元被配置为设置用于图像处理单元的图像处理或关于阵列传感器成像的成像处理的所有或一些参数的参数的阈值,并且基于该阈值设置关于由模板指示的获取区域的处理的参数。
(25)一种传感器装置中的信号处理方法,传感器装置包括具有以一维或二维方式排列的多个检测元件的阵列传感器以及获取阵列传感器的检测信号并执行信号处理的信号处理单元,所述信号处理方法包括:
从阵列传感器的检测信号中检测对象,并且向信号处理单元给出关于基于对象的检测而生成的区域信息作为与从阵列传感器的检测信号的获取或对检测信号的信号处理相关的区域信息的指令。
(26)根据(25)所述的信号处理方法,还包括:
基于过去的区域信息为从阵列传感器获取的检测信号设置有效区域;并且
从作为阵列传感器的检测信号的有效区域的检测信号中检测对象。
附图标记列表
1 传感器装置
2 阵列传感器
3 ADC/像素选择器
4 缓冲器
5 逻辑单元
6 存储器
7 接口单元
8 计算单元
11 处理器
12 外部传感器
20 边界框
21 ROI
22 高级ROI(AROI)
23 候选区域
30 信号处理单元
81 关键帧选择单元
82 对象区域识别单元
83 类别识别单元
84 参数选择单元
85 阈值设置单元
100 终端装置。

Claims (26)

1.一种传感器装置,包括:
阵列传感器,具有以一维或二维方式排列的多个检测元件,
信号处理单元,被配置为获取所述阵列传感器的检测信号并执行信号处理;以及
计算单元,被配置为从所述阵列传感器的所述检测信号中检测对象,并且向所述信号处理单元给出关于基于所述对象的检测而生成的区域信息作为与从所述阵列传感器的所述检测信号的获取或对所述检测信号的信号处理相关的区域信息的指令。
2.根据权利要求1所述的传感器装置,还包括:
输出单元,被配置为将由所述信号处理单元处理的所述检测信号输出到外部装置。
3.根据权利要求1所述的传感器装置,其中,
所述信号处理单元包括获取单元,所述获取单元选择性地获取所述阵列传感器的检测元件的检测信号,并且
所述获取单元获取基于来自所述计算单元的所述区域信息选择的所述检测元件的所述检测信号,作为所述检测信号的一帧。
4.根据权利要求3所述的传感器装置,其中,
在所述获取单元未基于所述区域信息选择所述检测元件的状态下,所述计算单元针对从所述阵列传感器获取的所述检测信号检测对象,并且向所述信号处理单元给出关于基于所述对象的检测而生成的区域信息作为用于由所述获取单元从所述阵列传感器获取后续帧的检测信号的区域信息的指令。
5.根据权利要求4所述的传感器装置,其中,
在所述获取单元已经基于所述区域信息选择了所述检测元件的状态下,所述计算单元针对从所述阵列传感器获取的所述检测信号检测对象,并且基于所述对象的检测来再次生成所述区域信息,并且向所述信号处理单元给出关于所述区域信息作为用于由所述获取单元从所述阵列传感器获取后续帧的检测信号的区域信息的指令。
6.根据权利要求5所述的传感器装置,其中,
在所述获取单元已经基于所述区域信息选择了所述检测元件的状态下,所述计算单元针对从所述阵列传感器获取的所述检测信号检测对象,并且在没有检测到目标对象的情况下,在所述获取单元没有在后续帧中基于所述区域信息选择所述检测元件的状态下,给出关于从所述阵列传感器的所述检测信号的获取的指令。
7.根据权利要求1所述的传感器装置,其中,
所述计算单元获得包围从所述阵列传感器的所述检测信号中检测到的对象的区域的边界框,并基于所述边界框生成所述区域信息。
8.根据权利要求7所述的传感器装置,其中,
所述计算单元放大所述边界框并生成所述区域信息。
9.根据权利要求1所述的传感器装置,其中,
所述计算单元对检测到的对象逐个检测元件地确定区域,并生成所述区域信息。
10.根据权利要求1所述的传感器装置,其中,
所述计算单元检测作为从所述阵列传感器获得的所述检测信号的关键帧的帧的对象,并基于对象的检测生成所述区域信息。
11.根据权利要求10所述的传感器装置,其中,
所述关键帧是以预定时间间隔的帧。
12.根据权利要求10所述的传感器装置,其中,
所述关键帧是在基于来自外部装置的命令的时间处的帧。
13.根据权利要求1所述的传感器装置,其中,
所述计算单元识别从所述阵列传感器获得的所述检测信号中检测到的对象的类别,确定所识别的类别是否是目标类别,并生成对应于所述目标类别的对象的所述区域信息。
14.根据权利要求1所述的传感器装置,其中,
所述计算单元识别从所述阵列传感器获得的所述检测信号中检测到的对象的类别,并使用对应于所识别的类别的模板生成对应于所述对象的区域信息。
15.根据权利要求14所述的传感器装置,其中,
所述模板指示每个类别的所述检测信号的获取区域。
16.根据权利要求13所述的传感器装置,还包括:
输出单元,被配置为响应于外部装置的请求,输出由所述信号处理单元处理的检测信号、识别的类别的信息、检测到的对象的数量以及目标类别的存在或不存在的信息中的任何一个或全部。
17.根据权利要求1所述的传感器装置,其中,
所述信号处理单元包括对来自所述阵列传感器的所述检测信号执行压缩处理的压缩处理单元,并且
所述压缩处理单元基于来自所述计算单元的所述区域信息,根据对于每个区域不同的压缩率来执行所述压缩处理。
18.根据权利要求17所述的传感器装置,其中,
所述压缩处理单元在由所述区域信息指定的区域中以低压缩率执行所述压缩处理,并且在其他区域中以高压缩率执行所述压缩处理。
19.根据权利要求1所述的传感器装置,其中,
所述阵列传感器的所述检测元件是成像元件。
20.根据权利要求1所述的传感器装置,其中,
所述计算单元
基于关于过去区域信息的信息,设置将从所述阵列传感器获取的检测信号的有效区域,并且
从所述有效区域的所述检测信号中检测对象,并且向所述信号处理单元给出关于基于所述对象的检测而生成的区域信息作为与从所述阵列传感器的所述检测信号的获取或对所述检测信号的信号处理相关的区域信息的指令。
21.根据权利要求20所述的传感器装置,其中,
所述计算单元为在过去的预定时间段中生成的多条区域信息设置有效区域,以在基于每条区域信息的对象检测中包括检测区域。
22.根据权利要求20所述的传感器装置,其中,
所述信号处理单元包括获取单元,所述获取单元选择性地获取所述阵列传感器的所述检测元件的所述检测信号,
所述获取单元获取基于来自所述计算单元的所述区域信息选择的所述检测元件的所述检测信号,作为所述检测信号的一帧,并且
在所述获取单元已经根据所述区域信息选择了所述检测元件的状态下,在所述计算单元针对从所述阵列传感器获取的所述检测信号检测对象,并且没有检测到目标对象的情况下,所述计算单元指示所述获取单元在后续帧中从所述阵列传感器获取所述有效区域的所述检测信号。
23.根据权利要求20所述的传感器装置,其中,
所述计算单元从作为从所述阵列传感器获得的所述检测信号的关键帧的帧的所述有效区域的检测信号中检测对象,并且基于对象的检测来生成所述区域信息。
24.根据权利要求1所述的传感器装置,其中,
所述计算单元识别从所述阵列传感器获得的检测信号中检测到的对象的类别,并且使用指示对应于所识别的类别的检测信号的获取区域的模板,来生成对应于所述对象的区域信息,并且
所述传感器装置还包括阈值设置单元,所述阈值设置单元被配置为设置用于所述图像处理单元的图像处理或关于所述阵列传感器成像的成像处理的所有或一些参数的参数的阈值,并且基于所述阈值设置关于由模板指示的获取区域的处理的参数。
25.一种传感器装置中的信号处理方法,所述传感器装置包括具有以一维或二维方式排列的多个检测元件的阵列传感器以及获取所述阵列传感器的检测信号并执行信号处理的信号处理单元,所述信号处理方法包括:
从所述阵列传感器的检测信号中检测对象,并且向所述信号处理单元给出关于基于所述对象的检测而生成的区域信息作为与从所述阵列传感器的所述检测信号的获取或对所述检测信号的信号处理相关的区域信息的指令。
26.根据权利要求25所述的信号处理方法,还包括:
基于过去的区域信息为从所述阵列传感器获取的检测信号设置有效区域;并且
从作为所述阵列传感器的检测信号的有效区域的检测信号中检测对象。
CN201980067306.XA 2018-10-19 2019-10-04 传感器装置和信号处理方法 Active CN113039777B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2018197496 2018-10-19
JP2018-197496 2018-10-19
JP2019111092A JP6683280B1 (ja) 2018-10-19 2019-06-14 センサ装置、信号処理方法
JP2019-111092 2019-06-14
PCT/JP2019/039284 WO2020080140A1 (ja) 2018-10-19 2019-10-04 センサ装置、信号処理方法

Publications (2)

Publication Number Publication Date
CN113039777A true CN113039777A (zh) 2021-06-25
CN113039777B CN113039777B (zh) 2023-07-14

Family

ID=70166569

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980067306.XA Active CN113039777B (zh) 2018-10-19 2019-10-04 传感器装置和信号处理方法

Country Status (7)

Country Link
US (2) US11495008B2 (zh)
EP (1) EP3869784A4 (zh)
JP (2) JP6683280B1 (zh)
KR (1) KR20210075988A (zh)
CN (1) CN113039777B (zh)
TW (1) TWI821417B (zh)
WO (1) WO2020080140A1 (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6683280B1 (ja) * 2018-10-19 2020-04-15 ソニー株式会社 センサ装置、信号処理方法
CN109344801A (zh) * 2018-10-26 2019-02-15 京东方科技集团股份有限公司 一种物体检测方法及装置
JP7279533B2 (ja) * 2019-06-14 2023-05-23 ソニーグループ株式会社 センサ装置、信号処理方法
US20230073225A1 (en) * 2020-02-12 2023-03-09 Marine Canada Acquisition Inc. Marine driver assist system and method
TWI786409B (zh) * 2020-06-01 2022-12-11 聚晶半導體股份有限公司 影像偵測裝置以及影像偵測方法
US20240144693A1 (en) * 2021-04-09 2024-05-02 Mitsubishi Electric Corporation Information collecting device, server, and information collecting method
KR102343047B1 (ko) * 2021-06-17 2021-12-24 주식회사 인피닉 2d 이미지 전처리 방법
CN118044216A (zh) * 2021-09-27 2024-05-14 富士胶片株式会社 图像生成方法、处理器及程序
TWI813072B (zh) * 2021-11-17 2023-08-21 瑞昱半導體股份有限公司 用於物件追蹤的電子裝置及方法
KR102592088B1 (ko) * 2021-11-19 2023-10-20 주식회사 핀텔 스트리밍모듈을 이용한 고해상도 영상분석방법, 장치 및 이에 대한 컴퓨터 프로그램
US20240054748A1 (en) * 2022-08-10 2024-02-15 Avid Technology, Inc. Finding the semantic region of interest in images
WO2024047748A1 (ja) * 2022-08-30 2024-03-07 日本電気株式会社 映像処理システム、映像処理方法、及び映像処理装置
WO2024047747A1 (ja) * 2022-08-30 2024-03-07 日本電気株式会社 映像処理システム、映像処理方法、及び映像処理装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206920A (ja) * 2008-02-28 2009-09-10 Nikon Corp カメラ
EP3007434A1 (en) * 2013-05-31 2016-04-13 Nikon Corporation Electronic device and control program
US20170337435A1 (en) * 2015-09-09 2017-11-23 Lightmetrics Technologies Pvt. Ltd. System and method for detecting objects in an automotive environment
CN108028898A (zh) * 2015-09-16 2018-05-11 佳能株式会社 图像传感器和摄像设备
US20180268571A1 (en) * 2017-03-14 2018-09-20 Electronics And Telecommunications Research Institute Image compression device

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793033A (en) * 1996-03-29 1998-08-11 Metanetics Corporation Portable data collection device with viewing assembly
JP2000105835A (ja) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd 物体認識方法及び物体追跡監視装置
JP4146751B2 (ja) * 2003-04-01 2008-09-10 本田技研工業株式会社 顔識別装置、顔識別方法及び顔識別プログラム
US7720580B2 (en) * 2004-12-23 2010-05-18 Donnelly Corporation Object detection system for vehicle
US7526102B2 (en) * 2005-09-13 2009-04-28 Verificon Corporation System and method for object tracking and activity analysis
JP4876836B2 (ja) * 2006-10-12 2012-02-15 日本電気株式会社 撮像装置及び方法並びにプログラム
US20080129541A1 (en) * 2006-12-01 2008-06-05 Magna Electronics Black ice detection and warning system
JP2008228232A (ja) * 2007-03-15 2008-09-25 Canon Inc 撮像装置、撮像方法、プログラム、及び記憶媒体
JP2009010472A (ja) * 2007-06-26 2009-01-15 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2009077143A (ja) * 2007-09-20 2009-04-09 Fujifilm Corp 自動撮影装置
JP5166102B2 (ja) * 2008-04-22 2013-03-21 株式会社東芝 画像処理装置及びその方法
JP2010062943A (ja) * 2008-09-04 2010-03-18 Nikon Corp 電子カメラ
JP2010087599A (ja) * 2008-09-29 2010-04-15 Fujifilm Corp 撮像装置、方法およびプログラム
EP2246806B1 (en) * 2009-04-29 2014-04-02 Autoliv Development AB Vision method and system for automatically detecting objects in front of a motor vehicle
JP2011078076A (ja) * 2009-09-03 2011-04-14 Sony Corp 画像処理装置および方法、並びにプログラム
JP4860739B2 (ja) * 2009-09-03 2012-01-25 パナソニック株式会社 画像処理装置及び画像処理方法
JP5675229B2 (ja) * 2010-09-02 2015-02-25 キヤノン株式会社 画像処理装置及び画像処理方法
JP2013012930A (ja) * 2011-06-29 2013-01-17 Canon Inc 全方位撮像装置、及びその制御方法
RU2018109081A (ru) * 2012-05-02 2019-02-26 Никон Корпорейшн Устройство формирования изображений
US20140313381A1 (en) 2013-04-19 2014-10-23 Canon Kabushiki Kaisha Image pickup apparatus
JP2015032966A (ja) * 2013-08-01 2015-02-16 キヤノン株式会社 画像処理装置、撮像装置、制御方法、及びプログラム
US9349076B1 (en) * 2013-12-20 2016-05-24 Amazon Technologies, Inc. Template-based target object detection in an image
AU2014240213B2 (en) * 2014-09-30 2016-12-08 Canon Kabushiki Kaisha System and Method for object re-identification
WO2016151925A1 (ja) * 2015-03-26 2016-09-29 富士フイルム株式会社 追尾制御装置、追尾制御方法、追尾制御プログラム、及び、自動追尾撮影システム
US10235585B2 (en) * 2016-04-11 2019-03-19 The Nielsen Company (US) Methods and apparatus to determine the dimensions of a region of interest of a target object from an image using target object landmarks
US20170323149A1 (en) * 2016-05-05 2017-11-09 International Business Machines Corporation Rotation invariant object detection
US9760806B1 (en) * 2016-05-11 2017-09-12 TCL Research America Inc. Method and system for vision-centric deep-learning-based road situation analysis
US10540554B2 (en) * 2018-03-29 2020-01-21 Toyota Jidosha Kabushiki Kaisha Real-time detection of traffic situation
JP6683280B1 (ja) * 2018-10-19 2020-04-15 ソニー株式会社 センサ装置、信号処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206920A (ja) * 2008-02-28 2009-09-10 Nikon Corp カメラ
EP3007434A1 (en) * 2013-05-31 2016-04-13 Nikon Corporation Electronic device and control program
US20170337435A1 (en) * 2015-09-09 2017-11-23 Lightmetrics Technologies Pvt. Ltd. System and method for detecting objects in an automotive environment
CN108028898A (zh) * 2015-09-16 2018-05-11 佳能株式会社 图像传感器和摄像设备
US20180268571A1 (en) * 2017-03-14 2018-09-20 Electronics And Telecommunications Research Institute Image compression device

Also Published As

Publication number Publication date
TW202021333A (zh) 2020-06-01
KR20210075988A (ko) 2021-06-23
CN113039777B (zh) 2023-07-14
US11495008B2 (en) 2022-11-08
US11785183B2 (en) 2023-10-10
EP3869784A1 (en) 2021-08-25
WO2020080140A1 (ja) 2020-04-23
TWI821417B (zh) 2023-11-11
US20210256286A1 (en) 2021-08-19
JP7424140B2 (ja) 2024-01-30
JP6683280B1 (ja) 2020-04-15
US20230124921A1 (en) 2023-04-20
JP2020108172A (ja) 2020-07-09
JP2020068521A (ja) 2020-04-30
EP3869784A4 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
CN113039777B (zh) 传感器装置和信号处理方法
CN112970243B (zh) 传感器装置和参数设置方法
CN112823506B (zh) 传感器装置和信号处理方法
KR102556560B1 (ko) 화상 처리 장치, 화상 처리 방법, 및 화상 처리 시스템
JP7279533B2 (ja) センサ装置、信号処理方法
EP3869782A1 (en) Sensor device and parameter setting method
CN110730966B (zh) 用于行人检测的系统和方法
EP3869783A1 (en) Sensor device and signal processing method
CN111665836A (zh) 车辆的自适应传感器系统及其操作方法
TWI845547B (zh) 感測器裝置、信號處理方法
TW202428036A (zh) 感測器裝置
Bugalia Image segmentation technique for on road pedestrian detection during night time

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant