CN114374778A - 配置摄像机的方法 - Google Patents
配置摄像机的方法 Download PDFInfo
- Publication number
- CN114374778A CN114374778A CN202111107056.3A CN202111107056A CN114374778A CN 114374778 A CN114374778 A CN 114374778A CN 202111107056 A CN202111107056 A CN 202111107056A CN 114374778 A CN114374778 A CN 114374778A
- Authority
- CN
- China
- Prior art keywords
- imaging
- spatial
- video data
- profile
- imaging profile
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000003384 imaging method Methods 0.000 claims abstract description 245
- 238000012545 processing Methods 0.000 claims description 38
- 238000005286 illumination Methods 0.000 claims description 9
- 230000002123 temporal effect Effects 0.000 claims description 6
- 238000012805 post-processing Methods 0.000 description 31
- 238000012544 monitoring process Methods 0.000 description 10
- 238000001514 detection method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/617—Upgrading or updating of programs or applications for camera control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/76—Circuitry for compensating brightness variation in the scene by influencing the image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/71—Circuitry for evaluating the brightness variation
Abstract
描述了一种配置摄像机的方法,该方法包括:利用摄像机收集视频数据,提供多个成像配置文件,每个成像配置文件与场景特征的集相关联,针对每个成像配置文件,根据视频数据和成像配置文件的场景特征的集生成空间输出数据,其中,空间输出数据指示在视频数据中检测到的与场景特征中的一个或多个相匹配的事件的空间位置,执行多个成像配置文件中的每一个的空间输出数据的比较,根据比较选择优选成像配置文件,将摄像机配置为根据优选成像配置文件来操作。
Description
技术领域
本公开涉及用于摄像机的成像配置文件的集的比较以及在其之间的选择,以提供针对特定用例的优化输出。
背景技术
一些数码摄像机可以被配置为根据一个以上的预定义的成像配置文件进行操作。每个成像配置文件可以定义摄像机在捕获和处理图像时使用的特定设置和算法。成像配置文件被设计为生成针对不同的用例和场景特征而被优化的视频。例如,可能有用于交通监控的被设计为生成为了监控移动的汽车而被优化的视频的成像配置文件。另一配置文件可以被设计为生成针对面部识别而被优化的视频。进一步的示例可以包括为了检测特定类型的对象(例如,汽车和/或人)的出现、确定移动的对象的速度、确定对象的照度或成像场景的区域等而被优化的成像配置文件。进一步的示例可以包括针对诸如低光照或高动态范围场景的特定场景特征而被优化的成像配置文件。因此,每个成像配置文件都被设计为可以很好地对场景中的特定特征进行成像。摄像机的用户将希望为他们预期的场景和用例使用正确的成像配置文件。但是,用户有时很难知道选择哪个配置文件。
发明内容
本公开的第一方面是一种配置摄像机的方法,该方法包括:利用摄像机收集视频数据,提供多个成像配置文件,每个成像配置文件与场景特征的集相关联,针对每个成像配置文件,根据视频数据和成像配置文件的场景特征的集生成空间输出数据,其中,空间输出数据指示在视频数据中检测到的与场景特征中的一个或多个相匹配的事件的空间位置,执行多个成像配置文件中的每一个的空间输出数据的比较,根据比较选择优选成像配置文件,将摄像机配置为根据优选成像配置文件来操作。这有利地允许摄像机在场景中针对具有各种不同配置的特定用例被测试,并且然后被配置为根据自动选择的或由用户选择的最佳配置来操作。这允许更有效地执行摄像机系统的操作的设置和优化。
可选地,场景特征可以包括对象类型。场景特征可以可选地包括对象速度、对象大小、对象位置、对象颜色、对象类型、对象时间行为以及对象与另一对象的关系中的至少一个。场景特征可以包括一个或多个照度水平。不同场景特征的使用有利地允许成像配置文件针对不同的可能用例被优化,并且因此为用户提供多种选择以供选择。
多个成像配置文件中的每一个的空间输出数据的集的比较可以可选地包括针对多个成像配置文件中的每一个的在视频数据中检测到的事件的空间位置和/或频率的比较。基于空间和频率的比较有利地允许位置和时间两者被用作比较和对比成像配置文件的因素。针对多个成像配置文件中的每一个的空间输出数据的比较可以进一步包括具有在空间区域内的具有空间位置的检测到的事件的最高频率的成像配置文件的确定。这有利地允许通过其来测量相应的成像配置文件的相对简单的度量。比较可以进一步包括接收指示空间区域的用户输入。这有利地允许用户指示他们的通过其可以比较成像配置文件的用户特定标准。
空间输出数据可以可选地根据与视频数据相对应的地图来定义,并且包括地图上的与视频数据中的事件的空间位置相对应的一个或多个位置,并且其中,空间区域根据地图来定义。空间区域可以进一步包括地图上的在定义的边界内的位置、地图上的在点的范围内的位置和地图上的在线的范围内的位置中的至少一个。空间区域可以有利地允许对视频数据的其中不同成像配置文件的结果特别重要的区域进行成像配置文件的比较。
优选成像配置文件的选择可以根据空间输出数据的比较自动执行。这可以有利地允许在很少或没有来自人类的输入的情况下自动进行成像配置文件选择。
多个成像配置文件中的每一个的空间输出数据的比较和优选成像配置文件的选择可以可选地包括:显示每个成像配置文件的空间输出数据,并且接收指示优选成像配置文件的用户输入。这有利地允许用户为他们的期望用例选择最佳成像配置文件。每个成像配置文件的空间输出数据可以被显示为热图。热图的使用可以有利地允许用户快速识别场景中的其中存在与相应的成像配置文件的场景特征相对应的事件的热点的区域。
成像配置文件可以包括摄像机配置,并且其中,根据成像配置文件操作摄像机包括根据摄像机配置操作摄像机。成像配置文件可以包括图像处理算法,图像处理算法被配置为在视频数据中检测与场景特征中的一个或多个相匹配的事件,并且根据成像配置文件操作摄像机包括对视频数据操作成像配置文件的图像处理算法。这有利地允许成像配置文件进一步定义视频数据是如何被处理的,从而允许在可能的成像配置文件用例中具有更大的多样性。
本公开的第二方面提供了一种成像系统,包括:摄像机,被配置为收集包括对象的集的场景的视频数据;多个成像配置文件,每个成像配置文件与场景特征的集相关联;处理单元,被配置为针对每个成像配置文件,根据视频数据和成像配置文件的场景特征的集生成空间输出数据的集,其中,空间输出数据指示在视频数据中检测到的与场景特征中的一个或多个相匹配的事件的空间位置;成像系统,被配置为根据成像配置文件的集的优选成像配置文件来操作摄像机,其中,优选成像配置文件根据成像配置文件的空间输出数据的集的比较来确定。
附图说明
本发明的其它特征和优点将从以下参考附图的示例的详细描述中变得显而易见,在附图中:
图1是成像系统100的示例的图,
图2a是摄像机10的示例的图,
图2b是示例成像配置文件25的图,
图3是由摄像机10成像的示例场景70的图,
图4是摄像机10的示例操作的流程图,
图5a是VMS 60的输出的图,
图5b是已经应用了空间区域55的VMS 60的输出的图,
图6是摄像机10的另一示例操作的流程图。
具体实施方式
本说明书涉及用于提供与摄像机一起使用的成像配置文件的改进优化的比较和选择的设备和技术。遍及说明书,相同的附图标记被用于标识相应的元件。
如图1中所示,成像系统100包括对场景70进行监控的摄像机10。摄像机10连接到后处理单元68,并且后处理单元68通过包括直接连接、网络或因特网连接的链接而连接到视频管理系统(VMS)60。
如图2a中图示的,摄像机10可以包括:成像传感器12,被布置为捕获监控的场景70的视频;光学装置11,被布置为将来自场景70的光引导和过滤到成像传感器12;以及处理单元15,被配置为执行各种视频处理活动,该视频处理活动可选地包括对捕获的视频流的色调、饱和度和亮度进行处理,并且以适当的格式对捕获的视频流进行编码。摄像机10的输出视频数据20被直接地或间接地传输到VMS 60,并且由VMS 60的用户在VMS 60的显示器上观看。
后处理单元68被配置为从摄像机10接收视频数据20并且对视频数据20进行处理以生成空间输出数据45。后处理单元68可以位于摄像机处、VMS 60处或诸如在摄像机10与VMS 60之间的另一位置处。空间输出数据45然后可以被传输到VMS 60以供用户观看。后处理单元68在上文已被描述为单个单元,但是可以被配置为单独的控制器或模块。单独的控制器或模块可以是用于例如处理视频和图像的专用的控制器,或可以控制不止一个部件的通用的控制器或模块。后处理单元68或者专用的模块或控制器可以至少部分地通过由中央处理单元(CPU)执行的软件来实现。在示例中,计算机程序产品包括指令,当程序由计算机执行时,该指令使计算机执行如以上关于后处理单元68所讨论的步骤。后处理单元68可以由在一个或多个通用的或专用的计算装置上运行的专用软件(或固件)来实现。处理单元可以包括一个或多个处理单元,例如,CPU(“中央处理单元”)、GPU(“图形处理单元”)、AI加速器芯片、DSP(“数字信号处理器”)、ASIC(“专用集成电路”)、缩放器、DDIC(显示驱动器集成电路)、离散模拟和/或数字部件或诸如FPGA(“现场可编程门阵列”)的另一些可编程逻辑装置。处理单元可以进一步包括系统存储器以及将包括系统存储器的各种系统部件耦合到处理单元的系统总线。系统总线可以是包括存储器总线或存储器控制器、外围总线和使用各种总线架构中的任何一种的本地总线的若干类型的总线结构中的任何一种。系统存储器可以包括诸如只读存储器(ROM)、随机存取存储器(RAM)和闪存的易失性和/或非易失性存储器形式的计算机存储介质。专用软件和相关联的控制参数值可以被存储在系统存储器中,或者被存储在被包含在计算装置中或计算装置可访问的诸如磁介质、光介质、闪存卡、数字磁带、固态RAM、固态ROM等的其它可移除的/不可移除的易失性/非易失性计算机存储介质上。处理单元可以包括一个或多个诸如串行接口、并行接口、USB接口、无线接口、网络适配器等的通信接口以及一个或多个诸如A/D转换器的数据采集装置。专用软件可以在任何适合的计算机可读介质(包括记录介质和只读存储器)上被提供给处理单元。
成像系统100的期望最终结果是被显示在VMS 60上的将最有用的和最相关的信息提供给VMS的用户的图像。可能对用户有用和相关的信息类型取决于用户对成像系统100的预期用例。因此,期望将摄像机10配置为使得其传送对于用户所想到的场景和情况的一部分是最佳的视频。为了帮助用户配置摄像机10,可以有多个预定义的成像配置文件(每个预定义的成像配置文件定义一摄像机配置)以供选择。每个成像配置文件都被设计为使摄像机生成针对场景中的特定特征而被优化的视频,而这些特定特征又可能与不同的用例相关。举例来说,可以存在被设计为提供针对交通监控目的而被优化的视频的成像配置文件以及提供针对面部识别目的而被优化的视频的另一成像配置文件。因此,每个成像配置文件都被设计为提供相对于场景中的特定特征(诸如特定类型的对象、移动的对象的特定速度或场景中的特定照度水平)而被优化的视频。
在图2b中所示的示例中,成像配置文件25与摄像机配置18和场景特征的集35相关联。场景特征的集35定义了场景中的成像配置文件25相对于其被优化的特征。如下文进一步举例说明的,这可以是对象类型、对象的特征或照度水平。因此,如果摄像机10根据成像配置文件25的摄像机配置18操作,则它将生成针对成像配置文件25的场景特征的集35而被优化的视频。
摄像机配置18可以包括用于光学装置11和/或成像传感器12的一个或多个设置。在一个示例中,其中用于交通监控的成像配置文件25旨在被用于监控移动的汽车(即,其中与成像配置文件25相关联的场景特征75是移动的车辆),为监控移动的汽车提供最佳结果的摄像机配置18将包括用于光学装置11、成像传感器12和/或处理单元15的设置。例如,这些可以包括宽景深、短曝光时间和高成像帧率。摄像机配置18可以进一步包括用于摄像机10的处理单元15的一个或多个设置。摄像机配置18的设置可以被优化以生成用于相应的成像配置文件25的预期使用的结果。在示例中,处理单元15可以被提供有被优化为对由场景70中的快速移动的对象导致的模糊或其它视频伪影进行最小化的摄像机图像处理算法。在示例中,其中用户对交通监控或其它快速移动的对象的监控感兴趣,被配置用于最小运动模糊的时空噪声过滤器可以被应用在处理单元15中。在一个示例中,摄像机配置18可以包括用于选择被提供有处理单元15的时空噪声过滤器的配置选项。在另一示例中,摄像机配置18可以包括用于由处理单元15执行的时空噪声过滤器代码。时空噪声过滤器本身在本领域中是公知的。在其中面部识别是用例的主要目标的另一示例中,摄像机配置18可以包括用于处理单元15的设置以使得场景的高动态范围图像能够被生成,允许图像的较暗区域中的对比度被增强并且使面部特征更明显且更易于识别。能够生成高动态范围图像的方法在本领域中是公知的。
图3示出了由成像系统100成像的场景70。场景70可以包括包含对象的各种场景特征75。是对象的场景特征75可以包括包含道路、步行路径、停车位、交通灯等的固定对象。场景特征75可以进一步包括诸如汽车、卡车、骑自行车的人、行人、动物、货柜等的非固定对象。
场景特征75还可以可选地包括成像的对象的特征。例如,场景特征75可以包括对象速度、对象大小、对象位置、对象颜色、对象类型、对象时间行为以及对象与另一对象的关系中的至少一个。场景特征75可以包括一个或多个照度水平。
图4是成像系统100的示例操作的流程图。在步骤410中,提供了与场景特征75的集35相关联的成像配置文件25。
在步骤420中,视频数据20由摄像机10使用第一摄像机配置来收集。视频数据20可以在有限的时间段期间(例如与在新场景中安装摄像机10有关)收集,或者可以连续地收集。第一摄像机配置可以是当用户没有定义其它配置时摄像机用于采集数据的默认配置。可替代地,第一摄像机配置可以由成像配置文件25提供。可替代地,第一摄像机配置可以由用户提供。在其中第一摄像机配置与成像配置文件25的摄像机配置不同的情况下,所捕获的视频数据20可以使用图像处理来进一步修改,以使其看起来好像是使用成像配置文件25的摄像机配置来捕获的,或者至少更类似于使用成像配置文件25的摄像机配置来捕获的情况。因此,以这种方式,人们可以模拟在捕获视频数据20时使用了成像配置文件25的摄像机配置。在这点上,注意,成像配置文件25的摄像机配置的设置中的一些设置与其它设置相比更易于模拟。具体地,与光学装置11和/或成像传感器12的设置相比,摄像机10的处理单元15的设置通常更易于模拟。因此,该模拟可以限于摄像机10的处理单元15的一个或多个设置。因此,视频数据20可以被修改为看起来好像它们是被与成像配置文件25的摄像机配置相关联的处理单元15的一个或多个设置而不是第一摄像机配置的设置所处理的。
在步骤430中,视频数据20被传输到后处理单元68。
在步骤440中,使用后处理单元68,从视频数据20生成指示在视频数据20中检测到的事件的空间位置的空间输出数据45,其中每个事件和与成像配置文件25相关联的场景特征的集35中的场景特征75中的一个或多个相匹配。
更详细地,后处理单元68可以检测视频数据20中的事件。待检测的事件的类型由与成像配置文件25相关联的场景特征的集35指定。具体地,检测视频数据20中的与成像配置文件的场景特征75的集35相匹配(即,相对应)的事件。举例来说,如果成像配置文件25与是特定类型的对象的场景特征75(诸如汽车或面部)相关联,则后处理单元68可以检测视频数据20中该特定类型的对象的出现。如果成像配置文件25与是对象的特定特征的场景特征(诸如特定对象速度)相关联,则后处理单元68可以检测具有该特定对象特征的对象的出现。如果成像配置文件25与是特定照度水平的场景特征相关联,则后处理单元68可以检测视频数据20中该照度水平的出现。如果成像配置文件25与不止一个场景特征相关联,则可以理解,场景特征可以被组合,使得在视频数据20中检测场景中的与场景特征中的全部相匹配的事件。可替代地,与成像配置文件25相关联的场景特征可以被单独处理,使得在视频数据20中检测场景中的与场景特征中的任何一个相匹配的事件。
后处理单元68检测事件的方式本身在本领域中是公知的。例如,它可以为此目的使用公知的对象检测算法、运动检测算法或照度检测算法。后处理单元68可以根据被评估的成像配置文件25的场景特征75的集35来选择应用哪个算法。因此,成像配置文件25的场景特征的集35可以被说成是与适合于检测和与成像配置文件25相关联的场景特征75中的一个或多个相匹配的事件的图像处理算法相关联。在一个示例中,图像处理算法包括神经网络。例如,神经网络可以被配置为在场景特征的集35包括对象类型“面部”和/或与面部相关的对象特征的情况下,定位场景70中的面部并记录它们的特征。可替代地,可以采用包括定向梯度直方图(HOG)或特征面部的算法来检测面部。
在另一示例中,其中用于交通监控的成像配置文件25旨在被用于监控移动的汽车,后处理单元68可以使用优化的图像处理算法以检测移动的车辆的速度和其它特征。可替代地,时间噪声过滤器可以被用在处理单元15上并且被配置用于时间过滤。时间噪声过滤器可以被用于检测视频数据20中的运动。该检测到的运动可以被用于生成场景中运动量的估计。在另一示例中,成像场景的亮度可以结合成像场景的直方图使用成像传感器12的当前曝光设置通过曝光算法来确定,以估计场景的亮度/动态范围。适合的曝光算法在本领域中是公知的。
后处理68可以进一步记录在视频数据20中检测到的事件的空间位置以生成指示检测到的事件的空间位置的数据集(在本文中被称为空间输出数据45)。例如,空间输出数据45可以包括每个检测到的事件的空间位置。空间输出数据45可以提供以逐帧为基础记录视频数据20中事件的出现的数据的集。每个帧可以包括事件的列表和它们在帧中的相应的空间位置。
空间输出数据45可以进一步指示事件的出现的频率。例如,这可以包括在视频数据20的视频长度期间的事件的总频率、在视频数据20的空间子部分中的事件的频率、相对于遍及整个视频数据20的事件的归一化频率的在视频数据20的空间子部分中的事件的频率等。空间输出数据45因此可以反映检测到的事件的出现是如何在视频数据20中空间分布的。例如,空间输出数据45可以是指示在视频数据20的不同的空间子部分中检测到的(相对于检测到的事件的总数被可选地归一化的)事件的频率的直方图的形式。在一个示例中,空间输出数据45可以根据与视频数据20相对应的地图来定义,并且可以包括地图上的与视频数据20中的事件的空间位置相对应的一个或多个位置。地图可以是与视频数据20的分辨率和大小相对应的2D地图,并且地图上的位置可以根据x坐标和y坐标来定义。例如,可以根据地图中的x坐标和y坐标(可能与视频数据20的x像素坐标和y像素坐标相关)来确定每个事件。在另一示例中,地图可以是场景70的3D地图,并且空间输出数据45包括指示事件在场景70的3D空间中的位置的深度信息。空间输出数据45可以进一步在时间上被解析以指示检测到每个事件的时间。例如,多个成像配置文件25的空间输出数据45可以沿着时间线显示,其中各种成像配置文件25的事件沿着时间轴标记。这样,用户可以更好地了解各种配置文件最适合的时间。
除了空间输出数据45之外,后处理单元68可以从视频数据20中收集示出了其中被评估的成像配置文件25将是好的选择还是坏的选择的情况的一个或多个示例图像。在一个示例中,在与成像配置文件25的场景特征75的集35相匹配的事件的出现率高的时间段期间,成像配置文件25可以被认为是好的选择。后处理单元68因此可以收集在匹配事件的频率超过第一阈值的时间段期间所捕获的示例图像。相反,在与成像配置文件25的场景特征75的集35相匹配的事件的出现率低的时间段期间,成像配置文件25可以被认为是坏的选择。后处理单元68因此可以收集在匹配事件的频率低于第二(更低)阈值的时间段期间所捕获的示例图像。在另一示例中,在空间输出数据45指示检测到的事件的高频率的空间区域(诸如检测到的事件的频率超过第一阈值的空间区域)中,成像配置文件25可以被认为是好的选择。相反,在空间输出数据45指示检测到的事件的低频率的空间区域(诸如检测到的事件的频率低于第二(更低)阈值的空间区域)中,成像配置文件25可能是坏的选择。后处理单元68可以收集描绘了其中在根据空间输出数据45具有检测到的事件的高频率的空间区域中存在活动的情况的示例图像。例如,假设在与在场景70中的道路相对应的空间区域中检测到了事件的高频率。然后,示例图像可以描绘其中汽车在道路上行驶的情况。如此收集的示例图像因此示出了场景70中的成像配置文件25对于其将是好的选择的情况。可选地或可替代地,后处理单元68可以收集描绘了其中在根据空间输出数据45具有检测到的事件的低频率的空间区域中存在活动的情况的示例图像。例如,假设在与在场景70中的步行路径相对应的空间区域中检测到了事件的低频率。然后,示例图像可以描绘其中一个人走在步行路径上的情况。如此收集的示例图像因此示出了其中成像配置文件25将是不太好的选择的情况。一个或多个示例图像可以包括所讨论的空间区域的裁剪图像或裁剪图像的拼贴。示例图像可以被显示给用户并且因此允许用户获得场景70中的成像配置文件25对于其将是好的选择或坏的选择的情况的图片。根据用户想要监控的场景70中的情况的类型,这有助于用户选择是否根据成像配置文件来配置摄像机10。
在步骤450中,空间输出数据45被传输到VMS 60并且被显示在VMS 60上。空间输出数据45可以以与视频数据20中的所有事件的x坐标和y坐标相对应的热图的形式显示,其中不同的颜色(“温度”)被用于指示检测到的事件在场景的不同空间子部分中的频率。
图5a描绘了VMS 60的输出显示的示出了从图3中所示的场景70生成的空间输出数据45的示例。在图5a的示例中,评估适合于检测停放的汽车的成像配置文件25(即,其中与成像配置文件25相关联的场景特征75是具有零速度的车辆的情况)。在该配置中,被配置为在视频数据20中定位具有零速度的车辆的后处理单元68包括神经网络或另一适合的算法。在图5a的示例中,停放的汽车在视频数据20中通过神经网络来检测,并且包括停放的汽车在视频数据20中的位置的空间输出数据45被生成。
所得的空间输出数据45以示出了具有零速度的车辆在视频数据20中的存在的热图的形式呈现给用户。热图的使用可以有利地允许用户快速识别与相应的成像配置文件的场景特征相对应的事件的热点。这有利地允许用户推断成像配置文件25预期适用于当前场景的哪些区域。
在其中根据地图定义空间输出数据45的本公开的一个示例中,空间区域55相对于地图以编程方式定义或由用户直接定义。空间区域55可以包括在定义的边界内的地图区域、在点的范围内的地图区域和在线的范围内的地图区域中的至少一个。在图5b中所示的示例中,VMS 60然后可以被配置为将热图限制到空间区域55。空间区域55可以有利地允许用户将成像配置文件25的(如以下描述的)比较集中在视频数据20的其中不同成像配置文件25的结果特别重要的区域上。在图5b中所示的示例中,其中用户对停在街道的一侧的车辆感兴趣,空间区域55可以被选择以排除街道的另一侧。在另一示例中,用户可能对监控停车场上的人和汽车感兴趣,但是对停车场外的道路上的汽车不感兴趣。在这个示例中,用户可以将感兴趣的区域选择为停车场。
图6是成像系统100的另一示例操作的流程图。
在步骤610中,提供各自与场景特征75的不同集35相关联的多个成像配置文件25。
在步骤620中,场景70的视频数据20由摄像机10使用第一摄像机配置来收集。如以上所解释的,视频数据20可以在有限的时间段期间收集或者可以连续地收集。上面结合步骤420所说的关于第一摄像机配置的内容也适用于步骤620。第一摄像机配置可以是当用户没有定义其它配置时摄像机用于采集数据的默认配置。可替代地,针对每个成像配置文件25,第一摄像机配置可以由该成像配置文件25提供。可替代地,第一摄像机配置可以由用户提供。如以上所描述的,在其中第一摄像机配置与成像配置文件25的摄像机配置不同的情况下,所捕获的视频数据20可以使用图像处理来进一步修改,以使其看起来好像是使用成像配置文件25的摄像机配置来捕获的,或者至少更类似于使用成像配置文件25的摄像机配置来捕获的情况。
在步骤630中,视频数据20被传输到后处理单元68。
在步骤640中,使用后处理单元68,针对多个成像配置文件25中的每一个从视频数据20生成空间输出数据45,每个空间输出数据45指示在视频数据20中检测到的与相应的成像配置文件25的场景特征75中的一个或多个相匹配的事件的空间位置。多个成像配置文件25中的每一个的空间输出数据45可以使用步骤440中描述的方法来生成。如以上所解释的,后处理单元68还可以针对成像配置文件25中的每一个收集一个或多个示例图像。
在步骤650中,执行多个成像配置文件25中的每一个的空间输出数据45的比较。在本公开的一个示例中,多个成像配置文件中的每一个的空间输出数据的集的比较包括针对多个成像配置文件25中的每一个的在视频数据20中检测到的事件的空间位置和/或频率的比较。
在一个示例中,后处理单元68比较场景中的空间区域55内的不同成像配置文件的检测到的事件的频率。为了便于比较,检测到的事件的频率可以是归一化频率,使得可以针对每个成像配置文件25确定出现在空间区域55内的事件的百分比。空间区域55可以经由用户输入来提供,例如经由VMS 60。空间区域55可以是场景中用户特别感兴趣的区域。因此,用户希望找到被优化以在场景55中的该区域中提供良好质量的成像配置文件25。
在步骤660中,根据多个成像配置文件25的空间输出数据45的比较,从多个成像配置文件25中选择优选成像配置文件。在本公开的一个示例中,可以根据空间输出数据45的比较来自动执行优选成像配置文件的选择。例如,可以选择在空间区域55内具有检测到的事件的最高归一化频率的成像配置文件25。
在本公开的可替代示例中,多个成像配置文件中的每一个的空间输出数据45的比较和优选成像配置文件的选择包括显示每个成像配置文件的空间输出数据并且接收指示优选成像配置文件的用户输入。除了空间输出数据45之外,还可以显示示出了其中每个成像配置文件25将是好的选择还是坏的选择的情况的示例图像。空间输出数据45和每个成像配置文件25的任何示例图像的显示可以使用VMS60的显示器来执行,并且接收指示优选成像配置文件的用户输入可以使用VMS 60的用户界面来完成。如以上所解释的,每个成像配置文件的空间输出数据45可以被显示为热图,其中热图中的温度指示检测到的事件在场景70的不同空间区域中的频率。当呈现每个成像配置文件25的热图时,用户可以推断场景中的哪些区域将受益于使用哪个成像配置文件25。具体地,在特定的空间区域中具有检测到的事件的更高的归一化频率(如热图中由更高的温度所表示)的成像配置文件25与在相同的空间区域中具有检测到的事件的更低的归一化频率的成像配置文件25相比,可以预期在该空间区域中提供更优化的视频。因此,通过比较热图,用户能够选择预期为用户特别感兴趣的区域提供最佳结果的成像配置文件25。
在一些示例中,多个成像配置文件的空间输出数据45以不同的图片显示给用户。在其它示例中,空间输出数据45在同一图片中显示给用户。例如,不同的颜色或图案可以被用于图示不同成像配置文件的空间输出数据45。例如,第一颜色可以被用于指示其中第一成像配置文件的检测到的事件的归一化频率超过阈值的空间区域,并且第二颜色可以被用于指示其中第二成像配置文件的检测到的事件的归一化频率超过阈值的空间区域。以这种方式,用户可以从单个图片获得在场景的不同空间区域中哪些成像配置文件是有益的概览。
在步骤670中,摄像机10被配置为根据优选成像配置文件来操作。具体地,摄像机10可以被配置为根据优选成像配置文件的摄像机配置18来操作。摄像机10可以被配置为根据优选成像配置文件的摄像机配置18来继续操作,直到另一摄像机配置被提供,即,摄像机10可以被配置为采用摄像机配置18作为默认配置。
在成像系统100的以上示例操作的第一示例用例中,用户能够比较不同的成像配置文件25的集,每个成像配置文件与场景特征75的不同集35相关联,并且选择最适合他们的需要的优选成像配置文件。在步骤610中,提供了代表成像系统100的最常见用例的成像配置文件25的集,即,成像配置文件25的集与最典型地由成像系统100的用户监控的场景特征75的集35相关联。在该示例中,一个成像配置文件与面部相关联,一个成像配置文件与停放的车辆相关联,并且一个成像配置文件与移动的车辆相关联。在步骤620中,场景70的视频数据20由摄像机10使用默认摄像机配置来收集。在步骤630和步骤640中,视频数据20由后处理单元68处理以分别对应于面部的空间位置、停放的车辆的空间位置和移动的车辆的空间位置生成空间输出数据45的集。在步骤650中,视频数据20被显示在VMS 60上,叠加显示空间输出数据45。空间输出数据45以热图的形式提供,示出了在视频数据20中相应的位置处分别出现面部、停放的车辆和移动的车辆的频率。可选地,VMS 60的用户可以选择使用包括视频数据20的空间子部分的VMS 60的接口来定义空间区域55。一旦空间区域55被选择,VMS 60就仅在空间区域55内显示空间输出数据45,从而允许用户专注于视频数据20的空间子部分。用户循环浏览成像配置文件25中的每一个和相应的空间输出数据45的视图,直到他们为他们的预期用例决定最有用的结果。用户然后可以选择成像配置文件25作为他们的优选成像配置文件。可替代地,后处理单元68可以自动确定具有在空间区域55内检测到的事件的最高频率的空间输出数据45,并且选择对应的成像配置文件作为优选成像配置文件。在该示例中,与移动的车辆相关联的成像配置文件25被选择。在步骤660中,摄像机10被配置为使用优选成像配置文件的摄像机配置18来继续操作。成像系统100然后继续向VMS60提供视频数据20而无需进一步的配置。
在成像系统100的以上示例操作的第二示例用例中,用户能够比较不同的成像配置文件25的集,每个成像配置文件与相似的场景特征75相关联。在该用例的示例中,成像配置文件25可以全部被设计为促进视频数据20中的面部的检测,但是包括适合于不同情况的不同方法和不同算法。通过根据该示例用例来操作成像系统100,用户能够确定用于监控场景70中随时间变化的面部的数量的最适合的成像配置文件25。在该示例的步骤610中,相对于在场景70中检测面部的不同方法被优化的成像配置文件25的集被提供,一个成像配置文件25针对弱光下的面部的检测被优化,一个成像配置文件25针对日光下的面部的检测被优化,并且一个成像配置文件25针对部分模糊的面部的检测被优化。因此,在这种情况下,场景特征的各个集是弱光下的面部、日光下的面部和模糊的面部。在其中用户希望监控建筑物内部的面部的一个示例中,弱光下的面部被确定为在建筑物内部,并且因此是感兴趣的,而日光下的面部被确定为在建筑物外部(例如,在日光直射下通过外面人行道上的窗户成像的面部),并且因此对于用户是不太感兴趣的。在步骤620中,场景70的视频数据20在优选地足够长以使用默认摄像机配置来反映场景中的光照条件的可变性的时间段期间由摄像机10收集。在步骤630和步骤640中,视频数据20由后处理单元68处理以检测与成像配置文件25中的每一个的场景特征相匹配的事件。也就是说,针对第一成像配置文件,弱光条件下的面部的出现被检测;针对第二成像配置文件,日光条件下的面部的出现被检测;并且针对第三成像配置文件,模糊的面部的出现被检测。针对每个成像配置文件25,对应于检测到的事件的空间位置生成空间输出数据45的集。在步骤650中,视频数据20被显示在VMS 60上,叠加显示空间输出数据45。空间输出数据45以热图的形式提供,示出了根据每个成像配置文件出现面部的频率。VMS 60的用户可以选择使用包括视频数据20的子部分的VMS 60的接口来定义空间区域55。在该示例中,用户选择与步行路径相对应的区域,为了排除附近偶尔显示面部的广告视频显示。一旦空间区域55被选择,VMS 60就仅在空间区域55内显示空间输出数据45,从而允许用户专注于视频数据20中所示出的步行路径。用户循环浏览成像配置文件25中的每一个和相应的空间输出数据45的视图,直到他们决定事件的最高频率针对其在空间区域55中被检测到的成像配置文件25。用户然后可以选择成像配置文件25作为他们的优选成像配置文件。可替代地,用户可以指定优化标准,例如在空间区域55内检测到的事件的最高数量,并且成像系统100可以自动确定具有在步行路径的区域内检测到的事件的最高频率的空间输出数据45,并且选择对应的成像配置文件作为优选成像配置文件。在步骤660中,摄像机10被配置为使用优选成像配置文件的摄像机配置18来继续操作。成像系统100然后继续向VMS 60提供视频数据20而无需进一步的配置。
Claims (14)
1.一种配置摄像机的方法,所述方法包括:
提供多个成像配置文件,每个成像配置文件与场景特征的集相关联并且包括摄像机配置,
针对每个成像配置文件,
–利用所述摄像机,使用所述成像配置文件的所述摄像机配置来收集视频数据,或者通过使用另一摄像机配置来收集视频数据并且然后修改所述视频数据以模拟所述视频数据是使用所述成像配置文件的所述摄像机配置来捕获的,并且
–根据所述视频数据和所述成像配置文件的场景特征的所述集生成空间输出数据,其中,所述空间输出数据指示在所述视频数据中检测到的与所述场景特征中的一个或多个相匹配的事件的空间位置,
执行所述多个成像配置文件中的每一个的所述空间输出数据的比较,所述比较包括针对所述多个成像配置文件中的每一个的在所述视频数据中检测到的事件的所述空间位置和/或频率的比较,
根据所述比较选择优选成像配置文件,并且
将所述摄像机配置为根据包括所述摄像机配置的所述优选成像配置文件来操作。
2.根据权利要求1所述的方法,其中,所述场景特征包括对象类型。
3.根据权利要求1所述的方法,其中,所述场景特征包括对象速度、对象大小、对象位置、对象颜色、对象类型、对象时间行为以及对象与另一对象的关系中的至少一个。
4.根据权利要求1所述的方法,其中,所述场景特征包括一个或多个照度水平。
5.根据权利要求1所述的方法,其中,针对所述多个成像配置文件中的每一个的所述空间输出数据的所述比较包括具有在空间区域内的具有空间位置的检测到的事件的最高频率的所述成像配置文件的确定。
6.根据权利要求5所述的方法,进一步包括:接收指示所述空间区域的用户输入。
7.根据权利要求6所述的方法,其中,所述空间输出数据根据与所述视频数据相对应的地图来定义,并且包括所述地图上的与所述视频数据中的事件的空间位置相对应的一个或多个位置,并且其中,所述空间区域根据所述地图来定义。
8.根据权利要求7所述的方法,其中,所述空间区域包括所述地图上的在定义的边界内的位置、所述地图上的在点的范围内的位置和所述地图上的在线的范围内的位置中的至少一个。
9.根据权利要求1所述的方法,其中,优选成像配置文件的所述选择根据所述空间输出数据的所述比较自动执行。
10.根据权利要求1所述的方法,其中,所述多个成像配置文件中的每一个的所述空间输出数据的所述比较和优选成像配置文件的选择包括:显示每个成像配置文件的所述空间输出数据,并且接收指示所述优选成像配置文件的用户输入。
11.根据权利要求10所述的方法,其中,每个成像配置文件的所述空间输出数据被显示为热图。
12.根据权利要求1所述的方法,其中:
成像配置文件包括图像处理算法,所述图像处理算法被配置为在视频数据中检测与所述场景特征中的一个或多个相匹配的事件,并且
根据成像配置文件操作所述摄像机包括对所述视频数据操作所述成像配置文件的所述图像处理算法。
13.一种成像系统,包括:
成像配置文件的集,每个成像配置文件与场景特征的集相关联并且包括摄像机配置,
摄像机,被配置为针对每个成像配置文件,使用所述成像配置文件的所述摄像机配置来收集包括对象的集的场景的视频数据,或者通过使用另一摄像机配置来收集包括对象的集的场景的视频数据并且然后修改所述视频数据以模拟所述视频数据是使用所述成像配置文件的所述摄像机配置来捕获的,
处理单元,被配置为针对每个成像配置文件,根据所述视频数据和所述成像配置文件的场景特征的所述集生成空间输出数据的集,其中,所述空间输出数据指示在所述视频数据中检测到的与所述场景特征中的一个或多个相匹配的事件的空间位置,
成像系统,被配置为根据成像配置文件的所述集的包括所述摄像机配置的优选成像配置文件来操作所述摄像机,
其中,所述优选成像配置文件根据所述成像配置文件的空间输出数据的所述集的比较来确定,所述比较包括针对所述多个成像配置文件中的每一个的在所述视频数据中检测到的事件的所述空间位置和/或频率的比较。
14.一种非暂时性计算机可读介质,所述非暂时性计算机可读介质具有存储在所述非暂时性计算机可读介质上的指令,当所述指令由具有处理能力的装置执行时,所述指令适于执行如权利要求1所述的方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20199646.9A EP3979618A1 (en) | 2020-10-01 | 2020-10-01 | A method of configuring a camera |
EP20199646.9 | 2020-10-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114374778A true CN114374778A (zh) | 2022-04-19 |
Family
ID=72717785
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111107056.3A Pending CN114374778A (zh) | 2020-10-01 | 2021-09-22 | 配置摄像机的方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11653084B2 (zh) |
EP (1) | EP3979618A1 (zh) |
CN (1) | CN114374778A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301440B1 (en) * | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
US20100208093A1 (en) * | 2009-02-16 | 2010-08-19 | Il Yong Lee | Method for processing image data in portable electronic device, and portable electronic device having camera thereof |
US20140078315A1 (en) * | 2012-09-14 | 2014-03-20 | Axix Ab | Configuration of image capturing settings |
US20160284095A1 (en) * | 2015-03-27 | 2016-09-29 | Edmond Chalom | Machine learning of real-time image capture parameters |
CN107094231A (zh) * | 2017-01-11 | 2017-08-25 | 口碑控股有限公司 | 智能拍摄方法和装置 |
US20200275016A1 (en) * | 2019-02-25 | 2020-08-27 | Canon Kabushiki Kaisha | Method and system for auto-setting video content analysis modules |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4930302B2 (ja) * | 2007-09-14 | 2012-05-16 | ソニー株式会社 | 撮像装置、その制御方法およびプログラム |
US8111942B2 (en) * | 2008-02-06 | 2012-02-07 | O2Micro, Inc. | System and method for optimizing camera settings |
JP5202551B2 (ja) * | 2009-01-23 | 2013-06-05 | 株式会社日立国際電気 | パラメータ設定方法及び該方法を用いた監視装置 |
US20110242395A1 (en) * | 2010-04-01 | 2011-10-06 | Sanyo Electric Co., Ltd. | Electronic device and image sensing device |
EP2549738B1 (en) * | 2011-07-19 | 2013-08-28 | Axis AB | Method and camera for determining an image adjustment parameter |
JP6076168B2 (ja) * | 2013-03-27 | 2017-02-08 | オリンパス株式会社 | 撮像装置、構図アシスト装置、構図アシスト方法、及び構図アシストプログラム |
EP3132598A1 (en) * | 2014-04-17 | 2017-02-22 | Sony Corporation | Depth assisted scene recognition for a camera |
US9723200B2 (en) * | 2014-10-15 | 2017-08-01 | Microsoft Technology Licensing, Llc | Camera capture recommendation for applications |
US10484598B2 (en) * | 2015-08-20 | 2019-11-19 | Sony Corporation | System and method for controlling capture of images |
US10582196B2 (en) * | 2017-06-30 | 2020-03-03 | Intel Corporation | Generating heat maps using dynamic vision sensor events |
US11284012B2 (en) * | 2017-07-03 | 2022-03-22 | Canon Kabushiki Kaisha | Method and system for auto-setting of cameras |
CA3026684A1 (en) * | 2017-12-06 | 2019-06-06 | Mehdi MERAI | System and method for automatically improving gathering of data using a data gathering device |
GB2570449B (en) * | 2018-01-23 | 2022-05-18 | Canon Kk | Method and system for auto-setting of cameras |
GB2574802A (en) * | 2018-06-11 | 2019-12-25 | Sony Corp | Camera, system and method of selecting camera settings |
CN110785995A (zh) * | 2018-09-04 | 2020-02-11 | 深圳市大疆创新科技有限公司 | 拍摄控制方法、装置、设备及存储介质 |
EP3854069B1 (en) * | 2018-09-19 | 2024-02-21 | GoPro, Inc. | Automated camera mode selection |
GB2581537A (en) * | 2019-02-25 | 2020-08-26 | Canon Kk | Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems |
US11165954B1 (en) * | 2019-06-19 | 2021-11-02 | Objectvideo Labs, Llc | Scene-aware custom tuned video surveillance detection system |
GB2586653B (en) * | 2019-09-02 | 2023-04-12 | Milestone Systems As | Method and system for improving settings of a camera images of which are used to perform a particular task |
GB2587206B (en) * | 2019-09-17 | 2021-12-22 | Milestone Systems As | Method, device, and computer program for setting parameters values of a video source device |
GB2587216B (en) * | 2019-09-18 | 2021-11-17 | Milestone Systems As | Method, device, and computer program for setting parameters values of a video source device |
US11575837B2 (en) * | 2020-04-27 | 2023-02-07 | Canon Kabushiki Kaisha | Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data |
TW202143119A (zh) * | 2020-05-07 | 2021-11-16 | 瑞典商安訊士有限公司 | 在具有光強度廣泛範圍的場景中利用神經網路之物件偵測 |
US11297226B1 (en) * | 2020-10-01 | 2022-04-05 | Black Sesame Technologies Inc. | Photo taking feedback system |
US11831973B2 (en) * | 2021-08-05 | 2023-11-28 | Qualcomm Incorporated | Camera setting adjustment based on event mapping |
-
2020
- 2020-10-01 EP EP20199646.9A patent/EP3979618A1/en active Pending
-
2021
- 2021-08-31 US US17/463,392 patent/US11653084B2/en active Active
- 2021-09-22 CN CN202111107056.3A patent/CN114374778A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6301440B1 (en) * | 2000-04-13 | 2001-10-09 | International Business Machines Corp. | System and method for automatically setting image acquisition controls |
US20100208093A1 (en) * | 2009-02-16 | 2010-08-19 | Il Yong Lee | Method for processing image data in portable electronic device, and portable electronic device having camera thereof |
US20140078315A1 (en) * | 2012-09-14 | 2014-03-20 | Axix Ab | Configuration of image capturing settings |
US20160284095A1 (en) * | 2015-03-27 | 2016-09-29 | Edmond Chalom | Machine learning of real-time image capture parameters |
CN107094231A (zh) * | 2017-01-11 | 2017-08-25 | 口碑控股有限公司 | 智能拍摄方法和装置 |
US20200275016A1 (en) * | 2019-02-25 | 2020-08-27 | Canon Kabushiki Kaisha | Method and system for auto-setting video content analysis modules |
Also Published As
Publication number | Publication date |
---|---|
US11653084B2 (en) | 2023-05-16 |
EP3979618A1 (en) | 2022-04-06 |
US20220109798A1 (en) | 2022-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4985394B2 (ja) | 画像処理装置および方法、プログラム、並びに記録媒体 | |
EP3472000B1 (en) | System and method for processing video data to detect and eliminate flickering light sources through dynamic exposure control | |
US9070023B2 (en) | System and method of alerting a driver that visual perception of pedestrian may be difficult | |
EP2549738B1 (en) | Method and camera for determining an image adjustment parameter | |
JP5435307B2 (ja) | 車載カメラ装置 | |
CN111919434A (zh) | 处理来自基于事件的传感器的信号的方法和设备 | |
CN102197418A (zh) | 车辆周围监测装置 | |
CN106611510A (zh) | 车位检测装置、电子设备及方法 | |
JP2013005234A5 (zh) | ||
JP4701383B2 (ja) | 視界不良評価方法および視界不良評価装置 | |
KR20160089165A (ko) | 이동 물체 탐지 시스템 및 방법 | |
JP4826355B2 (ja) | 車両周囲表示装置 | |
US11653084B2 (en) | Method of configuring a camera | |
JP7418966B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR101875786B1 (ko) | 도로영상에서 후미등영역을 이용한 차량식별방법 | |
US11882367B2 (en) | Image processing method for producing a high dynamic range image of a scene | |
JP6880252B2 (ja) | 自動車両および自動車両の環境領域の少なくとも1つの合成俯瞰表示画像を生成する方法、カメラシステムおよび自動車両 | |
JP2003296710A (ja) | 識別方法、識別装置、及び交通制御システム | |
EP3282420B1 (en) | Method and apparatus for soiling detection, image processing system and advanced driver assistance system | |
US11798151B1 (en) | Systems and methods for determining image capture degradation of a camera sensor | |
EP4304191A2 (en) | Camera system, method for controlling the same, and computer program | |
JP2001204011A (ja) | 動物検知装置 | |
US11182626B2 (en) | Attached object detection apparatus | |
CN111754565B (zh) | 图像处理方法及装置 | |
CN117351730A (zh) | 图像处理系统、方法、车辆以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |