CN109671136B - 图像处理设备及方法以及非暂时性计算机可读存储介质 - Google Patents

图像处理设备及方法以及非暂时性计算机可读存储介质 Download PDF

Info

Publication number
CN109671136B
CN109671136B CN201811189170.3A CN201811189170A CN109671136B CN 109671136 B CN109671136 B CN 109671136B CN 201811189170 A CN201811189170 A CN 201811189170A CN 109671136 B CN109671136 B CN 109671136B
Authority
CN
China
Prior art keywords
image
region
mask image
mask
moving object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811189170.3A
Other languages
English (en)
Other versions
CN109671136A (zh
Inventor
岩本和成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of CN109671136A publication Critical patent/CN109671136A/zh
Application granted granted Critical
Publication of CN109671136B publication Critical patent/CN109671136B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/12Formatting, e.g. arrangement of data block or words on the record carriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19663Surveillance related processing done local to the camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像处理设备及方法以及非暂时性计算机可读存储介质。在从图像检测到的移动物体的区域与图像中的固定区域重叠的情况下,基于移动物体的区域的图像特征量来判断是否将要在移动物体的区域中绘制的第一掩模图像叠加在要在固定区域中绘制的第二掩模图像上。根据该判断结果来控制第一掩模图像的绘制。

Description

图像处理设备及方法以及非暂时性计算机可读存储介质
技术领域
本发明涉及一种图像处理设备、图像处理方法和非暂时性计算机可读存储介质,特别涉及用于在图像上绘制一个掩模图像(mask image)的技术。
背景技术
传统上,已知一种考虑到安全性和隐私而将掩模图像叠加在图像的特定区域上的技术。在以下描述中,将如上所述叠加在图像的特定区域上的掩模图像称为固定掩模。
已知如下技术:在图像上存在移动物体的情况下,考虑到移动物体的隐私而在图像上的存在该移动物体的区域上叠加掩模图像。在以下描述中,将如上所述叠加在移动物体上的掩模图像称为移动物体掩模。
例如,日本特开2010-186507公开了如下方法:在分发工作场所的视频时,考虑到工作者的隐私的目的,进行用于在人经常存在的区域上叠加固定掩模的处理并且进行用于在人移动的区域上叠加移动物体掩模的处理。
然而,在日本特开2010-186507中公开的传统技术存在不能在叠加固定掩模的区域中确认工作者的状态的问题。因此,即使例如在叠加有固定掩模的区域中进行工作的工作者跌倒的情况下,视频的观察者也无法注意到该情形。在这种情况下,代替固定掩模而将移动物体掩模应用于上述区域可以解决上述问题。然而,考虑到安全性和隐私以及考虑到工作者的隐私,固定掩模用于隐藏存在于工作场所中的除移动物体之外的物体。由于这个原因,存在移动掩模无法应用于整个工作场所的可能性。
发明内容
本发明是在考虑到上述问题而作出的,并且提供一种用于即使在图像上的固定区域中绘制掩模图像也使得可以确认该固定区域中的移动物体的技术。
根据本发明的一个方面,提供一种图像处理设备,包括:判断单元,其被配置为在从图像检测到的移动物体的区域与所述图像中的固定区域重叠的情况下,基于所述移动物体的区域的图像特征量来判断是否将所述移动物体的区域中所要绘制的第一掩模图像叠加在所述固定区域中所要绘制的第二掩模图像上;以及控制单元,其被配置为根据所述判断单元所获得的判断结果来控制所述第一掩模图像的绘制。
根据本发明的另一方面,提供一种图像处理设备所进行的图像处理方法,所述图像处理方法包括:在从图像检测到的移动物体的区域与所述图像中的固定区域重叠的情况下,基于所述移动物体的区域的图像特征量来判断是否将所述移动物体的区域中所要绘制的第一掩模图像叠加在所述固定区域中所要绘制的第二掩模图像上;以及根据所述判断中所获得的判断结果来控制所述第一掩模图像的绘制。
根据本发明的又一方面,一种非暂时性计算机可读存储介质,其存储有计算机程序,所述计算机程序用于使计算机用作:判断单元,其被配置为在从图像检测到的移动物体的区域与所述图像中的固定区域重叠的情况下,基于所述移动物体的区域的图像特征量来判断是否将所述移动物体的区域中所要绘制的第一掩模图像叠加在所述固定区域中所要绘制的第二掩模图像上;以及控制单元,其被配置为根据所述判断单元所获得的判断结果来控制所述第一掩模图像的绘制。
通过以下(参考附图)对典型实施例的说明,本发明的其它特征将变得明显。
附图说明
图1是示出系统的结构的示例的框图;
图2A和2B是示出摄像装置110和客户端装置120的硬件结构的示例的框图;
图3A和3B是示出摄像装置110和客户端装置120的功能结构的示例的框图;
图4是示出客户端装置120所进行的处理的流程图;
图5A和5B是各自示出拍摄图像的示例的图;
图6A和6B是各自示出拍摄图像的示例的图;
图7是示出客户端装置120所进行的处理的流程图;
图8是示出拍摄图像的示例的图;
图9是示出拍摄图像的示例的图;
图10是示出拍摄图像的示例的图;以及
图11是示出拍摄图像的示例的图。
具体实施方式
以下将参考附图详细描述本发明的实施例。以下实施例各自示出具体实施本发明的示例,并且各实施例都是权利要求书的范围中描述的结构的具体实施例。
[第一实施例]
在第一实施例中,在从图像检测到的移动物体的区域与该图像中的固定区域重叠的情况下,基于移动物体的区域的图像特征量来判断是否将要在移动物体的区域中绘制的第一掩模图像叠加在要在固定区域中绘制的第二掩模图像上。本实施例根据该判断结果来控制第一掩模图像的绘制。
首先,参考图1来描述根据本实施例的系统的结构的示例。如图1所示,根据实施例的系统包括摄像装置110、客户端装置120、输入装置130和显示装置140。
将首先描述摄像装置110。摄像装置110是诸如网络照相机等的摄像装置。该装置根据客户端装置120所设置的诸如姿势和视场角等的摄像参数来拍摄物理空间中的动画或静止图像。将摄像装置110所拍摄的动画或静止图像经由网络150发送到客户端装置120。
接着将描述网络150。网络150包括满足诸如以太网等的通信标准的多个路由器、交换机和线缆等。在本实施例中,网络150的通信标准、大小和配置不受具体限制,只要网络能够在摄像装置110和客户端装置120之间进行通信即可。例如,网络150可以通过因特网、有线LAN(局域网)、无线LAN或WAN(广域网)等来实现。
接着将描述客户端装置120。客户端装置120是用作诸如个人计算机、服务器设备或平板设备等的图像处理设备的装置。客户端装置120经由网络150从摄像装置110接收动画或静止图像作为拍摄图像。在摄像装置110发送动画的情况下,客户端装置120接收构成动画的各帧的图像作为拍摄图像。与此相反,在摄像装置110发送静止图像的情况下,客户端装置120接收静止图像作为拍摄图像。
客户端装置120从所接收到的拍摄图像中检测移动物体,并且提取移动物体的区域(移动物体区域)的图像特征量。如果移动物体区域与拍摄图像中的固定区域重叠,则客户端装置120基于图像特征量来判断是否将要在移动物体区域中绘制的第一掩模图像叠加在要在固定区域中绘制的第二掩模图像上。客户端装置120在拍摄图像上的移动物体区域中绘制第一掩模图像,并在固定区域中绘制第二掩模图像。客户端装置120根据判断结果来控制绘制处理,并将控制之后的拍摄图像显示在显示装置140上。
接着将描述输入装置130。输入装置130包括诸如键盘、鼠标和触摸面板等的用户接口。用户可以通过操作输入装置130来向客户端装置120输入各种类型的指示。
接着将描述显示装置140。显示装置140由CRT或液晶显示器等实现。显示装置140可以通过使用图像和字符等来显示客户端装置120所获得的处理结果。图1示出客户端装置120、输入装置130和显示装置140作为单独的装置。然而,这些装置的结构不限于此。例如,这些装置可以集成到一个装置中。可选地,可以集成客户端装置120和显示装置140,或者可以集成输入装置130和显示装置140。可选地,可以集成客户端装置120和摄像装置110。
接着将参考图2A的框图来描述摄像装置110的硬件结构的示例。注意,图2A所示的结构仅是可以应用于摄像装置110的结构的示例,并且可以根据需要来进行修改和改变。
CPU 211通过使用存储在主存储器212中的计算机程序和数据来执行处理。通过该处理,CPU 211控制摄像装置110的整体操作,并且还执行或控制稍后描述的各处理作为要由摄像装置110进行的处理。例如,CPU 211通过使用存储在主存储器212中的计算机程序和数据执行处理来实现各功能单元(即图3A所示的摄像控制单元311、信号处理单元312、驱动控制单元313和通信控制单元314)的功能。这些功能单元将在后面描述。
主存储器212是诸如RAM(随机存取存储器)等的存储装置。主存储器212具有用于存储从辅助存储装置213加载的计算机程序和数据、摄像单元215所获得的拍摄图像以及经由网络I/F 216从客户端装置120接收到的各种类型的数据的区域。主存储器212还具有当CPU 211执行各种类型的处理时要使用的工作区域。如上所述,主存储器212可以根据需要提供各种类型的区域。
辅助存储装置213是诸如HDD(硬盘驱动器)、ROM(只读存储器)或SSD(固态驱动器)等的大容量信息存储装置。辅助存储装置213存储OS(操作系统)和用于使CPU 211执行稍后描述的处理作为要由摄像装置110进行的处理的计算机程序和数据。辅助存储装置213还存储经由网络I/F 216从客户端装置120接收到的数据(例如,上述摄像参数)。在CPU 211的控制下,根据需要将存储在辅助存储装置213中的计算机程序和数据加载到主存储器212中,以由CPU 211进行处理。
驱动单元214基于从客户端装置120接收到的摄像参数来驱动摄像单元215,以控制摄像单元215的姿势(摄像方向)和视场角等。驱动单元214的控制对象不限于特定对象。这样的控制对象可以是摄像单元215的姿势和视场角,或者仅是它们中的一个或其它对象(例如,摄像单元215的位置)。另外,摄像单元215的位置、姿势和视场角等不需要固定。在这种情况下,不需要设置驱动单元214。
摄像单元215包括图像传感器和光学系统,并且以光学系统的光轴和图像传感器之间的交点作为摄像中心在图像传感器上形成被摄体的图像。这种图像传感器包括CMOS(互补金属氧化物半导体)和CCD(电荷耦合器件)。网络I/F 216是摄像装置110经由网络150与客户端装置120进行数据通信所使用的接口。
接着将参考图2B的框图来描述客户端装置120的硬件结构的示例。注意,图2B所示的结构仅是可以应用于客户端装置120的结构的示例,并且可以根据需要进行修改和改变。
CPU 221控制客户端装置120的整体操作,并且还通过使用存储在主存储器222中的计算机程序和数据执行处理来执行或控制稍后描述的各处理作为要由客户端装置120进行的处理。例如,CPU 221通过使用存储在主存储器222中的计算机程序和数据执行处理来实现图3B所示的各个功能单元的功能。稍后将描述图3B所示的这些功能单元。
主存储器222是诸如RAM(随机存取存储器)等的存储装置。主存储器222具有用于存储从辅助存储装置223加载的计算机程序和数据以及经由网络I/F 226从摄像装置110接收到的各种类型的数据(例如,拍摄图像)的区域。主存储器222还具有当CPU 221执行各种类型的处理时要使用的工作区域。如上所述,主存储器222可以根据需要提供各种类型的区域。
辅助存储装置223是诸如HDD(硬盘驱动器),ROM(只读存储器)或SSD(固态驱动器)等的大容量信息存储装置。辅助存储装置223存储OS(操作系统)和用于使CPU 221执行稍后描述的处理作为要由客户端装置120进行的处理的计算机程序和数据。辅助存储装置223还存储经由网络I/F 226从摄像装置110接收到的各种类型的数据(例如,拍摄图像)。在CPU221的控制下,根据需要将存储在辅助存储装置223中的计算机程序和数据加载到主存储器222中,以由CPU 221进行处理。
输入I/F 224是用于将输入装置130连接到客户端装置120的接口。输出I/F 225是用于将显示装置140连接到客户端装置120的接口。网络I/F 226是客户端装置120经由网络150与摄像装置110进行数据通信所使用的接口。
接着将参考图3A的框图来描述摄像装置110的功能结构的示例。图3A所示的各功能单元可以实现为硬件或软件(计算机程序)。在后一种情况下,各计算机程序存储在辅助存储装置213中。CPU 211根据需要将给定的计算机程序加载到主存储器212中并执行该计算机程序,以实现相应功能单元的功能。
摄像控制单元311控制摄像单元215的摄像操作,以获取摄像单元215所拍摄的动画或静止图像作为拍摄图像。
信号处理单元312对摄像控制单元311所获取到的动画或静止图像进行编码。在摄像控制单元311获取静止图像的情况下,信号处理单元312通过使用诸如JPEG(联合图像专家组)等的编码方案对静止图像进行编码。在摄像控制单元311获取动画的情况下,信号处理单元312通过使用诸如H.264/MPEG-4AVC(以下称为H.264)或HEVC(高效视频编码)等的编码方案对动画进行编码。可选地,信号处理单元312可以通过使用从用户经由例如摄像装置110的操作单元(未示出)预先设置的多个编码方案中选择的编码方案来对动画或静止图像进行编码。
驱动控制单元313通过基于从客户端装置120接收到的摄像参数驱动摄像单元215,来控制摄像单元215的姿势(摄像方向)和视场角等。如上所述,可以使摄像单元215的姿势(摄像方向)和视场角等固定。
通信控制单元314经由网络I/F 216将由信号处理单元312处理的(已经编码的)动画或静止图像发送到客户端装置120。通信控制单元314还经由网络I/F 216接收已经从客户端装置120发送的针对摄像装置110的(包括摄像参数的)控制指示。
将参考图3B的框图来描述客户端装置120的功能结构的示例。图3B所示的各功能单元可以实现为硬件或软件(计算机程序)。在后一种情况下,各计算机程序存储在辅助存储装置223中。根据需要,CPU 221将给定的计算机程序加载到主存储器222中并执行该计算机程序,以实现相应功能单元的功能。
获取单元321获取通过用户操作输入装置130所输入的各种类型的指示。通信控制单元322经由网络I/F 226获取从摄像装置110发送的(已经编码的)动画或静止图像。通信控制单元322经由网络I/F 226来将针对摄像装置110的控制指示发送到摄像装置110。
图像获取单元323获取通信控制单元322已从摄像装置110接收到的动画或静止图像,并对图像进行解码。注意,摄像装置110不需要始终对动画/静止图像进行编码,并且可以在无需对动画或静止图像进行编码的情况下将动画或静止图像发送到客户端装置120。在这种情况下,图像获取单元323在无需解码动画或静止图像的情况下获取通信控制单元322从摄像装置110接收到的图像。
检测单元324从图像获取单元323所获取到的动画或静止图像中检测移动物体。在从拍摄图像检测到的移动物体的区域与拍摄图像中的固定区域重叠的情况下,评价单元325基于移动物体的区域的图像特征量来判断是否将要在移动物体的区域中绘制的第一掩模图像叠加在要在固定区域中绘制的第二掩模图像上。
假设预先设置该固定区域。例如,用户可以输入用于定义拍摄图像上的固定区域的信息(固定区域信息),并通过操作输入装置130来将该信息存储在辅助存储装置223中。可以想到各种类型的信息作为固定区域信息,并且固定区域的左上角和右下角的位置可以被设置为固定区域信息,或者固定区域的左上角的位置以及固定区域的垂直和水平大小可以被设置为固定区域信息。假设在使用该系统的场所中,预先确定要隐藏在拍摄图像中的物体。在这种情况下,可以通过操作该系统来获取拍摄图像,可以进行针对要隐藏在拍摄图像中的物体的检测处理,并且可以获得隐藏检测到的物体的区域作为固定区域。如上所述,设置固定区域的方法不限于特定的设置方法。
绘制单元326在拍摄图像上的移动物体的区域中绘制第一掩模图像,并且在拍摄图像上的固定区域中绘制第二掩模图像。根据评价单元325所获得的判断结果来控制该绘制处理。显示控制单元327使显示装置140显示已经过绘制单元326的绘制处理的拍摄图像。
客户端装置120所进行的用以在摄像装置110所获得的拍摄图像上的固定区域和移动物体区域中绘制掩模图像并使显示装置140显示所得到的图像的处理将参考示出该处理的流程图的图4来描述。注意,基于图4的流程图的处理是与摄像装置110所获得的一个拍摄图像有关的处理。在摄像装置110将构成动画的各帧的图像(拍摄图像)发送到客户端装置120的情况下,客户端装置120基于图4的流程图来处理各帧的图像(拍摄图像)。为了简要,假设在以下描述中,摄像装置110在没有对动画或静止图像进行编码的情况下发送了该动画或静止图像。
在步骤S400中,CPU 221在主存储器222中存储经由网络I/F 226从摄像装置110接收到的拍摄图像(构成动画的各帧的图像或静止图像)。
在步骤S401中,CPU 221从在步骤S400中在主存储器222中获取到的拍摄图像中检测移动物体,并且将检测到的移动物体的区域提取为移动物体区域。图5A和5B各自示出在步骤S400中获取到的拍摄图像的示例。图5A中的拍摄图像500是包含工作者501、502和503作为移动物体的拍摄图像的示例。图5B中的拍摄图像510是没有包含移动物体的拍摄图像的示例。在步骤S400中获取到图5A中的拍摄图像500的情况下,CPU 221在步骤S401中从拍摄图像500中检测到工作者501、502和503。
本实施例使用背景相减来从拍摄图像检测移动物体。也就是说,本实施例计算在预先获取到的背景图像和在步骤S400中获取并存储在主存储器222中的拍摄图像中的相应位置处的像素之间的亮度值的差,并且判断为由表现出差超过阈值的像素所构成的区域是移动物体区域。然而,从拍摄图像检测移动物体的方法不限于背景相减,还可以使用其它已知方法。例如,尽管在本实施例中使用亮度值,但是可以将RGB值视为三维坐标,并且可以将背景图像中的RGB值与拍摄图像中的RGB值之间的距离测量为差。另外,代替背景相减,可以通过计算例如像光流那样的图像中的各坐标的移动方向来检测移动物体。
在步骤S402中,在移动物体区域与固定区域重叠的情况下,CPU 221进行用于判断是否将要在移动物体区域中绘制的第一掩模图像(移动物体掩模)叠加在要在固定区域中绘制的第二掩模图像(固定掩模)上的判断处理。在本实施例中,移动物体区域始终与固定区域重叠。因此,在这种情况下,在步骤S402中,CPU 221判断是否将第一掩模图像叠加在第二掩模图像上。
在本实施例中,CPU 221针对该判断处理使用移动物体区域的图像特征量。如果图像特征量满足预定条件,则CPU 221判断为将第一掩模图像叠加在第二掩模图像上。与此相反,如果移动物体区域的图像特征量不满足预定条件,则CPU 221判断为不将第一掩模图像叠加在第二掩模图像上。注意,在步骤S402中用作判断标准的值不限于移动物体区域的图像特征量。
在这种情况下,各种特征量中的一种可以用作移动物体区域的图像特征量。例如,作为移动物体区域的图像特征量,可以使用移动物体区域的面积(构成移动物体区域的像素数)、包围移动物体区域的矩形区域的面积或者矩形区域的垂直长度和/或水平长度等。如果移动物体区域/矩形区域的大小等于或大于预定大小(例如,该面积等于或大于预定面积或者垂直长度和/或垂直大小等于或大于预定长度),则CPU 221判断为图像特征量满足预定条件,因此判断为将第一掩模图像叠加在第二掩模图像上。与此相反,如果移动物体区域/矩形区域的大小小于预定大小(例如,该面积小于预定面积或者垂直长度和/或垂直大小小于预定长度),则CPU 221判断为图像特征量不满足预定条件,因此判断为不将第一掩模图像叠加在第二掩模图像上。
利用该判断处理,例如,在拍摄图像中仅存在诸如噪声等的微小的移动物体的情况下,可以防止将该微小的物体检测为第一掩模图像所要绘制于的移动物体。然而,这并非穷举的。例如,可以仅将该微小的移动物体设置为第一掩模图像所要绘制于的对象。
在步骤S402中判断为移动物体区域的图像特征量满足预定条件时,CPU 221判断为将第一掩模图像叠加在第二掩模图像上。然后,处理进入步骤S403。与此相反,如果移动物体区域的图像特征量不满足预定条件,则CPU 221判断为不将第一掩模图像叠加在第二掩模图像上。然后,处理进入步骤S405。
在步骤S403中,CPU 221在步骤S400中获取到的拍摄图像的固定区域中绘制第二掩模图像。在步骤S404中,CPU 221在步骤S400中获取到的拍摄图像的移动物体区域中绘制第一掩模图像。
在步骤S405中,CPU 221在步骤S400中获取到的拍摄图像的移动物体区域中绘制第一掩模图像。在步骤S406中,CPU 221在步骤S400中获取到的拍摄图像的固定区域中绘制第二掩模图像。
在步骤S407中,CPU 221经由输出I/F 225将通过步骤S403和S404或步骤S405和S406中的绘制处理所获得的拍摄图像输出到显示装置140。注意,通过步骤S403和S404中的绘制处理或步骤S405和S406中的绘制处理所获得的拍摄图像的输出目的地不限于任何特定输出目的地。例如,CPU 221可以经由网络I/F 226将拍摄图像发送到外部设备。
注意,如果作为步骤S401中的移动物体检测的结果,不能从拍摄图像中检测到移动物体,则由于不存在移动物体区域,因此CPU 221在拍摄图像上绘制第二掩模图像而不绘制第一掩模图像。
尽管在上面的描述中没有提及第一掩模图像和第二掩模图像,但是第一掩模图像可以是具有移动物体区域的形状的图像或具有包围移动物体的矩形区域的形状的图像。第二掩模图像是具有包围固定区域的形状的图像。然而,可以应用于这些掩模图像的图像不限于任何特定图像。例如,利用预定图案(例如点或边框图案)填充的图像或者利用一种颜色填充的图像可以用作第一掩模图像和第二掩模图像。可选地,例如,可以将在特定定时获取到的拍摄图像或在辅助存储装置223中预先登记的图像用作第一掩模图像和第二掩模图像。可选地,可以对拍摄图像以及第一掩模图像和第二掩模图像进行α混合,以在拍摄图像上绘制第一掩模图像和第二掩模图像。另外,第一掩模图像和第二掩模图像不必是相同的掩模图像,并且不必通过相同的绘制方法来绘制。
在从步骤S400中所获取到的拍摄图像中提取多个移动物体区域时,CPU 221针对各移动物体区域进行步骤S402至S406中的处理。
图6A示出在步骤S400中所获取到的拍摄图像是图5A中的拍摄图像500的情况下在步骤S407中输出到显示装置140并显示在显示装置140上的拍摄图像的示例。由于工作者501、502和503各自的图像特征量满足预定条件,因此CPU 221首先在拍摄图像500的固定区域中绘制第二掩模图像604,然后分别在工作者501、502和503的区域中绘制第一掩模图像601、602和603。拍摄图像600是通过这种处理所获得的图像。
图6B示出在步骤S400中所获取到的拍摄图像是图5B中的拍摄图像510的情况下在步骤S407中输出到显示装置140并显示在显示装置140上的拍摄图像的示例。由于在拍摄图像510中不存在移动物体,因此CPU221在拍摄图像500的固定区域中绘制第二掩模图像604而不绘制任何第一掩模图像。拍摄图像610是通过这种处理所获得的图像。
[第二实施例]
将描述第一实施例与包括第二实施例的以下实施例中的各实施例之间的差异,并且除非在以下描述中具体指代,否则它们之间的其余部分被视为相同。在第二实施例中,首先在固定区域中绘制第二掩模图像,然后确定第一掩模图像将绘制在包含在拍摄图像中的哪个移动物体上。在被确定为要绘制第一掩模图像的移动物体的移动物体上绘制第一掩模图像。
客户端装置120所进行的用以在由摄像装置110获得的拍摄图像上的固定区域和移动物体区域中绘制掩模图像并使显示装置140显示所得到的图像的处理将参考示出该处理的流程图的图7来描述。注意,基于图7的流程图的处理是与由摄像装置110获得的一个拍摄图像有关的处理。在摄像装置110将构成动画的各帧的图像(拍摄图像)发送到客户端装置120的情况下,客户端装置120基于图7的流程图来处理各帧的图像(拍摄图像)。
在步骤S700中,CPU 221在主存储器222中存储经由网络I/F 226从摄像装置110接收到的拍摄图像(构成动画的各帧的图像或静止图像)。
图8示出在步骤S700中获取到的拍摄图像的示例。图8中的拍摄图像800包含作为移动物体的工作者801、802、803和804以及作为移动物体的对象物体805。对象物体805是通过工作者的操作所产生的移动物体,例如在白板上绘制的图形图案或字符集。在步骤S700中,CPU 221将下面要使用的变量i初始化为1。
返回参考图7,在步骤S701中,CPU 221以与步骤S401中相同的方式从步骤S700中所获取到的拍摄图像中检测移动物体,并且将检测到的移动物体的区域提取为移动物体区域。注意,CPU 221向所提取的各移动物体区域分配唯一的识别号。假设在本实施例中,从拍摄图像中提取N(N是等于或大于2的整数)个移动物体区域,并且将唯一索引(1到N)分配给所提取的各个移动物体区域。在以下描述中,分配有索引=j(1≤j≤N)的移动物体区域有时被称为移动物体区域j。
在步骤S702中,CPU 221在步骤S700中获取到的拍摄图像的固定区域中绘制第二掩模图像。在步骤S703中,CPU 221在主存储器222中生成列表,其中在该列表中,登记有用于定义分别对应于索引=1到N的移动物体区域的信息(例如,构成各移动物体区域的像素组的位置信息)和移动物体区域的图像特征量。
在步骤S704中,CPU 221在步骤S703中在主存储器222中所生成的列表中读出用于定义与索引=i相对应的移动物体区域的信息。
在步骤S705中,CPU 221首先判断由在步骤S704中读出的信息所定义的移动物体区域的一部分或全部是否与固定区域重叠。如果该判断结果表示移动物体区域的一部分或全部没有与固定区域重叠,则处理进入步骤S707。与此相反,如果移动物体区域的一部分或全部与固定区域重叠,则CPU 221判断与索引=i相对应的移动物体区域的图像特征量是否满足预定条件。在“图像特征量满足预定条件的情况”或“图像特征量不满足预定条件的情况”中进行与第一实施例中描述的处理相同的处理。
如果在步骤S705中获得的判断结果表示与索引=i相对应的移动物体区域的图像特征量满足预定条件,则CPU 221判断为在与索引=i相对应的移动物体区域中绘制第一掩模图像。然后,处理进入步骤S706。如果与索引=i相对应的移动物体区域的图像特征量不满足预定条件,则CPU 221判断为不在与索引=i相对应的移动物体区域中绘制第一掩模图像。然后,处理进入步骤S707。在步骤S706中,CPU 221在由步骤S704中读出的信息所定义的移动物体区域中绘制第一掩模图像。
在步骤S707中,CPU 221判断变量i的值是否等于N。如果该判断结果表示变量i的值等于N,则CPU 221判断为已经针对列表中登记的所有移动物体区域进行了步骤S705和S706中的处理。然后,处理进入步骤S709。如果变量i的值小于N,则CPU 221判断为列表中登记的一些移动物体区域尚未经过步骤S705和S706中的处理。然后,处理进入步骤S708。
在步骤S708中,CPU 221将变量i的值递增1,并且针对列表中登记的下一移动物体区域进行步骤S705中和S705之后的处理。然后,处理返回到步骤S705。在步骤S709中,CPU221经由输出I/F 225将通过直到步骤S708为止的处理所获得的拍摄图像输出到显示装置140。
图9示出在步骤S700中获取到的拍摄图像是图8中的拍摄图像800的情况下在步骤S709中输出到显示装置140并显示在显示装置140上的拍摄图像的示例。首先,CPU 221在拍摄图像800的固定区域中绘制第二掩模图像905。由于各工作者801、802、803和804的图像特征量满足预定条件,因此CPU 221分别在工作者801、802、803和804的区域中绘制第一掩模图像901、902、903和904。由于对象物体805的图像特征量不满足预定条件,因此CPU 221没有在对象物体805上绘制第一掩模图像。这是因为,由于对象物体805是白板上的字符集或图形图案并且大小方面较小,因此CPU 221判断为对象物体805的图像特征量(在这种情况下为大小)不满足预定条件。通过这种处理所获得的图像是拍摄图像900。
[第三实施例]
第三实施例与第二实施例的不同之处在于,包围在移动物体区域中的移动物体的各部位的厚度用作在图7的流程图的步骤S705中使用的移动物体区域的图像特征量,并且在步骤S706中,在厚部位上绘制第一掩模图像。下面将主要描述第二实施例和第三实施例之间的差异。
在步骤S705中,在移动物体区域的一部分或全部与固定区域重叠的情况下,CPU221判断包围在移动物体区域中的移动物体的各部位是否具有作为图像特征量的等于或大于预定厚度的厚度。在移动物体是人的情况下,构成移动物体的各部位与头部、身体、臂、手和腿相对应。作为用于从图像中的区域识别各部位的技术,可以使用诸如图像识别处理等的已知技术。另外,存在用于获得各部位的厚度的各种方法,并且要使用的方法不限于特定方法。例如,设置以部位的位置(该部位的中心位置或者包围该部位的矩形区域的四个角的位置中的任一位置等)为中心的小区域,并且获得该部位与该小区域的比例作为该部位的厚度。如果满足了移动物体区域中所包围的移动物体的各个部位包括厚度等于或大于预定厚度的至少一个部位的条件,则处理进入步骤S706。如果不满足该条件,则处理进入步骤S707。
注意,在步骤S705中,可以预先生成已经学习了被判断为厚的小区域图像的检测器,并且通过将该检测器应用于移动物体区域所检测到的部位可以被判断为“厚部位”。在这种情况下,如果存在被判断为“厚部位”的一个或多个部位,则处理进入步骤S706。
CPU 221可以针对移动物体区域进行小波变换,并且判断为对特定频率进行响应的区域是具有厚部位的区域。在这种情况下,如果存在各自被判断为“具有厚部位的区域”的一个或多个区域,则处理进入步骤S706。
CPU 221可以针对移动物体区域进行使用形态的细线去除处理,以判断为没有被去除而留下的部位是“厚部位”。在这种情况下,如果存在各自被判断为“厚部位”的一个或多个部位,则处理进入步骤S706。在步骤S706中,CPU 221在厚度大于预定厚度的部位(被判断为厚部位的部位)上绘制第一掩模图像。
图10示出在本实施例中在步骤S700中所获取到的拍摄图像的示例。如图10所示,拍摄图像1000包含作为移动物体的工作者1001和作为通过工作者的操作所生成的移动物体并且作为在白板上绘制的图形图案或字符集的对象物体1002(工作者1001的一部分)。
图11示出在步骤S700中获取到的拍摄图像是图10中的拍摄图像1000的情况下在步骤S709中输出到显示装置140并显示在显示装置140上的拍摄图像的示例。首先,在拍摄图像1000的固定区域中绘制第二掩模图像1102。参考图11,考虑到安全性,将拍摄图像1000上的白板区域设置为固定区域。CPU 221在工作者1001的各个部位中的等于或大于预定厚度的部位(被判断为厚部位)上绘制第一掩模图像1101。
与此相反,对象物体1002的厚度小于预定厚度,因此在对象物体1002的区域上不绘制第一掩模图像。通过这种处理获得的图像是拍摄图像1100。
如上所述,可以想到各种类型的特征量中的一种作为移动物体区域的图像特征量。例如,移动物体区域中的颜色可以用作移动物体区域的图像特征量。例如,在获得构成移动物体区域的R、B和G像素的平均像素值时,CPU 221可以在所获得的R、G和B像素的平均值分别超过预定值的情况下,判断为移动物体区域的图像特征量满足预定条件。
可选地,移动物体已经移动的时间段可以用作图像特征量。另外,在步骤S402(S702)中和S402(S702)之后,在从拍摄图像检测到的移动物体中,可以仅将“预先指定为要绘制掩模图像的移动物体的指定移动物体”(例如,人体)设置为对象。
不必始终从摄像装置110获取拍摄图像。例如,可以从记录有记录动画或静止图像的存储器装置(例如,辅助存储装置213或辅助存储装置223)中获取动画的各帧的图像或静止图像作为拍摄图像。
图像特征量满足预定条件的情况下所要进行的处理和图像特征量不满足预定条件的情况下所要进行的处理的顺序可以颠倒。可以根据需要改变在这种条件分支处设置的条件。可以根据需要组合上述实施例中的一些或全部。另外,可以选择性地使用上述实施例中的一些或全部。
其它实施例
本发明的实施例还可以通过如下的方法来实现,即,通过网络或者各种存储介质将进行上述实施例的功能的软件(程序)提供给系统或装置,该系统或装置的计算机或是中央处理单元(CPU)、微处理单元(MPU)读出并进行程序的方法。
尽管已经参考典型实施例说明了本发明,但是应该理解,本发明不局限于所公开的典型实施例。所附权利要求书的范围符合最宽的解释,以包含所有这类修改、等同结构和功能。

Claims (9)

1.一种图像处理设备,包括:
输出单元,其被配置为输出由摄像单元拍摄的图像,在所述图像上叠加了第一掩模图像和第二掩模图像,第一掩模图像对应于从所述图像检测到的物体的第一区域,第二掩模图像对应于用户在所述图像中指定的第二区域;以及
判断单元,其被配置为基于与第二区域重叠的第一区域的大小、形状、颜色中的至少一者,来判断是否将对应于与第二区域重叠的第一区域的第一掩模图像叠加在对应于第二区域的第二掩模图像;
其中,如果判断将第一掩模图像叠加在第二掩模图像,则所述输出单元输出在第二掩模图像上叠加第一掩模图像的图像,如果判断不将第一掩模图像叠加在第二掩模图像,则所述输出单元输出不在第二掩模图像上叠加第一掩模图像的图像。
2.根据权利要求1所述的图像处理设备,其中,如果与第二区域重叠的第一区域的大小、形状、颜色中的至少一者满足预定条件,则所述判断单元判断在第二掩模图像上叠加第一掩模图像。
3.根据权利要求1所述的图像处理设备,其中,所述判断单元判断不将对应于不与第二区域重叠的第一区域的第一掩模图像叠加在第二掩模图像上。
4.根据权利要求1所述的图像处理设备,还包括控制单元,其被配置为在第二区域中绘制第二掩模图像之后,绘制被判断要在与第二区域重叠的第一区域中的第二掩模图像上叠加的第一掩模图像。
5.根据权利要求4所述的图像处理设备,其中,所述控制单元在与第二区域重叠的第一区域中绘制被判断为不在第二掩模图像上叠加的第一掩模图像之后在所述第二区域中绘制所述第二掩模图像。
6.根据权利要求1所述的图像处理设备,其中,判断单元基于第一区域的大小、形状和颜色中的至少一者,判断在第二掩模图像上叠加第一掩模图像,所述第一掩模图像对应于所述物体的一部分的区域和与第二区域重叠的区域的第一区域。
7.根据权利要求1所述的图像处理设备,还包括被配置为获取由摄像单元所拍摄到的所述图像的单元。
8.一种图像处理设备所进行的图像处理方法,所述图像处理方法包括:
输出由摄像单元拍摄的图像,在所述图像上叠加了第一掩模图像和第二掩模图像,第一掩模图像对应于从所述图像检测到的物体的第一区域,第二掩模图像对应于用户在所述图像中指定的第二区域;以及
基于与第二区域重叠的第一区域的大小、形状、颜色中的至少一者,来判断是否将对应于与第二区域重叠的第一区域的第一掩模图像叠加在对应于第二区域的第二掩模图像;
其中,如果判断将第一掩模图像叠加在第二掩模图像,则输出在第二掩模图像上叠加第一掩模图像的图像,如果判断不将第一掩模图像叠加在第二掩模图像,则输出不在第二掩模图像上叠加第一掩模图像的图像。
9.一种非暂时性计算机可读存储介质,其存储有计算机程序,所述计算机程序用于使计算机用作:
输出单元,其被配置为输出由摄像单元拍摄的图像,在所述图像上叠加了第一掩模图像和第二掩模图像,第一掩模图像对应于从所述图像检测到的物体的第一区域,第二掩模图像对应于用户在所述图像中指定的第二区域;以及
判断单元,其被配置为基于与第二区域重叠的第一区域的大小、形状、颜色中的至少一者,来判断是否将对应于与第二区域重叠的第一区域的第一掩模图像叠加在对应于第二区域的第二掩模图像;
其中,如果判断将第一掩模图像叠加在第二掩模图像,则所述输出单元输出在第二掩模图像上叠加第一掩模图像的图像,如果判断不将第一掩模图像叠加在第二掩模图像,则所述输出单元输出不在第二掩模图像上叠加第一掩模图像的图像。
CN201811189170.3A 2017-10-13 2018-10-12 图像处理设备及方法以及非暂时性计算机可读存储介质 Active CN109671136B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017199712A JP7071086B2 (ja) 2017-10-13 2017-10-13 画像処理装置、画像処理方法及びコンピュータプログラム
JP2017-199712 2017-10-13

Publications (2)

Publication Number Publication Date
CN109671136A CN109671136A (zh) 2019-04-23
CN109671136B true CN109671136B (zh) 2023-10-03

Family

ID=63787715

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811189170.3A Active CN109671136B (zh) 2017-10-13 2018-10-12 图像处理设备及方法以及非暂时性计算机可读存储介质

Country Status (5)

Country Link
US (1) US10713797B2 (zh)
EP (1) EP3471398A1 (zh)
JP (1) JP7071086B2 (zh)
KR (1) KR102333532B1 (zh)
CN (1) CN109671136B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3640903B1 (en) * 2018-10-18 2023-12-27 IDEMIA Identity & Security Germany AG Signal dependent video surveillance
KR102637119B1 (ko) * 2018-10-25 2024-02-15 삼성전자주식회사 냉장고 안의 객체에 관한 정보를 제공하는 방법 및 시스템
CN110300118B (zh) * 2019-07-09 2020-09-25 联想(北京)有限公司 流媒体处理方法、装置及存储介质
CN113448427B (zh) * 2020-03-24 2023-09-12 华为技术有限公司 设备控制方法、装置及系统
CN111654700B (zh) * 2020-06-19 2022-12-06 杭州海康威视数字技术股份有限公司 一种隐私遮蔽处理方法、装置、电子设备及监控系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101998026A (zh) * 2009-08-20 2011-03-30 富士施乐株式会社 图像处理装置和图像处理方法
CN102999900A (zh) * 2011-09-13 2013-03-27 佳能株式会社 图像处理设备和图像处理方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009124510A (ja) * 2007-11-15 2009-06-04 Canon Inc 表示制御装置及びその方法、プログラム、記録媒体
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
JP5070231B2 (ja) 2009-02-12 2012-11-07 株式会社日立製作所 記録媒体、アドレス生成及び検出方法、再生及び記録装置
KR20100121764A (ko) * 2009-05-11 2010-11-19 엘지전자 주식회사 감시용 카메라와 마스크 생성 제어방법
JP5555044B2 (ja) 2010-04-28 2014-07-23 キヤノン株式会社 カメラ制御装置及びカメラシステム
JP2012078900A (ja) 2010-09-30 2012-04-19 Nec Corp 情報保護装置、情報保護方法およびプログラム
JP5408156B2 (ja) 2011-02-24 2014-02-05 三菱電機株式会社 監視用画像処理装置
JP5825121B2 (ja) 2012-01-31 2015-12-02 株式会社Jvcケンウッド 画像処理装置、画像処理方法、画像処理プログラム
JP5707562B1 (ja) * 2014-05-23 2015-04-30 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5938808B2 (ja) * 2014-07-28 2016-06-22 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP5988225B2 (ja) * 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
JP6618766B2 (ja) * 2015-10-27 2019-12-11 株式会社デンソーテン 画像処理装置および画像処理方法
JP6504364B2 (ja) * 2015-11-27 2019-04-24 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
EP3319041B1 (en) * 2016-11-02 2022-06-22 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6931290B2 (ja) * 2017-03-03 2021-09-01 キヤノン株式会社 画像生成装置およびその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101998026A (zh) * 2009-08-20 2011-03-30 富士施乐株式会社 图像处理装置和图像处理方法
CN102999900A (zh) * 2011-09-13 2013-03-27 佳能株式会社 图像处理设备和图像处理方法

Also Published As

Publication number Publication date
US20190114783A1 (en) 2019-04-18
KR102333532B1 (ko) 2021-12-01
KR20190041929A (ko) 2019-04-23
CN109671136A (zh) 2019-04-23
EP3471398A1 (en) 2019-04-17
JP7071086B2 (ja) 2022-05-18
JP2019075660A (ja) 2019-05-16
US10713797B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
CN109671136B (zh) 图像处理设备及方法以及非暂时性计算机可读存储介质
CN110099209B (zh) 图像处理装置、图像处理方法和存储介质
US10249055B2 (en) Image processing apparatus, image processing method and program
CN110798590B (zh) 图像处理设备及其控制方法和计算机可读存储介质
US10863113B2 (en) Image processing apparatus, image processing method, and storage medium
GB2553178A (en) Video processing apparatus, video processing method, and program
JP2019114821A (ja) 監視システム、装置、方法およびプログラム
US20120105444A1 (en) Display processing apparatus, display processing method, and display processing program
US11019251B2 (en) Information processing apparatus, image capturing apparatus, information processing method, and recording medium storing program
JP2018063675A (ja) 画像処理装置および制御方法
JP6452738B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102474697B1 (ko) 촬상 장치 및 영상 처리 방법
KR102339710B1 (ko) 영상 정보 표시 방법 및 전자 장치
CN110647792B (zh) 信息处理设备、控制方法和存储介质
JP2018092507A (ja) 画像処理装置、画像処理方法及びプログラム
KR102497593B1 (ko) 정보 처리장치, 정보 처리방법 및 기억매체
US20110090360A1 (en) Image processing apparatus and object detecting method
JP2016220148A (ja) 制御装置、制御方法、システム
JP2019125058A (ja) 画像処理装置、撮影装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant