JP6935247B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP6935247B2
JP6935247B2 JP2017131003A JP2017131003A JP6935247B2 JP 6935247 B2 JP6935247 B2 JP 6935247B2 JP 2017131003 A JP2017131003 A JP 2017131003A JP 2017131003 A JP2017131003 A JP 2017131003A JP 6935247 B2 JP6935247 B2 JP 6935247B2
Authority
JP
Japan
Prior art keywords
image
captured image
background image
captured
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017131003A
Other languages
English (en)
Other versions
JP2019016033A (ja
JP2019016033A5 (ja
Inventor
伊藤 幹
幹 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017131003A priority Critical patent/JP6935247B2/ja
Priority to US16/020,778 priority patent/US11004214B2/en
Priority to CN201810725890.0A priority patent/CN109218663B/zh
Priority to EP18181721.4A priority patent/EP3425590B1/en
Publication of JP2019016033A publication Critical patent/JP2019016033A/ja
Publication of JP2019016033A5 publication Critical patent/JP2019016033A5/ja
Application granted granted Critical
Publication of JP6935247B2 publication Critical patent/JP6935247B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19654Details concerning communication with a camera
    • G08B13/19656Network used to communicate with a camera, e.g. WAN, LAN, Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • G06F21/6254Protecting personal data, e.g. for financial or medical purposes by anonymising data, e.g. decorrelating personal data from the owner's identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/08Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using communication transmission lines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioethics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、監視カメラなどで取得した画像について、画像処理によってプライバシーを保護するための技術に関する。
近年、監視カメラが広く設置されている一方で、監視カメラで撮影された画像に映る個人のプライバシーや個人情報保護の重要性が高まっている。
例えば、特許文献1には、画像中の人体領域を、背景画像を用いて抽出して、その人体領域にぼかし処理を行う技術が開示されている。
また、特許文献2には、複数の検出器(動体検出部と人体検出部)を使用し、背景変化に追従しながら前景物のない安定背景画像を更新することで、保護領域を高精度に検出可能としてプライバシー保護の精度を高める技術が開示されている。
特開2008−191884号公報 特開2016−115214号公報
しかしながら、前述した技術の場合、例えば、監視カメラの撮影範囲内に多数の人が存在していて非常に混雑しており、人々が移動できなくなって滞留してくると、人体の検出が難くなり、また人体を動体として検出することも難い状況になってくる。このような撮影環境になった場合、例えば背景変化に追従しながら安定背景画像を更新する処理を行っていくと、被写体の人体が次第に背景として検出されてしまうようになる。つまり、人体が背景として検出されてしまうことで、人体の領域を隠蔽(マスク処理等)するプライバシー保護の処理が正常に機能しなくなってしまい、人体(人物)を視認可能な状態で表示してしまうようになる。
そこで、本発明は、撮影範囲内の人体の状況に応じてプライバシー保護の処理を適切に行うことを可能とすることを目的とする。
本発明に係る画像処理装置は、撮像手段により撮像された、人物が含まれない画像を第1の背景画像として保持する保持手段と、前記撮像手段により撮像された撮像画像に対する人物を検出する人物検出の結果に基づき、前記第1の背景画像を第2の背景画像として更新する更新手段と、前記撮像画像と前記第1の背景画像とに基づいて特定される特定領域を抽象化する第1の抽象化処理、および、前記撮像画像と前記第2の背景画像とに基づいて特定される特定領域を抽象化する第2の抽象化処理、のいずれか一方を、前記撮像画像における人物の混雑状況に基づき、実行する抽象化手段と、を有することを特徴とする。
本発明によれば、撮影範囲内の人体の検出状況に基づいてプライバシーや個人情報を保護するための抽象化処理を適切に行うことが可能となる。
画像処理装置の概略構成例を示すブロック図である。 画像処理装置の動作を示すフローチャートである。 動体情報に基づく混雑状況検知の説明のための模式図である。 人体情報に基づく混雑状況検知の説明のための模式図である。 背景画像更新処理の説明のための模式図である。
以下、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。
本実施形態の画像処理装置は、例えば監視カメラにより撮影された映像からプライバシーを保護した画像を作成する装置である。
図1は、本発明が適用される実施形態の画像処理装置100の概略構成例を示したブロック図である。本実施形態の画像処理装置100は、撮像センサ部101、現像処理部102、動体検出部103、人体検出部104、混雑状況検知部105、背景画像更新部106、固定背景画像記録部107、画像比較部108、画像合成部109と出力部110を有する。なお、本実施形態の画像処理装置は、図1に示された構成に限定されるものではない。
撮像センサ部101は、不図示の光学系を介して撮像面に結像された光像を光電変換により電気信号に変換するCMOSなどの撮像素子と、その電気信号をデジタル信号に変換するA/D変換器等を有する。図1では、映像を撮影するカメラ(撮像センサ部101)を備えた構成例を挙げているが、カメラは外部カメラであってもよい。また、映像を撮影するカメラは、監視カメラに限定されず、デジタルカメラ、カメラ機能を備えたスマートフォンやタブレット端末、パーソナルコンピュータ等の各種情報端末、工業用カメラ、車載カメラなどであってもよい。
現像処理部102は、撮像センサ部101から出力されたデジタル信号に対して所定の画素補間や色変換処理を行い、R(赤),G(緑),B(青)、或いはY(輝度),UV(色差)などのデジタル映像データを生成する。また、現像処理部102は、現像処理を施した後のデジタル映像データを用いて所定の演算処理を行い、得られた演算結果に基づいてホワイトバランス、シャープネス、コントラスト、色変換などの画像処理を行う。現像処理部102による画像処理がなされた後の撮像画像データは、入力画像データとして、動体検出部103、人体検出部104、背景画像更新部106等に送られる。
動体検出部103は、現像処理部102からの入力画像を用い、動きのある被写体(動体)を検出する処理を行う。本実施形態の動体検出部103は、入力画像における被写体等の時間的な変化に基づいて動きのある前景物を認識し、その認識した前景物を動体として検出する。動体検出の手法としては、例えば、背景モデルを作成した上で、その背景モデルと入力画像とを比較することによって動体を検出する、いわゆる背景差分法などを用いることができる。なお、背景モデルは、例えば後述する背景画像更新部106により生成され、画像内の状況の変化や動体検出結果(動体検出が無い場面や領域を背景画像として追加する)に追従するように適宜更新される。そして、動体検出部103は、入力画像における動体の中心座標と形状情報とからなる動体の情報(動体情報)を、画像を処理する度に生成して、混雑状況検知部105と背景画像更新部106に出力する。
人体検出部104は、現像処理部102からの入力画像を用い、人物の被写体(人体)の検出処理を行い、さらに検出した人体の追尾処理を行う。本実施形態の人体検出部104は、入力画像の特徴に基づいて人体としての特徴を持つ前景物を認識し、その認識した前景物を人体として検出する。人体検出の手法としては、例えば、パターンマッチング処理により画像内の人体の中心座標と外接矩形座標を検出する処理などを用いることができる。人体検出部104は、入力画像における人体の領域の外接矩形の座標からなる人体の情報(人体情報)を、画像を処理する度に生成して、混雑状況検知部105と背景画像更新部106に出力する。
混雑状況検知部105は、動体検出部103から出力された動体情報、あるいは人体検出部104から出力された人体情報に基づき、被写体の混雑状況を検知し、その混雑状況を表す情報を、背景画像更新部106と固定背景画像記録部107に出力する。混雑状況検知部105における混雑状況検知の詳細は後述する。
本実施形態の画像処理装置100は、混雑状況検知部105において、被写体としての人体が混雑している状況が検知された場合に第1のモードの動作を行い、一方、混雑していない状況が検知された場合に第2のモードの動作を行う。第1のモードと第2のモードの動作の詳細は後述する。
背景画像更新部106は、現像処理部102からの入力画像と動体検出部103からの動体情報と人体検出部104からの人体情報と画像比較部108からの後述する保護対象情報とを基に、保護対象が存在しない背景画像を作成して保持する。ここで、保護対象とはプライバシーや個人情報を保護すべき対象であり、本実施形態の場合、入力画像の中に写っている被写体としての人体の画像領域が保護対象となされる。なお、本実施形態では保護対象を人体(人物)としたが、保護対象は人体以外の物体等であってもよい。また背景画像更新部106は、混雑状況検知部105にて人体が混雑していない状況が検知された場合に、第2のモードに含まれる動作として背景画像の更新を行い、その背景画像を保持するとともに、画像比較部108と画像合成部109とに出力する。以下、背景画像更新部106において作成、更新される、保護対象が存在しない背景画像を、基本背景画像と表記する。背景画像更新部106における基本背景画像の更新処理の詳細は後述する。なお、本実施形態の背景画像更新部106は、前述した動体検出部103において動体検出の際に用いられる背景モデルを生成し、また、固定背景画像記録部107に記録される背景画像を予め生成することも行う。
固定背景画像記録部107は、保護対象としての被写体(人体)が存在していない(人体が写っていない)時の画像を、保護対象が存在しない背景画像として記録(保持)している。固定背景画像記録部107に記録される背景画像は、保護対象としての人体やその他の前景物が存在していない状態の監視対象エリアを、予め撮像センサ部101にて撮像して現像処理部102の現像及び画像処理を行った後の撮像画像となされる。以下、固定背景画像記録部107に記録される、保護対象が存在しない背景画像を、固定背景画像と表記する。固定背景画像は時間帯や環境の変化を考慮して複数用意しておくことが望ましく、本実施形態の固定背景画像記録部107には、それら時間帯や環境の変化を考慮して予め作成された複数の固定背景画像が記録されているとする。画像処理装置100は、固定背景画像記録部107に記録されている複数の固定背景画像の中から、本実施形態の監視システムが使用される時間帯、照明環境などを基に、何れの固定背景画像を用いるかを選択する。そして、本実施形態の固定背景画像記録部107は、混雑状況検知部105において人体が混雑している状況が検知された場合に、第1のモードに含まれる動作として固定背景画像を読み出し、画像比較部108と画像合成部109とに出力する。
画像比較部108は、現像処理部102からの入力画像と、背景画像更新部106からの基本背景画像又は固定背景画像記録部107からの固定背景画像とを比較することで、入力画像の中の保護対象をマスクするための保護対象情報を作成する。詳細は後述するが、保護対象情報は、入力画像の中の保護対象の被写体である人体をシルエットとしてマスクした画像として生成される。本実施形態の場合、画像比較部108は、人体が混雑していない状況が検知された場合の第2のモードにおいては、背景画像更新部106からの基本背景画像と、現像処理部102からの入力画像とを比較することで保護対象情報を作成する。一方、画像比較部108は、人体が混雑している状況が検知された場合の第1のモードにおいては、固定背景画像記録部107からの固定背景画像と、現像処理部102からの入力画像とを比較することで保護対象情報を作成する。画像比較部108は、保護対象の被写体(人体)の、入力画像上での位置及び形状の情報を含む保護対象情報を生成して、画像合成部109と背景画像更新部106に出力する。
画像合成部(抽象化部)109は、画像比較部108から取得した保護対象情報(後述するマスク画像)を、背景画像更新部106から出力された基本背景画像と合成して、プライバシー保護画像を作成する。すなわち画像合成部109は、人体が混雑していない状況が検知された場合の第2のモードでは、その第2のモードで作成されたマスク画像を、背景画像更新部106からの基本背景画像と合成してプライバシー保護画像を作成する。また、画像合成部109は、人体が混雑している状況が検知された場合の第1のモードでは、その第1のモードで作成されたマスク画像を、背景画像更新部106からの基本背景画像と合成してプライバシー保護画像を作成する。そして、画像合成部109は、その作成したプライバシー保護画像を出力部110へ送る。なお、プライバシーや個人情報を保護するために個人を特定できなくする画像処理を抽象化処理とする。本実施形態では説明の簡便のため人体の領域に対応する画素値について特定色を示す"1"それ以外を"0"として2次元の配列と対応づけた情報をマスク画像とし、マスク画像の"1"の部分を背景画像と合成することで、抽象化処理を実現している。抽象化処理としては、単純に背景画像について人体領域だけを白抜きにしたり、人体領域を2値化したり、人体領域についてぼかし処理をしたりする等、種々の方法がある。
出力部110は、画像合成部109にて作成されたプライバシー保護画像を、画面上に表示させる。図1では、出力部110が表示装置としての機能を有する例を挙げたが、表示装置は外部表示装置であってもよい。また、出力部110からの出力先は、表示装置に限定されるものではなく、例えばネットワークや記憶装置、その他の装置であってもよい。
図2は、本実施形態の画像処理装置100における動作を示すフローチャートである。なお、図2のフローチャートの処理は、ハードウェア構成により実現される場合のみならず、ソフトウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成の場合、例えばCPUが、不揮発性メモリに格納されているプログラムを実行することなどにより、図2のフローチャートの処理が実現される。このソフトウェア構成に係るプログラムは、不揮発性メモリに予め用意されている場合だけでなく、例えば着脱可能な半導体メモリから読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。
本実施形態の画像処理装置100では、図2のフローチャートの処理を開始する前に、固定背景画像として使用される画像が予め固定背景画像記録部107に記録されているとする。また、画像処理装置100は、監視システムが使用される時間帯、照明環境などによって、固定背景画像記録部107の中の何れの固定背景画像を使用するかが決定されているとする。
図2のフローチャートの処理を開始すると、画像処理装置100は、ステップS1の処理として、現像処理部102による現像及び画像処理後の画像データを、動体検出部103と人体検出部104とにそれぞれ入力させる。ステップS1の後、画像処理装置100の処理は、ステップS2に進む。
ステップS2の処理に進むと、前述したように、画像処理装置100の動体検出部103は入力画像から動体を検出する処理を行い、また、人体検出部104は入力画像から人体を検出する処理を行う。そして、混雑状況検知部105では、動体検出処理による動体情報と人体検出処理による人体情報とを基に、監視対象エリア内における人体の混雑状況の検知が行われる。
図3(a)は、動体情報を基に、動体である人体201が少なく混雑していない状況であると検知される画像200の例を表している。一方、図3(b)は、動体情報を基に、動体である人体201が多数存在していて混雑している状況であると検知される画像200の例を表している。混雑状況検知部105は、図3(a)に例示した画像200のように、カメラの撮影画角に対応した撮影範囲内で動体検出された人体201により占められている範囲が、予め決めた所定範囲未満である場合には、混雑していない状況であると判定する。一方、混雑状況検知部105は、図3(b)に例示した画像200のように、カメラの撮影画角に対応した撮影範囲内で動体検出された各人体201により占められている範囲が、所定範囲以上である場合には、混雑している状況であると判定する。
また、図4(a)は、人体情報を基に、被写体の人体301が少なく混雑していない状況であると検知される画像300の例を表している。一方、図4(b)は、人体情報を基に、被写体の人体301が多数存在していて混雑している状況であると検知される画像300の例を表している。混雑状況検知部105は、図4(a)に例示した画像300のように、カメラの撮影範囲内で人体検出された人体301の数が、予め決めた所定数未満である場合には、混雑していない状況であると判定する。一方、混雑状況検知部105は、図4(b)に例示した画像300のように、カメラの撮影範囲内で人体検出された人体301の数が、所定数以上である場合には、混雑している状況であると判定する。
そして、混雑状況検知部105による混雑状況検知において混雑している状況にあると検知された場合、画像処理装置100は、固定背景画像記録部107の固定背景画像を、画像比較部108と画像合成部109とに送る。すなわち画像処理装置100は、混雑状況検知部105にて混雑していると検知された場合、保護対象が存在しない背景画像として、固定背景画像記録部107に記録されている固定背景画像を用いるように、画像比較部108と画像合成部109を制御する。その後、画像処理装置100は、図2のステップS4に処理を進める。
一方、画像処理装置100は、混雑状況検知部105による混雑状況検知において混雑していない状況にあると検知された場合には、ステップS3に処理を進める。
ステップS3の処理に進むと、画像処理装置100は、背景画像更新部106に対し、基本背景画像の更新処理を行わせる。そして、画像処理装置100は、背景画像更新部106による更新後の基本背景画像を、画像比較部108と画像合成部109とに送る。すなわち画像処理装置100は、混雑状況検知部105にて混雑していないと検知された場合、保護対象が存在しない背景画像として、背景画像更新部106による更新後の基本背景画像を用いるように、画像比較部108と画像合成部109を制御する。
図5は、図2のステップS3で背景画像更新部106において行われる基本背景画像の更新処理の動作説明に用いる図である。図5において、背景画像更新部106への入力画像500には例えば人体520や鞄510等が写っているとする。図5の安定背景時間501は、入力画像500内の被写体等に動きがなく変化していない時間の長さを表したものである。図5に示すように、安定背景時間501では、入力画像500を複数ブロックに分割したブロック毎に、被写体等の変化がない時間の長さが数値として表されている。具体的には、安定背景時間501の各ブロック内の数値は、その値が大きいほど被写体等の変化がない時間が長くなっていることを表している。本実施形態の背景画像更新部106は、動体検出部103から得られる動体情報を基に、前述したブロック毎に被写体等の変化がない時間の長さを算出している。なお、図5の例の場合、画像処理装置100は、安定背景時間501における各時間の長さをブロック単位で管理しているが、ブロック単位に限定されず、例えばピクセル単位や任意形状単位で各時間の長さが管理されてもよい。
ここで、本実施形態の場合、入力画像500のうち基本背景画像の更新に用いる画像領域は、被写体等に動きがなく所定時間以上変化していない安定した画像領域であって、且つ、人体領域を除いた画像領域となされる。図5の例では、被写体等に動きがなく変化していない安定した画像領域か否かの判定に用いる所定時間の閾値を、例えば数値「6」で表される時間以上としている。また、本実施形態の場合、背景画像更新部106は、安定背景時間501の各ブロックのうち、人体検出部104により検出された人体520に対応した各ブロック521については、被写体等に変化がない時間の数値を「0(ゼロ)」に設定する。したがって、背景画像更新部106は、安定背景時間501の数値が「6」以上となっている各ブロック511に対応した画像領域(鞄510の画像領域)を、更新領域として入力画像500から抽出する。そして、背景画像更新部106は、その更新領域(鞄510の画像領域)を、更新前の基本背景画像503に対して加重平均又は置き換えによって合成することで、更新後の基本背景画像504を生成する。更新後の基本背景画像504は、入力画像500の中で、人体520が除かれ且つ被写体等に変化がない時間が数値「6」以上の各ブロック511に対応した画像領域(つまり鞄510)が、更新前の基本背景画像503に合成された画像となる。また、本実施形態の場合、背景画像更新部106は、人体520の画像領域を更新領域として抽出しないようになされているため、例えば人体520が所定時間以上動いていない場合であっても合成されず、人体520が背景化されることはない。
図2のフローチャートに説明を戻す。
画像処理装置100は、前述したステップS3の基本背景画像の更新処理後、又は、前述したステップS2で混雑した状況であると検知された場合、画像比較部108にて行われるステップS4の処理に進む。
ステップS4において、画像比較部108は、前述のように混雑状況に応じて切り替えて使用される固定背景画像又は更新後の基本背景画像と、入力画像との差分により、シルエット画像を作成する。このシルエット画像は、入力画像の中の保護対象の被写体つまり人体をシルエットとしてマスクした画像となされて生成される。すなわち本実施形態の場合、混雑した状況が検出された第1のモードでは固定背景画像にマスク画像を合成したシルエット画像が生成され、混雑していない状況が検出された第2のモードでは基本背景画像にマスク画像を合成したシルエット画像が生成される。次に、画像処理装置100の処理は画像合成部109にて行われるステップS5の処理に進む。
ステップS5において、画像合成部109は、前述した基本背景画像とシルエット画像とを合成して、プライバシー保護画像を作成する。このプライバシー保護画像は、入力画像の中でプライバシー保護対象の被写体(人体)がシルエットとしてマスクされた画像となり、人物(人体)のプライバシーが保護された画像となる。すなわち本実施形態によれば、混雑状況に応じて、固定背景画像にマスク画像を合成する第1のモードと、基本背景画像にマスク画像を合成する第2のモードとが、切り替えられてプライバシー保護画像が作成されることになる。
その後、ステップS6において、画像処理装置100は、システムの管理者等から終了の指示がなされたことで終了するか、又は処理を継続するかを判定し、継続する場合にはステップS1に処理を戻し、終了する場合には図2のフローチャートの処理を終了する。
以上説明したように、本実施形態の画像処理装置100においては、固定背景画像記録部107は保護対象の被写体が存在しない状況の固定背景画像を保持しており、背景画像更新部106は混雑していない状況において基本背景画像の更新を行う。そして、本実施形態の画像処理装置100は、撮影範囲内における人体の混雑状況に応じて、固定背景画像にマスク画像を合成する第1のモードと、基本背景画像にマスク画像を合成する第2のモードとを、切り替えてプライバシー保護画像を合成する。すなわち、本実施形態の画像処理装置100によれば、撮影環境(プライバシーの保護対象である人体の混雑度)に応じた背景画像を用いて生成したマスク画像が用いられることで、高いプライバシー保護性能を実現することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
100:画像処理装置、101:撮像センサ部、102:現像処理部、103:動体検出部、104:人体検出部、105:混雑状況検知部、106:背景画像更新部、107:固定背景画像記録部、108:画像比較部、109:画像合成部、110:出力部

Claims (11)

  1. 撮像手段により撮像された、人物が含まれない画像を第1の背景画像として保持する保持手段と、
    前記撮像手段により撮像された撮像画像に対する人物を検出する人物検出の結果に基づき、前記第1の背景画像を第2の背景画像として更新する更新手段と、
    前記撮像画像と前記第1の背景画像とに基づいて特定される特定領域を抽象化する第1の抽象化処理、および、前記撮像画像と前記第2の背景画像とに基づいて特定される特定領域を抽象化する第2の抽象化処理、のいずれか一方を、前記撮像画像における人物の混雑状況に基づき、実行する抽象化手段と、
    を有することを特徴とする画像処理装置。
  2. 前記特定領域に対応するマスク画像を生成する生成手段をさらに備え、
    前記抽象化手段は、前記第1の抽象化処理において、前記撮像画像と前記第1の背景画像とに基づき特定される前記特定領域に対応するマスク画像を前記第1の背景画像に合成し、前記第2の抽象化処理において、前記撮像画像と前記第2の背景画像とに基づき特定される前記特定領域に対応するマスク画像を前記第2の背景画像に合成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記撮像画像に対する前記人物検出の結果、又は、前記撮像画像に対し動体を検出する動体検出の結果、に基づき、前記撮像画像における人物の混雑状況を判定する判定手段を更に有し、
    前記抽象化手段は、前記撮像画像において人物で混雑していると前記判定手段に判定された場合、前記第1の抽象化処理を実行し、前記撮像画像において人物で混雑していないと前記判定手段に判定された場合、前記第2の抽象化処理を実行することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記判定手段は、前記撮像画像において前記人物検出により検出された人物の数が所定数以上である場合、前記撮像画像において人物で混雑していると判定し、前記撮像画像において前記人物検出により検出された人物の数が前記所定数未満である場合、前記撮像画像において人物で混雑していないと判定することを特徴とする請求項3に記載の画像処理装置。
  5. 前記更新手段は、前記撮像画像に対する前記人物検出の結果と、前記撮像画像に対し動体を検出する動体検出の結果に基づいて、前記第1の背景画像を前記第2の背景画像として更新することを特徴とする請求項1から4の何れか1項に記載の画像処理装置。
  6. 撮像手段により撮像された、人物が含まれない画像を第1の背景画像として保持する保持工程と、
    前記撮像手段により撮像された撮像画像に対する人物を検出する人物検出の結果に基づき、前記第1の背景画像を第2の背景画像として更新する更新工程と、
    前記撮像画像と前記第1の背景画像とに基づいて特定される特定領域を抽象化する第1の抽象化処理、および、前記撮像画像と前記第2の背景画像とに基づいて特定される特定領域を抽象化する第2の抽象化処理、のいずれか一方を、前記撮像画像における人物の混雑状況に基づき、実行する抽象化工程と、
    を有することを特徴とする画像処理方法。
  7. 前記特定領域に対応するマスク画像を生成する生成工程をさらに備え、
    前記第1の抽象化処理において、前記撮像画像と前記第1の背景画像とに基づき特定される前記特定領域に対応するマスク画像を前記第1の背景画像に合成し、前記第2の抽象化処理において、前記撮像画像と前記第2の背景画像とに基づき特定される前記特定領域に対応するマスク画像を前記第2の背景画像に合成することを特徴とする請求項6に記載の画像処理方法。
  8. 前記撮像画像に対する前記人物検出の結果、又は、前記撮像画像に対し動体を検出する動体検出の結果、に基づき、前記撮像画像における人物の混雑状況を判定する判定工程を更に有し、
    前記抽象化工程において、前記撮像画像において人物で混雑していると前記判定工程に判定された場合、前記第1の抽象化処理を実行し、前記撮像画像において人物で混雑していないと前記判定工程において判定された場合、前記第2の抽象化処理を実行することを特徴とする請求項6または7に記載の画像処理方法。
  9. 前記判定工程において、前記撮像画像において前記人物検出により検出された人物の数が所定数以上である場合、前記撮像画像において人物で混雑していると判定し、前記撮像画像において前記人物検出により検出された人物の数が前記所定数未満である場合、前記撮像画像において人物で混雑していないと判定することを特徴とする請求項8に記載の画像処理方法。
  10. 前記更新工程において、前記撮像画像に対する前記人物検出の結果と、前記撮像画像に対し動体を検出する動体検出の結果とに基づいて、前記第1の背景画像を前記第2の背景画像として更新することを特徴とする請求項6から9の何れか1項に記載の画像処理方法。
  11. コンピュータを、請求項1から5の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2017131003A 2017-07-04 2017-07-04 画像処理装置、画像処理方法、及びプログラム Active JP6935247B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017131003A JP6935247B2 (ja) 2017-07-04 2017-07-04 画像処理装置、画像処理方法、及びプログラム
US16/020,778 US11004214B2 (en) 2017-07-04 2018-06-27 Image processing apparatus, image processing method, and storage medium
CN201810725890.0A CN109218663B (zh) 2017-07-04 2018-07-04 图像处理设备、图像处理方法和存储介质
EP18181721.4A EP3425590B1 (en) 2017-07-04 2018-07-04 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017131003A JP6935247B2 (ja) 2017-07-04 2017-07-04 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2019016033A JP2019016033A (ja) 2019-01-31
JP2019016033A5 JP2019016033A5 (ja) 2020-08-20
JP6935247B2 true JP6935247B2 (ja) 2021-09-15

Family

ID=62873259

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017131003A Active JP6935247B2 (ja) 2017-07-04 2017-07-04 画像処理装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11004214B2 (ja)
EP (1) EP3425590B1 (ja)
JP (1) JP6935247B2 (ja)
CN (1) CN109218663B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3454254B1 (en) * 2017-09-07 2023-11-08 Canon Kabushiki Kaisha Image processing apparatus, image providing apparatus, control methods thereof, and program
JP7030534B2 (ja) * 2018-01-16 2022-03-07 キヤノン株式会社 画像処理装置および画像処理方法
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
US10885606B2 (en) * 2019-04-08 2021-01-05 Honeywell International Inc. System and method for anonymizing content to protect privacy
CN110363172A (zh) * 2019-07-22 2019-10-22 曲靖正则软件开发有限公司 一种视频处理方法、装置、电子设备及可读存储介质
JP7370769B2 (ja) * 2019-08-30 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
EP3800615A1 (en) 2019-10-01 2021-04-07 Axis AB Method and device for image analysis
EP3910961A1 (en) 2020-05-12 2021-11-17 Axis AB Video compression stream
CN112380987B (zh) * 2020-11-13 2021-12-17 圣凯诺服饰有限公司 有效学习时长统计系统

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021495A (ja) * 2002-06-14 2004-01-22 Mitsubishi Electric Corp 監視システムおよび監視方法
JP4479267B2 (ja) * 2004-02-18 2010-06-09 株式会社日立製作所 監視カメラ映像配信システム
JP4672680B2 (ja) 2007-02-05 2011-04-20 日本電信電話株式会社 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP5065060B2 (ja) * 2008-01-16 2012-10-31 キヤノン株式会社 撮像装置及びその制御方法
JP5121508B2 (ja) * 2008-03-03 2013-01-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP5374220B2 (ja) * 2009-04-23 2013-12-25 キヤノン株式会社 動きベクトル検出装置およびその制御方法、ならびに撮像装置
JP2011209966A (ja) 2010-03-29 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
CN101996410B (zh) 2010-12-07 2012-12-12 北京交通大学 动态背景下的运动目标检测方法及系统
CN102540264B (zh) 2011-12-30 2014-12-10 北京华航无线电测量研究所 一种人体隐私部位自动检测与遮挡的微波安检系统
CN104156942B (zh) 2014-07-02 2017-02-15 华南理工大学 一种用于复杂环境遗留物的检测方法
JP6602009B2 (ja) * 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2016144049A (ja) * 2015-02-02 2016-08-08 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5988225B2 (ja) * 2015-02-25 2016-09-07 パナソニックIpマネジメント株式会社 モニタリング装置およびモニタリング方法
CN104809742A (zh) 2015-04-15 2015-07-29 广西大学 一种复杂场景下的物品安全检测方法
JP6504364B2 (ja) * 2015-11-27 2019-04-24 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
CN106650638A (zh) 2016-12-05 2017-05-10 成都通甲优博科技有限责任公司 一种遗留物检测方法

Also Published As

Publication number Publication date
CN109218663A (zh) 2019-01-15
US11004214B2 (en) 2021-05-11
JP2019016033A (ja) 2019-01-31
EP3425590A1 (en) 2019-01-09
US20190012793A1 (en) 2019-01-10
EP3425590B1 (en) 2023-06-07
CN109218663B (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
JP6935247B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101945194B1 (ko) 화상처리장치, 화상처리방법, 및 프로그램
CN109788215B (zh) 图像处理装置、计算机可读存储介质以及图像处理方法
US10359498B2 (en) Image pickup apparatus having function of generating simulation image,control method therefor, and storage medium
US20160142680A1 (en) Image processing apparatus, image processing method, and storage medium
JP2009193421A (ja) 画像処理装置、カメラ装置、画像処理方法、およびプログラム
CN110661977B (zh) 主体检测方法和装置、电子设备、计算机可读存储介质
JP2008109552A (ja) 追跡機能付き撮像装置
JP7223079B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP2017175364A (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP2015036841A (ja) 画像処理装置、距離計測装置、撮像装置、画像処理方法
JP2009288945A (ja) 画像表示装置及び画像表示方法
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
JP6367037B2 (ja) 画像処理装置、画像処理プログラム、電子機器及び画像処理方法
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP5451364B2 (ja) 被写体追跡装置及びその制御方法
JP7389558B2 (ja) 情報処理装置およびその制御方法ならびにプログラム
US11838645B2 (en) Image capturing control apparatus, image capturing control method, and storage medium
JP2010154374A (ja) 撮像装置および被写体追跡方法
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP2014150361A (ja) 画像処理装置、方法及びプログラム
JP5826309B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP5605492B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN116894935A (zh) 对象识别方法和装置、存储介质及电子装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210727

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210825

R151 Written notification of patent or utility model registration

Ref document number: 6935247

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151