JP2019071050A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019071050A
JP2019071050A JP2018186864A JP2018186864A JP2019071050A JP 2019071050 A JP2019071050 A JP 2019071050A JP 2018186864 A JP2018186864 A JP 2018186864A JP 2018186864 A JP2018186864 A JP 2018186864A JP 2019071050 A JP2019071050 A JP 2019071050A
Authority
JP
Japan
Prior art keywords
image
processing
image processing
unit
density distribution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018186864A
Other languages
English (en)
Other versions
JP2019071050A5 (ja
JP7278735B2 (ja
Inventor
康夫 馬塲
Yasuo Baba
康夫 馬塲
矢野 光太郎
Kotaro Yano
光太郎 矢野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2019071050A publication Critical patent/JP2019071050A/ja
Publication of JP2019071050A5 publication Critical patent/JP2019071050A5/ja
Application granted granted Critical
Publication of JP7278735B2 publication Critical patent/JP7278735B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】適切な秘匿処理を実現可能にすることを課題とする。【解決手段】画像取得部(201)は画像を取得する。人数・人流推定部(205)は、画像取得部(201)にて取得された画像を入力として、その画像に含まれる群衆の頭部位置に対応した密度分布と当該密度分布に基づく群衆を構成する人数とを推定する。プライバシーレベル設定部(202)は、複数の被写体のプライバシーを保護するために行う画像加工の度合いを表すプライバシーレベルを設定する。画像加工部(207)は、画像取得部(201)により取得された画像を入力として、人数・人流推定部(205)および頭部検出部(206)による推定の結果を基に、プライバシーレベルに応じた加工処理を行う。【選択図】図2

Description

本発明は、防犯カメラなどで取得した画像を処理する技術に関する。
近年、防犯カメラなどの撮像装置で撮影された画像に対して、人数や人流の推定(群衆解析処理)を行うシステムが提案されている。例えば、入力画像と背景画像とから求めた差分画像の面積から人数を推定する方法が特許文献1に開示されている。このようなシステムの活用により、公共の空間での混雑の検知および混雑時の人の流れの把握が可能となり、イベント時の混雑解消や災害時の適切な避難誘導の実現が期待されている。
一方、防犯カメラ映像に映る被写体のプライバシー保護の重要性が高まっており、したがって、群衆を構成する被写体のプライバシーを適切に保護する必要がある。特許文献2には、背景画像を更新し、更新した背景画像と、シルエット化(隠蔽化)した前景画像を重畳する方法が開示されている。これにより、人物のプライバシー情報は露出しないが、人物の所作は分かるようになり、マーケティング分析やサービス向上を目的とした撮影映像を利用することが可能となる。また、特許文献3には、人物の両目を検出し、目の部分に矩形状のマスク処理を施す方法が開示されている。
特開2005−242646号公報 特開2016−115214号公報 特開2009−278325号公報
前述した従来手法の場合、プライバシー保護を実現するための秘匿処理(例えばぼかし処理や透かし処理)が各被写体に対して一様に施される。このため、秘匿処理が不十分になってプライバシーを適切に保護できなくなる場合や、逆に、秘匿処理が過剰になり過ぎて例えばマーケティング分析等の使用に適さなくなる場合などがあり、適切なプライバシー保護が必ずしも実現できないことがある。
また例えば、特許文献3の技術では、先ず目、顔、頭部などの特定物体が検出されるが、特定物体を検出する検出器を実現する際には機械学習などの統計的な手法に基づく学習が行われる。しかしながら、特定物体の検出器は、例えば複数の被写体同士が高い密度で重なり合って存在するような場合に検出精度が落ちることが多い。検出精度が下がり被写体の検出に失敗すると秘匿処理の実行がなされないため、被写体のプライバシーが適切に保護されない、という問題が生ずる。
そこで、本発明は、適切な秘匿処理を実現可能にすることを目的とする。
本発明は、画像を取得する取得手段と、前記取得手段により取得された画像を入力として、前記画像に含まれる複数の特定の被写体の所定の領域に対応した密度分布と前記密度分布に基づく前記複数の被写体の少なくとも数とを、推定する推定手段と、前記複数の被写体を秘匿するために行う画像加工の度合いを設定する設定手段と、前記取得手段により取得された画像を入力として、前記推定手段による推定の結果を基に、前記設定された画像加工の度合いに応じた加工処理を行う処理手段と、を有することを特徴とする。
本発明によれば、適切な秘匿処理を実現可能となる。
実施形態の画像処理装置のハードウェア構成の一例を示す図である。 実施形態の画像処理装置の機能構成の一例を示す図である。 画像処理装置による画像処理の流れを示すフローチャートである。 プライバシーレベルの設定例を示す図である。 入力画像を分割した小画像の一例を示す図である。 密度分布と移動ベクトル分布を推定する推定器の説明図である。 推定器における移動ベクトルの取得例の説明図である。 プライバシーレベルが「最大」の場合の画像加工の一例を示す図である。 プライバシーレベルが「大」の場合の画像加工の一例を示す図である。 プライバシーレベルが「中」の場合の画像加工の一例を示す図である。 プライバシーレベルが「小」の場合の画像加工の一例を示す図である。 プライバシーレベルが「最小」の場合の画像加工の一例を示す図である。 プライバシーレベル設定の他の例を示す図である。 監視者の閲覧権限別に許可された操作の定義例を示す図である。
以下、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例にすぎず、本発明は図示された構成に限定されるものではない。
<第1実施形態>
図1は、第1実施形態の画像処理装置100の概略的なハードウェア構成の一例を示す図である。
画像処理装置100は、ハードウェア構成として、CPU10と、メモリ11と、ネットワークI/F12と、表示装置13と、入力装置14とを有している。CPU10は、画像処理装置100の全体の制御を司る。メモリ11は、CPU10が処理に利用するデータ、プログラム等を記憶する。ネットワークI/F12は、画像処理装置100をネットワークに接続するインタフェースである。表示装置13は、液晶表示装置等であり、CPU10による処理の結果等を表示する。入力装置14は、マウスやボタン等であり、ユーザーの操作を画像処理装置100に入力する。CPU10がメモリ11に記憶されたプログラムに基づく画像処理や制御を実行することにより、後述する図2に示す画像処理装置100の各機能、および、後述する図3のフローチャートの処理が実現される。
以下、図2を参照して、本実施形態の画像処理装置100における各機能について説明する。本実施形態の画像処理装置100は、画像取得部201、プライバシーレベル設定部202、背景生成部203、動体抽出部204、人数・人流推定部205、頭部検出部206、画像加工部207、画像出力部208を含む。
画像取得部201には、防犯カメラ等により撮影された画像が入力される。画像取得部201が取得する入力画像は、防犯カメラ等により撮影されている画像でもよいし、ハードディスクなどの記憶装置に記録されている画像でも、また、インターネット等のネットワークを介して受信された画像でもよい。本実施形態の画像処理装置100では、画像取得部201にて取得された入力画像に対して特定の被写体の秘匿処理(本実施形態で人物の被写体に対するプライバシー保護)のための画像処理が施される。また、画像取得部201で取得された入力画像は、群衆解析の対象としても使用される。画像取得部201からの入力画像は、背景生成部203、人数・人流推定部205および頭部検出部206に送られる。
背景生成部203は、画像取得部201で取得された入力画像を基に、背景画像を生成する。ここで、背景画像とは、被写体の写っていない背景のみの画像データを指す。背景生成部203は、生成した背景画像と画像取得部201からの入力画像を、動体抽出部204に出力する。
動体抽出部204は、画像取得部201で取得された入力画像から、動体が存在する部分を人物領域として抽出する。動体抽出部204は、動体抽出の結果と、画像取得部201で取得された入力画像を、画像加工部207に出力する。
人数・人流推定部205は、画像取得部201で取得された入力画像を用いて、群衆解析処理を行い、入力画像中の人数および人流を推定する。人数・人流推定部205は、人数および人流の推定結果を、画像加工部207に出力する。
頭部検出部206は、画像取得部201で取得された入力画像を用いて、頭部検出処理を行い、入力画像中の人の頭部の位置およびサイズを推定する。頭部検出部206は、頭部検出の結果を、画像加工部207に出力する。
プライバシーレベル設定部202は、被写体のプライバシーを保護するために行う画像加工の度合い(プライバシーレベル)を設定する。プライバシーレベルの設定例については後述する。プライバシーレベル設定部202にて設定されたプライバシーレベルの情報は、画像加工部207に送られる。
画像加工部207は、プライバシーレベル設定部202により設定されたプライバシーレベルに従い、画像取得部201で取得された入力画像、または、背景生成部203が生成した背景画像に対し、所定の加工処理(画像加工)を行う。所定の加工処理の詳細については後述する。画像加工部207にて所定の加工処理が施された画像は、画像出力部208へ送られる。
画像出力部208は、画像加工部207で加工された画像を出力する。この画像出力部208から出力された画像は、図1の表示装置13に送られ、表示装置13に表示される監視者用ビューワーなどを通じて、監視者等により閲覧される。表示装置13の表示例については後述する。
図3は、本実施形態の画像処理装置100による画像処理の一例を示すフローチャートである。以下の説明では、図3のフローチャートの各処理ステップS301〜ステップS308をS301〜S308と略記する。この図3のフローチャートの処理は、ハードウェア構成により実行されてもよいし、一部がソフトウェア構成で残りがハードウェア構成により実現されてもよい。ソフトウェア構成により処理が実行される場合、例えばメモリ11のROM等に記憶されている本実施形態に係る画像処理のプログラムをCPU10等が実行することにより実現される。本実施形態に係るプログラムは、ROM等に予め用意されていてもよく、また着脱可能な半導体メモリ等から読み出されたり、不図示のインターネット等のネットワークからダウンロードされたりしてもよい。
S301において、画像取得部201は、前述したように入力画像を取得する。
また、S302において、プライバシーレベル設定部202は、プライバシーレベルを設定する。プライバシーレベルは、例えば、表示装置13に表示される監視者用ビューワーに設置されたユーザーインターフェースを介して監視者が設定する。
図4には、監視者用ビューワーのウィンドウ400の一例を示す。図4に例示した監視者用ビューワーのウィンドウ400には、画像取得部201にて取得された入力画像に対してプライバシーレベルに応じたプライバシー保護の処理が施された画像と、スライダー401および指示子であるノブ402が表示される。監視者(ユーザー)が入力装置14を介して、スライダー401のノブ402を動かすと、プライバシーレベル設定部202は、そのノブ402の位置に応じたプライバシーレベルを設定する。スライダー401の近傍には、プライバシーレベルを例えば5段階で表す、「最小」、「小」、「中」、「大」、「最大」等の文字が表示されている。監視者は、スライダー401のノブ402を動かすことにより、プライバシーレベルを段階的に変化させることができ、また所望のレベルに設定することができる。プライバシーレベルは、通常は(例えば初期設定では)高いレベルに設定されているが、本実施形態の場合、例えば事件や事故等が起こったときのみ、プライバシーレベルを低く設定するような運用も可能となされている。
また、監視者用ビューワーは、ユーザー認証を備える構成となされていてもよい。そして、例えば高い閲覧権限を持つ監視者が、ユーザー認証を行ったときのみ、プライバシーレベルを低く設定できるようになされていてもよい。また、事件や事故の起こったときは、監視者の閲覧権限にかかわらず、すべての監視者が任意のプライバシーレベルを設定できる構成になされていてもよい。
図3に説明を戻す。S303において、背景生成部203は、画像取得部201で取得された入力画像を基に、背景画像を生成する。背景画像は、いくつかの生成手法により生成することができる。一例の生成手法としては、画像取得部201が異なる時刻に取得した複数枚の入力画像の平均値や中央値をとって背景画像とする手法を挙げることができる。他の生成手法としては、動体が存在していないと考えられるタイミングに画像取得部201が取得した入力画像を背景画像とする手法を挙げることができる。背景画像の生成手法は、これらの手法に限定されるものではなく、また、複数の手法が組み合わされてもよい。また、背景生成部203は、時間経過により背景が変化することに追随するため、背景画像を更新するようにしてもよい。背景画像の更新は、定期的に背景画像を新たに生成し直したり、背景画像のうち動体が存在していないと考えられる部分のみを、最新の入力画像で置換したりすることで行える。
次に、S304において、動体抽出部204は、画像取得部201が取得した入力画像のうち、動体が存在する領域を人物の領域として抽出する。動体の抽出はいくつかの抽出手法により行うことができる。一例の抽出手法としては、背景生成部203により生成された背景画像と、画像取得部201が取得した入力画像との差分をとる背景差分法により、動体(前景物体)を抽出する手法を挙げることができる。他の抽出手法としては、画像取得部201が異なる時刻に取得した複数枚の入力画像に対してフレーム間差分法や動きベクトル検出法を行うことにより、動体(前景物体)を抽出する手法を挙げることができる。動体の抽出手法は、これらの手法に限定されるものではなく、また、複数の手法が組み合わされてもよい。
次に、S305において、人数・人流推定部205は、画像取得部201が取得した入力画像に対して、群衆解析処理を行い、画像中の人数および人流を推定する。人数および人流の推定手法としては、幾つかの手法を挙げることができる。以下に一例の推定手法を挙げて説明する。
先ず、人数・人流推定部205は、画像取得部201が取得した入力画像を、複数の小画像に分割する。図5は、入力画像500を小画像に分割する一つの手法を例示した図である。図5は、各小画像の大きさと、各小画像内に映る1つの人体の大きさの比率がほぼ一定となるよう、入力画像500を分割した例を示している。
次いで、人数・人流推定部205は、時間的に連続する複数の小画像を入力として群衆の密度分布と移動ベクトルの分布を出力する推定器を用いて、小画像ごとに人数および人流を推定する。画像中の人物の密度分布および移動ベクトルの分布を推定する方法としては、例えば、文献「Walach E., Wolf L. (2016) Learning to Count with CNN Boosting. In: Leibe B., Matas J., Sebe N., Welling M. (eds) Computer Vision - ECCV 2016. Lecture Notes in Computer Science, vol 9906. Springer, Cham」に記載されている方法を用いる。文献では事前に機械学習によって得たニューラルネットワークを用いて、画像から人物の密度分布を求める。本実施形態ではこの方法を用い、連続する2フレームの画像を入力して画像中の人物の密度分布および移動ベクトルの分布を同時推定するニューラルネットワークを事前に学習し、推定する。
図6は人数・人流推定部205における推定器の機能を説明する図である。図6中のニューラルネット610には連続する2フレームの小画像として時刻t1の画像601と時刻t2の画像602が入力される。ニューラルネット610は、それら連続する2フレームの小画像中の人数密度分布621と横方向の移動ベクトルの分布622および縦方向の移動ベクトルの分布623を同時推定する。図6の例において、ニューラルネット610の出力のうち、人数密度分布621では、図中の濃淡の濃い部分が人物と推定される所定の領域、具体的には人物の頭部の領域を表している。なお、頭部位置の表示に関して、頭部らしいと推定される度合いに応じて頭部の位置を示す領域を濃く示したり、大きく示したりしてもよい。移動ベクトルの分布622,623では、図中の濃淡の濃い部分ほど移動量が大きいことを表している。図6の例では、群衆が横方向へ移動している例を表しており、このため、横方向の移動ベクトルの分布622では移動ベクトルの値が大きく、縦方向の移動ベクトルの分布623では移動ベクトルの値が小さい値となっている。また、人数密度分布621は、ある範囲における密度分布の値の和をとると、その範囲に存在する人物の人数とほぼ等しくなるように設計しておく。
図7には、人数・人流推定部205により推定された、ある小画像における人数密度分布701と横方向の移動ベクトルの分布702および縦方向の移動ベクトルの分布703の一例を示す。横方向の移動ベクトルの分布702と、縦方向の移動ベクトルの分布703とを合成することで、移動ベクトルを抽出することができる。移動ベクトルの分布702,703は、人数密度分布701の値と等しい重みをもつとする。図7の例では、小画像中に、7本の重み付き移動ベクトルが得られた例を示している。そして、人数・人流推定部205では、この移動ベクトルに対して、クラスタリングなどの処理を行うことで、人流を求める。
図3に説明を戻す。S306において、頭部検出部206は、画像取得部201で取得された入力画像を用いて、頭部検出処理を行い、入力画像中の人の頭部の位置およびサイズを推定する。頭部検出処理には、既知のパターン認識や機械学習の各種手法を利用する。ここで、頭部検出は、人体における頭部の位置を特定する処理を指す。頭部検出部206は、例えば、画像の大きさを変更しながら照合パターンを画像全域に用いて複数の局所パターンを抽出し、それぞれの局所特徴量を算出する。そして、頭部検出部206は、局所特徴量に重み付けを行った結果の総和から頭部であるかを判定する。
S307において、画像加工部207は、プライバシーレベル設定部202により設定されたプライバシーレベルに従い、画像取得部201が取得した入力画像、または、背景生成部203が生成した背景画像に対し、所定の加工処理を行う。
以下、図4に例示したようにプライバシーレベルを高い順から「最大」,「大」,「中」,「小」,「最小」の5段階設けた場合の画像加工方法の一例について説明する。
図8は、プライバシーレベルを「最大」とした場合の画像加工の例を示した図である。図8では、S303において生成された背景画像800の上に、S305において生成された人数および人流に関する情報を重畳する画像加工を施した結果の例を示している。図8のそれぞれの枠802は、S305において人数および人流の推定単位となった小画像に対応する領域を表している。人数情報803は、各小画像において推定された人数に関する情報を表している。人数情報803の数値(例えば0.8や1.1等)は、小画像中の推定人数を表す。人流情報804は、各小画像において推定された人流に関する情報を表している。人流情報804の矢印は、主要な人流の向きが右下に向かっていることを表している。テキスト805は、S305において推定された画像内全体の人数を表している。図8の例では、背景画像800に人数・人流の解析処理結果のみが重畳されているため、監視者は画像内に存在するはずの被写体の位置や動きさえ知ることができないことになる。図8に示したような画像加工が施されることで、被写体のプライバシーを最大限保護しつつ、監視者が群衆解析結果を得ることができる。
図9は、プライバシーレベルを「大」とした場合の画像加工の例を示した図である。図9は、S303において生成された背景画像900の上に、S305において生成された人数密度分布を示す図形901をアルファブレンド処理により頭部位置に重畳する画像加工を施した結果の例を示している。この処理における人数密度分布は、図6の人数密度分布621に示すように人物頭部に対応して出現するので、背景画像900に人数密度分布を示す図形901を重ねる加工を施すことで、群衆の位置と動きのみを表す画像が生成されることになる。図9では省略したが、図8と同様、枠802、人数情報803、および人流情報804を重畳するようにしてもよい。このことは後述する図10から図12でも同様である。図9に示した画像加工によれば、監視者による被写体の位置と動きの目視確認を可能にする一方、監視者による被写体の個人識別を困難にする効果が得られる。
図10は、プライバシーレベルを「中」とした場合の画像加工の例を示した図である。図10は、S303において生成された背景画像1000の上に、S304において抽出された人物全体1001の領域をアルファブレンド処理により重畳する画像加工が施された結果の例を示している。この画像加工により、群衆を構成する人のシルエットを表す画像を生成できる。図10に示した画像加工によれば、監視者による被写体の位置・動き・所作の目視確認を可能にする一方、監視者による被写体の個人識別を困難にする効果が得られる。
図11は、プライバシーレベルを「小」とした場合の画像加工の例を示した図である。図11(a)は、S301において取得された入力画像1100の上に、S305において生成された人数密度分布を示す図形901をアルファブレンド処理により頭部位置に重畳する画像加工を施した結果の例を示している。この画像加工により、被写体の頭部領域のみに秘匿処理が加えられることになる。図10に示した画像加工によれば、監視者は被写体の位置・動き・所作に加え、被写体の服装を目視確認でき、一方、個人識別性の最も高い部位である頭部のみは監視者が閲覧できないよう秘匿処理される効果が得られる。
なお、S305において用いられる人数・人流推定部205の推定器は、人同士が大きく重なるような混雑した画像を含む学習データを用いて学習される。よって、人数・人流推定部205の推定器は、頭部検出部206の頭部検出器に比べて、混雑状況下における頭部の検出漏れが少ない。したがって、混雑状況下においては、人数・人流推定部205の推定器の結果を用いることで、頭部検出部206の頭部検出器の結果を用いる場合に比べて、被写体の秘匿処理をより確実に行うことが可能となる。
また、人数密度分布は頭部の中心付近で大きな値をとり、その中心から距離が離れるほど小さな値をとる。よって、単に入力画像1100の上に人数密度分布を示す図形901をアルファブレンドしたのみでは、頭部の外周部に秘匿処理が十分に行われない虞がある。このため、より確実に被写体の頭部を秘匿するために以下のようないくつかの方法を行ってもよい。例えば、一つ目の方法は、アルファブレンドの実施時に人数密度分布の重みを重くする方法である。この方法により、密度分布による秘匿処理の度合いを大きくできる。二つ目の方法は、人数密度分布を示す図形901に二値化処理を行った上で、アルファブレンドを行う方法である。この方法により、頭部の外周部にも頭部の中心付近と同等の秘匿処理を行うことができる。三つ目の方法は、人数密度分布を示す図形901に膨張処理を加えた上で、アルファブレンドを行う方法である。これにより、頭部を中心としたより広い領域に対して秘匿処理をかけることができる。これらの方法はそれぞれ組み合わせて行われてもよい。
また、画像加工の方法は、アルファブレンド処理に限定されるものではない。画像加工の他の方法として、人数密度分布にて密度が閾値以上である領域に対して、入力画像にモザイク処理やぼかし処理などの加工を行うようにしてもよい。
一方、人がまばらに存在するような非混雑状況下や、人が所定の大きさより大きく映る場合においては、人数・人流推定部205の推定器は、頭部検出部206の検出器よりも、頭部の検出漏れが多い傾向にある。よって、混雑度合いや人の大きさに応じて、人数・人流推定部205の推定器の結果に加えて、頭部検出部206の検出器の結果を併用することで、被写体の秘匿処理をより確実に行うことが可能となる。
図11(b)は、S301において取得された入力画像1100の上に、S305において生成された人数密度分布を示す図形901、および、S306において生成された頭部検出結果を表す図形1104をアルファブレンド処理により頭部位置に重畳する画像加工を施した結果の例を示している。
領域1102は、カメラの俯角が小さく、したがって人の頭部同士が重なりやすい領域であるため、人数・人流推定部205による頭部の検出漏れは頭部検出部206による頭部の検出漏れより少ない傾向にある。一方、領域1103は、カメラの俯角が大きく、したがって人の頭部同士が重なりにくい領域であるため、頭部検出部206による頭部の検出漏れは人数・人流推定部205による頭部の検出漏れより少ない傾向にある。
したがって、領域1102においては、S305において生成された人数密度分布を示す図形901をアルファブレンド処理により重畳する画像加工を施す。一方、領域1103においては、S306において生成された頭部検出結果を示す図形1104をアルファブレンド処理により重畳する画像加工を施す。
領域1102および領域1103の決定には、任意の方法をとってよい。
一つ目の方法は、領域1102および領域1103を、ユーザーが手動で明示的に設定する方法である。図11(b)は領域1102と領域1103とが重複しないように設定する例を表している。一方、領域1102と領域1103とが重複するように領域を設定することで、重複領域における頭部の秘匿漏れのリスクを低減させるようにしてもよい。
二つ目の方法は、領域1102と領域1103とを自動で設定する方法である。例えば、頭部が第一の所定の大きさ以上で映る領域を、領域1103とし、頭部が第二の所定の大きさ以下で映る領域を、領域1102とできる。
画像上の頭部の大きさは、ユーザーがマウスなどの入力装置を用いて明示的に与えてもよい。例えば、ユーザーが、画像上の複数の地点における頭部の平均的な大きさを教示することで、画像加工部207は、画面上の任意の地点における頭部の平均的な大きさを補間により推定することが可能となる。
また、画像上の頭部の大きさは、統計処理により自動で推定してもよい。例えば、所定の学習画像群に対して画面全体に頭部検出処理を行い、頭部の位置を示す頭部枠の集合を取得する。画面上の座標(x,y)における頭部枠の大きさをsとしたとき、sは、x、yおよび未知の1個以上のパラメータによって表せると仮定する。例えば、s=ax+by+cと仮定する。この例では、未知のパラメータはa,bおよびcである。所定の学習画像群から取得した頭部枠の集合を用いて、未知のパラメータを、例えば最小二乗法などの統計処理により求めることができる。
三つ目の方法は、頭部の密集度に従って領域1102と領域1103とを自動で設定する方法である。例えば、頭部の密集度が所定の値以下である領域を領域1103とし、頭部の密集度が所定の値以上である領域を領域1102とできる。頭部の密集度は任意の方法で推定することができる。例えば、背景差分によって求めた動体領域に対して、動体が存在すると判定されたピクセル数の割合に従って密集度を推定できる。また、例えば、動きベクトル検出を所定の範囲に施し、動きベクトルの長さの和に従って密集度を推定できる。
図12は、プライバシーレベルを「最小」とした場合の画像加工の例を示した図である。プライバシーレベルを「最小」とした場合、図12に示すように、S301において取得された入力画像1200をそのまま表示する。したがって、図12の例の場合、監視者は被写体1201の個人を識別することが可能となる。
図3に説明を戻す。S308において、画像出力部208は、画像加工部207により加工された画像を出力する。出力された画像は、表示装置13に表示される図4に示したような監視者用ビューワーなどを通じて、監視者により閲覧される。
<第2実施形態>
以下、第2実施形態について説明する。第2実施形態では、プライバシーレベル設定部202がプライバシーレベルをより詳細に設定することが可能な場合について説明する。第2実施形態の画像処理装置100の構成は前述した図1、図2と同様であるため、その図示は省略する。また、第2実施形態において第1実施形態と同じ機能の説明は省略し、第1の実施形態と異なる点のみについて説明する。
第2実施形態の場合も前述同様に、図3のS302において、プライバシーレベル設定部202はプライバシーレベルを取得する。プライバシーレベルは、例えば、監視者用ビューワーに設置されたユーザーインターフェースを介して監視者が設定する。
図13は、第2実施形態の場合の監視者用ビューワーのウィンドウ1300の一例を示す。図13において、枠1314は前述した図8の枠802と同様であり、人数情報1315は図8の人数情報803、人流情報1316は図8の人流情報804、テキスト1313は図8のテキスト805と同様に画像全体の人数の推定結果を示す情報である。また、人数密度分布を示す図形1312は図11の人数密度分布を示す図形901と同様である。図13の例では、監視者用ビューワーの下部に、ラジオボタン1301〜1306が設定されている。監視者は、入力装置14を介して、これらラジオボタン1301〜1306に対する入力を行うことにより、監視者用ビューワーに表示する内容を細かく設定することが可能である。
ラジオボタン1301は、監視者用ビューワーのウィンドウ1300に表示する画像を選択するボタンである。ラジオボタン1301が「なし」に設定された場合、画像は表示されない。ラジオボタン1301が「背景画像」に設定された場合、背景生成部203によって生成された背景画像が、ウィンドウ1300に表示される。ラジオボタン1301が「入力画像」に設定された場合、画像取得部201が取得した画像が、ウィンドウ1300に表示される。
ラジオボタン1302は、監視者用ビューワーのウィンドウ1300に表示される画像に施す処理を選択するボタンである。ラジオボタン1302が「頭部」に設定された場合、人数・人流推定部205により推定された人数密度分布を示す図形をウィンドウ1300に表示される画像に重畳する処理が行われる。ラジオボタン1302が「人物全体」に設定された場合、動体抽出部204により抽出された動体を人物とみなし、その人物全体の領域を加工した画像をウィンドウ1300に表示される画像に重畳する処理が行われる。ラジオボタン1302が「頭部」に設定された場合、人数密度分布を示す図形1312が重畳処理される。
ラジオボタン1303は、画面全体の推定人数を表示するか否かを設定するボタンである。ラジオボタン1303が「あり」に設定された場合、テキスト1313が表示される。
ラジオボタン1304は、人数・人流推定部205により分割された各小画像に対応する枠を重畳表示するか否かを設定するボタンである。ラジオボタン1304が「あり」に設定された場合、枠1314が表示される。
ラジオボタン1305は、人数・人流推定部205が小画像ごとに推定した人数を重畳表示するか否かを設定するボタンである。ラジオボタン1305が「あり」に設定された場合、人数情報1315が表示される。
ラジオボタン1306は、人数・人流推定部205が小画像ごとに推定した人流を重畳表示するか否かを設定するボタンである。ラジオボタン1306が「あり」に設定された場合、人流情報1316が表示される。
これらラジオボタン1301〜1306の操作には、監視者の持つ閲覧権限により制限が加えられてもよい。
図14は、第2実施形態において、図13に例示した監視者の閲覧権限を高い順から「最大」,「大」,「中」,「小」,「最小」の5段階設けた場合に、それぞれの監視者に対して許可された操作を定義したテーブルの一例である。プライバシーレベル設定部202は、これら監視者の閲覧権限に応じたプライバシーレベルを設定する。
図14に示したテーブル例の場合、例えば閲覧権限「最大」を持つ監視者は、前述の図8〜図12で示した各プライバシーレベルに相当する画像を全て閲覧することが可能となる。また例えば閲覧権限「大」を持つ監視者は、図8〜図11で示した各プライバシーレベルに相当する画像を閲覧可能であるが、図12で示したプライバシーレベル「最小」に相当する画像は閲覧できない。以下、閲覧権限「中」を持つ監視者は、図8〜図10で示した各プライバシーレベルに相当する画像を閲覧できるが、図11と図12で示したプライバシーレベルに相当する画像は閲覧できない。閲覧権限「小」を持つ監視者は、図8と図9で示した各プライバシーレベルに相当する画像を閲覧できるが、図10〜図12で示したプライバシーレベルに相当する画像は閲覧できない。そして、閲覧権限「最小」を持つ監視者は、図8で示したプライバシーレベル「最大」に相当する画像のみ閲覧でき、図9〜図12で示したプライバシーレベルに相当する画像は閲覧できない。
なお、第2実施形態において、図12にはユーザーインターフェースとしてラジオボタンを用いる場合の例であるが、使用できるユーザーインターフェースはこれに限らない。例えば、ラジオボタンの代わりにプッシュボタンを配置し、プッシュボタンをクリックするごとに表示内容をトグルするようにしてもよい。
以上説明したように、第1,第2実施形態の画像処理装置100によれば、群衆を映した画像を用いて群衆解析を行った結果を監視者に表示する際、その監視者の持つ閲覧権限に応じた被写体のプライバシー保護のための適切な処理を施すことが可能である。例えば、小さな閲覧権限を持つ監視者に対しては被写体の全身をシルエット化した画像を生成し、大きな閲覧権限を持つ監視者に対しては被写体の頭部領域のみに秘匿処理を加えたような画像を生成でき、閲覧権限に応じた多様な画像処理を行える。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
前述した実施形態では、特定の被写体として人物を例に挙げ、所定の領域として頭部を例に挙げたが、これらに限定されるものではない。特定の被写体は人物以外、例えば自動車等の乗り物でもよく、所定の領域としては例えばナンバープレートや自動車等に乗っている人物等であってもよく、車両のタイプを特定できる車両形状等が含まれてもよい。
本発明に係る信号処理における1以上の機能を実現するプログラムは、ネットワーク又は記憶媒体を介してシステム又は装置に供給可能であり、そのシステム又は装置のコンピュータの1つ以上のプロセッサーにより読出し実行されることで実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
前述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
10:CPU、11:メモリ、13:表示装置、14:入力装置、100:画像処理装置、201:画像取得部、202:プライバシーレベル設定部、203:背景生成部、204:動体抽出部、205:人数・人流推定部、206:頭部検出部、207:画像加工部、208:画像出力部

Claims (12)

  1. 画像を取得する取得手段と、
    前記取得手段により取得された画像を入力として、前記画像に含まれる複数の特定の被写体の所定の領域に対応した密度分布と前記密度分布に基づく前記複数の被写体の少なくとも数とを、推定する推定手段と、
    前記複数の被写体を秘匿するために行う画像加工の度合いを設定する設定手段と、
    前記取得手段により取得された画像を入力として、前記推定手段による推定の結果を基に、前記設定された画像加工の度合いに応じた加工処理を行う処理手段と、
    を有することを特徴とする画像処理装置。
  2. 前記推定手段は、前記複数の特定の被写体としての複数の人物よりなる群衆を含む画像から、前記所定の領域としての前記群衆の頭部位置に対応した前記密度分布を推定し、さらに前記密度分布を基に前記群衆を構成する人数を推定し、
    前記設定手段は、前記群衆のプライバシーを保護するために行う前記画像加工の度合いを表すプライバシーレベルを設定し、
    前記処理手段は、前記取得手段により取得された画像に含まれる前記群衆について前記プライバシーレベルに応じた前記加工処理を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記処理手段は、前記プライバシーレベルに基づき、前記推定手段により推定された前記密度分布を、前記取得手段により取得された画像に重畳する前記加工処理を行うことを特徴とする請求項2に記載の画像処理装置。
  4. 前記取得手段により取得された画像を入力として、特定の被写体の検出処理を行う検出手段をさらに備え、
    前記処理手段は、前記プライバシーレベルに基づき、
    前記推定手段により推定された前記密度分布を、前記取得手段により取得された画像のうち第一の領域に重畳する加工処理を行い、
    前記検出手段による検出結果を、前記取得手段により取得された画像のうち第二の領域に重畳する加工処理を行うことを特徴とする請求項3に記載の画像処理装置。
  5. 前記処理手段は、前記第一の領域および前記第二の領域の少なくとも一方を、
    画像内の被写体の大きさに基づいて決定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記取得手段が取得した画像を基に、前記人物の写っていない背景画像を生成する生成手段を有し、
    前記処理手段は、前記プライバシーレベルに基づき、前記推定手段により推定された密度分布を、前記背景画像に重畳する前記加工処理を行うことを特徴とする請求項2に記載の画像処理装置。
  7. 前記処理手段は、前記プライバシーレベルに基づき、前記推定手段により推定された密度分布に対して、二値化処理または膨張処理の少なくとも一つの処理を行った後に、前記重畳する前記加工処理を行うことを特徴とする請求項3から6のいずれか1項に記載の画像処理装置。
  8. 前記処理手段は、前記プライバシーレベルに基づき、前記推定手段により推定された密度分布の密度が閾値以上の領域に対して、モザイク処理またはぼかし処理の少なくとも一つの処理を施す前記加工処理を行うことを特徴とする請求項3から6のいずれか1項に記載の画像処理装置。
  9. 前記設定手段は、所定のユーザーインターフェースに対する操作に基づいて、前記プライバシーレベルを設定することを特徴とする請求項2から8のいずれか1項に記載の画像処理装置。
  10. 前記所定のユーザーインターフェースは、前記プライバシーレベルを複数の段階に分けた何れかの段階を設定するユーザーインターフェース、または、前記加工処理の後に表示される内容を設定するユーザーインターフェースであることを特徴とする請求項9に記載の画像処理装置。
  11. 画像処理装置が実行する画像処理方法であって、
    画像を取得する取得工程と、
    前記取得工程により取得された画像を入力として、前記画像に含まれる複数の特定の被写体の所定の領域に対応した密度分布と前記密度分布に基づく前記複数の被写体の少なくとも数とを、推定する推定工程と、
    前記複数の被写体を秘匿するために行う画像加工の度合いを設定する設定工程と、
    前記取得工程により取得された画像を入力として、前記推定工程による推定の結果を基に、前記設定された画像加工の度合いに応じた加工処理を行う処理工程と、
    を有することを特徴とする画像処理方法。
  12. コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018186864A 2017-10-06 2018-10-01 画像処理装置、画像処理方法、及びプログラム Active JP7278735B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017195753 2017-10-06
JP2017195753 2017-10-06

Publications (3)

Publication Number Publication Date
JP2019071050A true JP2019071050A (ja) 2019-05-09
JP2019071050A5 JP2019071050A5 (ja) 2021-11-11
JP7278735B2 JP7278735B2 (ja) 2023-05-22

Family

ID=66441389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186864A Active JP7278735B2 (ja) 2017-10-06 2018-10-01 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7278735B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020197910A (ja) * 2019-06-03 2020-12-10 株式会社日立製作所 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム
WO2021059909A1 (ja) 2019-09-27 2021-04-01 オムロン株式会社 データ生成システム、学習装置、データ生成装置、データ生成方法及びデータ生成プログラム
WO2021100482A1 (ja) 2019-11-21 2021-05-27 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
WO2021100483A1 (ja) 2019-11-21 2021-05-27 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
JP2021131725A (ja) * 2020-02-19 2021-09-09 Kddi株式会社 画像処理装置、サーバ、画像処理方法、姿勢推定方法、及びプログラム
WO2021192183A1 (ja) * 2020-03-26 2021-09-30 日本電気株式会社 配置方法
WO2021220814A1 (ja) * 2020-04-28 2021-11-04 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2022044369A1 (ja) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド 機械学習装置及び画像処理装置
CN115880648A (zh) * 2023-03-08 2023-03-31 城云科技(中国)有限公司 无人机角度下的人群聚集识别方法、系统及其应用
JP7374376B1 (ja) * 2022-09-26 2023-11-06 三菱電機株式会社 管理装置、管理システム、管理方法、および、設定方法
JP7490584B2 (ja) 2020-01-21 2024-05-27 アクシス アーベー 画像内で群衆の中の人間を識別する方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316582A (ja) * 2004-04-27 2005-11-10 Glory Ltd 待ち時間案内システムおよび方法およびプログラム
JP2009081635A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp デジタルカメラ、及びデジタルカメラの個人情報保護方法
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
JP2017098879A (ja) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005316582A (ja) * 2004-04-27 2005-11-10 Glory Ltd 待ち時間案内システムおよび方法およびプログラム
JP2009081635A (ja) * 2007-09-26 2009-04-16 Fujifilm Corp デジタルカメラ、及びデジタルカメラの個人情報保護方法
JP2017046196A (ja) * 2015-08-27 2017-03-02 キヤノン株式会社 画像情報生成装置、画像情報生成方法、画像処理システム及びプログラム
JP2017098879A (ja) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11537750B2 (en) 2019-06-03 2022-12-27 Hitachi, Ltd. Image access management device, image access management method, and image access management system
JP7224240B2 (ja) 2019-06-03 2023-02-17 株式会社日立製作所 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム
JP2020197910A (ja) * 2019-06-03 2020-12-10 株式会社日立製作所 画像アクセス管理装置、画像アクセス管理方法及び画像アクセス管理システム
WO2021059909A1 (ja) 2019-09-27 2021-04-01 オムロン株式会社 データ生成システム、学習装置、データ生成装置、データ生成方法及びデータ生成プログラム
WO2021100483A1 (ja) 2019-11-21 2021-05-27 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
WO2021100482A1 (ja) 2019-11-21 2021-05-27 オムロン株式会社 モデル生成装置、推定装置、モデル生成方法、及びモデル生成プログラム
JP7490584B2 (ja) 2020-01-21 2024-05-27 アクシス アーベー 画像内で群衆の中の人間を識別する方法
JP2021131725A (ja) * 2020-02-19 2021-09-09 Kddi株式会社 画像処理装置、サーバ、画像処理方法、姿勢推定方法、及びプログラム
WO2021192183A1 (ja) * 2020-03-26 2021-09-30 日本電気株式会社 配置方法
JP7424471B2 (ja) 2020-03-26 2024-01-30 日本電気株式会社 配置方法
WO2021220814A1 (ja) * 2020-04-28 2021-11-04 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理方法、及び、プログラム
WO2022044369A1 (ja) * 2020-08-26 2022-03-03 株式会社Jvcケンウッド 機械学習装置及び画像処理装置
JP7374376B1 (ja) * 2022-09-26 2023-11-06 三菱電機株式会社 管理装置、管理システム、管理方法、および、設定方法
CN115880648A (zh) * 2023-03-08 2023-03-31 城云科技(中国)有限公司 无人机角度下的人群聚集识别方法、系统及其应用
CN115880648B (zh) * 2023-03-08 2023-05-12 城云科技(中国)有限公司 无人机角度下的人群聚集识别方法、系统及其应用

Also Published As

Publication number Publication date
JP7278735B2 (ja) 2023-05-22

Similar Documents

Publication Publication Date Title
JP2019071050A (ja) 画像処理装置、画像処理方法、及びプログラム
US10984252B2 (en) Apparatus and method for analyzing people flows in image
US11403771B2 (en) Image processing apparatus, monitoring system, image processing method, and program
Agrawal et al. Person de-identification in videos
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
CN105354563B (zh) 结合深度和彩色图像的遮挡人脸检测预警装置及实现方法
JP7122815B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2022118201A (ja) 画像処理システム、画像処理方法及びプログラム
US20190087664A1 (en) Image processing device, image processing method and program recording medium
US10235607B2 (en) Control device, control method, and computer program product
CN108460319B (zh) 异常人脸检测方法及装置
KR20200014694A (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2021186866A1 (ja) 情報処理装置、監視システム、情報処理方法、及び記憶媒体
WO2015198592A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP7183089B2 (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
WO2018085063A1 (en) Segmentation-based display highlighting subject of interest
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
KR101288248B1 (ko) 프라이버시 마스킹용 휴먼 추적 시스템 및 방법
JP2020057224A (ja) 検出装置、識別器、コンピュータプログラム及び検出方法
JP2020052476A (ja) オブジェクト検出装置およびオブジェクト検出プログラム
JP2005149145A (ja) 物体検出装置、物体検出方法、およびコンピュータプログラム
JP2019109760A (ja) 画像監視装置
JP2018190132A (ja) 画像認識用コンピュータプログラム、画像認識装置及び画像認識方法
CN113947795A (zh) 口罩佩戴检测方法、装置、设备及存储介质
JP7041046B2 (ja) グループ推定装置及びグループ推定方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210929

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230510

R151 Written notification of patent or utility model registration

Ref document number: 7278735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151