JP2020107297A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020107297A
JP2020107297A JP2019030373A JP2019030373A JP2020107297A JP 2020107297 A JP2020107297 A JP 2020107297A JP 2019030373 A JP2019030373 A JP 2019030373A JP 2019030373 A JP2019030373 A JP 2019030373A JP 2020107297 A JP2020107297 A JP 2020107297A
Authority
JP
Japan
Prior art keywords
image
person
area
region
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019030373A
Other languages
English (en)
Other versions
JP7418074B2 (ja
Inventor
日下部 稔
Minoru Kusakabe
稔 日下部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2020107297A publication Critical patent/JP2020107297A/ja
Application granted granted Critical
Publication of JP7418074B2 publication Critical patent/JP7418074B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】 撮像された画像における適切な領域を隠蔽した画像を生成可能とする技術を提供する。【解決手段】 抽出手段は、撮像された入力画像から前景領域を抽出する。検出手段は、入力画像から特定の物体を検出する。設定手段は、検出手段により検出された特定の物体の位置に基づいて、少なくとも一部が曲線の形状の領域である特定領域を設定する。生成手段は、設定手段により設定された特定領域以外の前景領域は、入力画像に対応する所定の画像に重畳せず、設定手段により設定された特定領域における前景領域を抽象化したシルエット画像を、所定の画像に重畳した出力画像を生成する。【選択図】 図3

Description

本発明は、画像処理技術に関する。
近年、監視カメラが広く設置されるようになっている。このような監視カメラが用いられるシステムは、撮像された人物の動きを特定することにより、防犯、マーケティング分析、サービス向上を行うことができる点で有用である。その一方で、このようなシステムでは、撮像された人物に関するプライバシーが保護されることが重要である。
特許文献1では、予め撮像された背景画像に対して、画像から検出された人物が移動しているか否かに応じて色が異なる人型アイコンを重畳する技術が開示されている。
国際公開第2017/141454号
しかしながら、特許文献1では、人物ではない物体に対して人物であると検出した場合に、当該物体に対応する人型アイコンを背景画像に重畳してしまうことがある。つまり、実際には人物ではない物体を人物として検出した場合に、当該物体に対応する人型アイコンを背景画像に重畳した不適切な出力画像が生成されることがある。
そこで、本発明は、撮像された画像における適切な領域を隠蔽した画像を生成可能とする技術を提供することを目的とする。
本発明の一態様による画像処理装置は、撮像された入力画像から前景領域を抽出する抽出手段と、前記入力画像から特定の物体を検出する検出手段と、前記検出手段により検出された特定の物体の位置に基づいて、少なくとも一部が曲線の形状の領域である特定領域を設定する設定手段と、前記設定手段により設定された特定領域以外の前記前景領域は、前記入力画像に対応する所定の画像に重畳せず、前記設定手段により設定された特定領域における前記前景領域を抽象化したシルエット画像を、前記所定の画像に重畳した出力画像を生成する生成手段と、を有する。
本発明によれば、撮像された画像における適切な領域を隠蔽した画像を生成可能とする技術を提供することができる。
システム構成の一例を示す図である。 画像処理装置の機能ブロックを示す図である。 出力画像を生成する処理の流れを示すフローチャートである。 出力画像を生成する処理を説明するための図である。 人物領域の形状を説明するための図である。 出力画像を生成する処理を説明するための図である。 画像処理装置の機能ブロックを示す図である。 出力画像を生成する処理を説明するための図である。 出力画像を生成する処理を説明するための図である。 画像処理装置の機能ブロックを示す図である。 出力画像を生成する処理の流れを示すフローチャートである。 出力画像を生成する処理を説明するための図である。 出力画像を生成する処理の流れを示すフローチャートである。 各装置のハードウェア構成を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。
撮像装置110は、画像を撮像する装置である。撮像装置110は、撮像した画像に基づく画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。
記録装置120は、撮像装置110が撮像した画像の画像データと、画像を撮像した撮像時刻の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100の画像処理の結果や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。
また、ディスプレイ130は、表示手段として機能し、撮像装置110が撮像した画像や、後述する画像処理に係る設定画面等を表示する。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
なお、画像処理装置100の画像処理の結果や、撮像装置110により撮像された画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。
なお、図2に示す各機能は、本実施形態の場合、図14を参照して後述するROM(Read Only Memory)1420とCPU(Central Processing Unit)1400とを用いて、次のようにして実現されるものとする。図2に示す各機能は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行することにより実現される。なお、以降の説明において、特定の物体は、人物であるものとする。
通信部200は、図14を参照して後述するI/F(Interface)1440によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンドなどを含む。
記憶部201は、図14を参照して後述するRAM(Random Access Memory)1410やHDD(Hard Disk Drive)1430等によって実現でき、画像処理装置100による画像処理に関わる情報やデータを記憶する。例えば、記憶部201は、画像から検出された人物の位置に関する情報を記憶する。
表示制御部202は、撮像装置110が撮像した画像や、本実施形態に係る画像処理に関する設定を行う設定画面、画像処理の結果を示す情報などをディスプレイ130に表示させる。例えば、表示制御部202は、後述する生成部207により生成された出力画像をディスプレイ130に表示させる。操作受付部203は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。
抽出部204は、撮像された入力画像から前景領域を抽出する。抽出部204は、通信部200が受信した入力画像と背景画像とを比較することにより、前景領域を抽出する。なお、背景画像は、画像にプライバシーを保護する対象(隠蔽対象)とする特定の物体(本実施形態では人物)が含まれていない状態の画像であるものとする。
抽出部204は、通信部200が受信した入力画像と背景画像とを比較することにより、前景領域を抽出する。抽出部204は、例えば、背景画像に対する差分の領域を示す前景領域を「1」とし、その他の領域を「0」とする2値画像を生成する。この場合、抽出部204は、例えば、背景画像の各画素と入力画像の各画素とで差分値を算出し、算出した差分値が閾値以上の画素については前景領域を表す「1」を設定し、閾値未満の場合は「0」を設定することにより、2値画像を生成することができる。なお、抽出部204は、背景差分のみならず、他の手法によって前景領域を特定してもよい。
検出部205は、画像から特定の物体を検出する。例えば、検出部205は、照合パターン(辞書)を用いて、画像から特定の物体を検出する。なお、画像から人物を検出する場合において、人物が正面向きである場合と横向きである場合とで使用する照合パターンを両方使うことで検出精度の向上が期待できる。例えば、正面(背面)向きの人体の画像と照合させるための照合パターンと、横向きの人物の画像と照合させるための照合パターンとを保持し、撮像装置110の設置状態やユーザの指定に基づいて両方使うことができる。
また、照合パターンは、斜め方向からや上方向からなど他の角度からのものを用意しておいてもよい。また、人物を検出する場合、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足などの人物の一部について照合パターンを用意してもよい。なお、検出部205は、画像から特定の物体として人物を検出する機能を有していればよく、パターンマッチング処理にのみ限定されるものではない。
なお、以降の説明において、本実施形態における検出部205は、人物の上半身の照合パターンを用いて画像から人物の上半身を検出するものとする。そして、検出部205は、検出した人物の上半身を示す画像の領域(画像領域)から当該人物の全身の画像領域を特定する。例えば、検出部205は、人物の上半身を示す画像領域の垂直方向のサイズを所定の倍率(例えば2倍)だけ画像の垂直方向における下方向に拡大した画像領域を当該人物の全身の画像領域として特定する。なお、検出部205により検出された人物の位置は、画像の左上の端点を原点として、当該人物の全身の画像領域における重心点の座標であるものとする。
設定部206は、検出部205により検出された特定の物体の画像における位置に基づいて、当該特定の物体に対応する形状の領域(特定領域)を設定する。本実施形態における設定部206は、検出部205により検出された画像における人物の位置に基づいて、人物に対応する形状の領域である特定領域を設定する。例えば、設定部206は、検出部205により検出された人物の全身の画像領域を囲うように特定領域を設定する。なお、以降の説明において、人物領域とは、検出された人物に対し設定された特定領域であるものとして説明する。
生成部207は、設定部206により設定された人物領域における前景領域を抽象化したシルエット画像を生成する。言い換えれば、生成部207は、抽出部204が抽出した前景領域のうち、設定部206により設定された特定領域以外の前景領域を、隠蔽対象(抽象化の対象)から外す。そして、生成部207は、設定部206により設定された人物領域における前景領域を、例えば、任意の色(RGB値)で塗りつぶすことで抽象化(隠蔽)したシルエット画像を生成する。なお、人物領域における前景領域を抽象化したシルエット画像としては、例えば、テクスチャを付与した画像や、モザイク処理を施したモザイク画像、ぼかし処理を施したぼかし画像などであってもよい。
そして、生成部207は、設定部206により設定された人物領域における前景領域を抽象化したシルエット画像を、所定の画像に重畳した出力画像を生成する。なお、本実施形態における生成部207は、シルエット画像を、背景画像に重畳するものとするが、例えば表示する用途として予め用意した画像である表示用画像に重畳してもよいし、通信部200が受信した画像(入力画像)に重畳してもよい。
次に、図3および図4を参照して、本実施形態に係る画像処理装置100の画像処理について更に詳細に説明する。図3は、本実施形態に係る画像処理装置100の画像処理の流れを示すフローチャートである。また、図4は、本実施形態に係る画像処理装置100の画像処理を説明するための図である。
なお、図3に示すフローを実行することで、設定された人物領域における前景領域を抽象化したシルエット画像を背景画像に重畳した出力画像を生成することができる。なお、図3に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。なお、図3に示すフローチャートの処理は、撮像装置110のROM1420に格納されたコンピュータプログラムを撮像装置110のCPU1400が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、S301にて、通信部200は、撮像装置110が撮像した画像(入力画像)を受信する。図4(a)は、通信部200が受信する入力画像の一例を示す図である。図4(a)に示す画像には、開閉可能な扉400、人物401〜402が含まれている。
次に、S302にて、抽出部204は、背景画像を取得する。なお、抽出部204は、例えば、予め設定された背景画像を取得してもよい。また、抽出部204は、現在のフレームから過去Nフレーム分の入力画像に基づいて生成された背景画像を取得してもよい。例えば、生成部207は、現在のフレームから直近5フレーム分の入力画像の各画素値の平均値を求めることで背景画像を生成する。そして、抽出部204は、生成部207により生成された背景画像を取得してもよい。図4(b)に示す画像は、S302にて抽出部204により取得される背景画像の一例を示す図であり、図4(a)に示す画像との差異は、人物401、及び402の有無である。
次に、S303にて、抽出部204は、撮像された入力画像から前景領域を抽出する。本実施形態における抽出部204は、通信部200が受信した入力画像と背景画像とを比較することにより、前景領域を抽出する。図4(c)は図4(a)とは時間的に異なるタイミングで撮像された入力画像の一例である。図4(b)とは、人物401、及び402の有無及び、扉400の開閉状態が異なる。なお、図4(c)では、扉400の開閉状態が異なることにより扉400の周囲の光源の状態が変化している例を示している。そして、図4(c)に示す領域403は、扉400の奥にある不図示の光源からの光が差し込むことによって、図4(b)に示す背景画像に対し画素値の変化が大きい領域を示している。
図4(d)に示す前景領域404、405は、S303にて、抽出部204により、図4(c)に示す入力画像と、図4(b)に示す背景画像とを比較することにより抽出された前景領域である。図4(d)に示す例において、前景領域404は、人物401に対応する前景領域であり、周囲に他の前景領域が無いことから人物の形状が明瞭である。一方、人物402に対応する前景領域は、人物402の周囲に発生している画素値の変化が大きい領域403に対応する前景領域405に紛れてしまい、人物402の形状や位置の判別は困難である。
なお、図4(e)に示す画像は、S303にて抽出部204により抽出された前景領域を抽象化したシルエット画像を背景画像に重畳した出力画像を示す図である。図4(e)に示すように、抽出された前景領域を単純に抽象化したシルエット画像を背景画像に重畳した出力画像では、撮像装置110の撮像された環境の状況をうかがい知ることが困難になることがある。
次に、S304にて、検出部205は、照合パターン(辞書)を用いて、入力画像から人物を検出する。図4に示す例において、検出部205は、図4(c)に示す入力画像から、人物401および人物402を検出する。
次に、S305にて、設定部206は、検出部205により検出された人物の位置に基づいて、人物に対応する形状の領域である人物領域を設定する。図4(f)に示す人物領域406は、検出部205により検出された人物401の位置に基づいて、設定部206により、人物401の全身を囲うよう設定された人物領域である。また、図4(f)に示す人物領域407は、検出部205により検出された人物402の位置に基づいて、設定部206により、人物402の全身を囲うよう設定された人物領域である。なお、図4(f)に示す人物領域406、407の形状は楕円形であり、検出された各々の人物のサイズに対応したサイズで設定部206により設定される。なお、人物領域406、407の形状は楕円形であるが、例えば、人物の少なくとも頭部に対応する第1形状と、人物の動体に対応する第2形状とを含む形状の領域であってもよい。なお、人物領域の形状は、検出された人物の全身を全て囲うような形状にしてもよいし、人物の一部がはみ出るような形状であっても構わない。例えば、人物領域の形状は、人物の頭部、上半身など人物の一部のみを覆う形状であってもよい。なお、設定部206により設定される人物領域の形状についての詳細な説明は、図5を参照して後述する。
次に、S306にて、生成部207は、設定部206により設定された人物領域における前景領域を抽象化したシルエット画像を生成する。図4(g)に示す画像は、図4(d)に示す前景領域に対して、設定部206により設定された人物領域406〜407の各々における前景領域を抽象化したシルエット画像を示す。図4(g)に示すように、人物領域406では、内部に存在する前景領域が人物401に対応する前景領域404のみである。そのため、当該前景領域404を抽象化してシルエット画像を生成しても、差分領域404の形状がシルエット画像の形状としてそのまま抽出される。一方、人物領域407は、人物402の周囲に差分領域が存在するため詳細な人物402の形状を抽象化したシルエット画像の生成は難しい。しかしながら、人物402の位置とサイズに対応した人物領域407における前景領域405を抽象化したシルエット画像を生成する。このようにすることで、当該人物402の位置やサイズなどを大まかに把握することが可能なシルエット画像を生成することができる。
次に、S307にて、生成部207は、設定部206により設定された人物領域における前景領域を抽象化したシルエット画像を、背景画像に重畳した出力画像を生成する。図4(h)に示す図は、S306により生成されたシルエット画像を背景画像に重畳した出力画像の一例を示す図である。図4(h)に示すシルエット画像408は、人物領域406における前景領域を抽象化したシルエット画像である。また、図4(h)に示すシルエット画像409は、人物領域407における前景領域を抽象化したシルエット画像である。図4(h)に示すように、扉400の開閉などによる画像における輝度の変化等の環境変化が少ない領域では、シルエット画像408に示すように実際に存在する人物の形状を反映したシルエット画像を生成することが可能である。そのため、撮像環境の様子を詳細に把握することができる。一方、環境変化の多い領域では、シルエット画像409に示すように、人物の位置とサイズに対応するシルエット画像を生成することが可能になるため、環境変化が大きい領域あっても当該領域における人物が存在しているか否かの状況が把握することができる。
次に、S308にて、表示制御部202は、生成部207により生成された出力画像を出力する。なお、本実施形態において、表示制御部202は、生成部207により生成された出力画像をディスプレイ130に表示させる。
次に、S309にて、ユーザにより処理を終了する指示がある場合(S309にてYes)、処理を終了する。一方、ユーザにより処理を終了する指示がない場合(S309にてNo)、S301へ戻り、通信部200は次のフレームの画像(入力画像)を受信する。
以上説明したように本実施形態に係る画像処理装置100の画像処理は、検出された人物の位置に基づいて人物領域を設定し、設定した人物領域における前景領域を抽象化したシルエット画像を背景画像に重畳した出力画像を生成する。このようにすることで、撮像された画像の適切な領域を隠蔽した画像を生成可能とする技術を提供することができる。
次に、図5を参照して、設定部206により設定される人物領域の形状について説明する。図4を参照して説明した上述の内容においては、設定部206により設定される人物領域406、407として、図5に示す楕円形状500を例に挙げて説明したが、これに限らない。人物領域の形状としては、例えば、図5に示す矩形501や台形502といった単純な図形でもよい。
また、人物領域の形状としては、人物の少なくとも頭部に対応する第1形状と、人物の胴体に対応する第2形状とを含む形状であってもよい。例えば、人物領域の形状として、形状503のように、頭部に対応する円形の第1形状510と、人物の胴体に対応する三角形の第2形状511とを含む形状であってもよい。また、人物領域の形状として、形状504のように、頭部に対応する円形の第1形状520と、人物の胴体に対応する楕円を一部である第2形状521とを含む形状であってもよい。また、人物領域の形状として、形状505のように、頭部に対応する円形の第1形状530と、人物の胴体に対応する略矩形の第2形状531とを含む形状であってもよい。
なお、人物領域の形状の一例である形状503〜505に示すように、上述したように、人物の頭部を模した第1形状と、人物の胴体を模した第2形状とを含む形状であるが、これに限らない。例えば、人物領域の形状としては、人物の頭部を模した第1形状と、人物の胴体を模した第2形状と、更に、例えば、人物の下半身を模した第3形状を含む形状であってもよい。
なお、本実施形態における人物領域の形状は、図5に示す矩形501や台形502のように曲線を有していない形状であってもよいし、楕円形500、形状503〜505のように、一部曲線を有する形状であってもよい。このように、一部曲線を有する形状の人物領域を用いることで、人物の形状により近いシルエット画像を生成することが可能となる。
図5に示す形状503〜505のように、人物の形状により近い人物領域を用いることで、より人物の形状に近いシルエット画像を生成することが可能となる。例えば、図5(h)において人物402に対応するシルエット画像409は楕円形であるが、前景領域が大きい領域内にて検出された人物に対して、人物の形状により近い人物領域を用いることで、人物の存在をより分かり易くユーザに提示することが可能となる。
以上説明したように、本実施形態に係る画像処理装置100の画像処理は、検出された人物の位置に基づいて人物領域を設定し、設定した人物領域における前景領域を抽象化したシルエット画像を背景画像に重畳した出力画像を生成する。このようにすることで、撮像された人物の位置に基づくシルエット画像を生成して表示することが可能であるため、プライバシーを確保しつつ、人の存在が分かりやすい表示を行うことが可能となる。また、画像に映る人物を覆うようにサイズが大きい前景領域が抽出された場合であっても、撮像環境の様子を把握しやすい画像の表示を行うことが可能となる。また更に、人物を検出する処理において、本来検出対象(隠蔽対象)としていない物体(例えば人物を含むポスター)を検出してしまった場合でも、前景領域が存在していなければシルエット画像が生成されない。そのため、ユーザに誤解を与えるような出力画像が生成されることを抑制し、より実際の状況を反映させた出力画像を生成することが可能となる。以上より、本実施形態に係る画像処理装置100の画像処理によれば、撮像された画像の適切な領域を隠蔽した画像を生成可能とする技術を提供することができる。
(実施形態2)
本実施形態では、駅やショッピングモールなど、多くの人物で混雑が発生するような場合であっても、プライバシーを保護しつつ、画像に映る人物の存在をユーザが把握しやすくする実施形態について説明する。以下、実施形態1と異なる部分を主に説明し、実施形態1と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
以下、図6を参照して、本実施形態に係る画像処理について説明する。図6は、本実施形態に係る画像処理を説明するための図である。図6(a)は撮像装置110によって撮像された入力画像の一例を示している。図6(a)における人物600は、複数の人物で混雑している領域660(混雑領域)外に単独で存在している人物を示している。また、人物601は領域660に存在する複数の人物を示している。影602は、領域660において人物が作る影の領域である。
図6(b)は、本実施形態において用いられる背景画像の一例を示している。図6(c)は、図6(a)に示す入力画像と、図6(b)に示す背景画像とを比較することにより抽出部204により抽出された前景領域を示す。図6(c)に示す例において、前景領域603は、単独で存在する人物600に対応する前景領域を示している。また、図6(c)に示す前景領域604は、領域660に存在する複数の人物、及び当該複数の人物が作り出す影領域602に対応する前景領域を示している。
図6(d)は、図6(a)に示す入力画像に対して検出部205により検出された人物の位置に基づき、設定部206が設定した人物領域を示す図である。単独で存在する人物600の位置に基づいて設定された人物領域605では他の人物領域との重なりが無い。一方、領域660(混雑領域)に存在する複数の人物601に対応する複数の人物領域606は他の人物領域と重なってしまう。ここで、実施形態1で説明した画像処理と同様にして、図7(d)に示す人物領域における前景領域を抽象化したシルエット画像を生成し、生成したシルエット画像を背景画像に重畳した出力画像を生成する場合を想定する。このようにして生成された出力画像の一例を図6(e)に示す。図6(e)では、単独で存在する人物600に対応するシルエット画像607では人物を区別しながら表示できている。しかしながら、混雑領域に存在する複数の人物601に対応するシルエット画像608では、シルエット画像が重なった状態の出力画像が生成されてしまうため、撮像された画像における人物の状況を把握することが困難となる。
そこで、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、本実施形態に係る画像処理装置100は、例えば、次のような処理を実行する。すなわち、本実施形態に係る生成部207は、設定部206により設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせるようにする。シルエット画像の表示形態を異ならせる方法としては、設定部206により設定された人物領域ごとに、人物領域における前景領域の色を異ならせたり、人物領域に対して付与するテクスチャの種類を異ならせたりする方法がある。しかしながら、人物領域ごとに、識別可能とするようにできればよく、上述した方法に限らない。
また、上述したように混雑領域660における複数の人物領域が示すように人物領域同士が重なる場合において、人物領域ごとに表示形態を異ならせる際には、画像の手前側に位置する人物領域に対応するシルエット画像が優先的に表示されるようにするとよい。なお、生成部207は、例えば、画像の奥側に位置する人物領域に対応するシルエット画像に対し、画像の手前側に位置する人物領域に対応するシルエット画像が表側に位置するような出力画像を生成することで優先的な表示を行う。
具体的には、まず、検出部205は、検出した人物の足元の位置を特定する。例えば、検出部205は、検出した人物の全身の画像領域において、最も下部に位置する点を当該人物の足元の位置として特定する。そして、生成部207は、より撮像装置110に近い人物、例えば、画像の垂直方向のより下側に足元が位置する人物に対応するシルエット画像を優先的に表示するようにする。なお、人物に対応するシルエット画像とは、当該人物に対し設定された人物領域における前景領域を抽象化したシルエット画像とする。なお、生成部207は、画像の垂直方向のより上側に足元が位置する人物に対応するシルエット画像に対し、より下側に足元が位置する人物に対応するシルエット画像が表側に位置するような出力画像を生成する。
ここで、図3に示すフローを参照して、本実施形態に係る生成部207の処理について説明する。本実施形態に係る生成部207は、S306にて、設定部206により設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせつつ、シルエット画像を生成する。
図6(f)は、上述した本実施形態に係る生成部207の処理により生成されたシルエット画像を背景画像に重畳した出力画像の一例を示している。図6(f)に示すように、単独で存在する人物600に対応するシルエット画像609のみならず、混雑領域に存在する複数の人物601に対応するシルエット画像610であっても各シルエット画像を識別可能な出力画像を生成できる。
以上説明したように、本実施形態に係る生成部207は、設定部206により設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせた。このようにすることで、複数の人物で混雑するような状況であっても、画像に含まれる人物のプライバシーを保護しつつ、画像に含まれる人物の状況を把握しやすくする。
(実施形態3)
実施形態2に係る生成部207は、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせた。
本実施形態に係る生成部207は、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、次のような処理を実行する。すなわち、本実施形態に係る生成部207は、画像における複数の人物で混雑する混雑領域の位置に基づいて、設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。以下、図7を参照して、本実施形態に係る生成部207の処理について説明する。なお、実施形態1〜2と異なる部分を主に説明し、実施形態1〜2と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
図7は、本実施形態に係る画像処理装置100の機能ブロックを示す図である。なお、図7の機能ブロックが示す各機能は、本実施形態において、ROM1420とCPU1400とを用いて、次のようにして実現されるものとする。図7に示す各機能は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行することにより実現される。
図7における通信部200、記憶部201、表示制御部202、操作受付部203、抽出部204、検出部205、設定部206の処理は、実施形態1と同様であるため説明を省略する。
図7に示す判定部708は、画像における混雑領域を判定する。例えば、判定部708は、検出部205により検出された人物の数に基づいて、画像における混雑領域を判定する。この場合、判定部708は、例えば、画像の全体の領域を複数の分割領域に分割し、分割領域毎に検出された人物の数を計数し、人物の数が閾値以上の分割領域を混雑領域として判定する。
また、判定部708は、例えば、画像から抽出部204により抽出された前景領域の位置とサイズに基づいて、混雑領域を判定する。具体的には、判定部708は、抽出部204により抽出された前景領域のサイズが閾値以上である場合に当該前景領域を混雑領域として判定してもよい。なお、1つの前景領域を、2値画像において前景領域を示す「1」である画素のうち、隣接した画素を連結させることで形成される領域とする。そして、判定部708は、画像から複数の前景領域が抽出された場合において、当該複数の前景領域の各々について、前景領域のサイズと、閾値とを比較して、混雑領域である前景領域を判定する。
また、判定部708は、例えば、画像から抽出部204により抽出された前景領域の位置およびサイズと、画像から検出部205により検出された人物の数とに基づいて、画像における混雑領域を判定してもよい。具体的には、判定部708は、例えば、画像から抽出されたサイズが第1閾値以上の前景領域、または、画像を複数のエリアに分割したときに検出された人物の数が第2閾値以上のエリア、を混雑領域として判定する。
そして、本実施形態に係る生成部207は、判定部708により判定された画像における混雑領域に位置する人物に対し設定された人物領域の各々について、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。例えば、判定部708により、図6に示す人物で混雑した領域660を混雑領域として判定する。この場合、生成部207は、判定部708により混雑領域であると判定された領域660に位置する人物に対して設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる方法は、実施形態2で説明した内容と同様であるため、説明を省略する。なお、判定部708は、例えば、検出された人物の全身の画像領域と混雑領域とが重畳している割合である重畳率が閾値以上である場合、当該人物を混雑領域に位置する人物と判定する。
以上説明したように、本実施形態に係る生成部207は、判定部708により判定された画像における混雑領域の位置に基づいて、設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。このようにすることで、複数の人物で混雑するような状況であっても、画像に含まれる人物のプライバシーを保護しつつ、画像に含まれる人物の状況を把握しやすくする。
(実施形態4)
実施形態2に係る生成部207は、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせた。
本実施形態に係る画像処理装置100は、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、次のような処理を実行する。すなわち、本実施形態に係る画像処理装置100の設定部206は、画像に含まれる人物の混雑領域に基づき、形状が異なる人物領域の設定を行う。以下、図7を参照して、本実施形態に係る設定部206の処理について説明する。なお、実施形態1〜3と異なる部分を主に説明し、実施形態1〜3と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
図8は、混雑が発生している場合において設定される人物領域の形状を説明する図である。図8に示す人物領域800は、混雑が発生していない領域において単独で存在する人物801に対して設定部206により設定された人物領域であって、人物801の全身が収まるサイズの人物領域である。なお、本実施形態における人物領域は、便宜的に、図5に示す楕円500の形状とするが、これに限らない。例えば、設定される人物領域としては、図5に示す楕円500以外の他の形状であってもよい。
ここで、人物領域800における人物801の全身の画像領域を前景領域として抽出部204により抽出された場合を想定したとき、生成部207は、当該前景領域を抽象化してシルエット画像802を生成する。シルエット画像802が示すように、混雑が発生してない領域における人物に対し設定された人物領域において、前景領域を抽象化したシルエット画像は、人物の形状が比較的分かり易い。
一方、人物領域810は、混雑領域(図6に示す領域660等)に存在する人物811および人物812のうち人物812に対して設定された人物領域であり、人物領域800と同じ形状の人物領域である。人物812の全身の画像領域と人物811の全身の画像領域とを前景領域として抽出部204により抽出された場合を想定したとき、生成部207は、人物812に対し設定された人物領域810における前景領域を抽象化してシルエット画像813を生成する。ここでは、人物812の背後に位置する人物811が人物領域810に一部入り込んでしまった結果、人物811の一部がシルエット画像として生成されてしまう例を示している。シルエット画像813が示すように、混雑が発生している領域における人物に対し設定された人物領域において、前景領域を抽象化したシルエット画像は、人物の形状として不自然な形状が表示されてしまい、ユーザによって見にくくなってしまうことがある。
人物領域820は、混雑領域に存在する複数の人物821および人物822のうち人物822に対し設定部206により設定された人物領域である。また、人物領域820は人物領域800および人物領域810と比較して、水平方向の幅を所定の倍率だけ縮小した人物領域の一例を示している。人物821の全身の画像領域と人物822の全身の画像領域とを前景領域として抽出部204により抽出された場合を想定したとき、生成部207は、人物822に対し設定された人物領域820における前景領域を抽象化してシルエット画像823を生成する。
人物領域820のように、混雑領域に存在する人物822に対しては、本実施形態に係る設定部206は、水平方向の幅を所定の倍率だけ縮小した人物領域を設定する。例えば、図7に示す判定部708は、画像における混雑領域を判定し、設定部206は、判定部708により判定された混雑領域に存在する人物の各々に対しては、水平方向の幅を所定の倍率だけ縮小した人物領域を設定する。このとき、例えば、判定部708が、画像を複数のエリアに分割し、エリア毎に検出された人物の数を計数し、人物の数が閾値を超えるエリアを混雑領域として判定する場合を想定する。この場合、設定部206は、混雑領域として判定されていないエリアにおいて検出された人物に対しては、実施形態1と同様に予め用意した人物領域を設定する。一方、設定部206は、混雑領域として判定されていないエリアにおいて検出された人物に対しては、水平方向の幅を所定の倍率だけ縮小した人物領域を設定する。
また、判定部708が、画像から抽出部204により抽出された前景領域の位置とサイズに基づいて、混雑領域を判定する場合を想定する。具体的には、判定部708が、抽出部204により抽出された前景領域のサイズが閾値以上である場合に当該前景領域を混雑領域として判定する場合を想定する。この場合、設定部206は、閾値以上のサイズの前景領域に位置する人物(例えば、当該前景領域に包含されるよう位置する人物)に対しては、水平方向に所定の倍率縮小した人物領域を設定する。
また、判定部708が、画像から抽出部204により抽出された前景領域の位置およびサイズと、画像から検出部205により検出された人物の数とに基づいて、画像における混雑領域を判定する場合を想定する。具体的には、判定部708が、例えば、画像から抽出されたサイズが第1閾値以上の前景領域、または、画像を複数のエリアに分割したときに検出された人物の数が第2閾値以上のエリア、を混雑領域として判定する場合を想定する。この場合、設定部206は、そのように判定した混雑領域において検出された人物に対し、水平方向の幅を所定の倍率だけ縮小した人物領域を設定する。
以上説明したように本実施形態に係る設定部206は、判定部708により判定された画像における混雑領域に存在する人物(図8に示す人物822等)に対しては、水平方向に所定の倍率だけ縮小した人物領域を設定する。このように設定した人物領域における前景領域を抽象化したシルエット画像は、本来の人物の形状が削られたシルエット画像となることがある。しかしながら、そのようなシルエット画像は、当該人物の近傍に位置する他の人物の一部が混入したシルエット画像となることを抑制することができる。また混雑領域に存在する複数の人物の各々に対し、同様の処理を実行することで、複数の人物で混雑するような領域であっても、画像における人物の各々を個別に把握しやすくすることができる。
(実施形態5)
実施形態2では、複数の人物で混雑するような状況であっても、画像における人物の状況を把握しやすくするため、設定された人物領域ごとに、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる実施形態について説明した。
本実施形態における生成部207は、画像における人物の移動状況に応じて、当該人物に設定された人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。
以下本実施形態に係る画像処理装置100の処理について説明する。なお、実施形態1〜4と異なる部分を主に説明し、実施形態1〜4と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
本実施形態に係る検出部205は、画像から人物を検出する処理に加え、更に、画像に含まれる人物を追尾する。例えば、判定部708は、現在のフレーム(現在フレーム)よりも1つ以上フレーム前のフレームの画像から検出した人物と同じ人物を着目フレームの画像から検出した場合、それぞれのフレームにおける人物同士を対応づける。すなわち、時間的に近い複数のフレームの画像間で人物を追尾する。
検出部205が複数のフレームの画像にわたって同じ人物であると判断する方法として、例えば、検出された人物の移動ベクトルを用いて人物の移動予測位置と検出した人物位置とが一定距離内であれば同一人物であるとする方法がある。また、検出部205は、人物の色、形状、大きさ(画素数)等を用いて、複数のフレームの画像間で相関の高い人物を対応付けてもよい。このように、検出部205は、複数のフレームの画像にわたって同じ人物であると判断して、当該人物を追尾できればよく、特定の方法に限定されるものではない。
本実施形態に係る判定部708は、検出部205により追尾される人物の移動の状況(移動状況)を判定する。なお、人物の移動状況としては、例えば、当該人物の移動速度や、当該人物の移動の有無などがある。ここで、判定部708は、検出部205により追尾される人物の移動速度を判定する場合を想定する。この場合、判定部708は、撮像装置110が画像を撮像するフレームレートと、検出部205により追尾される人物の画像における位置の変化とに基づき、当該人物の移動速度を判定する。
また、判定部708は、検出部205により追尾される人物の移動の有無を判定する場合を想定する。この場合、判定部708は、検出部205により追尾される人物について、現在のフレームにおける当該人物の位置と、1つ前のフレームにおける当該人物の位置とを比較し、当該人物の移動距離を算出する。そして、判定部708は、算出した移動距離と閾値とを比較し、当該人物の移動の有無を判定する。具体的には、判定部708は、算出した移動距離が閾値以上である場合、当該人物は移動していると判定し、算出した移動距離が閾値未満である場合、当該人物は移動していないと判定する。
また、人物の移動の有無を判定する他の方法としては、複数の入力画像のフレーム間差分に基づく方法を用いてもよい。例えば、判定部708は、人物領域と、フレーム間差分により特定される動体領域のサイズとに基づいて、人物の移動の有無を判定する。具体的には、判定部708は、例えば、人物に対し設定された人物領域と、動体領域とが重畳している割合である重畳率が閾値以上である場合、当該人物は移動していると判定する。一方、判定部708は、人物に対し設定された人物領域と、動体領域との重畳率が閾値未満である場合、当該人物は移動していない判定する。なお、動体領域を特定する方法としては、抽出部204により背景画像を用いて抽出された前景領域を動体領域として特定してもよい。なお、人物の移動の有無を判定する処理は、画像を複数に分割して得られる分割領域ごとに行ってもよい。
本実施形態に係る生成部207は、判定部708により判定された人物の移動状況に基づき、当該人物に設定された人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。例えば、生成部207は、判定部708により判定された人物の移動速度に基づき、当該人物に設定された人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。また、例えば、生成部207は、判定部708により判定された人物の移動の有無に基づき、当該人物に設定された人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。
なお、例えば、移動状況に応じて、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる方法としては、次のような処理を行ってもよい。すなわち、生成部207は、移動している人物に対し設定された人物領域における前景領域を所定の色で塗りつぶす際には、移動速度に応じて、暖色系の色の中で用いる色を異ならせる。一方、生成部207は、移動していない人物に対し設定された人物領域における前景領域を所定の色で塗りつぶす際には、寒色系の色相の中で用いる色を異ならせて表示する。このように、色の大まかな種類(暖色系の色、寒色系の色など)を移動の有無に応じて割り当て、更に、移動速度に応じて、色の大まかな種類の各々において色を異ならせるようにしてもよい。なお、人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる方法については、特定の方法に限られず、例えば、実施形態2にて説明したようなシルエット画像の表示態様を異ならせる方法を用いればよい。
以上説明したように、本実施形態に係る画像処理装置100の生成部207は、画像における人物の移動状況に応じて、当該人物に設定された人物領域における前景領域を抽象化したシルエット画像の表示態様を異ならせる。このように、人物の移動状況に応じてシルエット画像の表示態様を異ならせることで、画像における人物の行動の様子をより把握しやすくすることが可能となる。
(実施形態6)
上述の各実施形態において、図6を参照して説明したように人の重なりが生じている場合であっても個々の人物の表示形態を異ならせることにより、画像に含まれる人物のプライバシーを保護しつつ、画像に含まれる人物の状況を把握しやすくすることができる。
本実施形態では、人の重なりが生じている場合において、より明確に個々の人物を区別可能な状態で、画像に含まれる人物のプライバシーを保護しつつ、画像に含まれる人物の状況を把握しやすくする出力画像を生成する方法に関して説明する。なお、実施形態1〜5と異なる部分を主に説明し、実施形態1〜5と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
図9は、本実施形態に関わる画像処理を説明するための図である。図9(a)は撮像装置110によって撮像された入力画像の一例を示しており、被写体として人物900〜903が映っている。
図9(b)は、本実施形態において用いられる背景画像の一例を示している。図9(c)に示す人物領域990は、本実施形態における人物領域を示しており、検出部205により検出された人物が十分に収まる大きさであり、検出された人物の位置に対し設定部206により設定される。
図9(d)は、実施形態1に係る画像処理によって、生成部207により生成されたシルエット画像を背景画像に重畳した出力画像である。具体的には、図9(a)に示す入力画像から検出された人物に対して設定部206は人物領域990を設定する。そして、設定部206により設定された人物領域990における前景領域を抽象化したシルエット画像を図9(b)に示す背景画像に重畳することで生成部207は出力画像を生成する。このようにして生成部207により生成された出力画像が図9(d)に示す画像である。
ここで、図9(d)では、重なりのある人物のシルエット画像905〜907は各々異なる色を用いて表示形態を異ならせている出力画像の例を示している。これより、図9(d)に示すように、単独で存在する人物900に対応するシルエット画像904のみならず、混雑領域に存在する複数の人物901〜903に対応するシルエット画像905〜907であっても各シルエット画像を識別可能な出力画像を生成できる。
図9(d)に示す出力画像をディスプレイ130に表示する場合、ディスプレイ130の表示性能次第では、似たような色は見た目に区別ができなくなる可能性がある。この場合、多数の人物が映っている画像中では、重なった人物同士の色の差が見えにくくなる可能性がある。また、色の違いにより明示的に表示形態を異ならせる場合において、視覚的に大きく異なる色の組み合わせを使用する必要があるため、使用可能な色数に制約を設ける必要がある。しかし、使用可能な色数に比べ多数の人物が映っている場合には、使用可能な色数が不足してしまい、重なっている人物同士に同じ色が適用されて区別ができなくなる可能性もある。そこで本実施形態では、更に明確な人の区別をつけることが可能な実施形態を説明する。
図9(e)は本実施形態の好適な出力画像例を示す図である。図9(e)においては、人物領域毎に表示形態を異ならせるようにする処理に加え、人物領域の外縁であって、前景領域と重複する外縁のみ、人物領域の内部とは異なる表示形態で表示する。
本実施形態における人物領域990は検出される人物の実際のサイズよりも大きい。そのため、例えば、画像から検出された人物900に対して人物領域990を設定する場合、人物900から抽出された前景領域と、人物900に対し設定された人物領域990の外縁とは重複しない。一方、人物同士の重なりがある人物901〜903の各々に対して人物領域990を設定する場合、人物901〜903の各々から抽出された前景領域と、人物901〜903の各々に対する人物領域990の外縁とで重複するラインが存在する。図9(e)に示すライン908は、人物901〜903から抽出された前景領域と、人物902に対し設定された人物領域990の外縁とで重複するライン(以下、重複ライン)である。また、ライン909は、人物901〜903から抽出された前景領域と、人物903に対し設定された人物領域990の外縁とで重複する重複ラインである。本実施形態における生成部207は、重複ラインであるライン908およびライン909の色を、シルエット画像の色と異ならせる。例えば、生成部207は、ライン908およびライン909の色を黒色とし、シルエット画像904〜907の色を黒色以外とする。このように、人物同士の重なりが存在する箇所であるライン908およびライン909を明示的に示すことで、複数の人物同士が重なった場合でも当該人物同士を容易に区別することができる。
なお、本実施形態における人物領域990は画像における人物が十分に収まる大きさであるものとして説明したが、これに限るものではない。例えば、多数の人物がいる状態において、実施形態4で説明したように、水平方向の幅を所定の倍率だけ縮小した人物領域を設定する場合を想定する。このような場合、人物同士の重なりが無い人物900であっても、水平方向の幅を所定の倍率だけ縮小した人物領域が設定されると、人物900から抽出される前景領域と、人物領域の外縁とで重複する重複ラインが存在する。本実施形態における生成部207は、当該重複ラインをシルエット画像と異なる色で表示させる。例えば、生成部207は、当該重複ラインを黒、シルエット画像を黒以外の色とする。なお、重複ラインに対する表示形態は人物(人物領域)毎に同じ表示形態にしてもよいし、人物(人物領域)毎に異なる表示形態にしてもよい。或いは、各々の人物の移動の有無や移動方向など特定の同じグループに分類できる人物には同じ表示形態を適用し、グループ毎に異なる表示形態にするなどを行ってもよい。
更に、上述の説明においては人物領域毎に内部の色を切り替え、更に人物領域の外縁における重複ラインのみ異なる表示形態にする例を示した。しかし、人物領域の外縁における重複ラインによる区別だけで十分な場合には、人物領域毎に内部の色を切り替える必要はなく、同じ色にしてもよい。或いは、何らかの分類により、同じグループに属する人物には同じ色を人物領域内部に適用し、グループ毎に異なる表示形態にするなどを行ってもよい。
(実施形態7)
従来、駅のホームなどを撮像した静止画から電車に乗れそうか否かをユーザが把握したいというケースがある。例えば、事故や災害の発生時に、ホームや駅が人で溢れていて駅に向かっても電車に乗れるのか、それとも、電車に乗れないのかを確認したいという要求がある。このような場合において、画像に含まれる人物を抽象化したシルエット画像を含む静止画1枚からでは、電車に乗れるのか否かの状況を判断することは難しい場合がある。
画像に多くの人物が存在する場合であっても当該多くの人物が流動しているとユーザは判別できれば電車に乗れそうだとユーザは判別できるが、静止画1枚からでは当該多くの人物が流動しているとユーザは判別することができない。そのため、ユーザは電車に乗れそうか否かを判別できない。一方、人物が動いているか否かに応じてシルエット画像の色を異ならせる方法により静止画1枚から人物が流動しているかをユーザは判別できる。しかしながら、画像に多くの人物がいる場合、人物同士が重なることで動きの検出に失敗してしまい、結果として人物が流動しているかを判別できず、ユーザは電車に乗れそうか否かを判断できない場合がある。そこで、本実施形態では、人物を抽象化した静止画1枚であっても、駅などで電車に乗れそうかを容易に判別できる出力画像を生成することを目的としている。以下、本実施形態における画像処理について説明するが、実施形態1〜6と異なる部分を主に説明し、実施形態1〜6と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
まず図10に示す機能ブロックを参照して、本実施形態にかかる画像処理装置100の画像処理について説明する。なお、図10に示す各機能は、本実施形態の場合、図14を参照して後述するROM1420とCPU1400とを用いて、次のようにして実現されるものとする。図10に示す各機能は、画像処理装置100のROM1420に格納されたコンピュータプログラムを画像処理装置100のCPU1400が実行することにより実現される。
判定部708は、撮像装置110によって連続的に撮像された画像中の物体の動きを判定する。例えば、判定部708は、通信部200が連続的に受信した入力画像間のフレーム間差分に基づいて画像中の動き量を判定する。例えば、判定部708は、前のフレームの各画素値と、現在のフレームの各画素値とで差分値を算出し、算出した差分値が閾値以上の画素を動きのある画素とし、その動きのある画素の数の合計を動き量とする。動き量の判定は、画像全体で動きの量を判定するようにしてもよい。或いは、画像を複数の領域に分割し、該分割領域毎に動き量を判定するようにしてもよい。更に、判定する内容として、動き量ではなく、実施形態5で説明したように単純に動きの有無を判定するようにしてもよい。例えば、判定部708は、画像に含まれる物体を追尾し、前のフレームから現在のフレームまでの当該物体の移動距離を算出する。そして、判定部708は、算出した移動距離と閾値とを比較し、移動距離が閾値以上なら移動していると判定し、閾値以下なら移動していないと判定する。
また、判定部708は、例えば、検出部205により検出された特定の物体の位置を、通信部200が連続的に受信した入力画像間で追尾することで、特定の物体の動きを判定する。動きの判定を行う際には、例えば、画像内に映っている特定の物体の全てを対象に判定を行うようにする。或いは、所定の画像位置毎に選択した代表物体を対象に動きの判定を行い、代表物体の周辺に映っている他の特定の物体の動きに反映する。或いは、画像内を複数の領域に分割し、分割領域内で一つ以上の代表物体を選択して動きの判定を行い、分割領域内に映っている他の特定の物体の動きに反映する。このように代表物体の動きを周辺の特定の物体の動きに反映することにより、追尾や動きの判定処理を削減することが可能になる。
調整部1000は、判定部708の判定結果に基づいて、検出部205で検出された特定の物体のうち、抽象化してシルエット画像とする特定の物体(抽象化対象)の数を調整する。例えば、判定部708の判定の結果から得られた画像内全体の動き量が所定値以上であれば、検出部205で検出された人物の全てを抽象化対象とするのでなく、一部の人物を抽象化対象とする。言い換えれば、調整部1000は、抽象化対象の人物の数を削減する。
削減の方法としては、例えば、動き量に基づいて上限数を設定し、検出部205で検出された人物の数が上限数を超えていた場合には、上限数までシルエット画像とする人物の数を削減する。上限数の決定方法としては、動き量が多いほど上限数を減らす。なお、動き量が所定以下では上限数を設けないようにしてもよい。
更に、調整部1000における抽象化対象の特定の物体の削減方法における他の好適な例としては、所定の割合で削減する、或いは所定数まで一律に削減するなど他の方法を適用してもよい。また、調整部1000における抽象化対象としない物体(非抽象化対象)の決定方法としては、画像中の物体の位置がなるべく分散するように非抽象化対象の物体を決定するとよい。非抽象化対象の物体の決定方法としては、例えば、視覚的な影響の大きいと考えられる画像の手前側の物体から遠方の物体に順番に代表物体を設定し、該代表物体に最も近い物体を非抽象化対象とする。これを削減数まで繰り返すことで、画像中の物体を平均的に間引くように抽象化対象の数を削減することが可能になる。或いは、削減物体の決定方法としては、例えば、物体間の距離が近い複数の特定の物体を検索し、該距離が近い複数物体の中から非抽象化対象の物体を決定する。これを削減数まで繰り返すことで、画像中の物体密度の高い領域から非抽象化対象の物体が選択されるため、画像中の物体の密度の偏りを少なくするように抽象化対象とする物体の数を削減することが可能になる。
更に、調整部1000における抽象化対象の物体の削減方法、或いは非抽象化対象の物体の決定方法としては、例えば、画像を複数の領域に分割し、分割領域毎に上述の処理を適用する。このようにすることで、特定の画像領域において検出された物体の削減を他の画像領域と異ならせることが可能になり、撮像場面に応じた抽象化対象の物体の数の調整が可能となる。更に、調整部1000における物体数の調整方法は上述の方法に限定するものではなく、乱数などを使用してランダムに決定するなど、同様の効果をもたらす他の方法により実現してもよい。
生成部207は、調整部1000による調整の結果に基づき、抽象化対象とされた特定の物体に対応する領域を抽象化したシルエット画像を生成する。本実施形態において、生成部207は、抽象化対象とされた特定の物体に対し設定された特定領域における前景領域を抽象化したシルエット画像を生成する。そして、生成部207は、生成したシルエット画像を背景画像に重畳することで出力画像を生成する。
次に、図11および図12を参照して、本実施形態に係る画像処理装置100の画像処理について更に詳細に説明する。図11は、本実施形態に係る画像処理装置100の画像処理の流れを示すフローチャートである。また、図12は、本実施形態に係る画像処理装置100の画像処理を説明するための図である。
なお、図11に示すフローを実行することで、設定された人物領域における前景領域を抽象化したシルエット画像を、抽象化対象の数の調整を行った後に背景画像に重畳した出力画像を生成することができる。なお、図11に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。なお、図11に示すフローチャートの処理は、撮像装置110のROM1420に格納されたコンピュータプログラムを撮像装置110のCPU1400が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、S1101にて、通信部200は、撮像装置110が撮像した画像(入力画像)を受信する。図12(a)は、通信部200が受信する入力画像の一例を示す図である。図12(a)に示す画像には、複数の人物が含まれている。
次に、S1102にて、抽出部204は、背景画像を取得する。図12(b)は、S1102にて抽出部204により取得される背景画像の一例を示す図であり、図12(a)に示す画像との差異は、人物1201〜1209の有無である。
次に、S1103にて、抽出部204は、撮像された入力画像から前景領域を抽出する。本実施形態における抽出部204は、通信部200が受信した入力画像と背景画像とを比較することにより、前景領域を抽出する。図12(c)は、S1103にて、抽出部204により、図12(a)に示す入力画像と、図12(b)に示す背景画像とを比較することにより抽出された前景領域を含む画像である。図12(c)に示す前景領域は黒色で示されている。
次に、S1104にて、検出部205は、照合パターン(辞書)を用いて、入力画像から人物を検出する。図12に示す例において、検出部205は、図12(a)に示す入力画像から、人物1201〜1209を検出する。
次に、S1105にて、判定部708は、連続して受信した複数の入力画像から検出された人物の動き量を判定する。ここで、駅などにおいて通常の場合であれば人が歩行している場面を撮像すると、人物の動きが検出される。一方、駅に入場規制がかかっている場合、多くの人が動けない状況で行列を形成することになるため、検出部205では、所定未満の人物の動きしか検出されない。このように、画像内の動きの量を人の流れが滞留している可能性を示唆している情報(滞留可能性情報)であるとする。
次に、S1106にて、調整部1000は、S1105において判定した人物の動きに基づいて、検出された人物1201〜1209のうち抽象化対象とする人物の数の調整を行う。例えば、調整部1000は、S1105で判定された動き量が所定値以上であれば、検出部205で検出された人物の全てを抽象化対象とするのでなく、一部の人物を抽象化対象とする。
調整部1000が行う調整内容の具体例としては、滞留が発生している可能性が低い場合には、後述する出力画像において人が動ける空間が十分にあることを視覚的にわかりやすくするために、抽象化対象とする人物の削減を行う。このようにすることで、混雑が発生しているものの、滞留状態にはなっていないことを、後述する出力画像に反映させることが可能となる。
一方、滞留が発生している可能性が高い場合には、後述する出力画像において実際の状況を視覚的にわかりやすくするため、抽象化対象とする人物の削減を行わないようにする。或いは、滞留の発生している可能性に応じて削減割合を変更する。ここで、判定部206において、滞留が発生している可能性が高いと判断された場合であっても、実際には混雑が発生しているとは限らない。しかし、この場合であっても抽象化対象とする人物が削減されないだけであり、混雑が発生していない実際の状況を、後述する出力画像に反映させることが可能となる。
次に、S1107にて、設定部206は、検出部205により検出され、更に調整部1000において人数調整が行われた結果得られた人物の位置、及び大きさに基づいて、人物に対応する形状の領域である人物領域を設定する。つまり、設定部206は、抽象化対象とされた人物に対し人物領域を設定する。
次に、S1108にて、生成部207は、設定部206により設定された人物領域における前景領域を抽象化したシルエット画像を生成する。
次に、S1109にて、生成部207は、S1108において生成したシルエット画像を、背景画像に重畳した出力画像を生成する。図12(d)に示す画像は、調整部1000において人数の調整が行われなかった場合に、生成部209において生成される出力画像の例であり、検出部205において検出された人物の動きが少なかった場合に対応している。一方、図12(e)は、調整部1000で人数の調整を行った場合に生成部207において生成される出力画像の例であり、検出部205において検出された人物の動きが多かった場合に対応している。
図12(e)に示すように、抽象化対象とする人物の数の調整が行われた結果人物が間引かれた場合、シルエット画像中の人物間に隙間が多くなる。その結果、図12(e)に示す画像からは、あまり混雑していない様子を表示することが可能になる。図12(e)に示す画像は実際の検出人数を反映していないものの、撮像領域は人が動くことが可能であることを一目でわかりやすい形で閲覧者に提示することが可能となるため、例えば駅に入場できないような状況にはなっていないことが容易に判断可能となる。
一方、図12(d)に示すように、抽象化対象とする人物の数の調整が行われた結果人物が間引かれなかった場合、シルエット画像中の人物間の隙間は検出部205の検出結果に基づいて決定される。ここで、調整部1000において人数の変更が行われなかった場合であっても、撮像範囲内にいる人数が少なかった場合には検出部205で検出される人数は少ないため、結果として人物間に隙間の多いシルエット画像が生成されることになる。一方、撮像範囲内に多くの人物が存在していた場合、検出部205で検出される人数が多くなり、結果として人物間に隙間が少ないシルエット画像が生成されることになる。人物間に隙間が少ない画像が閲覧者に提示された場合、閲覧者は混雑している様子をシルエット画像から確認することができる。
次に、S1110にて、表示制御部202は、生成部207により生成された出力画像を出力する。なお、本実施形態において、表示制御部202は、生成部207により生成された出力画像をディスプレイ130に表示させる。
次に、S1111にて、ユーザにより処理を終了する指示がある場合(S1111にてYes)、処理を終了する。一方、ユーザにより処理を終了する指示がない場合(S1111にてNo)、S1101へ戻り、通信部200は次のフレームの画像(入力画像)を受信する。
なお上述の説明においては、背景差分法により前景領域を抽出し、人物領域における前景領域を抽象化したシルエット画像を背景画像に重畳させることで出力画像を生成したが、これに限定されるものではない。例えば、入力画像にエッジ抽出処理を施して得られたエッジ成分を、検出部205により検出された人物の位置に基づいて切り出すことにより得られるエッジをシルエット画像として用いてもよい。或いは、検出部205により検出された人物の領域の輪郭線をシルエット画像として用いてもよい。或いは、該輪郭線の内部領域を塗りつぶした結果得られる塗りつぶし画像をシルエット画像として用いてもよい。或いは、検出部205により検出された入力画像における人物の位置に対応する背景画像における位置に当該人物の存在を示すアイコンを重畳してもよい。つまり、人物の存在を示すアイコンをシルエット画像として用いてもよい。その他、人数調整が適用可能なシルエット画像の生成方法であれば、いかなる方法を適用してもよい。
更に、上述の例を適用する際には、入力画像全体に同一の処理を行うのみならず、入力画像を複数領域に分割して、分割領域毎に異なる抽象化対象とする人物の数の調整を行うようにしてもよい。
以上説明したように、本実施形態に係る画像処理装置によれば、人の動きの量に応じて閲覧者が見る画像中の様子を異ならせることが可能になる。その結果、人が動けないような混雑状況が発生している場合には混雑している様子を示す画像を提示することが可能になる。一方混雑してはいるものの、電車の乗り降りなどにより人が動いている状況であれば、人が動ける状況である様子を示す画像を提示することが可能になる。このようにすることで、本実施形態では、人物を抽象化した静止画1枚であっても、駅などで電車に乗れそうかを容易に判別できる出力画像を生成することができる。なお、画像中の人の動き方は撮像したカメラの設置場所や設置方法によって異なるため、同じ動き量が得られた場合であってもカメラの設置場所、或いは駅によって異なる対応が必要になる場合がある。そのため、S1105において判定した人物の動きに加え、所定の判断基準に基づいて判定を行うようにし、当該判定結果に基づいてS1106の調整を行うようにしてもよい。
(実施形態8)
実施形態7においては、検出された特定の物体の動きを滞留可能性情報とし、該滞留可能性情報に基づいて、抽象化対象とする特定の物体の数の調整を行った後に、シルエット画像の生成を行う例を示した。本実施形態においては、特定の物体の動き以外の情報を滞留可能性情報として該特定の物体の数の調整を行い、シルエット画像の生成を行う例を説明する。以下、実施形態1〜7と異なる部分を主に説明し、実施形態1〜7と同一または同等の構成要素、および処理には同一の符号を付すとともに、重複する説明は省略する。
プラットホーム、駅、博物館、美術館、ショッピングモール、スタジアムなどの人が集まる施設のような場所においては、何らかの理由により人が殺到して円滑な利用が困難になる場合がある。このような場合、円滑な利用が困難になったことを示す情報(利用情報)が発せられる。利用情報の具体例としては、電車など交通機関の運行情報(遅延の発生の有無、遅延時間、運転再開までの予想時間など)、プラットホームや駅、博物館など施設への入場規制の有無の情報、施設への入場待ち時間の情報などが挙げられる。そして、該利用情報が発信された場合には、円滑な利用ができなくなっている可能性があることから、滞留が発生する可能性がある。特に、待ち時間が長くなることを示す情報が発信された場合には、時間の経過とともに混雑度合が増えてゆき、最終的には人の滞留につながる可能性がある。そこで、本実施形態においては、該利用情報を滞留可能性情報として、調整部1000により調整を行う例を示す。
以下、図13を参照して、本実施形態に係る画像処理について説明する。なお、図13に示すS1101〜S1104までの処理は図11で説明した内容と同様であるため説明を省略する。図13においてS1300にて、通信部200は、上述の利用情報を受信する。なお、S1300にて、本実施形態における通信部200は、利用情報として運行情報を受信するものとする。次に、S1301にて、調整部1000は、S1300において受信した運行情報に基づいて、検出された人物1201〜1209の一部を抽象化対象とすることで、抽象化対象とする人の数の調整を行う。なお、図13に示すS1107〜S1111までの処理は図11で説明した内容と同様であるため説明を省略する。
なお、利用情報には様々な種類があるだけでなく、同じ利用情報であってもカメラの設置場所、或いは駅によって異なる対応が必要になる場合がある。例えば、同じ遅延時間の情報を受信した場合でも、駅によって発生する混雑状況は異なる。そのため、S1300において受信した利用情報を、所定の判断基準に基づいて判定し、該判定結果に基づいてS1301の調整を行うようにしてもよい。その結果、同じ利用情報から異なる調整を行った結果に基づくシルエット画像を生成することが可能になる。
本実施形態における利用情報に基づく調整の例としては、次のような方法がある。すなわち、利用情報が電車の遅延の発生などの運行情報、或いは入場規制中であることを示す情報であった場合、混雑している様子がシルエット画像に反映されるように、抽象化対象とする人物の数の調整は行わないようにする。一方、利用情報が発せられていない、或いは平常時を示す情報の場合には、人数の調整を行うようにする。更に、利用情報に遅延時間や運転再開までの予想時間が含まれていた場合には、該遅延時間、或いは該予想時間が長いほど混雑する可能性が高まるため、人数調整による削減の割合が少なくなるようにする。このように、人が動けないような混雑が発生する可能性が高い場合には、実際の混雑状態を反映したシルエット画像を生成し、人が動ける程度の混雑度合であった場合には人が動けることを容易に把握可能なシルエット画像を生成することが可能となる。なお、本実施例においては上述の利用情報に基づいて、抽象化対象とする人物の数の調整を行う例を示したが、これに限定するものではない。例えば、利用情報に加えて、実施形態7において図11のS1105で説明した人物の物体の動きを併せて考慮するようにしてもよい。
(実施形態9)
実施形態7〜8では、S1106、或いはS1301において行う調整部1000による調整の処理として、抽象化対象とする人数を削減する方法について説明した。本実施形態では、他の調整方法について説明する。
混雑が発生して人の密度が高くなると人物同士の重なりが増えるため、S1104で行われる人物検出の方法によっては人としての特徴を捉えることが難しくなり、検出される人数が少なくなる場合がある。例えば、照合パターンを用いる場合に、照合する対象の人物領域が隠れてしまう場合などが挙げられる。この場合には、連続する複数の入力画像において、S1103で行われる前景領域の抽出の結果、前景領域の面積が減少していないにもかかわらず検出される人数が少なくなる。そこで、連続する複数の入力画像間において前景領域が減少していないにもかかわらず検出人数が減少した場合には、人物検出が困難な混雑が発生している可能性があると判定し、抽象化対象とする人物の数を増やすように調整する。このようにすることで、人物検出に失敗している人が発生しているにもかかわらず、人が動けないほどの混雑が発生している状況を示すシルエット画像の生成を行うことが可能になる。
抽象化対象とする人物の数を増やすように調整を行うかどうかの判定の具体例としては、以下のようにしてもよい。すなわち、調整部1000は、前景領域が所定面積以上ある場合において、過去の画像における検出人数と前景領域の割合に比べ、検出人数が所定以上減少した場合に、抽象化対象とする人の数を増やす方向で調整すると判定するとよい。なお、該判定の際の検出人数と前景領域の割合は実行時に動的に決定してもよいが、予め測定した結果を固定的に保持しておくようにしてもよい。
更に、上述の例においては前景領域を用いて判定を行うようにしたが、本実施形態はこれに限るものではない。例えば、背景画像と入力画像について各々画像中のエッジを検出し、検出されたエッジの類似度によって画像中に発生している変化の大きさを判定する。この変化の大きさが所定以上発生しているにもかかわらず、検出された人数が減少している場合に抽象化対象とする人数を増やす方向で調整を行うようにしてもよい。その他、画像中の時間的な変化を捉えることが可能な方法であればいかなる方法を用いてもよい。
また、抽象化対象とする人の数を増やす際の人物挿入方法としては、画像中の変化が発生している位置であって、且つ検出されている人物間の空間が埋まるように人物の位置を決定するとよい。また、増やす人物の大きさは、周囲で検出された人物の大きさに基づいて決定するとよいが、その際に撮像画角の影響で位置によって人の大きさが大きく変化する場合があるため、この変化を考慮するようにしてもよい。更に、増加させる抽象化対象の人数に関しては、前述の検出された人物の隙間が埋まるまで行うようにするとよい。或いは、所定時間内において検出された最大人数まで増加させる、最大人数に対して所定の人数を超えるまで増加させるなど、視覚的に混雑が発生している様子が表現される人数まで増加させるようにする様々な方法が適用可能である。
本実施形態で説明したように人数調整を行った後に、前述の実施形態において説明したシルエット画像の生成を行うことにより、様々な状況下においても汎用的に混雑状況を閲覧者が把握可能な画像を生成することが可能になる。
(その他の実施形態)
次に図14を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
本実施形態における画像処理装置100は、CPU1400と、RAM1410と、ROM1420、HDD1430と、I/F1440と、を有している。
CPU1400は画像処理装置100を統括制御する中央処理装置である。RAM1410は、CPU1400が実行するコンピュータプログラムを一時的に記憶する。また、RAM1410は、CPU1400が処理を実行する際に用いるワークエリアを提供する。また、RAM1410は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM1420は、CPU1400が画像処理装置100を制御するためのプログラムなどを記憶する。HDD1430は、画像データ等を記録する記憶装置である。
I/F1440は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU1400が処理を実行する例について説明するが、CPU1400の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM1420からプログラムコードを読み出してRAM1401に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図14に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
なお、上述の各実施形態において、隠蔽対象(抽象化の対象)である特定の物体を人物として説明したが、本発明はこれに限らない。例えば、背景画像上に映っていない物体であって、撮像範囲の状況を把握するために有用な物体であれば人物検出と同様に当該物体検出を行い、上述の処理を適用してシルエット画像を生成して背景画像に重畳した出力画像を生成してもよい。状況の把握に有用な物体としては例えば、邪魔になりやすい旅行用の大きなカバンや、工事個所に設置される進入禁止を示すバリケードなど様々な物体が挙げられる。
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 画像処理装置
110 撮像装置
200 通信部
201 記憶部
202 表示制御部
203 操作受付部
204 抽出部
205 検出部
206 設定部
207 生成部
708 判定部
1000 調整部

Claims (15)

  1. 撮像された入力画像から前景領域を抽出する抽出手段と、
    前記入力画像から特定の物体を検出する検出手段と、
    前記検出手段により検出された特定の物体の位置に基づいて、少なくとも一部が曲線の形状の領域である特定領域を設定する設定手段と、
    前記設定手段により設定された特定領域以外の前記前景領域は、前記入力画像に対応する所定の画像に重畳せず、前記設定手段により設定された特定領域における前記前景領域を抽象化したシルエット画像を、前記所定の画像に重畳した出力画像を生成する生成手段と、を有することを特徴とする画像処理装置。
  2. 前記入力画像における混雑領域を判定する判定手段を更に有することを特徴とする請求項1に記載の画像処理装置。
  3. 前記判定手段は、前記入力画像の全体の領域を複数に分割した分割領域のうち、前記検出手段により検出された特定の物体の数が閾値以上の分割領域を混雑領域であると判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記判定手段は、前記抽出手段により抽出された前景領域のサイズが閾値以上である場合に、当該前景領域を混雑領域であると判定することを特徴とする請求項2に記載の画像処理装置。
  5. 前記生成手段は、前記判定手段により判定された混雑領域に位置する人物に対して前記設定手段により設定された特定領域ごとに、特定領域における前記前景領域を抽象化したシルエット画像の表示態様を異ならせることを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。
  6. 前記設定手段は、前記判定手段により判定された混雑領域に位置する人物に対し、水平方向の幅を所定の倍率だけ縮小させた特定領域を設定することを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
  7. 前記所定の画像は、前記前景領域を抽出するために用いられる背景画像であることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記抽出手段は、撮像された入力画像と前記背景画像とを比較することで前記前景領域を抽出することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記抽出手段は、前記入力画像の各画素と、前記背景画像の各画素とで算出された差分値と閾値とを比較することで前記前景領域を抽出することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記特定の物体は、人物であることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記設定手段により設定される特定領域の形状は、人物の少なくとも頭部に対応する第1形状と、人物の胴体に対応する第2形状とを含む形状であることを特徴とする請求項10に記載の画像処理装置。
  12. 前記生成手段は、前記特定領域の外縁であって、前記抽出手段により抽出された前景領域と重複する外縁の表示態様を、当該特定領域における当該前景領域を抽象化したシルエット画像の表示形態と異ならせることを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記生成手段は、前記入力画像における動きの量に基づいて、前記検出手段により検出された複数の特定の物体のうち、一部の特定の物体に対する特定領域における前記前景領域を抽象化したシルエット画像を前記所定の画像に重畳した出力画像を生成することを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 撮像された入力画像から前景領域を抽出する抽出工程と、
    前記入力画像から特定の物体を検出する検出工程と、
    前記検出工程により検出された特定の物体の位置に基づいて、少なくとも一部が曲線の形状の領域である特定領域を設定する設定工程と、
    前記設定工程により設定された特定領域以外の前記前景領域は、前記入力画像に対応する所定の画像に重畳せず、前記設定工程により設定された特定領域における前記前景領域を抽象化したシルエット画像を、前記所定の画像に重畳した出力画像を生成する生成工程と、を有することを特徴とする画像処理方法。
  15. コンピュータを請求項1乃至13のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2019030373A 2018-12-26 2019-02-22 画像処理装置、画像処理方法、及びプログラム Active JP7418074B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018242175 2018-12-26
JP2018242175 2018-12-26

Publications (2)

Publication Number Publication Date
JP2020107297A true JP2020107297A (ja) 2020-07-09
JP7418074B2 JP7418074B2 (ja) 2024-01-19

Family

ID=71449226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019030373A Active JP7418074B2 (ja) 2018-12-26 2019-02-22 画像処理装置、画像処理方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP7418074B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455715B2 (ja) 2020-09-24 2024-03-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 混雑状況推定装置、方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117163A (ja) * 2003-10-03 2005-04-28 Canon Inc カメラサーバ装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2005235104A (ja) * 2004-02-23 2005-09-02 Jr Higashi Nippon Consultants Kk 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2014063470A (ja) * 2012-08-29 2014-04-10 Jvc Kenwood Corp デプス推定装置、デプス推定方法、デプス推定プログラム、画像処理装置、画像処理方法及び画像処理プログラム
JP2017098879A (ja) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2018195292A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005117163A (ja) * 2003-10-03 2005-04-28 Canon Inc カメラサーバ装置及びその制御方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2005235104A (ja) * 2004-02-23 2005-09-02 Jr Higashi Nippon Consultants Kk 移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラム
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2014063470A (ja) * 2012-08-29 2014-04-10 Jvc Kenwood Corp デプス推定装置、デプス推定方法、デプス推定プログラム、画像処理装置、画像処理方法及び画像処理プログラム
JP2017098879A (ja) * 2015-11-27 2017-06-01 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法
JP2018195292A (ja) * 2017-05-12 2018-12-06 キヤノン株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
米司 健一,他5名: "駅構内モニタカメラを用いた混雑度可視化技術", 情報処理学会 デジタルプラクティス[ONLINE], vol. 第8巻 第2号, JPN6023007604, 15 April 2017 (2017-04-15), JP, pages 152 - 159, ISSN: 0004999942 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7455715B2 (ja) 2020-09-24 2024-03-26 エヌ・ティ・ティ・コミュニケーションズ株式会社 混雑状況推定装置、方法およびプログラム

Also Published As

Publication number Publication date
JP7418074B2 (ja) 2024-01-19

Similar Documents

Publication Publication Date Title
US11228715B2 (en) Video surveillance system and video surveillance method
JP7173196B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CA2931713C (en) Video camera scene translation
JP6504364B2 (ja) モニタリング装置、モニタリングシステムおよびモニタリング方法
EP3343435A1 (en) Multi-camera object tracking
WO2018103244A1 (zh) 直播视频处理方法、装置及电子设备
JP4085959B2 (ja) 物体検出装置、物体検出方法、および記録媒体
US10540791B2 (en) Image processing apparatus, and image processing method for performing scaling processing based on image characteristics
JP6403687B2 (ja) 監視システム
US9858486B2 (en) Device and method for detecting circumventing behavior and device and method for processing cause of circumvention
WO2004004320A1 (en) Digital processing of video images
EP3249651B1 (en) Generating a summary video sequence from a source video sequence
US20130201328A1 (en) Multimedia processing as a service
CA2972798A1 (en) Video triggered analyses
WO2016158001A1 (ja) 情報処理装置、情報処理方法、プログラム及び記録媒体
Davies et al. A progress review of intelligent CCTV surveillance systems
JP2010193227A (ja) 映像処理システム
JP7418074B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021185663A (ja) 映像監視装置、映像監視方法及びプログラム
JP2009147607A (ja) 人物追尾装置
JP2005115270A (ja) 移動体付随情報表示装置
JP2007133304A (ja) 情報表示制御装置および情報表示制御方法
JP7327936B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR102468685B1 (ko) 가상현실 기반의 작업현장 안전관리장치 및 그 장치의 구동방법
US10979675B2 (en) Video monitoring apparatus for displaying event information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231227

R151 Written notification of patent or utility model registration

Ref document number: 7418074

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151