JP2022026211A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents

画像処理装置、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP2022026211A
JP2022026211A JP2020129570A JP2020129570A JP2022026211A JP 2022026211 A JP2022026211 A JP 2022026211A JP 2020129570 A JP2020129570 A JP 2020129570A JP 2020129570 A JP2020129570 A JP 2020129570A JP 2022026211 A JP2022026211 A JP 2022026211A
Authority
JP
Japan
Prior art keywords
image
person
target
captured
reference image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020129570A
Other languages
English (en)
Inventor
太一 松井
Taichi Matsui
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020129570A priority Critical patent/JP2022026211A/ja
Publication of JP2022026211A publication Critical patent/JP2022026211A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】人物が含まれない背景画像の生成のための検出処理に係る処理負荷を低減しつつ効率的に背景画像を生成する画像処理装置を提供する。【解決手段】画像処理装置100は、撮像手段により撮像された画像である基準画像において人物が含まれる部分領域を特定する特定部と、基準画像と異なるタイミングで撮像手段により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する抽出部と、抽出部により抽出された一又は複数の対象画像において、部分領域に対応する対応領域に対し人物を検出する検出処理を実行する検出部と、対応領域に対する検出処理の結果に基づき一又は複数の対象画像から選択された対象画像と、基準画像とに基づき、背景画像を生成する背景生成部と、を有する。【選択図】図2

Description

本発明は、画像処理技術に関する。
街中や建物などにおいて撮像装置の設置が広まる一方で、撮像装置により撮像された画像に映る人物のプライバシーを保護する重要性が高まっている。特許文献1では、撮像された画像に含まれる人物に対応するマスク画像と、人物が映っていない背景画像とを合成することでプライバシー保護がなされた画像を生成する方法について開示されている。また、特許文献1では、複数の画像各々に対して人物の検出を行い、当該複数の画像各々において人物が検出された領域以外の画像を用いて、人物が含まれない背景画像を生成する方法について開示されている。
特開2016-115214号公報
しかしながら特許文献1では、人物が含まれない背景画像を生成するにあたって、撮像された複数の画像各々について画像全体の領域に対し人物を検出する処理を実行しているため、検出処理に係る処理負荷が高くなることがある。
そこで、本発明は、人物が含まれない背景画像の生成のための検出処理に係る処理負荷を低減しつつ効率的に背景画像を生成することを目的としている。
上記課題を解決するために、例えば、本発明に係る画像処理装置は、以下の構成を備える。すなわち、撮像手段により撮像された画像である基準画像において人物が含まれる部分領域を特定する特定手段と、前記基準画像と異なるタイミングで前記撮像手段により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する抽出手段と、前記抽出手段により抽出された一又は複数の前記対象画像において、前記部分領域に対応する対応領域に対し人物を検出する検出処理を実行する検出手段と、前記対応領域に対する前記検出処理の結果に基づき一又は複数の前記対象画像から選択された対象画像と、前記基準画像とに基づき、前記背景画像を生成する生成手段とを有する。
本発明によれば、人物が含まれない背景画像の生成のための検出処理に係る処理負荷を低減しつつ効率的に背景画像を生成することができる。
システム構成の一例を示す図である。 画像処理装置の機能ブロックを示す図である。 背景画像を生成する生成処理を説明するための図である。 背景画像を生成する生成処理の流れを示すフローチャートである。 保護画像を生成する処理の流れを示すフローチャートである。 各装置のハードウェア構成の一例を示す図である。
以下、添付図面を参照しながら、本発明に係る実施形態について説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
(実施形態1)
図1は、本実施形態におけるシステム構成を示す図である。本実施形態におけるシステムは、画像処理装置100、撮像装置110、記録装置120、およびディスプレイ130を有している。
画像処理装置100、撮像装置110、および記録装置120は、ネットワーク140を介して相互に接続されている。ネットワーク140は、例えばETHERNET(登録商標)等の通信規格に準拠する複数のルータ、スイッチ、ケーブル等から実現される。
なお、ネットワーク140は、インターネットや有線LAN(Local Area Network)、無線LAN(Wireless Lan)、WAN(Wide Area Network)等により実現されてもよい。
画像処理装置100は、例えば、後述する画像処理の機能を実現するためのプログラムがインストールされたパーソナルコンピュータ等によって実現される。撮像装置110は、画像を撮像する装置であり、撮像手段として機能する。撮像装置110は、撮像した画像の画像データと、画像を撮像した撮像日時の情報と、撮像装置110を識別する情報である識別情報とを関連付けて、ネットワーク140を介し、画像処理装置100や記録装置120等の外部装置へ送信する。なお、本実施形態に係るシステムにおいて、撮像装置110は1つとするが、複数であってもよい。すなわち、複数の撮像装置110が、ネットワーク140を介して、画像処理装置100や記録装置120と接続されてもよい。この場合、画像処理装置100および記録装置120は、例えば、送信された画像と関連付けられた識別情報を用いて、送信された当該画像は、複数の撮像装置110のうちどの撮像装置110により撮像されたかを判断する。
記録装置120は、撮像装置110が撮像した画像の画像データと、画像を撮像した撮像日時の情報と、撮像装置110を識別する識別情報とを関連付けて記録する。そして、画像処理装置100からの要求に従って、記録装置120は、記録したデータ(画像、識別情報など)を画像処理装置100へ送信する。
ディスプレイ130は、LCD(Liquid Crystal Display)等により構成されており、画像処理装置100により生成された後述する保護画像や、撮像装置110が撮像した画像などを表示する。ディスプレイ130は、HDMI(登録商標)(High Definition Multimedia Interface)等の通信規格に準拠したディスプレイケーブルを介して画像処理装置100と接続されている。なお、ディスプレイ130、画像処理装置100、および記録装置120の少なくともいずれか2つ又は全ては、単一の筐体に設けられてもよい。
なお、画像処理装置100が生成した保護画像や、撮像装置110により撮像された画像は、画像処理装置100にディスプレイケーブルを介して接続されたディスプレイ130に限らず、例えば、次のような外部装置が有するディスプレイに表示されてもよい。すなわち、ネットワーク140を介して接続されたスマートフォン、タブレット端末などのモバイルデバイスが有するディスプレイに表示されていてもよい。
次に、図2に示す本実施形態に係る画像処理装置100の機能ブロックを参照して、本実施形態に係る画像処理装置100の画像処理について説明する。なお、図2に示す各機能は、例えば、図6を参照して後述するROM(Read Only Memory)620とCPU(Central Processing Unit)600とを用いて、次のようにして実現されるものとする。すなわち、図2に示す各機能は、画像処理装置100のROM620に格納されたコンピュータプログラムを画像処理装置100のCPU600が実行することにより実現される。
通信部200は、図6を参照して後述するI/F(Interface)640によって実現でき、ネットワーク140を介して、撮像装置110や記録装置120と通信を行う。通信部200は、例えば、撮像装置110が撮像した画像の画像データを受信したり、撮像装置110を制御するための制御コマンドを撮像装置110へ送信したりする。なお、制御コマンドは、例えば、撮像装置110に対して画像を撮像するよう指示を行うコマンド、または、撮像した画像を送信するよう要求する送信要求であって送信対象となる撮像画像の撮像日時の指定を含む送信要求のコマンドなどである。送信要求のコマンドを受け取った撮像装置110は、送信要求に含まれる撮像日時に対応する画像の画像データを画像処理装置100に送信する。
記憶部201は、図6を参照して後述するRAM(Random Access Memory)610やHDD(Hard Disk Drive)630等によって実現でき、例えば、通信部200が取得した画像の画像データを記憶(保持)する。操作受付部202は、キーボードやマウス等の入力装置(不図示)を介して、ユーザが行った操作を受け付ける。
検出部203は、撮像装置110に撮像された画像に対して人物を検出する検出処理を実行する。本実施形態における検出部203は、照合パターン(辞書)を使用して、パターンマッチング等の処理を行うことで、画像に含まれる人物の検出を行う。なお、人物が正面向きである場合の照合パターンと横向きである場合の照合パターンなど複数の照合パターンを用いて画像から人物を検出するようにしてもよい。このように、複数の照合パターンを用いた検出処理を実行することで、検出精度の向上が期待できる。なお、照合パターンとして、斜め方向からや上方向からなど他の角度から人物を見た場合の照合パターンを用意しておいてもよい。また、人物を検出するにあたって、必ずしも全身の特徴を示す照合パターン(辞書)を用意しておく必要はなく、上半身、下半身、頭部、顔、足などの人物の一部について照合パターンを用意してもよい。なお、本実施形態における検出部203は、画像から人物を検出する方法として、パターンマッチング処理を用いるが、他の従来技術を用いて画像から人物を検出してもよい。
特定部204は、撮像装置110により撮像された画像である基準画像における人物が含まれる部分領域を特定する。本実施形態における特定部204は、基準画像に対する検出部204による検出処理の結果に基づき、基準画像における人物が含まれる部分領域を特定する。例えば、検出部203は、基準画像に対し検出処理を実行し、特定部204は、基準画像から検出された人物の位置に基づき、当該人物の外接矩形を部分領域として基準画像上で特定する。
抽出部205は、基準画像と異なるタイミングで撮像装置110により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する。
背景生成部206は、抽出部205により抽出された一又は複数の対象画像各々の部分領域に対応する対応領域に対する検出処理の結果に基づき選択された対象画像と、基準画像とに基づき、人物が含まれない背景画像を生成する。具体的には、検出部203は、抽出部205により抽出された一又は複数の対象画像各々における領域であって、特定部204により基準画像上で特定された部分領域に対応する領域である対応領域に対し、人物を検出する検出処理を実行する。そして、背景生成部206は、対応領域に対する検出処理の結果に基づき、一又は複数の対象画像のうち、対応領域において人物が検出されなかった対象画像を選択する。そして、背景生成部206は、対応領域において人物が検出されなかった対象画像と、基準画像とに基づき、背景画像を生成する。例えば、背景生成部206は、人物が検出されなかった対応領域の部分の画像と、基準画像とを合成することで、背景画像を生成する。
合成部207は、撮像装置110により撮像された画像から検出された人物を抽象化した画像である抽象化画像と、背景生成部206により生成された背景画像とを合成することで、人物のプライバシー保護がなされた画像である保護画像を生成する。
出力制御部208は、合成部207により生成された保護画像を出力する。例えば、出力制御部208は、ネットワーク140を介して、合成部207により生成された保護画像を記録装置120に送信したり、他の外部装置(不図示)に出力したりする。また、出力制御部208は、例えば、合成部207により生成された保護画像をディスプレイ130に表示させたりする。
ここで、図3を参照して、本実施形態における画像処理装置100による背景画像を生成する生成処理についてより具体的に説明する。図3(a)は、或る時刻aに撮像された画像である基準画像300aに対して検出処理が実行された結果を示す図である。図3(a)に示す基準画像300aには人物310と人物320とが映っている。また、図3(a)において、部分領域301aは、基準画像300aから検出部203により検出された人物310の外接矩形の領域であり、部分領域302aは、基準画像300aから検出部203により検出された人物320の外接矩形の領域である。また、図3(b)~図3(d)の各々は、基準画像300aと異なるタイミングで撮像装置110に撮像された複数の画像から、抽出部205により所定の条件に基づき抽出された対象画像300b、300c、300dを示している。なお、本実施形態における抽出部205は、例えば、次のような処理を実行することで、撮像装置110により撮像された複数の画像から、対象画像を抽出する。すなわち、抽出部205は、撮像装置110により撮像された複数の画像から、基準画像300aが撮像された時刻aから所定範囲の期間において撮像装置110に撮像された画像を対象画像として抽出する。このとき、抽出部205は、例えば、基準画像300aが撮像された時刻aを起点として前後10分以内の期間において撮像装置110に撮像された画像を対象画像として抽出する。なお、図3に示す例では、複数の画像が対象画像として抽出されているが、一つの画像が対象画像として抽出されてもよい。以上のようにして抽出部205に抽出された対象画像300b、300c、300dの各々に対し、特定部204は、基準画像300aにおける部分領域301a,302aに対応する対応領域を特定する。図3(b)では、特定部204は、対象画像300bにおいて、基準画像300a上の部分領域301aに対応する対応領域301bと、基準画像300a上の部分領域302aに対応する対応領域302bとを特定する。同様に、図3(c)では、特定部204は、対象画像300cにおいて、基準画像300a上の部分領域301aに対応する対応領域301cと、基準画像300a上の部分領域302aに対応する対応領域302cとを特定する。同様に、図3(d)では、特定部204は、対象画像300dにおいて、基準画像300a上の部分領域301aに対応する対応領域301dと、基準画像300a上の部分領域302aに対応する対応領域302dとを特定する。なお、本実施形態において、基準画像における部分領域の位置関係、および、対象画像における対応領域の位置関係は略同一となる。例えば、画像(基準画像、対象画像など)の左上の頂点を原点とした場合、基準画像における或る部分領域の各頂点の(X,Y)座標と、当該部分領域に対応する対象画像上の対応領域の各頂点の(X,Y)座標とが同一になる。図3(a)~(b)に示す例では、例えば、基準画像300aにおける部分領域301aの左上頂点の(X,Y)座標と、対象画像300bにおける部分領域301bの左上頂点の(X,Y)座標とが同一となる。
対象画像300b、300c、300dの各々に対し特定部204により対応領域が特定されたのち、検出部203は、対象画像300a、300c、300dの各々において特定された対応領域に対し、人物の検出処理を実行する。この結果、図3(b)の例では、対象画像300bの対応領域301bにおいて人物が検出されず、対象画像300bの対応領域302bにおいて人物が検出される。また、図3(c)の例では、対象画像300cの対応領域301cにおいて人物が検出され、対象画像300cの対応領域302cにおいて人物が検出されない。図3(d)の例では、対象画像300dの対応領域301dおよび対応領域302dの両方において人物が検出される。なお、検出部203は、対象画像における対応領域の全体のみに検出処理を実行するにようにしてもよいが、これに限らない。例えば、検出部203は、対象画像における対応領域を所定倍率だけ拡大した領域である拡張対応領域に対し検出処理を実行してもよい。このとき、図3(c)に示す例では、検出部203は、対応領域301cを所定倍率(例えば1.2倍)だけ拡大した拡張対応領域に対して検出処理を実行する。そして、検出部203は、対応領域301cに対する拡張対応領域において人物が検出された場合、対応領域301cにて人物が検出されたと判断し、拡張対応領域において人物が検出されなかった場合、対応領域301cにて人物が検出されていないと判断する。
背景生成部206は、抽出部205により抽出された対象画像300b~dのうち、部分領域にて人物が検出されなかった対象画像を選択する。図3の例では、対象画像300bの対応領域301bと、対象画像300cの対応領域302cとにおいて人物が検出されなかったため、背景生成部206は、対象画像300bおよび対象画像300cを選択する。そして、背景生成部206は、対象画像300bの対応領域301bの部分の画像と、対象画像300cの対応領域302cの部分の画像と、基準画像300aとに基づいて、図3(e)に示す背景画像300eを生成する。このとき、背景生成部206は、例えば、基準画像300aの部分領域301aの位置に、対応領域301bの部分の画像を合成し、同様に、基準画像300aの部分領域302aの位置に、対応領域302cの部分の画像を合成する。このようにすることで、背景生成部206は、図3(e)に示す背景画像300eを生成する。図3(e)に示すように、人物が含まれない対応領域の画像と基準画像300aとに基づき生成された背景画像300eにおいて人物は含まれていない。
続いて、図4に示すフローを参照して、本実施形態における画像処理装置100による背景画像を生成する生成処理についてより詳細に説明する。なお、図4に示すフローの処理を実行することで、プライバシー保護の対象である人物が含まれない背景画像を生成することができる。なお、図4に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。なお、図4に示すフローチャートの処理は、画像処理装置100のROM620に格納されたコンピュータプログラムを画像処理装置100のCPU600が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、S401にて、通信部200は、撮像装置110に撮像された画像である基準画像を取得する。なおこのとき、通信部200は、例えば、操作受付部202が受け付けたユーザ操作に基づき、基準画像を取得するようにしてもよい。例えば、ユーザにより日時を指定する操作を受け付けた場合、通信部200は、当該指定された日時(以下、指定日時)に最も近い時刻に撮像された画像を要求するコマンドを撮像装置110や記録装置120に送信する。そして、通信部200は、指定時刻に最も近い時刻に撮像された画像を撮像装置110や記録装置120から基準画像として取得するようにしてもよい。図3に示す例では、通信部200は、基準画像300aを取得する。
次に、S402にて、検出部203は、基準画像に対し人物を検出する検出処理を実行する。次に、S403にて、基準画像にて人物が検出されなかった場合(S403にてNo)、S404に遷移し、S404にて、記憶部201は、S401で取得した基準画像を背景画像として記録する。一方、基準画像にて人物が検出された場合(S403にてYes)、S405に遷移する。S405にて、特定部204は、基準画像において検出された人物が含まれる部分領域を特定する。図3に示す例では、特定部204は、基準画像300aから検出された人物310、320各々に対し部分領域301a、302aを特定する。なお、本実施形態における特定部204は、図3(a)に示すように、検出された人物を外接する外接矩形の領域を当該人物に対する部分領域として特定する。
次に、S406にて、抽出部205は、基準画像と異なるタイミングで撮像装置110により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する。ここで、図3を参照して、抽出部205により対象画像を抽出する方法について説明する。対象画像を抽出する一つ目の方法として、抽出部205は、撮像装置110により撮像された複数の画像から、基準画像300aが撮像された日時から所定期間において撮像装置110に撮像された画像を対象画像として抽出する。このとき、基準画像300aが“2020年7月1日13時”に撮像され、所定期間を2時間とした場合を想定する。ここで抽出部205は、撮像装置110に撮像され通信部200に取得された複数の画像から、“2020年7月1日13時”を起点とした前後1時間の範囲である“2020年7月1日12時~14時”の時間帯にて撮像された画像を対象画像として抽出する。
また、対象画像を抽出する二つ目の方法として、抽出部205は、次のような処理を実行する。すなわち、抽出部205は、基準画像300aが撮像された日と異なる日における時間帯であって、当該基準画像300aの撮像時刻に対応する時間帯に撮像された画像を対象画像として抽出する。このとき、基準画像300aの撮像日時が“2020年7月1日13時”であり、撮像時刻に対応する時間帯は当該撮像時刻の前後1時間の期間である場合を想定する。この場合、抽出部205は、“2020年7月1日”の前日における時間帯であって、基準画像300aの撮像時刻“13時”に対応する時間帯である“2020年6月30日12時~14時”に撮像された画像を対象画像として抽出する。なお、基準画像の撮像された日(撮像日)の前日における時間帯であって基準画像の撮像時刻に対応する時間帯に撮像された画像を対象画像として抽出したが、これに限らない。例えば、抽出部205は、基準画像の撮像された日(撮像日)の翌日における時間帯であって基準画像の撮像時刻に対応する時間帯に撮像された画像を対象画像として抽出してもよい。また抽出部205は、基準画像の撮像された日(撮像日)の所定日数前(又は所定日数後)における時間帯であって基準画像の撮像時刻に対応する時間帯に撮像された画像を対象画像として抽出してもよい。
また、対象画像を抽出する三つ目の方法として、色情報を用いる方法がある。抽出部205は、例えば、基準画像の部分領域の外縁の色情報と、基準画像と異なるタイミングで撮像された画像における当該部分領域と対応する対応領域の外縁の色情報とが類似しているかを判定する。そして、抽出部205は、類似していると判定した場合、当該画像を対象画像として抽出する。なおこのとき、本実施形態における色情報として、RGB値を用いるものとするが、例えばYUV値など他の色を示す情報を用いてもよい。図3に示す例において、抽出部205は、例えば、基準画像300aの部分領域301aの外縁のRGB値の分布と、当該部分領域301aに対応する他の画像上の対応領域の外縁のRGB値の分布とを比較することで類似度を算出する。このとき算出した類似度が閾値以上である場合、抽出部205は、当該他の画像を対象画像として抽出する。なお、図3(a)に示すように、基準画像上に複数の部分領域が存在する場合、抽出部205は、当該複数の部分領域のうち少なくとも1つの部分領域の外縁の色情報と類似していると判定された他の画像を対象画像として抽出する。
また、対象画像を抽出する四つ目の方法として、人物の移動の推定を用いた方法がある。図3に示す例において、抽出部205は、人物310に対する追尾の結果の情報基づき、人物310が部分領域301aから外れる時刻を推定する。例えば、検出部203は、基準画像300aから直近Nフレーム前(Nは整数)の画像全体に対し検出処理を実行し、当該直近Nフレーム前の画像にて検出された人物について追尾を行う。なおこのとき、検出部203は、局所探索を実行することで人物の追尾を行うものとする。具体的には、検出部203は、直近Nフレーム前の画像において検出された人物の位置を含む局所領域を特定し、検出部203は、当該Nフレーム前の画像の次フレームの画像における当該局所領域に対し検出処理を実行する。このように、人物の追尾を実行するにあたって、局所探索により検出処理が実行される領域を絞ることで検出処理に係る処理負荷を低減することができる。このようにして本実施形態における検出部203は、図3に示す例において、直近Nフレーム前の画像から基準画像300aの画像までの複数のフレーム(N+1フレーム)にわたり人物310の追尾を行う。そして、抽出部205は、検出部203により追尾された人物310の移動方向と、人物310の移動速度と、部分領域301aのサイズとに基づき、人物310が部分領域301aから外れる時間帯を推定する。例えば、画像水平方向に人物310が平均速度10(pixel/sec)で移動しており、部分領域301aのサイズが100×120(pixel)である場合を想定する。このとき、抽出部205は、例えば、部分領域301aの水平方向のサイズ“120(pixel)”を人物310の平均速度“10(pixel/sec)”で割った値である“12(sec)”を算出する。これより、抽出部205は、12秒後には人物は部分領域301aから外れていると推定する。そして、抽出部205は、基準画像300aの撮像日時の12秒後から所定時間後までの時間帯に撮像された画像を対象画像として抽出する。なお、図3(a)に示すように、基準画像300aに複数の部分領域(複数の人物)が存在する場合、当該複数の部分領域の各々について、部分領域から人物が外れる時間帯を推定し、当該時間帯に撮像された画像を対象画像として抽出する。
以上説明したような方法を用いて、S405にて、抽出部205は、撮像装置110により撮像され通信部200に取得された複数の画像から、背景画像の生成に用いる一又は複数の対象画像を抽出する。なお、以降の説明において、本実施形態における抽出部205は、一つ目の方法を用いて、対象画像を抽出するものとして説明する。すなわち、本実施形態における抽出部205は、撮像装置110により撮像された複数の画像から、基準画像300aが撮像された日時から所定範囲の期間において撮像装置110に撮像された画像を対象画像として抽出する。なお図3に示す例において、S406にて抽出部205は、対象画像300b,300c,300dを抽出する。
次に、S407にて、検出部203は、S406にて抽出部205により抽出された一又は複数の対象画像から未だ注目対象としていない対象画像の1つを注目対象として決定する。ここで図3に示す例において、検出部203は、対象画像300bを注目対象として決定した場合を想定する。なお、検出部203は、例えば、一又は複数の対象画像のうち、未だ注目対象としておらず最も撮像時刻が早い対象画像を注目対象として決定する。
次に、S408にて、検出部203は、注目対象である対象画像における対応領域に対し人物の検出処理を実行する。対象画像300bを注目対象として決定している場合、検出部203は、対応領域301bおよび対応領域302bそれぞれに対し検出処理を実行する。検出処理の結果、対応領域301bからは人物は検出されず、対応領域302bからは人物が検出される。
次にS409にて、背景生成部206は、全ての部分領域について、人物が含まれない画像が得られたかを判定する。このとき具体的には、図3に示す例において、背景生成部206は、部分領域301aに対応する対応領域、および、部分領域302aに対応する対応領域のそれぞれについて、人物が検出されない対応領域が得られたかを判定する。対象画像300b~300cのうち対象画像300bのみを注目対象として決定している場合、部分領域301aに対応する対応領域301bでは人物が検出されてないものの、部分領域302aに対応する対応領域302bでは人物が検出されている。そのため、部分領域301aについては人物が含まれない対応領域の画像が得られたものの、部分領域302aについては人物が含まれない対応領域の画像が得られてないため、S409ではNoとして、S410へ遷移する。なおこのとき、以降の処理では、部分領域301aについて既に人物が含まれない対応領域の画像(対応領域301bの画像)が得られたため、部分領域301aに対応する対応領域は検出処理の対象から除外する。
S410にて、全ての対象画像を注目対象として決定した場合(S410にてYes)、S411へ遷移する。なおS411についての処理は後述する。全ての対象画像を注目対象として決定してない場合(S410にてNo)、S407へ遷移し、検出部203は、次に注目対象とする対象画像を決定する。図3に示す例において、対象画像300bがはじめに注目対象として決定されていた場合を想定する。このとき、S410からS407へ遷移した場合、S407にて、検出部203は、次に注目対象とする対象画像として対象画像300cを検出する。そして、S408にて、検出部203は、注目対象とした対象画像300cにおける対応領域に対し検出処理を実行する。なお、上述したように、部分領域301aについて人物が含まれない画像(対応領域301bの画像)が得られたため、部分領域301aに対応する対象画像300c上の対応領域301cに対して検出処理は実行しない。すなわち、対象画像300bに続いて対象画像300cを注目対象とした場合のS408にて、検出部203は、対象画像300cにおける部分領域302cに対してのみ、検出処理を実行する。このとき、図3(c)に示すように、部分領域302cにおいて人物が検出されない。次に、S409にて、背景生成部206は、全ての部分領域について、人物が含まれない画像が得られたかを再度判定する。このとき、図3に示す例において、背景生成部206は、部分領域301aについて人物が含まれない画像(対応領域301bの部分の画像)が得られ、部分領域302aについて人物が含まれない画像(対応領域302cの部分の画像)が得られている。そのため、背景生成部206は、全ての部分領域について、人物が含まれない画像が得られたと判定し(S409にてYes)、S412へ遷移する。
次に、S412にて、背景生成部206は、対象画像における人物が含まれない対応領域の画像と、基準画像とに基づき、背景画像を生成する。図3に示す例において、背景生成部206は、対象画像300bの対応領域301bの部分の画像と、対象画像300cの対応領域302cの部分の画像と、基準画像300aとに基づいて、図3(e)に示す背景画像300eを生成する。このとき、背景生成部206は、例えば、基準画像300aの部分領域301aの位置に、対応領域301bの部分の画像を合成し、同様に、基準画像300aの部分領域302aの位置に、対応領域302cの画像を合成することで、背景画像300eを生成する。次に、S413にて、記憶部201は、S412にて生成された背景画像を記録する。
ここでS411の処理について説明する。S409にて全ての部分領域について人物が含まれない画像を取得できず(S409にてNo)、且つ、抽出部205により抽出された全ての対象画像を既に注目対象としている場合(S410にてyes)、S411へ遷移する。S411にて、出力制御部208は、人物が含まれない背景画像を適切に生成できなかったことを示す情報(所定のメッセージなど)をディスプレイ130に表示させる。このとき更に、出力制御部208は、基準画像を変更したり、対象画像を抽出する条件を変更したりするための設定画面をディスプレイ130に表示させる。このように、人物が含まれない背景画像を適切に生成できなかったことをユーザに通知するとともに、対象画像を抽出する条件や基準画像の変更を促すことができる。そして、ユーザにより対象画像を抽出する条件や基準画像を変更するためのユーザ操作を操作受付部202が受け付けた場合、ユーザにより変更された対象画像を抽出する条件又は基準画像に基づき、図4に示すフローの処理を再度実行する。
以上説明したように、図4に示すフローの処理を実行することで人物が含まれない背景画像を生成することができる。なお、S402にて、ユーザによる指定日時に最も近いタイミングで撮像された画像である基準画像に対する検出処理の結果、当該基準画像において所定数以上の人物が検出された場合、通信部200は、別の基準画像を取得してもよい。この場合、通信部200は、例えば、S401で取得された基準画像の撮像日時から所定時間前に撮像された画像を取得して、取得した当該画像を新たな基準画像としてもよい。またこのとき、S402にて、検出部203は、取得された新たな基準画像に対して検出処理を実行し、検出された人物の数が所定数未満であれば当該新たな基準画像をS403~S413の処理で用いる基準画像とする。一方、検出された人物の数が所定数以上であれば、通信部200は、再度別の画像を新たな基準画像として取得するようにしてもよい。このように人物の数が所定数未満となる基準画像が得られるまでS401~S402の処理を繰り返してもよい。
ここで、図5に示すフローの処理を参照して、本実施形態における画像処理装置100による保護画像を生成する処理について説明する。図5に示すフローの処理を実行することで、本実施形態における画像処理装置100は、撮像装置110に撮像された画像に含まれる人物のプライバシーを保護した保護画像を生成することができる。なお図5に示すフローの処理は、例えば、ユーザによる指示に従って、開始又は終了するものとする。また、図5に示すフローチャートの処理は、画像処理装置100のROM620に格納されたコンピュータプログラムを画像処理装置100のCPU600が実行して実現される図2に示す機能ブロックにより実行されるものとする。
まず、S501にて、通信部200は、撮像装置110により撮像された処理対象の画像を取得する。このとき、通信部200は、撮像装置110により撮像された静止画を取得してもよいし、撮像装置110により撮像された動画を構成する複数フレームのうち1つの画像を取得してもよい。
次に、S502にて、検出部203は、S501にて取得された画像からプライバシー保護の対象を検出する。本実施形態において、検出部203は、処理対象の画像に対して検出処理を実行することでプライバシー保護の対象である人物を検出する。なお、本実施形態では、パターンマッチング法を用いて、処理対象の画像からプライバシー保護の対象を検出したが、これに限らない。例えば、検出部203は、背景差分法を用いて、図4のフローの処理を経て得られた背景画像と、処理対象の画像との比較に基づき特定される前景の領域をプライバシー保護の対象である人物の領域として検出してもよい。
次に、S503にて、合成部207は、処理対象の画像から検出された人物を抽象化した画像である抽象化画像を生成する。このとき、合成部207による人物の領域を抽象化(Anonymization)した抽象化画像は、例えば、人物の領域を任意の色(RGB値)で塗りつぶしたマスク画像である。また、合成部207による人物の領域を抽象化(Anonymization)した抽象化画像は、例えば、人物の領域に対しモザイク処理を施したモザイク画像や、人物の領域にぼかし処理を施したぼかし画像などであってもよい。
次に、S504にて、合成部207は、処理対象の画像から検出された人物を抽象化した抽象化画像と、背景生成部206により生成された背景画像とを合成することで、人物のプライバシー保護がなされた画像である保護画像を生成する。次に、S505にて、出力制御部208は、S504にて生成された保護画像を外部装置に出力する。例えば、出力制御部208は、S504にて生成された保護画像をディスプレイ130に表示させる。S506にて終了の指示がない場合(S506にてNo)、S501へ遷移し、通信部200は次に処理対象とする画像を取得する。また、S506にて終了の指示がある場合(S506にてYes)、図5に示すフローの処理を終了する。このように、本実施形態における画像処理装置100は、プライバシー保護の対象である人物を抽象化した抽象化画像と、図4のフローの処理を経て生成された背景画像とを合成することで、人物のプライバシーの保護がなされた保護画像を生成することができる。
以上説明してきたように、本実施形態における画像処理装置100は、基準画像に対する検出処理に基づき、基準画像上に人物を含む部分領域を特定し、所定の条件に基づき抽出された一又は複数の対象画像の各々について対応領域に対し検出処理を実行する。そして、画像処理装置100は、対象画像における人物が含まれない対応領域の画像と、基準画像とに基づき、背景画像を生成する。このように背景画像を生成する際に検出処理を実行する対象の領域を絞り込むことで、複数の撮像された画像の全ての領域に対する検出処理に基づく背景画像の生成に比べて、検出処理に係る処理負荷を低減しつつ効率的に背景画像を生成することが可能となる。
(その他の実施形態)
次に図6を参照して、各実施形態の各機能を実現するための画像処理装置100のハードウェア構成を説明する。なお、以降の説明において画像処理装置100のハードウェア構成について説明するが、記録装置120および撮像装置110も同様のハードウェア構成によって実現されるものとする。
本実施形態における画像処理装置100は、CPU600と、RAM610と、ROM620、HDD630と、I/F640と、を有している。
CPU600は画像処理装置100を統括制御する中央処理装置である。RAM610は、CPU600が実行するコンピュータプログラムを一時的に記憶する。また、RAM610は、CPU600が処理を実行する際に用いるワークエリアを提供する。また、RAM610は、例えば、フレームメモリとして機能したり、バッファメモリとして機能したりする。
ROM620は、CPU600が画像処理装置100を制御するためのプログラムなどを記憶する。HDD630は、画像データ等を記録する記憶装置である。
I/F640は、ネットワーク140を介して、TCP/IPやHTTPなどに従って、外部装置との通信を行う。
なお、上述した各実施形態の説明では、CPU600が処理を実行する例について説明するが、CPU600の処理のうち少なくとも一部を専用のハードウェアによって行うようにしてもよい。例えば、ディスプレイ130にGUI(GRAPHICAL USER INTERFACE)や画像データを表示する処理は、GPU(GRAPHICS PROCESSING UNIT)で実行してもよい。また、ROM620からプログラムコードを読み出してRAM710に展開する処理は、転送装置として機能するDMA(DIRECT MEMORY ACCESS)によって実行してもよい。
なお、本発明は、上述の実施形態の1以上の機能を実現するプログラムを1つ以上のプロセッサが読出して実行する処理でも実現可能である。プログラムは、ネットワーク又は記憶媒体を介して、プロセッサを有するシステム又は装置に供給するようにしてもよい。また、本発明は、上述の実施形態の1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。また、画像処理装置100の各部は、図6に示すハードウェアにより実現してもよいし、ソフトウェアにより実現することもできる。
なお、上述した各実施形態に係る画像処理装置100の1以上の機能を他の装置が有していてもよい。例えば、各実施形態に係る画像処理装置100の1以上の機能を撮像装置110が有していてもよい。なお、上述した各実施形態を組み合わせて、例えば、上述した実施形態を任意に組み合わせて実施してもよい。
以上、本発明を実施形態と共に説明したが、上記実施形態は本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲は限定的に解釈されるものではない。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱しない範囲において、様々な形で実施することができる。例えば、各実施形態を組み合わせたものも本明細書の開示内容に含まれる。
100 画像処理装置
110 撮像装置
120 記録装置
130 ディスプレイ
200 通信部
201 記憶部
202 操作受付部
203 検出部
204 特定部
205 抽出部
206 背景生成部
207 合成部
208 出力制御部

Claims (19)

  1. 撮像手段により撮像された画像である基準画像において人物が含まれる部分領域を特定する特定手段と、
    前記基準画像と異なるタイミングで前記撮像手段により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する抽出手段と、
    前記抽出手段により抽出された一又は複数の前記対象画像において、前記部分領域に対応する対応領域に対し人物を検出する検出処理を実行する検出手段と、
    前記対応領域に対する前記検出処理の結果に基づき一又は複数の前記対象画像から選択された対象画像と、前記基準画像とに基づき、前記背景画像を生成する生成手段とを有することを特徴とする画像処理装置。
  2. 前記対応領域に対する前記検出処理の結果に基づき一又は複数の前記対象画像から選択された対象画像は、前記人物が検出されなかった前記対応領域を含む対象画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記生成手段は、前記人物が検出されなかった前記対応領域の部分の画像と、前記基準画像とに基づき、前記背景画像を生成することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記抽出手段は、前記基準画像が撮像された日時に基づき、前記撮像手段に撮像された前記複数の画像から、一又は複数の前記対象画像を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記抽出手段は、前記基準画像が撮像された日と異なる日における時間帯であって前記基準画像が撮像された時刻に対応する時間帯に撮像された一又は複数の画像を前記対象画像として抽出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記抽出手段は、前記基準画像における前記部分領域の外縁の色情報に基づき、前記撮像手段に撮像された前記複数の画像から、一又は複数の前記対象画像を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  7. 前記検出手段は、前記基準画像における前記人物を検出し、
    前記特定手段は、前記基準画像において前記検出手段に検出された人物の外接矩形の領域を当該人物が含まれる前記部分領域として特定することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記撮像手段により撮像された画像から検出された人物を抽象化した抽象化画像と、前記生成手段により生成された背景画像とを合成した保護画像を生成する合成手段を更に有することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記合成手段により生成された保護画像を表示手段に表示させる出力制御手段を更に有することを特徴とする請求項8に記載の画像処理装置。
  10. 撮像手段により撮像された画像である基準画像において人物が含まれる部分領域を特定する特定工程と、
    前記基準画像と異なるタイミングで前記撮像手段により撮像された複数の画像から、所定の条件に基づき、人物が含まれない背景画像の生成に用いる一又は複数の画像を対象画像として抽出する抽出工程と、
    前記抽出工程において抽出された一又は複数の前記対象画像において、前記部分領域に対応する対応領域に対し人物を検出する検出処理を実行する検出工程と、
    前記対応領域に対する前記検出処理の結果に基づき一又は複数の前記対象画像から選択された対象画像と、前記基準画像とに基づき、前記背景画像を生成する生成工程とを有することを特徴とする画像処理方法。
  11. 前記対応領域に対する前記検出処理の結果に基づき一又は複数の前記対象画像から選択された対象画像は、前記人物が検出されなかった前記対応領域を含む対象画像であることを特徴とする請求項10に記載の画像処理方法。
  12. 前記生成工程において、前記人物が検出されなかった前記対応領域の部分の画像と、前記基準画像とに基づき、前記背景画像を生成することを特徴とする請求項10又は11に記載の画像処理方法。
  13. 前記抽出工程において、前記基準画像が撮像された日時に基づき、前記撮像手段に撮像された前記複数の画像から、一又は複数の前記対象画像を抽出することを特徴とする請求項10乃至12のいずれか1項に記載の画像処理方法。
  14. 前記抽出工程において、前記基準画像が撮像された日と異なる日における時間帯であって前記基準画像が撮像された時刻に対応する時間帯に撮像された一又は複数の画像を前記対象画像として抽出することを特徴とする請求項13に記載の画像処理方法。
  15. 前記抽出工程において、前記基準画像における前記部分領域の外縁の色情報に基づき、前記撮像手段に撮像された前記複数の画像から、一又は複数の前記対象画像を抽出することを特徴とする請求項10乃至14のいずれか1項に記載の画像処理方法。
  16. 前記検出工程において、前記基準画像における前記人物を検出し、
    前記特定工程において、前記基準画像において検出された前記人物の外接矩形の領域を当該人物が含まれる前記部分領域として特定することを特徴とする請求項10乃至15のいずれか1項に記載の画像処理方法。
  17. 前記撮像手段により撮像された画像から検出された人物を抽象化した抽象化画像と、前記生成工程において生成された背景画像とを合成した保護画像を生成する合成工程を更に有することを特徴とする請求項10乃至16のいずれか1項に記載の画像処理方法。
  18. 前記合成工程において生成された保護画像を表示手段に表示させる出力制御工程を更に有することを特徴とする請求項17に記載の画像処理方法。
  19. コンピュータを請求項1乃至9のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2020129570A 2020-07-30 2020-07-30 画像処理装置、画像処理方法および画像処理プログラム Pending JP2022026211A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020129570A JP2022026211A (ja) 2020-07-30 2020-07-30 画像処理装置、画像処理方法および画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020129570A JP2022026211A (ja) 2020-07-30 2020-07-30 画像処理装置、画像処理方法および画像処理プログラム

Publications (1)

Publication Number Publication Date
JP2022026211A true JP2022026211A (ja) 2022-02-10

Family

ID=80263482

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020129570A Pending JP2022026211A (ja) 2020-07-30 2020-07-30 画像処理装置、画像処理方法および画像処理プログラム

Country Status (1)

Country Link
JP (1) JP2022026211A (ja)

Similar Documents

Publication Publication Date Title
EP3414891B1 (en) Camera setting adjustment based on predicted environmental factors and tracking systems employing the same
EP2874122B1 (en) Display control device, display control method, and program
WO2018103244A1 (zh) 直播视频处理方法、装置及电子设备
US9398349B2 (en) Comment information generation device, and comment display device
JP2005250950A (ja) マーカ提示用携帯端末および拡張現実感システムならびにその動作方法
KR20150096474A (ko) 시선 추적을 이용한 증강 현실의 인에이블링
US8254626B2 (en) Output apparatus, output method and program for outputting a moving image including a synthesized image by superimposing images
KR101623826B1 (ko) 히트맵 영상 기능을 가진 감시카메라
JP2017503198A (ja) ターゲット上に投影するためのコンテンツのトリミング
KR20130025944A (ko) 템플릿 스위칭 및 특징 적응을 이용한 오브젝트 추적을 제공하는 방법, 장치 및 컴퓨터 프로그램 제품
JP2016085487A (ja) 情報処理装置、情報処理方法及びコンピュータプログラム
US11170511B2 (en) Image processing device, imaging device, and image processing method for replacing selected image area based on distance
JP2016192132A (ja) 画像認識ar装置並びにその姿勢推定装置及び姿勢追跡装置
KR102572986B1 (ko) 사용자 지정 초기화 포인트에 기반한 개체 추적
WO2023160617A1 (zh) 视频插帧处理方法、视频插帧处理装置和可读存储介质
US20210005024A1 (en) Image display control apparatus and image display control program
JP6686547B2 (ja) 画像処理システム、プログラム、画像処理方法
US20200242393A1 (en) Image processing apparatus and image processing method
CN110689014B (zh) 感兴趣区域的检测方法、装置、电子设备及可读存储介质
US20130076792A1 (en) Image processing device, image processing method, and computer readable medium
US9600160B2 (en) Image processing device, image processing method, and program
JP2022026211A (ja) 画像処理装置、画像処理方法および画像処理プログラム
US20220036093A1 (en) Information processing apparatus, information processing method, and storage medium
JP7370769B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2014085845A (ja) 動画処理装置、動画処理方法、プログラム、および集積回路

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20200909