JP6744237B2 - 画像処理装置、画像処理システムおよびプログラム - Google Patents

画像処理装置、画像処理システムおよびプログラム Download PDF

Info

Publication number
JP6744237B2
JP6744237B2 JP2017029575A JP2017029575A JP6744237B2 JP 6744237 B2 JP6744237 B2 JP 6744237B2 JP 2017029575 A JP2017029575 A JP 2017029575A JP 2017029575 A JP2017029575 A JP 2017029575A JP 6744237 B2 JP6744237 B2 JP 6744237B2
Authority
JP
Japan
Prior art keywords
image
unit
mask
processing
abstraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017029575A
Other languages
English (en)
Other versions
JP2018137560A (ja
Inventor
昭行 谷沢
昭行 谷沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2017029575A priority Critical patent/JP6744237B2/ja
Priority to PCT/JP2017/034803 priority patent/WO2018154827A1/ja
Publication of JP2018137560A publication Critical patent/JP2018137560A/ja
Application granted granted Critical
Publication of JP6744237B2 publication Critical patent/JP6744237B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)

Description

本発明の実施形態は、画像処理装置、画像処理システムおよびプログラムに関する。
従来、カメラで撮影した画像に含まれる人物のプライバシを保護するため、画像から人物を検出してマスク処理やフィルタ処理を行う技術が知られている。しかし、このような従来技術では、画像に含まれる人物が検出されない場合はプライバシ保護が図られないという問題がある。また、従来技術では、プライバシ保護のための処理は画一的であり、例えば画像の領域に応じて適用する処理を変えるといったように、画像に対するプライバシ保護のための処理を多段階で行うといった柔軟な対応を簡便に行うことができず、改善が求められる。
特開2000−216号公報 特開2009−225398号公報
本発明が解決しようとする課題は、人物の検出結果に依存せずにプライバシ保護を図ることができ、かつ、画像に対するプライバシ保護のための多段階の処理を簡便に実現することができる画像処理装置、画像処理システムおよびプログラムを提供することである。
実施形態の画像処理装置は、画像取得部と、画像保持部と、抽象化処理部と、画像出力部と、を備える。画像取得部は、カメラで撮影した原画像を取得する。画像保持部は、複数の抽象化処理に対応する複数レイヤのマスク画像を合成した多層マスク画像を保持する。抽象化処理部は、前記多層マスク画像に基づき、前記原画像に対して領域ごとに異なる複数の抽象化処理を行って、抽象化画像を生成する。画像出力部は、前記抽象化画像、または、前記抽象化画像に所定の加工を施した画像を出力画像として出力する。
図1は、第1実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。 図2は、画像処理装置のハードウェア構成例を示すブロック図である。 図3は、原画像、多層マスク画像、抽象化画像および出力画像の画像例を示す図である。 図4は、多層マスク画像の構成を説明する図である。 図5は、多層マスク画像の各レイヤに割り当てられた抽象化処理の例を説明する図である。 図6は、抽象化処理部の内部構成例を示すブロック図である。 図7は、画像処理装置の処理手順の一例を示すフローチャートである。 図8は、第2実施形態に係る画像処理装置の機能的な構成例を示すブロック図である。 図9は、原画像、多層マスク画像、抽象化画像および出力画像の画像例を示す図である。 図10は、多層マスク画像の構成を説明する図である。 図11は、多層マスク画像の各レイヤに割り当てられた抽象化処理の例を説明する図である。 図12は、画像認識部の内部構成例を示すブロック図である。 図13は、画像処理装置の処理手順の一例を示すフローチャートである。 図14は、第3実施形態に係る画像処理システムの機能的な構成例を示すブロック図である。 図15は、マスク画像編集用GUIの一例を示す図である。 図16は、マスク画像編集装置の処理手順の一例を示すフローチャートである。
<実施形態の概要>
近年、カメラで撮影された画像を用いて、例えば所定エリアの状況をライブビューで配信したり、そのエリアの混雑度を示す情報を付加して配信したりといった様々なアプリケーションが提供されている。カメラで撮影された画像をこうした用途で利用する場合、その画像に映り込んだ人物のプライバシを保護する観点から、画像を加工して個人を特定できないようにすることが求められる場合がある。プライバシ保護のために個人を特定できないように画像を加工する処理を、本明細書においては「抽象化処理」と呼ぶ。
カメラで撮影した画像に対する抽象化処理として、従来は、画像から検出された人物の領域に対してマスク処理やフィルタ処理を行うといった方法が一般的に用いられている。しかし、画像に含まれる人物がすべて検出されるとは限らず、実際には画像に映り込んでいる人物が画像から検出されない場合もあり、このような場合に、プライバシの保護が図られない問題がある。また、カメラで撮影された画像に対して、例えば領域ごとに異なる抽象化処理を適用するといった多段階の処理を簡便に実現する仕組みがなく、アプリケーションに応じた柔軟な対応を低コストで実現できない。
そこで、本発明の実施形態では、カメラで撮影された画像に対して多層マスク画像を用いて抽象化処理を行う新規な仕組みを提案する。多層マスク画像は、複数の抽象化処理に対応する複数レイヤのマスク画像を重ね合わせて1つに合成した画像である。各レイヤのマスク画像は、そのレイヤに割り当てられた抽象化処理の適用有無を表す画素値(2値:1ビット)を持つ画素の集合である。つまり、カメラで撮影された画像において、マスク画像の画素値が適用ありを示す画素に対応する領域が、そのマスク画像に対応する抽象化処理が適用される領域となる。多層マスク画像は、複数レイヤのマスク画像の各々の画素値の重ね合わせで表現される画素値を持った画素の集合である。多層マスク画像の具体例については詳細を後述する。
本発明の実施形態では、多層マスク画像を用いて画像に対する抽象化処理を行うことで、人物の検出結果に依存せずにプライバシ保護を図ることができ、かつ、画像に対するプライバシ保護のための多段階の処理を簡便に実現することができる。以下では、実施形態の画像処理装置、画像処理システムおよびプログラムの詳細について、図面を参照しながら説明する。なお、以下の説明において、同様の機能を持つ構成要素については同一の符号を付して、重複した説明を適宜省略する。
<第1実施形態>
図1は、第1実施形態に係る画像処理装置100の機能的な構成例を示すブロック図である。本実施形態の画像処理装置100は、図1に示すように、画像取得部101と、画像保持部102と、抽象化処理部103と、画像出力部104と、通信部105と、制御部106とを備える。
画像取得部101は、カメラ20により撮影された画像を取得する。以下では、カメラ20により撮影されて画像取得部101により取得される画像を「原画像」と呼ぶ。ここでカメラ20とは、画像を撮影・キャプチャすることの可能なあらゆるセンサを示す。例えばUSB(Universal Serial Bus)接続可能なWebカメラなどでもよいし、デジタルカメラなどで利用されるイメージセンサでもよい。また、赤外線センサやレーザーセンサなどの特殊なセンサを用いてもよい。このセンサは、センシングしたデータをイメージ化できる機能を有している。カメラ20と画像取得部101の接続は、有線または無線により直接接続される形態であってもよいし、ネットワーク30を介して接続される形態であってもよい。カメラ20と画像取得部101とがネットワーク30を介して接続される場合、カメラ20はIPカメラとして機能する。
画像取得部101は、接続されたカメラ20から原画像110を取得して抽象化処理部103に入力する。例えば、カメラ20がIPカメラであれば、画像取得部101は予め設定されているエンドポイントから原画像110を取得する。ここでは、画像取得部101が、例えば予め決められたタイミングに従って原画像110を取得したり、取得する原画像110の画像サイズや画像フォーマットを指定したりする機能を有するものとする。これらの画像取得部101の機能は、制御部106から出力される制御信号115によって制御される。なお、画像取得部101が出力する原画像110は、カメラ20から取得した原画像110と同じ画像サイズであってもよいし、カメラ20から取得した原画像110に対して画像サイズの変更を行ったものであってもよい。
画像保持部102は、予め設定された多層マスク画像111を保持する。多層マスク画像111は、例えば、ネットワーク30に接続された外部端末から通信部105を介して取得され、画像保持部102に保持される。あるいは、多層マスク画像111を格納したUSBメモリなどの外部記憶装置やDVD(Digital Versatile Disk)などの記録媒体を画像処理装置100に接続し、この外部記憶装置や記録媒体から多層マスク画像111を読み出して画像保持部102に保持させる構成であってもよい。また、画像処理装置100を提供する際に、多層マスク画像111を画像保持部102に予め格納しておく構成であってもよい。
また、画像保持部102は、多層マスク画像111を保持する機能のほか、後述の画像出力部104が出力する出力画像113を保持する機能を有してもよい。この場合、画像保持部102が保持する出力画像113を適宜読み出して、通信部105を介してネットワーク30に接続された外部装置に送信する構成としてもよい。
抽象化処理部103は、画像保持部102が保持する多層マスク画像111をロードし、この多層マスク画像111に基づいて、画像取得部101から入力された原画像110に対する抽象化処理を行う。抽象化処理とは、上述のように、画像から個人を特定できないように画像を加工する処理であり、例えば、モザイク処理によって人物をぼかしたり、背景画像を重畳して人物を消したり、背景画像に人物を模したアイコンを重畳したりといった加工が、抽象化処理に該当する。
本実施形態では、原画像110に対する抽象化処理を多層マスク画像111に基づいて行うことで、原画像110の領域ごとに異なる抽象化処理を簡便に適用できるようにしている。抽象化処理部103によって多層マスク画像111に基づく抽象化処理が行われた原画像110は、抽象化画像112として画像出力部104に入力される。なお、多層マスク画像111を用いた原画像110に対する抽象化処理の具体例については、詳細を後述する。
画像出力部104は、抽象化処理部103から入力された抽象化画像112に対して付随情報に基づく加工を行って出力画像113を生成し、生成した出力画像113を出力する。付随情報に基づく加工には、例えば、設定されたタイムゾーンに従って時刻(付随情報の一例)を画像に埋め込んだり、カメラ20の設置情報(例えば「第1レジ前」、「改札前」などの設置場所を示すテキストなど)やカメラ20の製造メーカ、カメラ型番、カメラ設定情報などの付随情報を画像に重畳したりといった例が挙げられる。また、カメラ20の設置場所の天気情報や鉄道の運行情報などの付随情報を、ネットワーク30に接続された外部装置から通信部105を介して取得して、これらの付随情報を画像に重畳してもよい。
また、画像出力部104は、抽象化処理部103から入力された抽象化画像112をそのまま出力画像113として出力してもよい。この場合、上述の付随情報を例えばメタデータとして、出力画像113とともに出力してもよい。
画像出力部104から出力される出力画像113は、例えば、制御部106から出力される制御信号115に含まれる送信タイミングに従って、通信部105を介してネットワーク30に送出される。この場合、画像処理装置100が自発的に、出力画像113をネットワーク30に提供するような構成を実現できる。また、画像出力部104から出力される出力画像113を、上述のように画像保持部102に保持させる構成としてもよい。この場合、例えば、ネットワーク30に接続された外部装置からのリクエストに応じて出力画像113を提供するような構成を実現できる。なお、この場合の送信タイミングは外部から入力され、通信部105を介して制御部106に設定され、通信部105の設定に反映されてもよい。
通信部105は、ネットワーク30に接続されている。画像処理装置100が通信部105を備えることで、ネットワーク30に接続された外部装置との間で画像を含めた様々な情報をやり取りすることができる。ここで、ネットワーク30とは、様々な情報を伝送するための通信資源を意味しており、有線ないし無線接続される様々な伝送路を含む。例えば、一般的に広く普及しているインターネット網などの通信路や、PHS(Personal Handyphone System)をはじめ3G(3rd Generation)・4G(4th Generation)・LTE(Long Term Evolution)といった携帯機器向けの通信路、地上放送網、衛星放送網、ケーブル伝送網、電波通信、ミリ波通信、レーダー通信などのあらゆる伝送路を指す。
なお、画像出力部104から出力される出力画像113は圧縮されていてもよい。例えば、インターネットなどで頻繁に利用されるJPEG(Joint Photographic Experts Group)方式、PNG(Portable Network Graphics)方式、GIF(Graphics Interchange Format)方式などの非可逆な画像圧縮方式により圧縮されてもよい。また、圧縮データは、出力画像113に含まれる付随データと合わせて多重化されていてもよい。例えば、JSON(JavaScript(登録商標) Object Notation)形式やXML(Extensible Markup Language)形式などに付随データを多重化し、画像をテキスト形式にエンコーディング(例えばbase64エンコーディングなど)したものを同様に多重化するような構成を取ることも簡単に実現可能である。これは、通信時にREST(Representational State Transfer)やSOAP(Simple Object Access Protocol)などの通信フレームワークのAPI(Application Programming Interface)で伝送するための合わせこみ処理に相当する。ここでは明示していないが、TCP(Transmission Control Protocol)通信やHTTPS(Hypertext Transfer Protocol Secure)プロトコルなどの通信形式への変換機能なども含まれている。ネットワーク30がプライベート回線ではなく、インターネットなどの一般回線の場合にセキュアなデータ通信を実現するために、多重化データは暗号化されていてもよい。また、証明書などを用いて通信路や接続先の安全性を確保してもよい。
制御部106は、画像処理装置100の各処理部の動作を統合的に制御する機能を有する。例えば制御部106は、上述のように、制御信号115によって画像取得部101による原画像110の取得タイミングを制御したり、画像出力部104から出力される出力画像113をネットワーク30に送出するタイミングを制御したりする。このほか、制御部106による制御には、各処理部の設定変更なども含まれる。例えば、制御部106の制御により、画像出力部104が抽象化画像112に重畳する付随情報を変更することができる。この場合、制御部106は、ネットワーク30に接続された外部装置から制御命令を受け取り、この制御命令に応じて各処理部の設定を変更することもできる。
本実施形態の画像処理装置100は、例えば、一般的なコンピュータを構成するハードウェアと、コンピュータで実行されるプログラム(ソフトウェア)との協働により実現することができる。例えば、コンピュータが所定のプログラムを実行することによって、上述した画像取得部101、抽象化処理部103、画像出力部104、通信部105および制御部106などの各処理部を実現することができる。また、コンピュータが備えるストレージデバイスを用いて、上述した画像保持部102を実現することができる。
図2は、本実施形態の画像処理装置100のハードウェア構成例を示すブロック図である。画像処理装置100は、例えば図2に示すように、CPU(Central Processing Unit)などのプロセッサ11と、RAM(Random Access Memory)やROM(Read Only Memory)などのメモリ12と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などのストレージデバイス13と、ネットワーク30を介して外部と通信を行う通信I/F14と、上述のカメラ20や入力デバイス、表示デバイスといった機器を接続するための機器I/F15と、これら各部を接続するバス16とを備えた一般的なコンピュータとしてのハードウェア構成を有する。
このとき、上記のプログラムは、例えば、磁気ディスク、光ディスク、半導体メモリ、またはこれに類する記録媒体に記録されて提供され、ストレージデバイス13などに格納される。プログラムを記録する記録媒体は、コンピュータが読み取り可能な記録媒体であれば、その記憶形式は何れの形態であってもよい。また、上記プログラムを、コンピュータに予めインストールするように構成してもよいし、ネットワーク30を介して配布される上記のプログラムをコンピュータに適宜インストールするように構成してもよい。
上記のコンピュータで実行されるプログラムは、上述した画像処理装置100の各処理部を含むモジュール構成となっており、プロセッサ11がこのプログラムを適宜読み出して実行することにより、上述した各処理部がRAMなどのメモリ12上に生成されるようになっている。
なお、本実施形態の画像処理装置100は、上述した各処理部の一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアにより実現する構成であってもよい。
また、本実施形態の画像処理装置100は、複数台のコンピュータを通信可能に接続したシステムとして構成し、上述した各処理部を複数台のコンピュータに分散して実現する構成であってもよい。また、本実施形態の画像処理装置100は、クラウドシステム上で動作する仮想マシンであってもよい。
次に、多層マスク画像111を用いた原画像110に対する抽象化処理の具体例について、図3乃至図5を参照して説明する。図3は、原画像110、多層マスク画像111、抽象化画像112および出力画像113の画像例を示す図である。図4は、多層マスク画像111の構成を説明する図である。図5は、多層マスク画像111の各レイヤに割り当てられた抽象化処理の例を説明する図である。
図3(a)に示す原画像110は、室内に3人の人物と金庫が映っている例を示している。この原画像110では、3人の人物のうち、カメラ20から距離の近い人物は、原画像110における画像サイズが一般的に大きくなるため、人が見て個人を特定することが容易になる傾向がある。一方で、カメラ20から距離が離れると原画像110に映る人物の面積も小さくなるため、個人が特定しにくくなる傾向がある。これらは、カメラ20の本来の性質であり、一般的な監視カメラなどの用途を想定した場合、カメラ20からの距離、つまり、画像の下から上方向に行くにしたがって個人を特定しにくくなる傾向がある。これらはカメラ20本来の水平画角、垂直画角などの仕様に依存する部分と、カメラ20を設置した設置高、俯角、仰角、ズームの設定、パン・チルトなどの設定による部分などが影響している。
図3(b)に示す多層マスク画像111は、原画像110の画像上部に対応する領域(1)、原画像110の上下方向の中間領域に対応する領域(2)、原画像110の下部領域に対応する領域(3)、原画像110において金庫が映っている領域に対応する領域(4)でそれぞれ異なる画素値が設定されている。この多層マスク画像111は、例えば図4に示すように、レイヤ0〜7の8種類のマスク画像を重ね合わせて1つに合成した画像である。各レイヤのマスク画像は、そのレイヤに割り当てられた抽象化処理の適用有無を表す画素値(適用ありを1、適用なしを0とする)を持つ画素の集合であり、多層マスク画像111の画素値は、それらマスク画像の画素値の重ね合わせで表現される。
多層マスク画像111は、下記式(1)および式(2)に従って合成される。
ここでは多層マスク画像111をF(x)、マスク画像をδ(x)とし、F(x)はモノクロの8ビット画像、δ(x)はモノクロの1ビット画像とする。xは画素ベクトルを示しており、x=(w,h)が画像中の1つの画素を示している。nはマスク画像δ(x)のレイヤ番号(0〜7)を表す。上記式(1)および式(2)を用いることにより、レイヤ0〜7の8種類のマスク画像から、1つの多層マスク画像111が生成できる。
多層マスク画像111から各レイヤのマスク画像を取り出す場合は、下記式(3)を用いる。
ここで、上記式(3)中の“&”は論理積演算を意味しており、“>>”は右シフト演算を意味している。つまり、8ビット画素値のビットマスクを計算することで、任意のレイヤのマスク値を取り出すことが可能である。
例えば、画像のある画素について、レイヤ0〜7の8種類のマスク画像のうち、レイヤ0の画素値が1、レイヤ5の画素値が1、他のレイヤの画素値が全て0である場合、多層マスク画像の画素値は、上記式(1)および式(2)より、2+2=1+32=33となる。一方、レイヤ5のマスク画像を取り出す場合は、上記式(3)より、(33&32)>>5=1となり、目的の値が取り出せることが分かる。なお、8ビット演算を2進数で書くと、(00100001&00100000)=(00100000)となり、これを5ビット右シフトすると、1が取り出せる。
なお、ここではレイヤ0〜7の8種類のマスク画像を合成して8ビットの多層マスク画像111とする場合の例を示したが、例えばレイヤ0〜15の16種類のマスク画像を合成して16ビットの多層マスク画像111とすることも可能である。また、多層マスク画像111をカラー画像とし、RGB画像空間(3次元空間)を活用してビット数の3倍のレイヤを表現することも可能である。この場合、8ビットカラー画像であれば、例えばR,G,Bなどの順番でそれぞれレイヤ0〜7まで、レイヤ8〜15まで、レイヤ16〜23までを割り振るように決めておくことで、任意のレイヤの画素値を取り出すことが可能である。
多層マスク画像111を構成する各レイヤのマスク画像は、各々個別の抽象化処理に対応している。ここでは、例えば図5に示すように、各レイヤのマスク画像に対応する抽象化処理が定められているものとする。図5の例では、レイヤ0には「モザイク弱」が割り当てられ、レイヤ1には「モザイク中」が割り当てられ、レイヤ2には「モザイク強」が割り当てられ、レイヤ3には「背景重畳」が割り当てられていることが示されている。モザイク処理は、所定の大きさのブロックごとに基準画素値を設定し、ブロック内の各画素の画素値をその基準画素値で補てんする処理であり、抽象化処理として一般的な手法である。基準画素値の選定方法は様々な方式が提案されているが、本実施形態ではこれらの1つが適用されればよく、種類は問わない。また、背景重畳は対象に背景画像を重畳することで対象を隠す処理であり、これも抽象化処理として広く用いられる手法である。
なお、図5の例では、レイヤ4〜7をリザーブドとしている。システム設計時にリザーブド項目を導入しておくことで、後々システムに新規の抽象化機能を導入する場合でもフォーマットの変更は不要となり、システム設計時と共通のインターフェースを用いて容易に機能拡張を実現することができる。また、図5に例示する各レイヤと抽象化処理との対応付けの情報は、例えば、入力デバイスを用いたユーザの入力操作、あるいはネットワーク30に接続された外部装置からの制御命令に応じて更新することが可能であり、各レイヤに対応する抽象化処理の機能を更新することも容易である。
図3(b)に示す多層マスク画像111は、上記の領域(1)に対してレイヤ3の抽象化処理を適用し、上記の領域(2)に対してレイヤ0の抽象化処理を適用し、上記の領域(3)に対してレイヤ2の抽象化処理を適用し、上記の領域(4)に対してレイヤ1の抽象化処理を適用する例を示している。このように、図3(a)に示す原画像110に対し、図3(b)に示す多層マスク画像111を用いて抽象化処理を行うと、図3(c)に示す抽象化画像112が得られる。
抽象化画像112は、原画像110に対して、多層マスク画像111を構成する各レイヤのマスク画像によって指定される領域ごとに、そのレイヤに割り当てられた抽象化処理を施すことで得られる画像である。図3(b)の多層マスク画像111に基づき、図3(a)に示す原画像110に対して抽象化処理が行われることで、図3(c)に示すように、レイヤ3の「背景重畳」が適用された背景重畳領域(A)、レイヤ1の「モザイク中」が適用されたモザイク中領域(B)、レイヤ0の「モザイク弱」が適用されたモザイク弱領域(C)、レイヤ2の「モザイク強」が適用されたモザイク強領域(D)を含む抽象化画像112が得られる。
図3(c)に示す抽象化画像112において、背景重畳領域(A)は、予め設定されている背景画像を原画像110に重畳する抽象化処理が適用された領域である。また、モザイク中領域(B)は、予め設定されているモザイク中のフィルタ処理に相当する抽象化処理が適用された領域である。モザイク中のブロックサイズは、例えば8×8画素ブロックである。また、モザイク弱領域(C)は、予め設定されているモザイク弱のフィルタ処理に相当する抽象化処理が適用された領域である。モザイク弱のブロックサイズは、例えば4×4画素ブロックである。また、モザイク強領域(D)は、予め設定されているモザイク強のフィルタ処理に相当する抽象化処理が適用された領域である。モザイク強のブロックサイズは、例えば16×16画素ブロックである。
図3(c)に示す抽象化画像112は、図3(a)に示す原画像110に対し、画像上部の領域にはモザイクをかけず、上下方向の中間領域にモザイク弱、画像下部の領域にモザイク強、金庫の領域にモザイク中をかけた例を示している。このように多層マスク画像111のレイヤごとに異なる抽象化処理を割り当てることで、原画像110に対して領域ごとに異なる多段階の抽象化処理を適用することができ、目的に応じた柔軟なプライバシ保護の対策を簡便に実現することができる。
図3(d)に示す出力画像113は、図3(c)に示す抽象化画像112に対して付随情報を重畳した画像である。この例では、画像左上に、設定されたタイムゾーンのタイムスタンプが重畳されている。また、画像右下に、カメラ20の設置情報が重畳されている。なお、これらの付随情報は、メタデータとして出力画像113とともに出力されてもよい。また、付随情報が重畳されていない抽象化画像112を出力画像113として出力する構成であってもよい。
次に、抽象化処理部103の詳細について、図6を参照して説明する。図6は、抽象化処理部103の内部構成例を示すブロック図である。抽象化処理部103は、例えば図6に示すように、画像ビットマスク140と、多層マスク画像111のレイヤ数に対応する8つの処理部(レイヤ0処理部141、レイヤ1処理部142、レイヤ2処理部143、レイヤ3処理部144、レイヤ4処理部145、レイヤ5処理部146、レイヤ6処理部147、レイヤ7処理部148)と、画像合成部149とを備える。8つの処理部は、図5に示したように各レイヤに割り当てられた抽象化処理を行う処理機能であり、例えばレイヤ0処理部141は、図5に示したレイヤ0に対応する「モザイク弱」の抽象化処理、つまり、4×4画素ブロックサイズのモザイク処理を行う処理機能を示している。なお、リザーブドとなっている処理機能は、ブロックのみを用意しておき、後々に機能追加できるような構成とする。
最初に、画素ビットマスク140に原画像110と多層マスク画像111が入力される。画素ビットマスク140は、上記式(3)に従って多層マスク画像111を各レイヤのマスク画像120〜127に分解し、それぞれのレイヤに対応した処理部141〜148に出力する。なお、全ての処理部141〜148に対し原画像110も同時に出力される。
各処理部141〜148は、原画像110に対して予め決められた抽象化処理を適用して中間画像130〜137を生成し、マスク画像120〜127とともに画像合成部149に出力する。
画像合成部149は、各処理部141〜148で生成された最大8つの中間画像130〜137をマスク画像120〜127に応じて合成し、抽象化画像112を生成する。画像を合成する場合は、予めどの順番で合成していくかを示すテーブルに従って合成される。ここでは、レイヤの昇順に順次合成していく例を示す。
合成処理は、マスク画像でマスキング対象となっている画素(画素値が抽象化処理の適用ありを示す画素)のみ、中間画像を適用する。例えば、抽象化画像112をP(x)とし、原画像110をI(x)、中間画像をJ(x)とした場合、マスキング処理は下記式(4)で表される。ここでM(x)はマスク画像の画素値である。
画像合成部149における合成処理は、例えば以下のように行われる。すなわち、最初に、レイヤ0のマスク画像に基づいて原画像110に対するレイヤ0の中間画像130の合成処理が行われ、その合成画像に対し、レイヤ1のマスク画像に基づいてレイヤ1の中間画像131の合成処理が行われる。以降この繰り返しとなる。具体的には、原画像110と中間画像130を最初に合成する。その後、その合成画像と中間画像131を合成する。以後、これらをレイヤ数分繰り返して、最後の中間画像137が合成された画像を抽象化画像112として出力する。
多層マスク画像111に含まれる各マスク画像120〜127のマスキング対象となっている画素が重なっている場合、処理する順番によって、後段の処理のマスク値が優先され、前段の中間画像の画素値は上書きされる。これを避けるため、それぞれのレイヤごとにアルファブレンディング処理を行ってもよい。例えば、一般的なアルファブレンディングは下記式(5)で実施できる。
ここで、Pi(x)はアルファブレンディング後の画素値、S(x)は前段の合成後の画素値、T(x)は中間画像の画素値、αはブレンドの度合いを調整するパラメータである。画像合成部149で、それぞれの中間画像を合成するレイヤに応じてα値を定めておくことで、後段の画像で上書きするのではなく、前段と後段の画像をブレンドすることが容易に可能である。
次に、各処理部141〜148の具体的な処理の例を説明する。レイヤ0処理部141、レイヤ1処理部142およびレイヤ2処理部143は、例えばモザイク処理を適用する処理部である。モザイク処理は、画像の決められたブロックの画素値を例えば、そのブロックに含まれる画素値の平均値やメディアン値に置き換える。3つの処理部141,142,143は、例えば4×4画素、8×8画素、16×16画素などの画素ブロックサイズの違いで表現される。モザイクのブロックサイズが大きくなると、元画像の情報量が大きく失われ、それによってプライバシ保護の観点でリスクの少ない画像を生成できる。
レイヤ3処理部144は、例えば、予め設定した人物のいない背景領域を中間画像とする処理をする。具体的には、画像保持部102に保存されている背景画像を読み込み、マスク処理を行えばよい。なお、その他の処理部145〜148はリザーブドのレイヤに対応するため、抽象化処理は行われない。
なお、ここでは抽象化処理の一般的な例としてモザイク処理や背景重畳などの処理について記載したが、マスク画像を用いたマスキング処理は、2つの画像のどちらを使うかを選択する処理である。したがって、原画像110に含まれる人物そのものをキャラクタなどに変更したり、デフォルメされた人物のアイコンに変更したりといった処理も、この枠組みを利用して容易に実現可能である。
次に、本実施形態の画像処理装置100の動作について、図7を参照して説明する。図7は、画像処理装置100の処理手順の一例を示すフローチャートである。
画像処理装置100の処理が開始されると、まず、カメラ20により撮影されたある時刻の原画像110を画像取得部101が取得する(ステップS101)。次に、抽象化処理部103が、画像保持部102から多層マスク画像111を読み出し(ステップS102)、この多層マスク画像111に基づいて、ステップS101で取得された原画像110に対する抽象化処理を行う(ステップS103)。
次に、画像出力部104が、ステップS103の抽象化処理により得られた抽象化画像112に対し、例えば付随情報の重畳などの加工を行って出力画像113を生成し(ステップS104)、この出力画像113を出力する(ステップS105)。その後、処理を継続するか否かの判断を行い(ステップS106)、処理を継続する場合は(ステップS106:Yes)ステップS101に戻って以降の処理を繰り返す。一方、処理を継続しない場合は(ステップS106:No)、一連の処理を終了する。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の画像処理装置100は、カメラ20で撮影された原画像110に対し、多層マスク画像111に基づく抽象化処理を行って抽象化画像112を生成する。そして、その抽象化画像112、あるいは、その抽象化画像112に対し付随情報の重畳などの加工を行った画像を出力画像113として出力する。したがって、本実施形態の画像処理装置100によれば、人物の検出結果に依存せずにプライバシ保護を図ることができ、かつ、原画像110に対するプライバシ保護のための多段階の処理を簡便に実現することができる。すなわち、本実施形態によれば、原画像110に対してプライバシ保護機能を段階的に適用でき、システムに大きなインパクトを与えずにプライバシ保護の設定変更を実現し、原画像110から人物が検出できない場合でも、一定レベルのプライバシ保護を実現可能な画像処理装置100を提供することができる。
<第2実施形態>
次に、本発明の第2実施形態について説明する。図8は、第2実施形態に係る画像処理装置200の機能的な構成例を示すブロック図である。本実施形態の画像処理装置200は、図1に示した第1実施形態の画像処理装置100の構成に対して、画像認識部107が追加されている。以下では、第1実施形態との差分を中心に説明する。
本実施形態では、画像取得部101により取得された原画像110が、抽象化処理部103だけでなく画像認識部107にも入力される。
画像認識部107は、原画像110に対する画像認識処理を行う。ここでの画像認識処理は、原画像110に含まれる人物を認識する処理である。画像認識部107による認識結果は、認識情報116として抽象化処理部103および画像出力部104に入力される。
認識情報116は、例えば、認識時刻、認識タイプ、認識人物番号、認識人物座標、性別、年齢、顔向き、滞在時間、注視時間などの一連の情報のセットである。認識時刻は、原画像110から人物が検出された時刻を表す。認識タイプは、顔認識、上半身認識、全身認識など、人物を認識するタイプを示す情報である。認識人物番号は、認識した人物を特定するために付記する人物ごとのインデックスである。認識人物座標は、原画像110の画像サイズにおける人物認識矩形を示す、矩形の左上の座標情報と右下の座標情報である。滞在時間は、特定の人物が原画像110内で検出されてから、検出が途切れるまでの時間を示す。注視時間は、上記滞在時間のうち、顔向きが特定の範囲以内であった時間を累積した情報である。
抽象化処理部103は、第1実施形態と同様に、多層マスク画像111に基づいて原画像110に対する抽象化処理を行う。ただし、本実施形態では、抽象化処理部103が原画像110に対する抽象化処理を行う際に、画像認識部107が出力する認識情報116を用いる。本実施形態における抽象化処理の具体例については、詳細を後述する。
画像出力部104は、第1実施形態と同様に、抽象化画像112に対して付随情報を重畳するなどの加工を行って出力画像113を生成し、この出力画像113を出力する。ただし、本実施形態では、出力画像113の生成に、画像認識部107が出力する認識情報116を用いる。例えば、画像出力部104は、認識情報116に含まれる、検出座標、人物の性別、年齢、検出座標などのさまざまな情報を元に、抽象化画像112における人物領域に枠を付けたり、年齢・性別をわかりやすく表示したりといった加工を行う。また、画像出力部104は、抽象化画像112に含まれる人物の数をカウントしたり、過去の人物検出結果を累積して混雑度の変化を計算したりといった処理を行い、得られた情報をアイコンとして抽象化画像112に重畳するような加工を行ってもよい。人数のカウントや混雑度の変化を計算するといった処理は画像認識部107で行い、画像出力部104は、画像認識部107から処理の結果を表す情報を取得して抽象化画像112にアイコンとして重畳してもよい。また、画像出力部104は、画像認識部107から取得した認識情報116をメタデータとして、出力画像113とともに出力する構成であってもよい。
次に、本実施形態における抽象化処理の具体例について、図9乃至図11を参照して説明する。図9は、原画像110、多層マスク画像111、抽象化画像112および出力画像113の画像例を示す図である。図10は、多層マスク画像111の構成を説明する図である。図11は、多層マスク画像111の各レイヤに割り当てられた抽象化処理の例を説明する図である。
図9(a)に示す原画像110は、図3(a)に示した例と同様である。図9(b)に示す多層マスク画像111は、図10に示す8種類のマスク画像を重ね合わせて1つに合成した画像であり、図3(b)に示した例と異なり、原画像110の上下方向の中間領域に対応する領域(1)が、レイヤ1に割り当てられた抽象化処理を適用する領域であり、原画像110の下部領域に対応する領域(2)が、レイヤ2に割り当てられた抽象化処理を適用する領域である例を示している。なお、原画像110の上部領域に対応する領域の画素値は0となっており、この領域には抽象化処理が適用されないことを示している。
本実施形態では、多層マスク画像111の各レイヤに対し、図11に示す抽象化処理が割り当てられているものとする。すなわち、レイヤ0には「認識モザイク弱」が割り当てられ、レイヤ1には「認識モザイク中」が割り当てられ、レイヤ2には「認識モザイク強」が割り当てられ、レイヤ3には「動きベクトル」が割り当てられている。なお、レイヤ4〜7はリザーブドとしている。
ここで「認識モザイク」とは、対象となる領域で人物が認識されると、その矩形領域に対して、設定された抽象化処理を適用することを意味する。例えば上記の領域(1)で人物が検出されると、認識情報116に含まれる認識人物座標を利用して、その人物が存在する矩形領域内の画像に「モザイク中」の抽象化処理を行う。同様に上記の領域(2)の領域で人物が検出されると、認識情報116に含まれる認識人物座標を利用して、その人物が存在する矩形領域内の画像に「モザイク強」の抽象化処理を行う。
図9(b)の多層マスク画像111に基づき、図9(a)に示す原画像110に対して抽象化処理が行われることで、図9(c)に示すように、レイヤ1の「認識モザイク中」が適用された認識モザイク中領域(E)と、レイヤ2の「認識モザイク強」が適用された認識モザイク強領域(F)とを含む抽象化画像112が得られる。本実施形態では、原画像110の人物が存在する矩形領域に対して抽象化処理を行うが、人物が検出されない場合を想定して、第1実施形態との組み合わせにより矩形領域以外にも抽象化処理を行う構成とすることは容易に実現可能である。
なお、図11では、レイヤ3に抽象化処理として「動きベクトル」が割り当てられていることが示されている。画像認識部107は、詳細を後述するように、検出した人物の動きベクトルを算出している。この動きベクトルの大きさは、認識対象がどれくらいのスピードで動いているかを示す情報である。すなわち、動きベクトルの大きさが大きい場合、認識対象が早く移動していることを意味する。一般的なカメラ20では、高速に動く被写体ほど動きボケが発生しやすい傾向がある。つまり、動きが少ない被写体ほど画像ボケが発生せずに、個人を特定しやすくなるという傾向がある。このため、動きベクトルの大きさに応じて画像にぼかし処理などを適用することで、プライバシの保護を図ることができる。ここでぼかし処理とは、一般的な画像処理でよく利用されるガウシアンフィルタやブラーフィルタなどに相当する。
人物の動きベクトルは、上述の混雑度を求める情報としても有効に利用できる。人物の動きベクトルの大きさが大きい場合、人物がぶつからずに動いていることから、カメラ20に映る領域が混雑していないと判断できる。一方で、人物の動きベクトルの大きさが小さい場合、混雑のため人物が移動できない状態になっていることが想定される。したがって、人物の動きベクトルをもとに、カメラ20に映る領域の混雑度を推定することが可能である。
図9(d)に示す出力画像113は、図9(c)に示す抽象化画像112に対して付随情報を重畳した画像である。本実施形態では、画像出力部104が、画像認識部107から入力される認識情報116を利用して、検出した人物に様々な加工を施すことが可能となる。例えば、図9(d)に示す出力画像113のように、人物が存在する矩形領域を線で囲ったり、認識された性別に応じて、男性の場合は矩形領域の線の色を青や緑、女性の場合は矩形領域の線の色を赤やオレンジにするなどの加工が可能である。そのほか、例えば認識された年齢や注視の判定をテキストやアイコンなどで重畳するなど、様々な加工を容易に実現可能である。
次に、画像認識部107の詳細について、図12を参照して説明する。図12は、画像認識部107の内部構成例を示すブロック図である。画像認識部107は、例えば図12に示すように、上半身検出部150と、上半身追跡部151と、顔検出部152と、顔追跡部153と、顔属性判定部154と、顔照合部155と、認識データ整形部156とを備える。
画像認識処理に用いるアルゴリズムとしては、画像からHOG(Histgram of Gradient)特徴量を算出し、予め特定の対象物向けに作成した辞書とマッチングを行う方法などが挙げられる。例えば特開2010−44439号公報には、HOGの共起発生確率を用いた特徴量を用いて対象物を認識する手法が開示されている。本実施形態では、このような認識辞書を用いた画像認識処理を用いることができる。ここで、特徴量や認識に用いるアルゴリズムは対象物によって異なる場合がある。アルゴリズムの違いとは、例えば、モノクロ画像のみを利用するアルゴリズムとカラー画像を利用するアルゴリズム、デプス画像(レンジ画像)を用いるアルゴリズムなどの違いが含まれる。
画像認識処理においては、例えば、人物の顔から性別、年齢、メガネの着用状況、マスクの着用状況などの情報だけでなく、会話をしている、笑っている、怒っている、などの感情の情報を判別することも可能である。例えば、過去の辞書から、特定の特徴量を属性情報と紐づけることで、このような属性情報の認識も可能となる。また、単一の認識結果だけでなく、時間的な認識情報を総合的に認識することで、行動パターンの認識も可能となる。例えば、検出位置を時間的に収集し、行動パターンを推定することで、移動方向や異常検知などにも活用できる。
また、画像認識処理においては、認識対象の照合処理も行われる。照合処理とは、画像から検出された対象の同一性を判定する処理である。例えば、人物の顔の場合、検出された顔の画像もしくは、顔の特徴量を辞書に登録する。同一人物が検出された場合には、予め辞書に登録された人物とのマッチングを行い、同一人物かどうかを照合する。ここで、照合処理を用いることで、複数の異なる場所のイメージセンサで検出された人物などの動線を管理することが可能となる。
本実施形態の画像認識部107は、上述した様々な画像認識処理を行う。上半身検出部150で検出された上半身検出データは、上半身追跡部151に入力され、過去もしくは未来の検出結果と照合される。これにより、画像の時間方向で上半身を照合し、同一人物に同一の番号(認識人物番号)を記す。同様に、顔に関しては、顔検出部152で顔検出データが作成され、顔追跡部153で、同一の顔に同一の番号を記す。また、顔検出データは、顔属性判定部154および顔照合部155に入力され、顔の属性データおよび照合データを出力する。もし、顔照合で一致する人物がいない場合は、その情報が記録される。これらのデータが認識データ整形部156に入力され、予め指定されたフォーマットに整形され、認識情報116として出力される。
ここで、上半身追跡部151および顔追跡部153は、時間方向で検出対象を追跡する機能を有し、検出対象の動きベクトルを算出する機能を有している。この動きベクトルも上半身認識データおよび顔認識データとして認識データ整形部156にて整形され、認識情報116の生成に利用される。
次に、本実施形態の画像処理装置200の動作について、図13を参照して説明する。図13は、画像処理装置200の処理手順の一例を示すフローチャートである。
画像処理装置200の処理が開始されると、まず、カメラ20により撮影されたある時刻の原画像110を画像取得部101が取得する(ステップS201)。次に、画像認識部107がステップS201で取得された原画像110に対する画像認識処理を行う(ステップS202)。
次に、抽象化処理部103が、画像保持部102から多層マスク画像111を読み出し(ステップS203)、この多層マスク画像111と、ステップS202の画像認識処理の結果を示す認識情報116とに基づいて、ステップS201で取得された原画像110に対する抽象化処理を行う(ステップS204)。
次に、画像出力部104が、ステップS204の抽象化処理により得られた抽象化画像112に対し、ステップS202の画像認識処理の結果を示す認識情報116を用いた加工を行って出力画像113を生成し(ステップS205)、この出力画像113を出力する(ステップS206)。その後、処理を継続するか否かの判断を行い(ステップS207)、処理を継続する場合は(ステップS207:Yes)ステップS201に戻って以降の処理を繰り返す。一方、処理を継続しない場合は(ステップS207:No)、一連の処理を終了する。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の画像処理装置200は、原画像110に対する画像認識処理を行い、その認識結果を示す認識情報116を利用しながら、原画像110に対して多層マスク画像111に基づく抽象化処理を行うようにしている。したがって、本実施形態の画像処理装置200によれば、原画像110の領域ごとに人物の検出結果に応じた異なる抽象化処理を適用することが可能となり、原画像110に対するプライバシ保護のための多段階の処理を簡便に実現することができる。また、本実施形態を第1実施形態と組み合わせて実施することにより、原画像110から人物が検出されない場合でも、プライバシ保護を考慮すべき領域に対して所定の抽象化処理を適用することができ、人物の検出結果に依存せずにプライバシ保護を図ることができる。
<第3実施形態>
次に、本発明の第3実施形態について説明する。図14は、第3実施形態に係る画像処理システム300の機能的な構成例を示すブロック図である。本実施形態の画像処理システム300は、第2実施形態の画像処理装置200と、マスク画像編集装置400と、データ管理サーバ500とをネットワーク30を介して通信可能に接続した構成である。なお、第2実施形態の画像処理装置200の代わりに、第1実施形態の画像処理装置100を接続してもよいし、第1実施形態と第2実施形態とを組み合わせた構成の画像処理装置を接続してもよい。また、画像処理装置の数は2以上であってもよい。その場合、マスク画像編集装置400やデータ管理サーバ500は、それぞれの画像処理装置ごとに設ける必要はなく、画像処理システム300内にそれぞれ1つ以上含まれていればよい。
本実施形態の画像処理システム300では、画像処理装置200の画像出力部104が出力する出力画像113が、制御部106によって制御される送信タイミングに従ってネットワーク30に送出され、ネットワーク30を介してデータ管理サーバ500へと送られる。データ管理サーバ500は、画像処理装置200に対してネットワーク30を介して各種の制御命令を送信することにより、例えば画像処理装置200のアクティベーションなど、画像処理装置200の管理を行うことができる。また、画像処理装置200で使用する多層マスク画像111の各レイヤと抽象化処理との対応付けの情報の更新、画像認識処理で用いる認識辞書や認識方法の更新なども行うことができる。さらに、データ管理サーバ300は、画像処理装置200から送られた出力画像113をインターネットに公開する例えばWebAPIを有していたり、ブラウザ上に画像を公開するためのWebアプリケーションを提供する機能を有していてもよい。
また、本実施形態の画像処理システム300では、画像処理装置200において原画像110に対する抽象化処理を行う際に用いる多層マスク画像111が、マスク画像編集装置400から画像処理装置200に提供される。すなわち、画像処理装置200では、マスク画像編集装置400において編集された多層マスク画像111を用いて、原画像110に対する抽象化処理が行われる。
マスク画像編集装置400は、例えば図14に示すように、通信部401と、編集部402と、表示部403と、操作入力部404とを備える。これらマスク画像編集装置400の各処理部は、第1実施形態の画像処理装置100や第2実施形態の画像処理装置200と同様に、例えば、一般的なコンピュータを構成するハードウェア(図2参照)と、コンピュータで実行されるプログラム(ソフトウェア)との協働により実現することができる。
通信部401は、ネットワーク30を介して画像処理装置200と通信する。例えば、通信部401は、画像処理装置200から送信された原画像110を受信する。画像処理装置200においては、画像取得部101を通信部105と接続することで、画像取得部101により取得された原画像110をそのままマスク画像編集装置400に送信することができる。あるいは、事前にマスク画像編集装置400から画像処理装置200に対して、画素値が全て0である多層マスク画像111を送信してこれを画像保持部102に保持させておき、この多層マスク画像111に基づく抽象化処理により得られる抽象化画像112(すなわち、抽象化処理が行われていない原画像110)を出力画像113とし、ネットワーク30経由でマスク画像編集装置400に送信する構成としてもよい。また、原画像110に対する画像認識処理を行い、上述の認識情報116に基づいて付随情報を重畳した画像を送信してもよい。
また、通信部401は、ユーザの操作に応じて後述の編集部402で生成・編集された多層マスク画像111を、ネットワーク30を介して画像処理装置200に送信したりする機能を有する。マスク画像編集装置400から画像処理装置200に送信された多層マスク画像111は、画像処理装置200内の画像保持部102に保持されて、抽象化処理部103が原画像110に対する抽象化処理を行う際に読み出される。
編集部402は、多層マスク画像111の生成や編集を容易に行うためのマスク画像編集用GUI(Graphical User Interface)を提供する。このマスク画像編集用GUIは、表示部403に表示される。表示部403は、例えば液晶ディスプレイなどの表示デバイスである。また、表示部403に表示されたマスク画像編集用GUIを参照するユーザ(以下、「編集ユーザ」という)は、操作入力部404を用いて、このマスク画像編集用GUIを操作することができる。操作入力部404は、例えばマウスやキーボードなどの入力デバイスである。
編集部402は、操作入力部404が受け付けた編集ユーザの操作に応じた操作信号に基づいて、多層マスク画像111の生成や編集を行う。編集部402により生成された多層マスク画像111は、通信部401からネットワーク30を介して画像処理装置200に送信され、画像処理装置200の画像保持部102に保持される。以降、画像処理装置200では、このマスク画像編集装置400から送信された多層マスク画像111に基づいて、原画像110に対する抽象化処理が行われる。
図15は、マスク画像編集用GUIの一例を示す図である。この図15に例示するマスク画像編集用GUI600は、カメラ20を選択するカメラ選択領域601と、選択されたカメラ20で撮影された原画像110を表示するカメラ画像表示領域602と、抽象化処理の適用領域を設定するレイヤを選択するレイヤ選択領域603と、選択されたレイヤのマスク画像を半透過で原画像110上に重畳して表示するマスク画像表示領域604と、「画像作成」ボタン605と、「画像更新」ボタン606とを有する。
編集ユーザは、表示部403にマスク画像編集用GUIが表示されると、まず、カメラ選択領域601から所望のカメラ20を選択する。カメラ選択領域601には、本実施形態の画像処理システム300において使用可能なカメラ20の端末IDや端末名などが、選択可能に一覧表示されている。編集ユーザは、マウスなどの操作入力部404を利用して所望のカメラ20の項目を選択することにより、そのカメラ20を選択することができる。
編集ユーザによりカメラ20が選択されると、そのカメラ20で撮影された原画像110がカメラ画像表示領域602に表示される。編集ユーザの操作によって別のカメラ20が選択されると、その操作に応じてカメラ画像表示領域602に表示される原画像110が切り替わる。
次に、編集ユーザは、レイヤ選択領域603から、抽象化処理の適用領域を設定するレイヤを選択する。レイヤ選択領域603には、多層マスク画像111を構成する各レイヤやそのレイヤに割り当てられた抽象化処理を示す機能概要などが、選択可能に一覧表示されている。編集ユーザは、マウスなどの操作入力部404を利用して所望のレイヤの項目を選択することにより、抽象化処理の適用範囲を設定するレイヤを選択することができる。
編集ユーザによりレイヤが選択されると、そのレイヤのマスク画像を半透過で原画像110上に重畳した画像がマスク画像表示領域604に表示される。編集ユーザは、このマスク画像表示領域604に表示された画像上で、例えばマウスなどの操作入力部404を利用して、そのレイヤに割り当てられた抽象化処理を適用したい領域をなぞる操作を行うことで、その領域を抽象化処理の適用領域として設定することができる。編集ユーザの操作によって別のレイヤが選択されると、その操作に応じてマスク画像表示領域604に表示される画像が切り替わる。編集ユーザは、マスク画像表示領域604に表示される画像を切り替えながら領域をなぞる操作を繰り返すことで、各レイヤに対する適用領域の設定を行うことができる。
その後、編集ユーザが「画像作成」ボタン605を押下する操作を行うと、上記式(1)および式(2)に従って多層マスク画像111が生成され、この多層マスク画像111がマスク画像表示領域604に表示される。表示された多層マスク画像111をさらに編集する場合、編集ユーザは、レイヤ選択領域603をさらに操作して、選択したレイヤに対する適用領域の再設定を行う。表示された多層マスク画像111でOKであれば、「画像更新」ボタン606を押下することで、この多層マスク画像111がマスク画像編集装置400からネットワーク30を介して画像処理装置200に送信され、画像処理装置200の画像保持部102に保持される。
次に、マスク画像編集装置400の動作について、図16を参照して説明する。図16は、マスク画像編集装置400の処理手順の一例を示すフローチャートである。なお、図16のフローチャートで示す一連の処理は、表示部403に表示したマスク画像編集用GUI600上で、編集ユーザが操作入力部404を用いて所定の操作を行うことに応じて実行される編集部402による処理の流れを示している。
マスク画像編集装置400の処理が開始されると、まず、マスク画像編集用GUI600上の編集ユーザによる操作に応じて、原画像110の取得先となるカメラ20が選択される(ステップS301)。そして、ステップS301で選択されたカメラ20で撮影された原画像110が、マスク画像編集用GUI600上で表示される(ステップS302)。
次に、マスク画像編集用GUI600上の編集ユーザによる操作に応じて、多層マスク画像111の各レイヤに割り当てられた抽象化処理の適用領域を設定する処理(編集処理)が行われる(ステップS303)。そして、この編集処理が終了すると、多層マスク画像111が生成され(ステップS304)、生成された多層マスク画像111が画像処理装置200に送信されて(ステップS305)、画像処理装置200の画像保持部102に保持される。
以上、具体的な例を挙げながら詳細に説明したように、本実施形態の画像処理システム300は、画像処理装置200に対してマスク画像編集装置400を通信可能に接続した構成とし、編集ユーザの操作に応じてこのマスク画像編集装置400により生成・編集された多層マスク画像111を画像処理装置200に送信するようにしている。そして、画像処理装置200は、このマスク画像編集装置400により生成・編集された多層マスク画像111に基づいて、原画像110に対する抽象化処理を行う。したがって、本実施形態の画像通信システム300によれば、カメラ20の設置環境に合せた抽象化処理の設定変更などをユーザサイドで簡便に実施することができる。例えば、カメラ20の設置場所をユーザが変更した場合でも、高度なマスク設定が不要であり、ユーザサイドでの設定の更新を容易に実施することができる。
また、マスク画像編集装置400は、ユーザが選択したカメラ20から取得した原画像110を元に一般的なマスク画像編集の操作によって多層マスク画像111の生成・編集を行えるようにしているので、ユーザに特別な知識がなくても所望の多層マスク画像111を得ることができる。
また、画像処理装置200とマスク画像編集装置400との間では、原画像110や出力画像113と共通の画像というフォーマットで多層マスク画像111を送受信することができるため、多層マスク画像111に相当する情報を送受信するためにAPIの変更などを行う必要がなく、低コストでシステムを実現できる。
なお、本実施形態では、編集ユーザの操作に応じて多層マスク画像111の生成・編集を行うマスク画像編集装置400を、画像処理装置200とは別の装置として実現した例を示したが、マスク画像編集装置400に相当する機能を画像処理装置200の内部に持たせる構成としてもよい。この場合、多層マスク画像111をネットワーク30経由で送受信する必要はなく、画像処理装置200の内部で実現するマスク画像編集装置400に相当する機能が画像保持部102に直接アクセスして、多層マスク画像111の生成・編集を行うことが可能である。
<補足説明>
以上述べた少なくとも一つの実施形態によれば、人物の検出結果に依存せずにプライバシ保護を図ることができ、かつ、画像に対するプライバシ保護のための多段階の処理を簡便に実現することができる。
カメラで撮影した人物を含む画像に対するプライバシ保護対策を行う場合、以下のような一般的な課題がある。画像に対して人物検出を行った結果、人物が検出できなかった場合に、プライバシ保護処理が適用されない。そのため、そのままの画像がネットワークに流れてしまうことになり、個人情報などの漏えいリスクが高い。また、検出対象や画像の特徴に応じてプライバシ保護対策を変える場合には、複数のマスク画像が必要となる。そのため、そのマスク画像を送受信するためのAPIの組み込みが必要となり、システムの開発規模が肥大化する。また、それぞれのマスク画像を作成する手間が増大し、システムの導入コストが肥大化する。さらに、新規にシステムにプライバシ保護対策を追加する場合に、システムを停止する必要がありサービス品質が低下する。
これに対し、本発明の実施形態では、予め十分な数のマスク画像をレイヤとして持つ多層マスク画像111を用い、この多層マスク画像111の各レイヤにそれぞれ異なる抽象化処理を割り当てるようにしている。そして、カメラ20で撮影された原画像110に対して抽象化処理を行う際は、多層マスク画像111をビットマスク分解し、各レイヤのマスク画像により設定される領域ごとに、そのレイヤに割り当てられた抽象化処理を適用する。したがって、プライバシ保護機能を段階的に適用でき、システムに大きなインパクトを与えずにプライバシ保護の設定変更を実現し、検出対象が検出できない場合でも、一定レベルのプライバシ保護を実現することができる。
以上、本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
100,200 画像処理装置
101 画像取得部
102 画像保持部
103 抽象化処理部
104 画像出力部
107 画像認識部
110 原画像
111 多層マスク画像
112 抽象化画像
113 出力画像
300 画像処理システム
400 マスク画像編集装置

Claims (10)

  1. カメラで撮影した原画像を取得する画像取得部と、
    複数の抽象化処理に対応する複数レイヤのマスク画像を合成した多層マスク画像を保持する画像保持部と、
    前記多層マスク画像に基づき、前記原画像に対して領域ごとに異なる複数の抽象化処理を行って、抽象化画像を生成する抽象化処理部と、
    前記抽象化画像、または、前記抽象化画像に所定の加工を施した画像を出力画像として出力する画像出力部と、
    を備える画像処理装置。
  2. 前記複数レイヤのマスク画像の各々は、対応する抽象化処理の適用有無を表す画素値を持った画素の集合であり、
    前記多層マスク画像は、前記複数レイヤのマスク画像の各々の画素値の重ね合わせで表現される画素値を持った画素の集合である、
    請求項1に記載の画像処理装置。
  3. 前記多層マスク画像のレイヤ数は、
    前記多層マスク画像がモノクロ画像の場合は前記多層マスク画像のビット長と等しく、
    前記多層マスク画像がカラー画像の場合は、前記多層マスク画像のビット長にカラー空間の次元数を乗算した値と等しい、
    請求項1または2に記載の画像処理装置。
  4. 前記原画像に対して人物の検出を含む画像認識処理を行う画像認識処理部をさらに備え、
    前記抽象化処理部は、前記多層マスク画像と、前記画像認識処理の結果とに基づいて、前記原画像に対して領域ごとに異なる複数の抽象化処理を行って前記抽象化画像を生成する、
    請求項1乃至3のいずれか一項に記載の画像処理装置。
  5. 前記画像出力部は、前記画像認識処理の結果に基づいて前記抽象化画像に所定の加工を施して前記出力画像を生成する、
    請求項4に記載の画像処理装置。
  6. 前記画像認識処理の結果は、認識時刻、認識タイプ、認識人物番号、認識人物座標、性別、年齢、顔向き、滞在時間、注視時間、装着物、感情の少なくともいずれかを含む、
    請求項4または5に記載の画像処理装置。
  7. ユーザ操作に応じて前記多層マスク画像の生成または編集を行う編集部をさらに備え、
    前記画像保持部は、前記編集部により生成または編集された前記多層マスク画像を保持する、
    請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記編集部は、マスク画像編集用GUIを表示し、該マスク画像編集用GUIに対するユーザ操作に応じて、前記多層マスク画像の生成または編集を行う、
    請求項7に記載の画像処理装置。
  9. 画像処理装置とマスク画像編集装置とがネットワークを介して通信可能に接続された画像処理システムであって、
    前記画像処理装置は、
    カメラで撮影した原画像を取得する画像取得部と、
    複数の抽象化処理に対応する複数レイヤのマスク画像を合成した多層マスク画像を保持する画像保持部と、
    前記多層マスク画像に基づき、前記原画像に対して領域ごとに異なる複数の抽象化処理を行って、抽象化画像を生成する抽象化処理部と、
    前記抽象化画像、または、前記抽象化画像に所定の加工を施した画像を出力画像として出力する画像出力部と、を備え、
    前記マスク画像編集装置は、
    マスク画像編集用GUIを表示する表示部と、
    前記マスク画像編集用GUIに対するユーザ操作を受け付ける操作入力部と、
    前記ユーザ操作に応じて前記多層マスク画像の生成または編集を行う編集部と、を備える画像処理システム。
  10. コンピュータに、
    カメラで撮影した原画像を取得する機能と、
    複数の抽象化処理に対応する複数レイヤのマスク画像を合成した多層マスク画像を保持する機能と、
    前記多層マスク画像に基づき、前記原画像に対して領域ごとに異なる複数の抽象化処理を行って、抽象化画像を生成する機能と、
    前記抽象化画像、または、前記抽象化画像に所定の加工を施した画像を出力画像として出力する機能と、
    を実現させるためのプログラム。
JP2017029575A 2017-02-21 2017-02-21 画像処理装置、画像処理システムおよびプログラム Active JP6744237B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017029575A JP6744237B2 (ja) 2017-02-21 2017-02-21 画像処理装置、画像処理システムおよびプログラム
PCT/JP2017/034803 WO2018154827A1 (ja) 2017-02-21 2017-09-26 画像処理装置、画像処理システムおよびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017029575A JP6744237B2 (ja) 2017-02-21 2017-02-21 画像処理装置、画像処理システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2018137560A JP2018137560A (ja) 2018-08-30
JP6744237B2 true JP6744237B2 (ja) 2020-08-19

Family

ID=63254180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017029575A Active JP6744237B2 (ja) 2017-02-21 2017-02-21 画像処理装置、画像処理システムおよびプログラム

Country Status (2)

Country Link
JP (1) JP6744237B2 (ja)
WO (1) WO2018154827A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7482620B2 (ja) * 2019-11-28 2024-05-14 株式会社Preferred Networks データ生成方法、データ表示方法、データ生成装置及びデータ表示システム
JPWO2021210213A1 (ja) * 2020-04-13 2021-10-21

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104322050B (zh) * 2012-05-22 2020-04-28 株式会社尼康 电子相机、图像显示装置和记录介质
JP6218378B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法
JP6218377B2 (ja) * 2012-12-27 2017-10-25 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
JP2018137560A (ja) 2018-08-30
WO2018154827A1 (ja) 2018-08-30

Similar Documents

Publication Publication Date Title
US10474918B2 (en) Image processing apparatus, image processing method, and storage medium
US9940752B2 (en) Hybrid reality based object interaction and control
US9807300B2 (en) Display apparatus for generating a background image and control method thereof
JP5325267B2 (ja) オブジェクト表示装置、オブジェクト表示方法及びオブジェクト表示プログラム
JP2022118201A (ja) 画像処理システム、画像処理方法及びプログラム
JP6910772B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP2017201745A (ja) 画像処理装置、画像処理方法およびプログラム
JP2018148368A (ja) 画像生成装置およびその制御方法
JP5349224B2 (ja) 画像処理装置及び画像処理方法
KR102382247B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 프로그램
US20190246048A1 (en) Image processing apparatus, image processing method, and storage medium
CN113221767B (zh) 训练活体人脸识别模型、识别活体人脸的方法及相关装置
KR20200014694A (ko) 화상 처리 장치, 화상 처리 장치의 제어 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
JP6744237B2 (ja) 画像処理装置、画像処理システムおよびプログラム
JP2019075660A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
US20180211445A1 (en) Information processing device, terminal, and remote communication system
CN111212246B (zh) 视频生成方法、装置、计算机设备及存储介质
KR20170083256A (ko) 뎁스 영상 기반 감시 영상 제공 장치 및 방법
TWI502988B (zh) 電子裝置及增強影像解析度之方法及其電腦可讀取媒體
WO2021035674A1 (zh) 一种图像生成方法、设备、可移动平台及存储介质
JP2016144049A (ja) 画像処理装置、画像処理方法、およびプログラム
US10990802B2 (en) Imaging apparatus providing out focusing and method for controlling the same
WO2021134714A1 (zh) 红外图像处理方法、坏点标记方法及相关装置
KR102514702B1 (ko) 사진 촬영 이미지를 생성하기 위한 모바일 단말기 및 사진 촬영 이미지를 생성하는 방법
CN103674253A (zh) 热像显示控制装置和热像显示控制方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200730

R150 Certificate of patent or registration of utility model

Ref document number: 6744237

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150