JP7039208B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7039208B2
JP7039208B2 JP2017150018A JP2017150018A JP7039208B2 JP 7039208 B2 JP7039208 B2 JP 7039208B2 JP 2017150018 A JP2017150018 A JP 2017150018A JP 2017150018 A JP2017150018 A JP 2017150018A JP 7039208 B2 JP7039208 B2 JP 7039208B2
Authority
JP
Japan
Prior art keywords
image
background
area
processing
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017150018A
Other languages
English (en)
Other versions
JP2018078540A5 (ja
JP2018078540A (ja
Inventor
敦史 川野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to US15/793,327 priority Critical patent/US10970896B2/en
Priority to EP19178972.6A priority patent/EP3582186A1/en
Priority to CN201711066028.5A priority patent/CN108010105B/zh
Priority to EP17199674.7A priority patent/EP3319045B1/en
Publication of JP2018078540A publication Critical patent/JP2018078540A/ja
Publication of JP2018078540A5 publication Critical patent/JP2018078540A5/ja
Application granted granted Critical
Publication of JP7039208B2 publication Critical patent/JP7039208B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視カメラ等の撮影画像についてプライバシーを保護するための画像処理装置、画像処理方法及びプログラムに関する。
現在、監視カメラが広く設置されている一方で、監視カメラ映像に映る個人のプライバシー保護の重要性が高まっている。特許文献1には、人体検出結果を利用して人体領域をマスク化した映像を作成する技術が開示されている。特許文献2には、監視モジュールで抽出した画像間の差分領域の輪郭情報を受信した受信ユニットで背景画像に合成して表示する技術が開示されている。
特許第5834193号公報 特許第4578044号公報
特許文献1の認識処理の結果に基づき作成したマスク領域の内側をマスク画像に変更する技術では、認識処理が失敗した場合に被写体が露出するリスクは避けられない。また、特許文献2は固定的な背景に輪郭情報を合成する技術であるため、カメラがとらえる監視領域で実際に起きている変化(以下、適宜、実世界の変化と称する)を背景に適用することができず、監視者へ環境変化等の情報提供量が低下する。
本発明の画像処理装置は、撮像画像を取得する取得手段と、前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出手段と、複数の背景画像の各々と前記撮像画像との類似度に基づいて、前記複数の背景画像の中から処理に用いる背景画像を選択する選択手段と、前記選択手段により選択した背景画像について、前記抽出手段により抽出した被写体領域を抽象化する処理を実施する処理手段と、前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得手段と、を有し、前記選択手段は、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択することを特徴とする。
本発明によれば、プライバシー保護のための抽象化処理を行う際に、適切な背景画像を選択することができる。
画像処理装置のハードウェア構成の一例を示す図である。 画像処理装置のソフトウェア構成の一例を示す図である。 画像処理装置の情報処理の一例を示すフローチャートである。 画像の一例を示す図である。 被写体のマスク領域の一例を示す図である。 プライバシー保護画像の一例を示す図である。 画像処理装置のソフトウェア構成の一例を示す図である。 背景画像の選定の一例を示す図である。 画像処理装置のソフトウェア構成の一例を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、画像処理装置100のハードウェア構成の一例を示す図である。
CPU11は、システムバス14に接続された各種デバイスの制御を行う。
ROM12は、BIOSのプログラムやブートプログラムを記憶する。
RAM13は、CPU11の主記憶装置として使用される。
キーボードコントローラ(KBC)15は、マウス等のポインティングデバイス(PD)109や、キーボード(KB)20からの情報等の入力に係る処理を行う。
表示制御部(CRTC)16は、内部にビデオメモリを有し、CPU11からの指示に従ってそのビデオメモリに描画すると共に、ビデオメモリに描画されたイメージデータをビデオ信号としてCRT21に出力する。なお、図1において表示装置としてCRT21を例示しているが、液晶表示装置等、その表示装置の種類は問わない。
ディスクコントローラ(DKC)17は、ハードディスク(HDD)22へのアクセスを行う。
ネットワークインタフェースカード(NIC)18は、ネットワークに接続し、ネットワークを介しての情報通信を行うものである。
なお、HDD22には、OSのプログラムやOS上で動作する各種アプリケーションのプログラム等が格納される。HDD22は、記憶領域の一例である。
上記構成において、画像処理装置100の電源がONになると、CPU11は、ROM12に格納されたブートプログラムに従って、HDD22からOSのプログラムをRAM13に読み込み、処理を実行することによって、各装置の機能を実現する。
画像処理装置100のCPU11がROM12又はHDD22に記憶されているプログラムに基づき処理を実行することによって、後述する図2、図7、図9の画像処理装置100のソフトウェア構成及び後述する図3のフローチャートの処理が実現される。
<実施形態1>
実施形態1では、入力画像及び背景画像の物体領域を除いた部分同士の類似度から背景画像を選択し、マスク領域のマスク画像と合成し、合成画像(以下、プライバシー保護画像という)を生成することで、人物を抽象化する画像処理装置100の情報処理について説明をする。
図2は、実施形態1の画像処理装置100のソフトウェア構成の一例を示す図である。画像処理装置100は、画像取得部101と、マスク領域抽出部102と、物体抽出部103と、背景管理部104と、画像合成部(抽象化処理部)105と、出力部106と、を含む。
画像取得部101は、レンズ、センサを備えたカメラ等の撮像部から所定の間隔で画像(撮像画像)を順次取得して、マスク領域抽出部102と状況取得部203とに提供する。撮像部は、画像処理装置100が有していてもよいし、画像処理装置100とネットワーク等を介して通信可能に接続されていてもよい。
マスク領域抽出部102は、プライバシー保護対象である被写体のマスク領域を抽出する処理を行う。マスク領域抽出部102は、画像処理装置の撮影領域における被写体が存在しないマスク領域抽出用の背景画像と画像取得部101で取得した画像との差分からマスク領域を抽出する。ここで、マスク領域抽出用の背景画像とマスク領域の抽出方法について詳細を記載する。まず、マスク領域抽出用の背景画像は、画像取得部101が取得する画像と同じ画角で撮影したプライバシー保護対象が映らない画像である。マスク領域抽出部102は、画像処理装置100が処理を開始した時点から画像保存部(不図示)に画像取得部101から取得した画像を保存する。そして、画像保存部に所定の枚数(例えば100枚)が保存された段階で、画像保存部に保存された画像の各画素値を平均することでマスク領域抽出用の背景画像を作成する。また、マスク領域抽出用の背景画像を作成した以後、画像取得部101から画像を取得する度に、画像保存部に画像を保存し画像保存部に保存された最も古い画像を削除した上で、画像保存部に保存された画像の各画素値を平均することでマスク領域抽出用の背景画像を更新する。つまり、画像取得部101から画像を取得した時点から所定の枚数(例えば100枚)を使用して作成した平均画像をマスク領域抽出用の背景画像として使用する。又は、別途物体認識手法を用いて画像取得部101から取得した画像から物体領域を取得して、物体領域を除いた領域の画素値を合成することでマスク領域抽出用の背景画像を作成する等、プライバシーを保護する対象である人が含まれない様な画像を作成する方法であればよい。なお、マスク領域抽出部102に記載したマスク領域抽出用の背景画像は背景管理部104に記載する背景画像とは異なる。次に、マスク領域の抽出は、画像取得部101から取得した画像とマスク領域抽出用の背景画像との輝度値の差分が閾値(例えば、10%以上)を超える画素をマスクとすることで作成する。なお、マスク領域抽出部102は、画像処理によりプライバシー保護対象の領域(被写体領域)を抽出することができる処理であればよい。例えば、保存した過去の画像と画像取得部101から取得した最新の画像との差分領域を取得し、差分領域について人の特徴(形状や色)を探索する処理(パターンマッチング処理)を行い、人の特徴があれば、その差分領域を被写体領域として抽出する。
物体抽出部103は、画像取得部101から取得した最新の画像から物体領域を抽出する。物体抽出部103は、画像取得部101から得られた過去の画像を保存し、保存した過去の画像と画像取得部101から取得した最新の画像との差分領域を計算することで物体領域を抽出する。物体抽出部103は、最新の画像と抽出した物体領域の物体領域情報とを背景管理部104に送付する。なお、物体抽出部103は、背景差分法やテンプレートマッチングといった物体領域を抽出できる処理であればどのような抽出方法で物体領域を抽出してもよく、上述の記載の方法に限定されるものではない。
背景管理部104は、複数の背景画像を管理する。背景画像は、画像取得部101が取得する画像と同じ場所、同じ画角で撮影した時間帯や画角内の状況が異なる1枚以上の画像である。店舗入り口を例とすると、朝、昼、夕方、夜等、時間帯が異なる画像であり、店舗入り口のシャッターが閉まっている状態、シャッターが開いた状態、ドアが閉じた状態、開いた状態等、画角内の状況が異なる1枚以上の画像である。背景管理部104は、これら背景画像を画像ファイルとして画像保存部(不図示)に保管する。また、背景管理部104は、物体抽出部103が処理した最新画像と最も近しい背景画像を、最新画像と背景画像とから物体抽出部103が抽出した物体領域を除いた領域(以下、判定領域とする)の類似度を用いて選定する。例えば、物体抽出部103が画像の右半分の領域を物体として抽出した場合、最新画像の左半分の領域と背景画像の左半分の領域との類似度が最も高い背景画像を選定する。選定は、最新画像と背景画像の判定領域からSURF等を用いて判定領域内の輝度変化量が大きな場所を特徴点として位置と特徴ベクトルを抽出する。次に、最新画像と背景画像との特徴ベクトル間のユークリッド距離を測り、距離が最小となるよう最新画像と背景画像との特徴ベクトルを対応付ける。そして、対応する特徴ベクトルの距離の総和と対応する位置の色差成分差の総和との合計を類似度として、類似度が最小となる背景画像を最も近しい背景画像として選定する。このように、判定領域の類似度を比較することで最新の撮影環境の状況と近しいは時間帯、状況の背景画像を選定することができる。なお、特徴点の抽出はSURFに限定されるものではなく、FAST等のコーナー特徴等、特徴点を抽出する方法であればよい。また、類似度の判定は画像の対応点の特徴を比較する方法に限定されるものではなく、類似画像を判定する方式であればよい。
画像合成部105は、背景管理部104で選定された背景画像の各画素のうち、マスク領域抽出部102で抽出されたマスク領域に該当する画素を所定の色(例えば青)に変更することでプライバシー保護画像を生成する。又は、マスク領域抽出部102で抽出されたマスク領域を所定の色(例えば青)、マスク領域外を第二の所定の色(例えば白)にしたマスク画像を作成し、背景管理部104で選定された背景画像に前記マスク画像をαブレンドする方法でプライバシー保護画像を作成してもよい。
出力部106は、画像合成部105で生成されたプライバシー保護画像を有線又は無線を介して画像処理装置100と接続された外部装置等に出力する。また、出力部106は、プライバシー保護画像をHDD22やCRT21等に出力するようにしてもよい。
次に画像処理装置100の情報処理の流れを説明する。
図3は、連続して入力される画像から保護画像を生成して出力する画像処理装置100の情報処理の一例を示すフローチャートである。
処理開始後、S101において、画像取得部101は、画像を取得する。画像取得部101は、取得した画像を、RAM13又はHDD22等のメモリに記憶する。画像取得部101によって取得された画像の一例を図4に示す。
S102において、マスク領域抽出部102は、画像取得部101が取得した画像から被写体のマスク領域を抽出する。マスク領域抽出部102によって抽出された被写体のマスク領域の一例を図5に示す。
S103において、物体抽出部103は、画像取得部101が取得した画像から物体領域を抽出する。
S104において、背景管理部104は、画像取得部101が取得した画像に近い背景画像を選定する。
S105において、画像合成部105は、背景管理部104が選定した背景画像とマスク領域抽出部102が抽出したマスク領域のマスク画像とを合成し、プライバシー保護画像を生成する。画像合成部105によって生成されたプライバシー保護画像の一例を図6に示す。
S106において、出力部106は、プライバシー保護画像を外部装置等に出力する。
S107において、出力部106は、PD19やKB20等から終了指示を受け取ったか否かを判定する。出力部106は、終了指示を受け取ったと判定した場合(S107においてYES)、図3に示すフローチャートの処理を終了し、終了指示を受け取っていないと判定した場合(S107においてNO)、S101に処理を戻す。
本実施形態の情報処理によれば、画像処理装置100は、入力画像に近い背景画像を選定してマスク領域のマスク画像と合成することで、プライバシー保護の目的と監視者への実世界の情報提供とを両立することができる。
<実施形態2>
実施形態2では、撮影状況を用いて背景画像を選択しプライバシー保護画像を生成する画像処理装置100の情報処理について説明をする。
図7は、実施形態2の画像処理装置100のソフトウェア構成の一例を示す図である。上述した実施形態と同様の構成は同一の符号を付し、説明を省略する。以下の図においても同様である。
状況取得部203は、画像取得部101から取得した画像から撮影状況を推定する。撮影状況とは、各種設定から得られる撮影情報と画像を解析して特定の物体を検出することで推定可能な撮影情報との何れか、又は両方から決まる撮影画角内の状況である。各種設定から得られる撮影情報とは、撮影時間帯、季節、照度条件等、撮像部の時刻設定や撮像部設定等である。撮影時間帯は、AM6:00からAM10:00を朝、AM10:00からPM5:00を昼、PM5:00からPM7:00を夕方、PM7:00からAM6:00を夜と定義し、画像取得部101と接続された撮像部から取得した撮影時間に基づき状況取得部203が朝、昼、夕方、夜の何れかに決定する。また、季節は、春夏秋冬の各季節に対応付く日付を定義し、撮像部から取得した日時に基づき状況取得部203が春夏秋冬の何れかを決定する。照度条件は、画像取得部101から取得した画像全体の輝度値のヒストグラムとゲイン値とからルール判定により推定して状況取得部203が取得する。ここでルール判定とは、ヒストグラムとゲイン値を判定する条件の組み合わせである。例えば、輝度のレンジが0から255まで、ゲイン値は0から7までの8段階として、ヒストグラムの最頻値が128以上、かつ、ゲイン値が3以下の場合は十分照度、ヒストグラムの最頻値が64以下かつゲイン値が4以上の場合は低照度、のように決定する。撮像部設定は、撮像時のホワイトバランス設定、露出設定、露光時間設定、から状況取得部203が取得する。また、画像を解析して特定の物体を検出することで推定可能な撮影情報は、画像から雨粒や雪を検出して天候を推定することで状況取得部203が取得する。天候は、晴れ、雨、雪と定義し、雨、雪を検出しない場合は晴れ、雨粒を検出した場合は雨、降雪を検出した場合は雪とする。状況取得の処理は、これらの処理に限定されるものではない。状況取得の処理は、撮影画像から撮影状況を推定することができる処理であればどのような処理でもよい。
背景管理部204は、複数の背景画像と各背景画像の撮影状況とを管理する。背景画像は、画像取得部101が取得する画像と同じ場所、同じ画角で撮影した時間帯や画角内の状況が異なる1枚以上の画像である。背景画像の種類は実施形態1の記載と同じである。背景管理部204は、これら背景画像を画像ファイルとして、撮影状況をメタデータファイルとして画像保存部(不図示)に保管する。また、背景管理部204は、状況取得部203から得られる撮影状況に最も近しい背景画像を複数の背景画像からルール判定により選定する。図8は、ホワイトバランスと照度を使った背景画像の選定の一例を示す図である。ここでのルール判定の条件は、状況取得部203から取得した撮影状況と背景画像のホワイトバランス値の差分が最も小さい、かつ、照度条件が同じ、である。図8(a)では画像取得部101が取得した最新の画像と状況取得部203が取得した撮影状況を示している。図8(b)、(c)では設定された背景画像と背景画像の撮影状況とを示している。背景管理部204は、最新の画像の撮影状況と背景画像に設定された撮影状況とをルールに従い判定し背景画像を選定する。図8の例では、背景管理部204は、ルールに合致する図8の(b)を背景画像として選定する。図8の例では、ホワイトバランス、照度条件に基づき背景画像選定を行ったが、ルール判定の条件に他項目、例えば、撮影時間帯が同一、天候が同一、等、撮影情報の項目を条件として加えてもよい。また、ルール判定は各条件の論理積だけでなく、論理和としてもよい。例えば、ホワイトバランス値の差分が最も小さい、又は、撮影時間帯が同一の何れかを満たす背景画像を選定する。
情報処理の流れは実施形態1と同様のため説明を省略する。
本実施形態の情報処理によれば、画像処理装置100は、実世界の状況に近い背景画像を選定してマスク領域のマスク画像を合成することで、プライバシー保護の目的と監視者への実世界の情報提供とを両立することができる。
<実施形態3>
実施形態3では、実施形態2に加えセンサを使用して撮影状況を推定する画像処理装置100の情報処理について説明をする。
図9は、実施形態3の画像処理装置100のソフトウェア構成の一例を示す図である。
センサ部301は、撮像部が設置された環境の温度、湿度、照度等のセンサ情報を取得して、状況取得部203に送付する。
状況取得部302は、画像取得部101から取得した画像とセンサ部301から取得したセンサ情報とから撮影状況を推定する。
背景管理部303は、複数の背景画像と各背景画像の撮影状況とを管理し、状況取得部302から得られる撮影状況と最も類似度が高い背景画像を最も近しい背景画像として複数の背景画像から選定する。
本実施形態の情報処理によれば、画像処理装置100は、実世界の状況に近い背景画像を選定してマスク領域のマスク画像を合成することで、プライバシー保護の目的と監視者への実世界の情報提供とを両立することができる。
<実施形態4>
実施形態4では、実施形態1に加えマスク領域抽出用背景画像にマスク画像を合成することで作成したプライバシー保護画像を使用した画像処理装置100について説明する。本実施形態では実施形態1との違いについて記載する。
まず、第一のプライバシー保護画像は、実施形態1に記載した予め用意した背景画像にマスク画像を合成して作成した画像、第二のプライバシー保護画像は、本実施形態に記載するマスク領域抽出用背景画像にマスク画像を合成して作成した画像とする。
第一のプライバシー保護画像と第二のプライバシー保護画像にはそれぞれ利点と欠点とがある。第一のプライバシー保護画像は、プライバシー保護対象の被写体が映っていない背景画像にプライバシー保護対象である被写体のマスク領域を合成するため、利点は被写体の形状や動きを視認可能としながらも被写体が露出することはない点である。しかしながら、予め用意した背景画像から入力画像に最も近い画像を選択するため、欠点は被写体の背景は入力画像に似ているが最新の背景状況を表現するものではない点である。一方で、第二のプライバシー保護画像は、最新の入力画像を用いて作成するため、第一のプライバシー保護画像に比べ被写体の背景が最新の背景状況に比較的忠実に表現するという利点がある。しかしながら、マスク領域抽出用背景画像に被写体が露出した場合は被写体のプライバシーが保護されていない画像が作成され、プライバシー保護の目的が達成されない可能性があるという欠点がある。なお、被写体が露出する場合とは、平均画像を作成するために必要な保存画像のすべてで被写体が同じ位置で動かず存在する場合、物体認識手法が被写体の検出に失敗する場合が想定できる。
前記の利点及び欠点より、それぞれの利点を活かしてプライバシー保護画像を切り替えることでより好適にプライバシー保護の目的と監視者への実世界の情報提供を両立することができる。
そこで本実施形態では、画像合成部105は顔検出手段(不図示)を更に持ち、マスク領域抽出用背景画像に顔検出処理を実施して、顔を検出した場合には第一のプライバシー保護画像を作成し、顔を検出しない場合には第二のプライバシー保護画像を作成する。なお、顔検出手段に限らず、マスク領域抽出用背景画像からプライバシー保護の対象の被写体を抽出する方法であればよく、人物検出手段等他の検出手段でもよい。
本実施形態の情報処理によれば、画像処理装置100は、プライバシー保護の目的と監視者への実世界の情報提供とを両立することができる。
<その他の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給する。そして、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではない。
例えば、画像処理装置100のソフトウェア構成の一部、又は全ては、ハードウェア構成として画像処理装置100に実装されてもよい。また、画像処理装置100のハードウェア構成は一例であって、PD19、KB20、CRT21、HDD22等は画像処理装置100の外付けのハードウェアであってもよい。
以上、上述した各実施形態の処理によれば、プライバシー保護のための抽象化処理を行う際に、適切な背景画像を選択することができる。
11 CPU
100 画像処理装置

Claims (5)

  1. 撮像画像を取得する取得手段と、
    前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出手段と、
    複数の背景画像の中から処理に用いる背景画像を選択する選択手段と、
    前記選択手段により選択した背景画像について、前記抽出手段により抽出した被写体領域を抽象化する処理を実施する処理手段と
    前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得手段と、を有し、
    前記選択手段は、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
    ことを特徴とする画像処理装置。
  2. 前記処理手段は、
    マスク画像を合成するマスク領域を抽出する抽出手段と、
    前記マスク領域のマスク画像と前記選択された背景画像とから保護画像を生成する生成手段と
    を有することを特徴とする請求項1記載の画像処理装置。
  3. 前記保護画像を出力する出力手段を更に有することを特徴とする請求項2記載の画像処理装置。
  4. 撮像画像を取得する取得ステップと、
    前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出ステップと、
    複数の背景画像の中から処理に用いる背景画像を選択する選択ステップと、
    前記選択ステップにおいて選択した背景画像について、前記抽出ステップにおいて抽出した被写体領域を抽象化する処理を実施する処理ステップと
    前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得ステップと、を有し、
    前記選択ステップは、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
    ことを特徴とする画像処理方法。
  5. コンピュータを、
    撮像画像を取得する取得手段と、
    前記撮像画像から所定の被写体に対応する被写体領域を抽出する抽出手段と、
    複数の背景画像の中から処理に用いる背景画像を選択する選択手段と、
    前記選択手段により選択した背景画像について、前記抽出手段により抽出した被写体領域を抽象化する処理を実施する処理手段と
    前記撮像画像から取得された物体領域を除去することによって判定領域を取得する取得手段として機能させ、
    前記選択手段は、前記撮像画像の判定領域と前記複数の背景画像の前記判定領域に対応する領域との類似度に基づいて、類似度が最も高い前記背景画像を選択する
    ことを特徴とするプログラム。
JP2017150018A 2016-11-02 2017-08-02 画像処理装置、画像処理方法及びプログラム Active JP7039208B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/793,327 US10970896B2 (en) 2016-11-02 2017-10-25 Image processing apparatus, image processing method, and storage medium
EP19178972.6A EP3582186A1 (en) 2016-11-02 2017-11-02 Image processing apparatus, image processing method, and storage medium
CN201711066028.5A CN108010105B (zh) 2016-11-02 2017-11-02 图像处理设备、图像处理方法和存储介质
EP17199674.7A EP3319045B1 (en) 2016-11-02 2017-11-02 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016215302 2016-11-02
JP2016215302 2016-11-02

Publications (3)

Publication Number Publication Date
JP2018078540A JP2018078540A (ja) 2018-05-17
JP2018078540A5 JP2018078540A5 (ja) 2020-08-27
JP7039208B2 true JP7039208B2 (ja) 2022-03-22

Family

ID=62151063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017150018A Active JP7039208B2 (ja) 2016-11-02 2017-08-02 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7039208B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160068B (zh) * 2018-11-07 2024-01-26 杭州海康威视数字技术股份有限公司 目标图片生成方法、装置及电子设备
JP2020087171A (ja) * 2018-11-29 2020-06-04 富士通株式会社 画像処理プログラム、画像処理方法、および画像処理装置
JP7370769B2 (ja) * 2019-08-30 2023-10-30 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157598A (ja) 2000-11-16 2002-05-31 Japan Radio Co Ltd 侵入者検知システム
JP2003125289A (ja) 2002-08-22 2003-04-25 Fuji Photo Film Co Ltd 画像合成装置
JP2005079776A (ja) 2003-08-29 2005-03-24 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及びプログラム
JP2008191884A (ja) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011060167A (ja) 2009-09-14 2011-03-24 Secom Co Ltd 移動物体追跡装置
JP2015149558A (ja) 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002157598A (ja) 2000-11-16 2002-05-31 Japan Radio Co Ltd 侵入者検知システム
JP2003125289A (ja) 2002-08-22 2003-04-25 Fuji Photo Film Co Ltd 画像合成装置
JP2005079776A (ja) 2003-08-29 2005-03-24 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及びプログラム
JP2008191884A (ja) 2007-02-05 2008-08-21 Nippon Telegr & Teleph Corp <Ntt> 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP2011060167A (ja) 2009-09-14 2011-03-24 Secom Co Ltd 移動物体追跡装置
JP2015149558A (ja) 2014-02-05 2015-08-20 パナソニックIpマネジメント株式会社 モニタリング装置、モニタリングシステムおよびモニタリング方法

Also Published As

Publication number Publication date
JP2018078540A (ja) 2018-05-17

Similar Documents

Publication Publication Date Title
EP3319045B1 (en) Image processing apparatus, image processing method, and storage medium
Davis et al. Background-subtraction in thermal imagery using contour saliency
TWI686774B (zh) 人臉活體檢測方法和裝置
JP4648981B2 (ja) 非動作検出方法
JP5567853B2 (ja) 画像認識装置および方法
Davis et al. Robust Background-Subtraction for Person Detection in Thermal Imagery.
JP6587435B2 (ja) 画像処理装置、情報処理方法及びプログラム
TWI660326B (zh) 用於更新背景模型之方法及裝置
JP6482195B2 (ja) 画像認識装置、画像認識方法及びプログラム
US20190199898A1 (en) Image capturing apparatus, image processing apparatus, control method, and storage medium
Fendri et al. Fusion of thermal infrared and visible spectra for robust moving object detection
TWI701609B (zh) 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
US8611586B1 (en) Fast target extraction from thermal imagery
JP2017005389A (ja) 画像認識装置、画像認識方法及びプログラム
JP2008192131A (ja) 特徴レベル・セグメンテーションを実行するシステムおよび方法
JP7039208B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN111383168A (zh) 隐私保护摄影机
US8818096B2 (en) Apparatus and method for detecting subject from image
Apewokin et al. Multimodal mean adaptive backgrounding for embedded real-time video surveillance
JP2009048240A (ja) 動画像における移動物体の検出方法、検出装置、監視方法および監視システム
WO2015186347A1 (ja) 検出システム、検出方法及びプログラム記憶媒体
CN105469054B (zh) 正常行为的模型构建方法及异常行为的检测方法
CN108229281B (zh) 神经网络的生成方法和人脸检测方法、装置及电子设备
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
Chu et al. A content-adaptive method for single image dehazing

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200715

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220309

R151 Written notification of patent or utility model registration

Ref document number: 7039208

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151