JP2017201745A - 画像処理装置、画像処理方法およびプログラム - Google Patents
画像処理装置、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JP2017201745A JP2017201745A JP2016092680A JP2016092680A JP2017201745A JP 2017201745 A JP2017201745 A JP 2017201745A JP 2016092680 A JP2016092680 A JP 2016092680A JP 2016092680 A JP2016092680 A JP 2016092680A JP 2017201745 A JP2017201745 A JP 2017201745A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- area
- region
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/174—Segmentation; Edge detection involving the use of two or more images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
Abstract
Description
そこで、カメラの撮像画像から監視対象となる特定の人物を抽出し、抽出した特定の人物のみを表示し、それ以外の人物のプライバシーを保護する技術が提案されている。特許文献1には、撮像画像中の人物の行動や状態を表す特徴量を評価することで、異常行動を行った人物を特定の人物として抽出する方法が開示されている。
そこで、本発明は、撮像画像中の特定の物体とその他の物体とを適切に区別し、適切な画像処理を施すことを目的としている。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における画像処理システムの動作環境の一例を示したネットワーク接続構成図である。本実施形態では、画像処理システムをネットワークカメラシステムに適用する。
ネットワークカメラシステム10は、少なくとも2台のネットワークカメラ(以下、単に「カメラ」ともいう)20と、少なくとも1台の画像処理装置30とを備える。カメラ20と画像処理装置30とは、ネットワーク回線であるLAN(Local Area Network)40によって接続されている。なお、ネットワーク回線はLANに限定されるものではなく、インターネットやWAN(Wide Area Network)などであってもよい。また、LAN40への物理的な接続形態は、有線であってもよいし、無線であってもよい。さらに、図1において、カメラ20および画像処理装置30は、それぞれ2台ずつLAN40に接続されているが、接続台数は図1に示す数に限定されない。
画像処理装置30は、例えばパーソナルコンピューター(PC)により構成されており、ユーザ(例えば、監視員)が操作可能である。この画像処理装置30は、カメラ20によって撮像された画像から所定の条件に合致した物体(人体を含む)を検出するための画像解析処理を行う。ここで、画像解析処理は、動体検出、動体追尾、物体領域検出、人体検出、顔認識等の処理の少なくとも1つを含む。
図2は、画像処理装置30のハードウェア構成を示す図である。
画像処理装置30は、CPU31と、ROM32と、RAM33と、外部メモリ34と、表示部35と、入力部36と、通信I/F37と、システムバス38とを備える。
CPU31は、画像処理装置30における動作を統括的に制御するものであり、システムバス38を介して、各構成部(32〜37)を制御する。ROM32は、CPU31が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ34や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM33は、CPU31の主メモリ、ワークエリアとして機能する。すなわち、CPU31は、処理の実行に際してROM32から必要なプログラムをRAM33にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。
なお、カメラ20の場合は、ハードウェア構成として、図2の構成に加えてさらに撮像部を具備する。ここで、撮像部は、被写体の撮像を行うための構成であり、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等の撮像素子を含む。また、カメラ20の場合は、入力部として、キーボード等ではなく電源ボタンや各種設定ボタンを具備してもよい。
撮像センサ部201は、上述した撮像部の撮像面に結像された光像を光電変換によりデジタル電気信号に変換し、これを現像処理部302に出力する。現像処理部202は、撮像センサ部201により光電変換されて得られたデジタル電気信号に対して、所定の画素補間や色変換処理を行い、RGBあるいはYUVなどのデジタル映像を生成する。また、現像処理部202は、現像を施した後のデジタル映像を用いて所定の演算処理を行い、得られた演算結果に基づいてホワイトバランス、シャープネス、コントラスト、色変換などの映像処理を行う。
具体的には、画像処理装置30は、複数のカメラ20により撮像された複数の画像をもとに、画像中の物体に含まれる特定物体の三次元位置を推定する。そして、画像処理装置30は、所定の三次元領域内に存在する特定物体と三次元領域外に存在する特定物体とを区別する。本実施形態では、特定物体を人体とし、画像処理装置30は、三次元領域内に存在する人体については撮像画像のまま表示し、それ以外の人体を含む物体に対しては、プライバシーを保護するための抽象化処理を施すといった画像処理を行う。
なお、本実施形態においては画像処理装置としているが、映像を取得し、映像中の各フレーム(画像)を1枚ごとに処理しても処理内容は同一であるため、映像処理装置にも適用可能である。
画像取得部301は、カメラ20から送信された映像データを受信し、伸長、復号化して画像(動画像若しくは静止画像)を取得する(図5(a))。そして、画像取得部301は、取得した画像を順次、物体検出部302へ送出する。
物体領域検出部303は、物体検出部302により検出された物体の画像中における領域(物体領域)を検出する(図5(b))。本実施形態では、物体領域は、画像における動体領域であり、検出された物体を包含する領域とする。物体領域の情報は、画像上での位置やサイズの情報を含む。
人体位置推定部304による人体検出処理および人体位置推定処理により、人体の頭頂部の位置に加えて、顔のサイズや身長も取得可能である。そのため、人体領域推定部305は、人体の頭頂部の位置を基準とした矩形範囲を推定人体領域として推定することができる。この人体領域推定部305により推定される推定人体領域は、物体領域検出部303により検出された物体領域中に含まれる。
背景画像取得部308は、予めメモリに記憶された被写体の映っていない背景のみの画像(背景画像)を取得する(図5(f))。
合成マップ生成部309は、物体領域検出部303により検出された物体領域と、人体領域抽出部307により抽出された人体領域との情報に基づいて、合成マップを生成する(図5(g))。合成マップは、画像取得部301により取得された画像(撮像画像)と背景画像取得部308により取得された背景画像とを合成する際に用いるマップである。具体的には、合成マップは、各画素における撮像画像と背景画像とを合成する比率を表すマップである。
出力部311は、画像処理部310により生成された画像処理後の表示画像を表示部35に出力することで、表示部35に表示画像を表示させる表示制御を行う。
図6に示す処理は、例えばカメラ20から画像が送信されたタイミングで開始され、カメラ20から画像が送信されるたびに繰り返して実行される。ただし、図6の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置30は、CPU31が必要なプログラムを読み出して実行することにより、図6に示す各処理を実現することができる。
ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図6の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
図7は、複数のカメラ20(20A〜20D)の設置例を示す図である。4台のカメラ20A〜20Dは、同一の被写体を同時に撮像可能とするために、視野重複のある画角で設置されている。図7においては、4台のカメラ20A〜カメラ20Dは、人物P1およびP2と領域501とを同時に撮像できる画角で設置されている。領域501は、領域設定部306によって設定される三次元領域であり、図7では矩形を底面とした十分に高い高さを持つ立方体形状としている。図7のようなカメラ配置の場合、S1において画像取得部301は、4台のカメラ20A〜20Dからそれぞれ画像を取得する。
S3では、人体位置推定部304は、S1において取得された複数の画像をもとに、撮像されている人体に対して三角測量の方式を用いた人体位置推定処理を行う。この人体位置推定処理について、図8を参照しながら詳細に説明する。
なお、上記キャリブレーション処理に際し、関連付けに用いる三次元空間における位置座標は、予め測定し記憶しておく。関連付けに用いる物体の位置は、図9のように同一の人体の頭頂部であってもよいし、同一の人体の顔中央部や両肩中央点、人体の中央点であってもよい。また、関連付けに用いる物体の位置は人体以外の物体の位置であってもよい。この場合、対象となる同一物体における共通の点が分かればよく、三次元空間範囲内において任意に設定した目印となる所定の箇所や、実カメラ位置などを用いることができる。このようなキャリブレーション処理により、後述する人体の三次元位置座標の推定処理(S34)において、撮像画像中における実距離(例えば、頭頂部の床面からの高さ=身長)を取得することが可能となる。
また、本実施形態では、三次元位置座標の推定対象となる特定物体を人体としているが、人体に限定されるものではない。上記特定物体は、人物の顔、自動車、動物、ナンバープレート、サッカーボールなどであってもよい。さらに、複数種類の特定物体を検出する特定物体検出部を備えてもよく、同時に複数の検出が可能であるならば、複数の特定物体検出処理を実施してもよい。さらに、人体検出処理を行う領域は、必ずしも物体領域検出部303により検出された物体領域である必要はない。例えば、人体検出処理は、画像の全領域に対して行うようにしてもよい。
次にS34では、人体位置推定部304は、カメラ20Aとカメラ20Bとから三角測量の方式により、S33において対応付け探索がなされた人体の三次元位置座標を推定する。このS34では、人体位置推定部304は、人体の頭頂部の三次元位置座標を、当該人体の推定人体位置として推定する。但し、推定人体位置は、人体の頭頂部の三次元位置座標に限定されず、人体の顔中央部の三次元位置座標であってもよい。
S36では、人体位置推定部304は、検出されたすべての人体について三次元位置座標を推定したか否かを判定する。そして、人体位置推定部304は、三次元位置座標を推定していない人体が存在すると判定した場合にはS32に戻り、すべての人体について三次元位置座標の推定が完了していると判定した場合には、図8の処理を終了する。なお、上記の人体位置推定処理は一例であって、人体検出だけでなく人体の追尾を各カメラ画像について行い、人体検出の確度を高めるようにしてもよい。
図12は、図7に示すカメラ配置および人物配置におけるカメラ20Aの画像である。この図12において、領域502は、図7の領域501をカメラ20Aから見た領域である。S3における人体位置推定処理により、人物P1およびP2の頭頂部の位置が推定されている。そこで、人体領域推定部305は、推定された頭頂部の位置座標から画像上の床面に対応する位置までを推定人体領域として設定する。ここで、推定人体領域は、人体を包含する所定形状(矩形形状)で表現されているが、この限りではない。図12に示す画像については、人体領域推定部305は、人物P1の推定人体領域511と、人物P2の推定人体領域512とを推定する。
S7では、人体領域抽出部307は、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域との重複領域が存在するか否かを判定する。そして、人体領域抽出部307は、重複領域が存在しないと判定した場合には後述するS10に移行し、重複領域が存在すると判定した場合にはS8に移行する。
S8では、人体領域抽出部307は、S7において検出された重複領域を人体領域から除外するか否かを判定する。つまり、人体領域抽出部307は、重複領域に対し、三次元領域外に存在すると判定された人体に対応する推定人体領域に対する画像処理(透明化処理)を施すか否かを判定する。
つまり、推定人体領域511と人体領域512との重複領域は、カメラ20Aに対して前方に位置する人物P1の推定人体領域511に含まれ、人物P2に対応する人体領域512は、図13に示すような形状となる。そのため、人物P2の人体部分522のうち人物P1に対応する推定人体領域511と重複する人体部分522aは、人物P1の人体部分521と同様に透明化処理されることになる。
S10では、合成マップ生成部309は、S2において抽出された物体領域と、S5からS9において抽出された人体領域とに基づいて、撮像画像と背景画像とを合成するための合成マップを生成する。その際、合成マップ生成部309は、S2において検出された物体領域から、S5からS9において抽出された人体領域を除いた領域が、透明化処理の対象である透明化領域となるような合成マップを生成する。
合成マップは、上記の透明化領域の画素に対して実数値k(但し、0≦k<1)、それ以外の領域の画素に対して実数値1を割り当てたマップである。本実施形態では、k=0とする。図13に示す画像に対応する合成マップの例を図14に示す。図14の合成マップMにおいて、領域A0の画素値はkであり、領域A1の画素値は1である。
画像処理部310は、画素(i,j)における撮像画像の画素値をPA(i,j)、背景画像の画素値をPB(i,j)、合成マップMの値をα(i,j)とした場合、次式のように合成後の画像の画素値P(i,j)を算出する。
P(i,j)=α(i,j)×PA(i,j)+(1−α(i,j))×PB(i,j) ………(1)
なお、本実施形態では、領域501外の物体に対して抽象化処理を施す場合について説明したが、反対に領域501内の物体のみに対して抽象化処理を施すようにしてもよい。この場合、領域501外の領域を、領域設定部306において設定される三次元領域とし、上述した画像解析処理および画像処理を行えばよい。
以上説明したとおり、画像処理装置30は、複数のカメラ20によってそれぞれ撮像された複数の画像を取得し、取得した複数の画像に基づいて、画像中の特定物体の三次元位置を推定する。また、画像処理装置30は、推定された特定物体の三次元位置に基づいて、画像中における、所定の三次元領域外に存在する特定物体を包含する領域(第一領域)と、上記所定の三次元領域内に存在する特定物体を包含する領域(第二領域)とをそれぞれ抽出する。
これにより、画像処理装置30は、画像中の特定の物体とその他の物体とを区別し、適切に画像処理を行うことができる。画像処理装置30は、第一領域と第二領域との重複領域について画像処理を行うか否かを判定するので、画像処理すべき領域を適切に特定することができる。したがって、画像処理すべき領域に画像処理が施されなかったり、反対に、画像処理すべきでない領域に画像処理が施されてしまったりすることを抑制することができる。
これにより、特定領域外に存在する人物のプライバシーを保護したり、特定領域内に存在する人物と特定領域外に存在する人物とを異なる抽象化レベルで表示したりすることができる。
これにより、画像処理を施すべき領域をより適切に特定することができる。例えば、特定領域内に存在する人体の推定人体領域内の一部にプライバシーを保護すべき特定領域外の人物の人体が入りこんでいる場合であっても、表示領域を適切に設定することができる。したがって、プライバシーを保護したい人物が意図せずに表示されてしまうことを適切に抑制することができる。
さらに、画像処理装置30は、重複領域を除く第一領域と、重複領域とに、同じ画像処理を行うことができる。この場合、画像処理が、例えば透明化処理である場合、重複領域を含む第一領域全体に透明化処理が施される。このように、重複領域を含む第一領域全体に同じ画像処理を施すので、容易かつ適切に特定領域外の人物のプライバシーを保護することができる。
このように、本実施形態における画像処理装置30は、マルチカメラを用いた三次元位置推定により特定物体の位置を推定し、所定の三次元領域内の特定物体と三次元領域外の特定物体とを区別して適切な画像処理を行うことができる。したがって、特定位置の人物と他の人物とを区別して適切にプライバシー保護を行うことができる。
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して手前側に位置すると判定した場合、重複領域を透明化処理する場合について説明した。第二の実施形態では、透明化処理に替えて、画像補完処理を行う場合について説明する。
図15は、第二の実施形態における画像処理装置30の動作を示すフローチャートである。この図15に示す処理は、図6に示す処理と同様のタイミングで実行される。画像処理装置30は、CPU31が必要なプログラムを読み出して実行することにより、図15に示す各処理を実現することができる。ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図15の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。
S21では、画像処理部310は、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域によって遮蔽される遮蔽領域が存在するか否かを判定する。具体的には、画像処理部310は、まず、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域との重複領域が存在するか否かを判定する。次に、画像処理部310は、重複領域が存在すると判定すると、S5において領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体と、当該人体に重複している人体とのカメラに対する前後位置関係を判定する。そして、画像処理部310は、領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して手前側に位置すると判定した場合、上記人体領域に遮蔽領域が存在すると判定する。つまり、遮蔽領域は、重複領域に相当する。
画像処理部310は、このS21において遮蔽領域が存在しないと判定した場合にはS10に移行し、遮蔽領域が存在すると判定した場合には、遮蔽領域に対して画像補完処理を施すとしてS22に移行する。
S22では、画像処理部310は、画像補完処理の対象である遮蔽領域に対して、画像補完処理を施すための補完画像を生成する。図16は、図13における人体領域512を切り出した図である。画像補完処理の対象となる遮蔽領域は、人体領域512に存在する推定人体領域511との重複領域であり、図16の領域512aである。
なお、カメラ20Bの画像においても、人物P2が他の人物などにより隠れており対応画像領域が取得できない場合は、さらにカメラ20C、カメラ20D等の画像を用いて補完画像を生成するようにしてもよい。但し、補完画像の生成元となる撮像画像は、カメラ20Aとなるべく近い位置に配置されたカメラの画像であることが望ましい。
上記の画像補完処理により、図17に示すように、人物P2の人体部分522のうち人物P1に対応する推定人体領域511と重複する人体部分は、擬似再現されて表示されることになる。つまり、人物P1の人体部分(図12では肩部)によって隠されていた人物P2の人体部分(図12では脚部)も、上記の画像補完処理により表示させることができる。一方、人物P1の人体部分521は、人物P2に対応する人体領域512と重複する人体部分についても、適切に透明化処理されることになる。
その際、画像処理装置30は、遮蔽領域が存在する第一の画像を撮像したカメラ20とは異なる別のカメラ20によって撮像された第二の画像に基づいて、遮蔽領域を補完する。具体的には、画像処理装置30は、第二の画像中における遮蔽領域に対応する画像領域を推定し、推定された画像領域の画像を投影変換等により第一の画像中の遮蔽領域に対応する画像に変換し、第一の画像の遮蔽領域に重畳する。これにより、遮蔽領域の擬似再現が可能となり、ユーザに遮蔽領域に対応する画像を提示することができる。
なお、画像処理装置30は、第二の画像中における遮蔽領域に対応する画像領域を推定した場合、推定された画像領域を含む領域の画像を、第一の画像の遮蔽領域の近傍に重畳してもよい。この場合、複雑な処理を必要とすることなく、ユーザに遮蔽領域に対応する画像を提示することができる。
上記実施形態においては、画像処理の対象を物体および人体としているが、人体のみを画像処理の対象とする場合には、画像処理装置30は、図4の物体検出部302や物体領域検出部303を備えていなくてもよい。
また、上記実施形態においては、画像処理装置30は、特定領域内の人物以外のプライバシーを保護することを目的とした画像処理を行う場合について説明したが、画像処理の内容は上記に限定されない。例えば、特定領域内に進入した人物を容易に確認することを目的として、特定領域内の人体のみを強調表示するといった画像加工を施してもよい。このように、画像処理の内容は、目的に応じて適宜選択可能である。
さらに、上記実施形態においては、カメラ20が監視カメラである場合について説明したが、公共の場での放送映像用のカメラであってもよい。この場合、特定領域内(例えば、画面中央)に位置するアナウンサーだけを表示し、他の物体(人体を含む)はぼかしたりするような処理を行うことができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (17)
- 複数の撮像手段によりそれぞれ撮像された複数の画像を取得する取得手段と、
前記取得手段により取得された複数の画像に基づいて、前記画像中の特定物体の三次元位置を推定する第一の推定手段と、
前記第一の推定手段により推定された前記特定物体の三次元位置に基づいて、前記画像中における、所定の三次元領域外に存在する前記特定物体を包含する領域である第一領域と、前記三次元領域内に存在する前記特定物体を包含する領域である第二領域とをそれぞれ抽出する抽出手段と、
前記第一領域と前記第二領域との重複領域を特定する特定手段と、
前記特定手段により特定された重複領域を含む前記第一領域に画像処理を施す画像処理手段と、を備えることを特徴とする画像処理装置。 - 前記特定物体の三次元位置に基づいて、前記重複領域を有する前記第一領域および前記第二領域にそれぞれ対応する特定物体の前記撮像手段に対する前後位置関係を判定し、前記第一領域に対応する特定物体が前記撮像手段に対して前方に位置すると判定した場合に、前記重複領域に前記画像処理を施すと判定する判定手段をさらに備え、
前記画像処理手段は、
前記判定手段により前記重複領域に画像処理を施すと判定された場合に、前記重複領域を含む前記第一領域に前記画像処理を施し、前記判定手段により前記重複領域に前記画像処理を施さないと判定された場合は、前記第一領域から前記重複領域を除外した領域に前記画像処理を施すことを特徴とする請求項1に記載の画像処理装置。 - 前記画像処理手段は、
前記判定手段により前記重複領域に画像処理を施すと判定された場合、前記重複領域を除く前記第一領域と、前記重複領域とに、同じ画像処理を施すことを特徴とする請求項1または2に記載の画像処理装置。 - 前記画像処理手段は、
前記判定手段により前記重複領域に画像処理を施すと判定された場合、前記重複領域を除く前記第一領域に第一の画像処理を施し、前記重複領域に前記第一の画像処理とは異なる第二の画像処理を施すことを特徴とする請求項1または2に記載の画像処理装置。 - 前記画像処理手段は、
前記第二の画像処理として、前記第二領域における前記重複領域に対応する遮蔽領域を補完する処理を行う補完手段を備えることを特徴とする請求項4に記載の画像処理装置。 - 前記補完手段は、
前記取得手段により取得された複数の画像のうち、前記遮蔽領域が存在する第一の画像を撮像した前記撮像手段とは異なる前記撮像手段によって撮像された第二の画像において、前記遮蔽領域に対応する画像領域を推定する第二の推定手段と、
前記第二の画像における前記第二の推定手段によって推定された画像領域を含む領域の画像を、前記第一の画像の前記遮蔽領域の近傍に重畳する重畳手段と、を備えることを特徴とする請求項5に記載の画像処理装置。 - 前記補完手段は、
前記取得手段により取得された複数の画像のうち、前記遮蔽領域が存在する第一の画像を撮像した前記撮像手段とは異なる前記撮像手段によって撮像された第二の画像において、前記遮蔽領域に対応する画像領域を推定する第二の推定手段と、
前記第二の画像における前記第二の推定手段によって推定された画像領域の画像を、前記第一の画像の前記遮蔽領域に対応する画像に変換し、前記第一の画像の前記遮蔽領域に重畳する重畳手段と、を備えることを特徴とする請求項5に記載の画像処理装置。 - 前記抽出手段は、
前記第一の推定手段により推定された前記特定物体の三次元位置に基づいて、前記画像中における前記特定物体を包含する領域を、所定形状の領域として抽出することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。 - 前記抽出手段は、
前記特定物体の輪郭を検出する輪郭検出手段を有し、
前記輪郭検出手段によって検出された輪郭の情報に基づいて、前記画像中における前記特定物体を包含する領域を抽出することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。 - 前記画像処理は、前記画像を抽象化して表示するための抽象化処理を含むことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
- 前記画像処理手段は、
前記抽象化処理として、透明化処理、半透明化処理、ぼかし処理、モザイク処理および塗りつぶし処理のいずれかの処理を行うことを特徴とする請求項10に記載の画像処理装置。 - 前記画像処理手段は、
前記抽象化処理として、前記取得手段により取得された画像と背景画像とを合成する処理を行うことを特徴とする請求項10に記載の画像処理装置。 - 前記特定物体は、人体を含むことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
- 前記取得手段により取得された複数の画像に基づいて、前記複数の画像間で対応付けられた人体を検出する検出手段をさらに備え、
前記第一の推定手段は、
前記取得手段により取得された複数の画像に基づいて、前記検出手段により検出された人体の三次元位置を推定することを特徴とする請求項13に記載の画像処理装置。 - 複数の撮像手段と、
請求項1から14のいずれか1項に記載の画像処理装置と、
前記画像処理手段による画像処理後の画像を表示手段に表示させる表示制御手段と、を備えることを特徴とする画像処理システム。 - 複数の撮像手段によりそれぞれ撮像された複数の画像を取得するステップと、
前記複数の画像に基づいて、前記画像中の特定物体の三次元位置を推定するステップと、
前記特定物体の三次元位置に基づいて、前記画像中における、所定の三次元領域外に存在する前記特定物体を包含する領域である第一領域と、前記三次元領域内に存在する前記特定物体を包含する領域である第二領域とをそれぞれ抽出するステップと、
前記第一領域と前記第二領域との重複領域を特定するステップと、
前記重複領域を含む前記第一領域に画像処理を施すステップと、を含むことを特徴とする画像処理方法。 - コンピュータを、請求項1から14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092680A JP6732522B2 (ja) | 2016-05-02 | 2016-05-02 | 画像処理装置、画像処理方法およびプログラム |
US15/584,440 US10249055B2 (en) | 2016-05-02 | 2017-05-02 | Image processing apparatus, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016092680A JP6732522B2 (ja) | 2016-05-02 | 2016-05-02 | 画像処理装置、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017201745A true JP2017201745A (ja) | 2017-11-09 |
JP6732522B2 JP6732522B2 (ja) | 2020-07-29 |
Family
ID=60157515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016092680A Active JP6732522B2 (ja) | 2016-05-02 | 2016-05-02 | 画像処理装置、画像処理方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10249055B2 (ja) |
JP (1) | JP6732522B2 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019092076A (ja) * | 2017-11-15 | 2019-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2019165431A (ja) * | 2018-01-23 | 2019-09-26 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | プライバシー対応データを記録するための方法およびシステム |
JP2020135525A (ja) * | 2019-02-21 | 2020-08-31 | Kddi株式会社 | 画像処理装置及びプログラム |
US20220148142A1 (en) * | 2020-11-12 | 2022-05-12 | Canon Kabushiki Kaisha | Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium |
WO2022211083A1 (ja) * | 2021-03-31 | 2022-10-06 | ダイキン工業株式会社 | 登録システム、空気調和システム及び登録プログラム |
JP7441732B2 (ja) | 2019-06-14 | 2024-03-01 | アクシス アーベー | 画像またはビデオ内の関心対象物をハイライトする方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6587435B2 (ja) * | 2015-06-29 | 2019-10-09 | キヤノン株式会社 | 画像処理装置、情報処理方法及びプログラム |
WO2019161562A1 (en) * | 2018-02-26 | 2019-08-29 | Intel Corporation | Object detection with image background subtracted |
JP7458769B2 (ja) * | 2019-12-18 | 2024-04-01 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体 |
US20230104858A1 (en) * | 2020-03-19 | 2023-04-06 | Nec Corporation | Image generation apparatus, image generation method, and non-transitory computer-readable medium |
JP2023117149A (ja) * | 2022-02-10 | 2023-08-23 | ヤマハ株式会社 | 画像処理方法および画像処理装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007243509A (ja) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | 画像処理装置 |
JP2009225398A (ja) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | 画像配信システム |
JP2011130271A (ja) * | 2009-12-18 | 2011-06-30 | Canon Inc | 撮像装置および映像処理装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2408192A3 (en) * | 2004-04-16 | 2014-01-01 | James A. Aman | Multiple view compositing and object tracking system |
US7684612B2 (en) * | 2006-03-28 | 2010-03-23 | Pitney Bowes Software Inc. | Method and apparatus for storing 3D information with raster imagery |
JP5574692B2 (ja) | 2009-12-17 | 2014-08-20 | キヤノン株式会社 | 映像情報処理方法及びその装置 |
US9191650B2 (en) * | 2011-06-20 | 2015-11-17 | National Chiao Tung University | Video object localization method using multiple cameras |
US9165190B2 (en) * | 2012-09-12 | 2015-10-20 | Avigilon Fortress Corporation | 3D human pose and shape modeling |
WO2015102731A2 (en) * | 2013-10-18 | 2015-07-09 | Aerovironment, Inc. | Privacy shield for unmanned aerial systems |
JP6494253B2 (ja) * | 2014-11-17 | 2019-04-03 | キヤノン株式会社 | 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム |
US9576204B2 (en) * | 2015-03-24 | 2017-02-21 | Qognify Ltd. | System and method for automatic calculation of scene geometry in crowded video scenes |
-
2016
- 2016-05-02 JP JP2016092680A patent/JP6732522B2/ja active Active
-
2017
- 2017-05-02 US US15/584,440 patent/US10249055B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007243509A (ja) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | 画像処理装置 |
JP2009225398A (ja) * | 2008-03-19 | 2009-10-01 | Secom Co Ltd | 画像配信システム |
JP2011130271A (ja) * | 2009-12-18 | 2011-06-30 | Canon Inc | 撮像装置および映像処理装置 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019092076A (ja) * | 2017-11-15 | 2019-06-13 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP7122815B2 (ja) | 2017-11-15 | 2022-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
JP2019165431A (ja) * | 2018-01-23 | 2019-09-26 | ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH | プライバシー対応データを記録するための方法およびシステム |
JP2020135525A (ja) * | 2019-02-21 | 2020-08-31 | Kddi株式会社 | 画像処理装置及びプログラム |
JP7078564B2 (ja) | 2019-02-21 | 2022-05-31 | Kddi株式会社 | 画像処理装置及びプログラム |
JP7441732B2 (ja) | 2019-06-14 | 2024-03-01 | アクシス アーベー | 画像またはビデオ内の関心対象物をハイライトする方法 |
US20220148142A1 (en) * | 2020-11-12 | 2022-05-12 | Canon Kabushiki Kaisha | Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium |
WO2022211083A1 (ja) * | 2021-03-31 | 2022-10-06 | ダイキン工業株式会社 | 登録システム、空気調和システム及び登録プログラム |
JP2022159213A (ja) * | 2021-03-31 | 2022-10-17 | ダイキン工業株式会社 | 登録システム、空気調和システム及び登録プログラム |
JP7189484B2 (ja) | 2021-03-31 | 2022-12-14 | ダイキン工業株式会社 | 登録システム、空気調和システム及び登録プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20170316575A1 (en) | 2017-11-02 |
US10249055B2 (en) | 2019-04-02 |
JP6732522B2 (ja) | 2020-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6732522B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6650677B2 (ja) | 映像処理装置、映像処理方法、およびプログラム | |
US10810438B2 (en) | Setting apparatus, output method, and non-transitory computer-readable storage medium | |
JP6425780B1 (ja) | 画像処理システム、画像処理装置、画像処理方法及びプログラム | |
TWI554976B (zh) | 監控系統及其影像處理方法 | |
US9600898B2 (en) | Method and apparatus for separating foreground image, and computer-readable recording medium | |
TW201142745A (en) | Information processing apparatus, information processing system, and information processing method | |
AU2014304760A1 (en) | Devices, systems and methods of virtualizing a mirror | |
JP2017103602A (ja) | 位置検出装置、位置検出方法及びプログラム | |
CN106997579B (zh) | 图像拼接的方法和装置 | |
JP2017017431A (ja) | 画像処理装置、情報処理方法及びプログラム | |
JP6910772B2 (ja) | 撮像装置、撮像装置の制御方法およびプログラム | |
US9218794B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
KR102144394B1 (ko) | 영상 정합 장치 및 이를 이용한 영상 정합 방법 | |
EP3605468A1 (en) | Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium | |
WO2020173258A1 (zh) | 图像识别系统及其方法 | |
KR20140128654A (ko) | 증강현실 제공 장치 및 그 방법 | |
JP5361758B2 (ja) | 画像生成方法、画像生成装置、及びプログラム | |
JP2007053621A (ja) | 画像生成装置 | |
KR101645451B1 (ko) | 스테레오 카메라를 이용한 감지영역 내의 이동객체 감지시스템 | |
JP2013115738A (ja) | 車両周辺撮影装置および車両周辺画像の処理方法 | |
KR20120091749A (ko) | 혼합 현실 가시화 시스템 및 혼합 현실 가시화 방법 | |
JP6606340B2 (ja) | 画像検出装置、画像検出方法およびプログラム | |
KR101470198B1 (ko) | 영상 합성 장치 및 방법 | |
WO2022022809A1 (en) | Masking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191211 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200708 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6732522 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |