JP2017201745A - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2017201745A
JP2017201745A JP2016092680A JP2016092680A JP2017201745A JP 2017201745 A JP2017201745 A JP 2017201745A JP 2016092680 A JP2016092680 A JP 2016092680A JP 2016092680 A JP2016092680 A JP 2016092680A JP 2017201745 A JP2017201745 A JP 2017201745A
Authority
JP
Japan
Prior art keywords
image
image processing
area
region
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016092680A
Other languages
English (en)
Other versions
JP6732522B2 (ja
Inventor
安達 啓史
Hiroshi Adachi
啓史 安達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016092680A priority Critical patent/JP6732522B2/ja
Priority to US15/584,440 priority patent/US10249055B2/en
Publication of JP2017201745A publication Critical patent/JP2017201745A/ja
Application granted granted Critical
Publication of JP6732522B2 publication Critical patent/JP6732522B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

【課題】撮像画像中の特定の物体とその他の物体とを適切に区別し、適切な画像処理を施す。【解決手段】画像処理装置30は、複数のカメラ20によりそれぞれ撮像された複数の画像に基づいて、画像中の特定物体の三次元位置を推定する。また、画像処理装置30は、推定された特定物体の三次元位置に基づいて、画像中における、所定の三次元領域内に存在する特定物体を包含する領域である第一領域と、三次元領域外に存在する特定物体を包含する領域である第二領域とをそれぞれ抽出する。さらに、画像処理装置30は、第一領域と第二領域との重複領域を特定する。そして、画像処理装置30は、重複領域を含む第一領域に画像処理を施す。【選択図】 図5

Description

本発明は、画像処理装置、画像処理方法およびプログラムに関する。
近年、監視カメラの普及が進んでいる。これに伴い、公共の場で監視カメラによって撮像された画像(映像)に映っている個人の容姿を他人が容易に見ることができるようになり、プライバシーの観点から問題となっている。
そこで、カメラの撮像画像から監視対象となる特定の人物を抽出し、抽出した特定の人物のみを表示し、それ以外の人物のプライバシーを保護する技術が提案されている。特許文献1には、撮像画像中の人物の行動や状態を表す特徴量を評価することで、異常行動を行った人物を特定の人物として抽出する方法が開示されている。
特開2011−130203号公報
しかしながら、特許文献1に記載の技術では、異常ではない状態を異常状態であると誤認識してしまうと、プライバシーを保護したい人物が表示されてしまう。このように、特許文献1に記載の技術では、特定の物体とその他の物体とを適切に区別することができず、適切な画像処理を施すことができない場合があった。
そこで、本発明は、撮像画像中の特定の物体とその他の物体とを適切に区別し、適切な画像処理を施すことを目的としている。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、複数の撮像手段によりそれぞれ撮像された複数の画像を取得する取得手段と、前記取得手段により取得された複数の画像に基づいて、前記画像中の特定物体の三次元位置を推定する第一の推定手段と、前記第一の推定手段により推定された前記特定物体の三次元位置に基づいて、前記画像中における、所定の三次元領域外に存在する前記特定物体を包含する領域である第一領域と、前記三次元領域内に存在する前記特定物体を包含する領域である第二領域とをそれぞれ抽出する抽出手段と、前記第一領域と前記第二領域との重複領域を特定する特定手段と、前記特定手段により特定された重複領域を含む前記第一領域に画像処理を施す画像処理手段と、を備える。
本発明によれば、撮像画像中の特定の物体とその他の物体とを適切に区別し、適切な画像処理を施すことができる。
画像処理システムの一例を示すネットワーク接続構成図である。 画像処理装置のハードウェア構成の一例を示す図である。 撮像装置の機能ブロック図である。 画像処理装置の機能ブロック図である。 画像処理装置が実施する画像処理の流れを説明する図である。 画像処理装置の動作を説明するためのフローチャートである。 カメラ設置例を示す図である。 人体位置推定処理の手順を説明するためのフローチャートである。 人体位置推定処理におけるキャリブレーションの説明図である。 人体位置推定処理における人体対応付け探索の説明図である。 人体位置推定処理における検出漏れ補完の説明図である。 推定人体領域を示す図である。 人体領域と透明化領域とを示す図である。 合成マップの一例である。 画像処理装置の動作を説明するためのフローチャートである。 画像補完処理の説明図である。 画像補完処理の説明図である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
(第一の実施形態)
図1は、本実施形態における画像処理システムの動作環境の一例を示したネットワーク接続構成図である。本実施形態では、画像処理システムをネットワークカメラシステムに適用する。
ネットワークカメラシステム10は、少なくとも2台のネットワークカメラ(以下、単に「カメラ」ともいう)20と、少なくとも1台の画像処理装置30とを備える。カメラ20と画像処理装置30とは、ネットワーク回線であるLAN(Local Area Network)40によって接続されている。なお、ネットワーク回線はLANに限定されるものではなく、インターネットやWAN(Wide Area Network)などであってもよい。また、LAN40への物理的な接続形態は、有線であってもよいし、無線であってもよい。さらに、図1において、カメラ20および画像処理装置30は、それぞれ2台ずつLAN40に接続されているが、接続台数は図1に示す数に限定されない。
カメラ20は、所定の画角で被写体を撮像する、監視カメラ等の撮像装置である。複数のカメラ20は、同一の被写体を同時に撮像可能な視野重複のある画角で設置されている。また、カメラ20は、撮像画像(以下、単に「画像」ともいう。)を、LAN40を介して画像処理装置30に送信可能である。
画像処理装置30は、例えばパーソナルコンピューター(PC)により構成されており、ユーザ(例えば、監視員)が操作可能である。この画像処理装置30は、カメラ20によって撮像された画像から所定の条件に合致した物体(人体を含む)を検出するための画像解析処理を行う。ここで、画像解析処理は、動体検出、動体追尾、物体領域検出、人体検出、顔認識等の処理の少なくとも1つを含む。
また、画像処理装置30は、カメラ20から配信される画像や、後述する画像処理結果を表示部(ディスプレイ)に表示させるための表示制御機能を有する。さらに、情報処理装置30は、画像解析処理に関する領域設定等のパラメータ設定のための操作を行うための入力手段の機能を有していてもよい。
図2は、画像処理装置30のハードウェア構成を示す図である。
画像処理装置30は、CPU31と、ROM32と、RAM33と、外部メモリ34と、表示部35と、入力部36と、通信I/F37と、システムバス38とを備える。
CPU31は、画像処理装置30における動作を統括的に制御するものであり、システムバス38を介して、各構成部(32〜37)を制御する。ROM32は、CPU31が処理を実行するために必要な制御プログラム等を記憶する不揮発性メモリである。なお、当該プログラムは、外部メモリ34や着脱可能な記憶媒体(不図示)に記憶されていてもよい。RAM33は、CPU31の主メモリ、ワークエリアとして機能する。すなわち、CPU31は、処理の実行に際してROM32から必要なプログラムをRAM33にロードし、ロードしたプログラムを実行することで各種の機能動作を実現する。
外部メモリ34は、CPU31がプログラムを用いた処理を行う際に必要な各種データや各種情報を記憶している。また、外部メモリ34には、CPU31がプログラムを用いた処理を行うことにより得られる各種データや各種情報が記憶される。表示部35は、液晶ディスプレイ(LCD)等のモニタにより構成される。入力部36は、キーボードやマウス等のポインティングデバイスによって構成される。通信I/F37は、外部装置(本実施形態では、カメラ20)と通信するためのインタフェースである。通信I/F37は、例えばLANインタフェースである。システムバス38は、CPU31、ROM32、RAM33、外部メモリ34、表示部35、入力部36および通信I/F37を通信可能に接続する。
なお、カメラ20の場合は、ハードウェア構成として、図2の構成に加えてさらに撮像部を具備する。ここで、撮像部は、被写体の撮像を行うための構成であり、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Charge Coupled Device)等の撮像素子を含む。また、カメラ20の場合は、入力部として、キーボード等ではなく電源ボタンや各種設定ボタンを具備してもよい。
図3は、カメラ20の機能構成を示すブロック図である。カメラ20は、撮像センサ部201と、現像処理部202と、映像符号化部203と、通信I/F部204と、を備える。この図3に示すカメラ20の各部の機能は、カメラ20のCPUがプログラムを実行することで実現され得る。ただし、図3で示す各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、カメラ20のCPUの制御に基づいて動作する。
撮像センサ部201は、上述した撮像部の撮像面に結像された光像を光電変換によりデジタル電気信号に変換し、これを現像処理部302に出力する。現像処理部202は、撮像センサ部201により光電変換されて得られたデジタル電気信号に対して、所定の画素補間や色変換処理を行い、RGBあるいはYUVなどのデジタル映像を生成する。また、現像処理部202は、現像を施した後のデジタル映像を用いて所定の演算処理を行い、得られた演算結果に基づいてホワイトバランス、シャープネス、コントラスト、色変換などの映像処理を行う。
映像符号化部203は、現像処理部202から入力されるデジタル映像信号に対して、配信用に圧縮、フレームレート設定などを施し、符号化する。ここでの配信用の圧縮方式は、MPEG4、H.264、MJPEGまたはJPEGなどの規格に基づく。また、映像符号化部203は、さらにmp4形式やmov形式などで映像データのファイル化をも行う。通信I/F部204は、外部装置(本実施形態では、画像処理装置30)と通信するためのインタフェースを制御して、上記外部装置との通信を行う。
図4は、画像処理装置30の機能構成を示すブロック図である。画像処理装置30は、複数のカメラ20により撮像された画像をもとに画像解析処理を行い、画像中の特定の領域内に存在する物体とその他の物体とを区別する機能を有する。
具体的には、画像処理装置30は、複数のカメラ20により撮像された複数の画像をもとに、画像中の物体に含まれる特定物体の三次元位置を推定する。そして、画像処理装置30は、所定の三次元領域内に存在する特定物体と三次元領域外に存在する特定物体とを区別する。本実施形態では、特定物体を人体とし、画像処理装置30は、三次元領域内に存在する人体については撮像画像のまま表示し、それ以外の人体を含む物体に対しては、プライバシーを保護するための抽象化処理を施すといった画像処理を行う。
なお、本実施形態においては画像処理装置としているが、映像を取得し、映像中の各フレーム(画像)を1枚ごとに処理しても処理内容は同一であるため、映像処理装置にも適用可能である。
画像処理装置30は、画像取得部301と、物体検出部302と、物体領域検出部303と、人体位置推定部304と、人体領域推定部305と、領域設定部306と、人体領域抽出部307と、を備える。さらに、画像処理装置30は、背景画像取得部308と、合成マップ生成部309と、画像処理部310と、出力部311と、を備える。この図4に示す画像処理装置30の各部の機能は、図2に示すCPU31がプログラムを実行することで実現され得る。ただし、図4で示す各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。
画像取得部301は、カメラ20から送信された映像データを受信し、伸長、復号化して画像(動画像若しくは静止画像)を取得する(図5(a))。そして、画像取得部301は、取得した画像を順次、物体検出部302へ送出する。
なお、画像の供給元については特に限定するものではなく、供給元は、有線若しくは無線を介して画像を供給するサーバ装置や録画映像管理装置、あるいはカメラ20以外の撮像装置であってもよい。また、画像取得部301は、画像処理装置30内のメモリ(例えば、外部メモリ34)から画像を取得するようにしてもよい。以下の説明では、画像取得部301が動画像を取得した場合であっても静止画像を取得した場合であっても、画像取得部301は、物体検出部302へ1枚の画像を送出する場合について説明する。前者の場合は、上記1枚の画像が動画像を構成する各フレームに相当し、後者の場合は、上記1枚の画像が静止画像に相当する。
物体検出部302は、画像取得部301から取得した画像をもとに、背景差分法等により、画像中の物体を検出し、検出した物体の情報を物体領域検出部303に出力する。なお、物体の検出方法は、背景差分法等の特定の方法に限定するものではなく、画像中の物体を検出可能な方法であれば適宜適用可能である。
物体領域検出部303は、物体検出部302により検出された物体の画像中における領域(物体領域)を検出する(図5(b))。本実施形態では、物体領域は、画像における動体領域であり、検出された物体を包含する領域とする。物体領域の情報は、画像上での位置やサイズの情報を含む。
人体位置推定部304は、物体検出部302が物体を検出した画像上の領域(物体領域検出部303により検出された物体領域)のうち人体である領域を判別する人体検出処理を行う。次に、人体位置推定部304は、画像取得部301から取得した複数のカメラの画像に基づいて、人体検出処理により検出された人体に対して三角測量の方式を用いた三次元空間における人体位置推定処理を行う。これにより、画像中の人体の三次元位置(推定人体位置)が推定される。本実施形態では、人体位置推定部304は、推定人体位置として、人体の頭頂部の三次元位置を推定する。
人体領域推定部305は、画像取得部301から取得した画像について、人体位置推定部304により推定された推定人体位置に基づいて、画像中の人体が含まれると思われる領域(推定人体領域)を推定する(図5(c))。推定人体領域は、人体検出処理により検出された人体(特定物体)をそれぞれ包含する所定形状(例えば矩形形状)の特定物体領域である。
人体位置推定部304による人体検出処理および人体位置推定処理により、人体の頭頂部の位置に加えて、顔のサイズや身長も取得可能である。そのため、人体領域推定部305は、人体の頭頂部の位置を基準とした矩形範囲を推定人体領域として推定することができる。この人体領域推定部305により推定される推定人体領域は、物体領域検出部303により検出された物体領域中に含まれる。
領域設定部306は、実空間(三次元空間)における所定の三次元領域を設定する領域設定処理を行う(図5(d))。本実施形態では、三次元領域は、この領域に侵入した人物が要注意人物として監視すべき(表示すべき)対象となるような領域である。例えば、重要な場所(重要な扉など)がある領域を、上記三次元領域として設定することができる。この三次元領域は、円柱形状や立方体形状など、任意の形状を有する領域とすることができる。また、この三次元領域は、画像処理装置30のユーザが入力部36を操作して設定してもよいし、予め画像処理装置30内のメモリに記憶されていてもよい。
人体領域抽出部307は、人体領域推定部305により推定された推定人体領域に基づいて、人体検出処理により検出された人体が、領域設定部306により設定された三次元領域内に存在する人体か否かを判定する。そして、人体領域抽出部307は、その判定結果をもとに、推定人体領域から特定の人体領域を抽出する。本実施形態では、人体領域抽出部307は、三次元領域内に存在する人体に対応する推定人体領域を、人体領域として抽出する(図5(e))。
背景画像取得部308は、予めメモリに記憶された被写体の映っていない背景のみの画像(背景画像)を取得する(図5(f))。
合成マップ生成部309は、物体領域検出部303により検出された物体領域と、人体領域抽出部307により抽出された人体領域との情報に基づいて、合成マップを生成する(図5(g))。合成マップは、画像取得部301により取得された画像(撮像画像)と背景画像取得部308により取得された背景画像とを合成する際に用いるマップである。具体的には、合成マップは、各画素における撮像画像と背景画像とを合成する比率を表すマップである。
本実施形態では、合成マップ生成部309は、物体領域検出部303により検出された物体領域のうち、人体領域抽出部307により抽出された人体領域以外の推定人体領域に対して、抽象化処理がなされるような合成マップを生成する。抽象化処理としては、背景画像が表示される透明化処理を採用することができる。透明化処理は、具体的には、所定色を用いて人体領域内を半透明化した処理を含む。さらに、合成マップ生成部309は、人体領域抽出部307により抽出された人体領域においては、撮像画像がそのまま表示されるような合成マップを生成する。
画像処理部310は、合成マップ生成部309により生成された合成マップを用いて、画像取得部301により取得された撮像画像と背景画像取得部308により取得された背景画像とを合成する(図5(h))。これにより、領域設定部306において設定された三次元領域内に存在する人体はそのまま表示され、三次元領域外に存在する人体および画像中の人体以外の物体は透明化処理されて非表示とされた表示画像が生成される。つまり、この表示画像は、三次元領域内に存在する人体以外の物体(人体を含む)のプライバシーを保護する画像である。
出力部311は、画像処理部310により生成された画像処理後の表示画像を表示部35に出力することで、表示部35に表示画像を表示させる表示制御を行う。
次に、画像処理装置30の動作について、図6を参照しながら説明する。
図6に示す処理は、例えばカメラ20から画像が送信されたタイミングで開始され、カメラ20から画像が送信されるたびに繰り返して実行される。ただし、図6の処理の開始タイミングは、上記のタイミングに限らない。画像処理装置30は、CPU31が必要なプログラムを読み出して実行することにより、図6に示す各処理を実現することができる。
ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図6の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、画像取得部301は、複数のカメラ20から同時刻に撮像された画像を取得する。これは、複数画像間で撮像時刻にずれがある場合、複数画像をもとに人体の三次元位置を推定する人体位置推定処理において、移動中の人体の正確な人体位置が推定できないためである。同時刻の保証方法としては、同時刻にカメラ画像を受信する方法を採用してもよいし、画像の付加データとして含まれる撮像時刻情報を利用する方法を採用してもよい。
図7は、複数のカメラ20(20A〜20D)の設置例を示す図である。4台のカメラ20A〜20Dは、同一の被写体を同時に撮像可能とするために、視野重複のある画角で設置されている。図7においては、4台のカメラ20A〜カメラ20Dは、人物P1およびP2と領域501とを同時に撮像できる画角で設置されている。領域501は、領域設定部306によって設定される三次元領域であり、図7では矩形を底面とした十分に高い高さを持つ立方体形状としている。図7のようなカメラ配置の場合、S1において画像取得部301は、4台のカメラ20A〜20Dからそれぞれ画像を取得する。
S2では、物体検出部302は、S1において取得された画像をもとに、背景差分法等により画像中の物体を検出し、物体領域検出部303は、画像中において検出された物体を含む物体領域を検出する。本実施形態では、上述したように、物体領域は画像における動体領域である。
S3では、人体位置推定部304は、S1において取得された複数の画像をもとに、撮像されている人体に対して三角測量の方式を用いた人体位置推定処理を行う。この人体位置推定処理について、図8を参照しながら詳細に説明する。
まずS31において、人体位置推定部304は、複数のカメラ20により撮像された物体の画像上の座標と、その物体の三次元空間上の実際の座標とを関連付けるためのキャリブレーションを行う。例えば、図9のカメラ20Aが撮像した人物Pの画像上の座標(X1,Y1,Z1)と、三次元空間上の実際の人物Pの座標(Xa,Ya,Za)とが同じであることを関連付ける処理を行う。同様の処理を、監視範囲に設置されているカメラ20Bおよび20Cに対しても行う。
なお、上記キャリブレーション処理に際し、関連付けに用いる三次元空間における位置座標は、予め測定し記憶しておく。関連付けに用いる物体の位置は、図9のように同一の人体の頭頂部であってもよいし、同一の人体の顔中央部や両肩中央点、人体の中央点であってもよい。また、関連付けに用いる物体の位置は人体以外の物体の位置であってもよい。この場合、対象となる同一物体における共通の点が分かればよく、三次元空間範囲内において任意に設定した目印となる所定の箇所や、実カメラ位置などを用いることができる。このようなキャリブレーション処理により、後述する人体の三次元位置座標の推定処理(S34)において、撮像画像中における実距離(例えば、頭頂部の床面からの高さ=身長)を取得することが可能となる。
図8に戻って、S32では、人体位置推定部304は、人体検出処理により、画像から人体を検出する。具体的には、人体位置推定部304は、予め記憶した照合パターン辞書等を用い、物体領域検出部303により検出された物体領域に対して人体検出処理を実施して人体を検出する。なお、人体検出処理は、画像から人体を検出する処理であればよく、上記のパターン処理に限定されない。
また、本実施形態では、三次元位置座標の推定対象となる特定物体を人体としているが、人体に限定されるものではない。上記特定物体は、人物の顔、自動車、動物、ナンバープレート、サッカーボールなどであってもよい。さらに、複数種類の特定物体を検出する特定物体検出部を備えてもよく、同時に複数の検出が可能であるならば、複数の特定物体検出処理を実施してもよい。さらに、人体検出処理を行う領域は、必ずしも物体領域検出部303により検出された物体領域である必要はない。例えば、人体検出処理は、画像の全領域に対して行うようにしてもよい。
次にS33では、人体位置推定部304は、三次元位置座標の推定対象である人体に対して、多視点幾何を利用したカメラ間の人体の対応付け探索を行う。具体的には、あるカメラの画像上の1点は、別のカメラの画像上では線に対応することを利用して、複数の画像間での人体の対応付けを行う。つまり、図10に示すように、カメラ20Aの撮像画像上で点P11に位置する人体は、カメラ20Bの撮像画像上では線L11上に位置し得ることを利用する。
次にS34では、人体位置推定部304は、カメラ20Aとカメラ20Bとから三角測量の方式により、S33において対応付け探索がなされた人体の三次元位置座標を推定する。このS34では、人体位置推定部304は、人体の頭頂部の三次元位置座標を、当該人体の推定人体位置として推定する。但し、推定人体位置は、人体の頭頂部の三次元位置座標に限定されず、人体の顔中央部の三次元位置座標であってもよい。
S35では、人体位置推定部304は、各カメラにおける人体の検出漏れを補完する処理を行う。例えば、図11に示すように、カメラ20Aおよび20Bにおいて対応付けがなされた人物Pが、カメラ20Cの画像中に検出されなかった場合には、カメラ20Cの画像に対して人物Pの三次元位置座標を射影し、カメラ20Cでの検出漏れを補完する。
S36では、人体位置推定部304は、検出されたすべての人体について三次元位置座標を推定したか否かを判定する。そして、人体位置推定部304は、三次元位置座標を推定していない人体が存在すると判定した場合にはS32に戻り、すべての人体について三次元位置座標の推定が完了していると判定した場合には、図8の処理を終了する。なお、上記の人体位置推定処理は一例であって、人体検出だけでなく人体の追尾を各カメラ画像について行い、人体検出の確度を高めるようにしてもよい。
図6に戻って、S4では、人体領域推定部305は、S1において取得された複数のカメラ画像について、S3において推定された推定人体位置に基づいて画像中の推定人体領域を推定する。このS4における処理について、図12を用いて説明する。
図12は、図7に示すカメラ配置および人物配置におけるカメラ20Aの画像である。この図12において、領域502は、図7の領域501をカメラ20Aから見た領域である。S3における人体位置推定処理により、人物P1およびP2の頭頂部の位置が推定されている。そこで、人体領域推定部305は、推定された頭頂部の位置座標から画像上の床面に対応する位置までを推定人体領域として設定する。ここで、推定人体領域は、人体を包含する所定形状(矩形形状)で表現されているが、この限りではない。図12に示す画像については、人体領域推定部305は、人物P1の推定人体領域511と、人物P2の推定人体領域512とを推定する。
次に図6のS5では、人体領域抽出部307は、S3における人体検出処理によって検出された人体のうち、領域501内に存在する人体が存在するか否かを判定する。具体的には、人体領域抽出部307は、S4において推定された推定人体領域の床面に対応する部分(図12の推定人体領域511および推定人体領域512の下端部)が、領域502内に位置しているか否かを判定する。そして、人体領域抽出部307は、領域501内に人体が存在しないと判定した場合には後述するS10に移行し、領域501内に人体が存在すると判定した場合には、S6において、その人体に対応する推定人体領域を人体領域として抽出する。
例えば図12に示す画像の場合、人体領域抽出部307は、推定人体領域511は領域502外に位置し、推定人体領域512は領域502内に位置すると判定する。したがって、この場合、人体領域抽出部307は、人物P2に対応する推定人体領域512を人体領域として抽出する。
S7では、人体領域抽出部307は、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域との重複領域が存在するか否かを判定する。そして、人体領域抽出部307は、重複領域が存在しないと判定した場合には後述するS10に移行し、重複領域が存在すると判定した場合にはS8に移行する。
S8では、人体領域抽出部307は、S7において検出された重複領域を人体領域から除外するか否かを判定する。つまり、人体領域抽出部307は、重複領域に対し、三次元領域外に存在すると判定された人体に対応する推定人体領域に対する画像処理(透明化処理)を施すか否かを判定する。
具体的には、S8において人体領域抽出部307は、S5において領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体と、当該人体に重複している人体とのカメラに対する前後位置関係を判定する。そして、人体領域抽出部307は、領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して手前側に位置すると判定した場合、重複領域を人体領域から除外すると判断する。つまり、重複領域に透明化処理を施すと判断する。一方、人体領域抽出部307は、領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して奥側に位置すると判定した場合、重複領域を人体領域から除外しないと判断する。つまり、重複領域に透明化処理を施さないと判断する。
図12に示すように、人物P2に対応する人体領域512に、人物P1に対応する推定人体領域511との重複領域が存在する場合、人体領域抽出部307は、人物P1およびP2の推定人体位置に基づいて人物P1と人物P2との前後位置関係を判定する。ここで、図7に示すように、人物P2は、人物P1よりもカメラ20Aに対して手前に位置している。そのため、この場合、人体領域抽出部307は、カメラ20Aに対して後方に位置すると判定された人物P2の人体領域512から重複領域を除外した領域を、最終的な人物P2の人体領域512として抽出する。
つまり、推定人体領域511と人体領域512との重複領域は、カメラ20Aに対して前方に位置する人物P1の推定人体領域511に含まれ、人物P2に対応する人体領域512は、図13に示すような形状となる。そのため、人物P2の人体部分522のうち人物P1に対応する推定人体領域511と重複する人体部分522aは、人物P1の人体部分521と同様に透明化処理されることになる。
また、人体領域抽出部307は、人体の推定人体位置に基づいて、その近傍で顔検出や肩、腕検出などを用いた人体輪郭検出処理をさらに行い、検出した輪郭の情報に基づいて人体領域を抽出してもよい。これにより、人体領域のより高精度な背景分離や人体同士の重なり分離が可能となる。本実施形態のように推定人体領域を矩形形状とした場合、例えば図13の人体領域512において、人物P2の後方に存在する領域501外の人物が、人物P2の頭部周辺に表示されてしまう場合がある。上記の輪郭検出処理を行えば、プライバシーを保護すべき人物の一部が表示されてしまうといった事態を回避することができる。なお、人物の顔領域を検出する処理や人物の向きを判定する処理を用いることでも、人体輪郭検出処理を行う場合と同様の効果が得られる。
人体領域抽出部307は、図6のS8において重複領域を透明化処理すると判定した場合はS9に移行し、重複領域を透明化処理しないと判定した場合にはS10に移行する。S9では、人体領域抽出部307は、S6において抽出された人体領域からS7において抽出された重複領域を除外し、S10に移行する。
S10では、合成マップ生成部309は、S2において抽出された物体領域と、S5からS9において抽出された人体領域とに基づいて、撮像画像と背景画像とを合成するための合成マップを生成する。その際、合成マップ生成部309は、S2において検出された物体領域から、S5からS9において抽出された人体領域を除いた領域が、透明化処理の対象である透明化領域となるような合成マップを生成する。
合成マップは、上記の透明化領域の画素に対して実数値k(但し、0≦k<1)、それ以外の領域の画素に対して実数値1を割り当てたマップである。本実施形態では、k=0とする。図13に示す画像に対応する合成マップの例を図14に示す。図14の合成マップMにおいて、領域A0の画素値はkであり、領域A1の画素値は1である。
次にS11では、画像処理部310は、S10において生成された合成マップMを用いて、撮像画像と背景画像とを合成する。ここで、背景画像は、事前に人物が存在しない状態でカメラ20によって撮像された画像である。
画像処理部310は、画素(i,j)における撮像画像の画素値をPA(i,j)、背景画像の画素値をPB(i,j)、合成マップMの値をα(i,j)とした場合、次式のように合成後の画像の画素値P(i,j)を算出する。
P(i,j)=α(i,j)×PA(i,j)+(1−α(i,j))×PB(i,j) ………(1)
つまり、合成後の画像における合成マップMの領域A1(画素値=1)に対応する領域は、撮像画像のままとなり、合成マップMの領域A0(画素値=k)に対応する領域は、撮像画像と背景画像とが比率k:(1−k)でブレンドされる。本実施形態のようにk=0である場合、合成マップMの領域A0に対応する領域は完全に背景画像に置き換えられることになる。つまり、領域501外に位置する物体(人体を含む)は、完全に背景画像に置き換えられる。これに対して、kの値を0.1等の値に設定した場合、領域501外に位置する物体(人体を含む)を半透明化して表示し、場所は分かるが個人の特定はできないような画像に置き換える半透明化処理を行うことができる。なお、kの値は、予め設定されていてもよいし、ユーザが任意に設定可能であってもよい。
次にS12では、出力部311は、S11までの処理によって生成された画像処理後の画像を表示部35に出力する。これにより、画像処理後の画像がユーザに提示される。
なお、本実施形態では、領域501外の物体に対して抽象化処理を施す場合について説明したが、反対に領域501内の物体のみに対して抽象化処理を施すようにしてもよい。この場合、領域501外の領域を、領域設定部306において設定される三次元領域とし、上述した画像解析処理および画像処理を行えばよい。
また、本実施形態では、抽象化処理として透明化処理や半透明化処理を行う場合について説明したが、ぼかし処理を行うこともできる。この場合、画像処理部310は、撮像画像と背景画像との合成処理を行う代わりに、合成マップの値を用いて撮像画像にぼかし処理を行えばよい。同様に、抽象化処理として、モザイク処理や塗りつぶし処理を行うこともできる。
以上説明したとおり、画像処理装置30は、複数のカメラ20によってそれぞれ撮像された複数の画像を取得し、取得した複数の画像に基づいて、画像中の特定物体の三次元位置を推定する。また、画像処理装置30は、推定された特定物体の三次元位置に基づいて、画像中における、所定の三次元領域外に存在する特定物体を包含する領域(第一領域)と、上記所定の三次元領域内に存在する特定物体を包含する領域(第二領域)とをそれぞれ抽出する。
さらに、画像処理装置30は、第一領域と第二領域との重複領域を特定し、重複領域に画像処理を施すか否かを判定する。そして、画像処理装置30は、重複領域に画像処理を施すと判定した場合、重複領域を含む第一領域に画像処理を施し、重複領域に画像処理を施さないと判定した場合、重複領域を除外した第一領域に画像処理を施す。ここで、特定物体は、人体を含む。
これにより、画像処理装置30は、画像中の特定の物体とその他の物体とを区別し、適切に画像処理を行うことができる。画像処理装置30は、第一領域と第二領域との重複領域について画像処理を行うか否かを判定するので、画像処理すべき領域を適切に特定することができる。したがって、画像処理すべき領域に画像処理が施されなかったり、反対に、画像処理すべきでない領域に画像処理が施されてしまったりすることを抑制することができる。
また、画像処理装置30は、画像処理として、画像を抽象化して表示するための抽象化処理を行うことができる。なお、画像処理装置30は、第一領域のみに対して抽象化処理を行ってもよいし、第一領域と第二領域とで異なる抽象化処理を行ってもよい。抽象化処理は、透明化処理、半透明化処理、ぼかし処理、モザイク処理および塗りつぶし処理のいずれかの処理とすることができる。
これにより、特定領域外に存在する人物のプライバシーを保護したり、特定領域内に存在する人物と特定領域外に存在する人物とを異なる抽象化レベルで表示したりすることができる。
さらに、画像処理装置30は、物体が撮像されていない背景画像を取得し、画像処理として、撮像画像と背景画像とを所定の比率で合成する処理を行ってもよい。その際、画像処理装置30は、第一領域と第二領域とで異なる比率で撮像画像と背景画像とを合成する処理を行ってもよい。これにより、特定領域内の人体と特定領域外の人体とを異なる透明度で表示することが可能となる。例えば、特定領域内の人体をそのまま表示し、特定領域外の人体を透明化して、特定領域外の人物のプライバシーを保護するといった処理が可能となる。
また、画像処理装置30は、第一領域の画像処理に際し、上述したように、第一領域内の重複領域に画像処理を施すか否かを判定する。その際、画像処理装置30は、重複領域を有する第一領域および第二領域にそれぞれ対応する特定物体のカメラ20に対する前後位置関係を判定する。そして、画像処理装置30は、第一領域に対応する特定物体がカメラ20に対して前方に位置すると判定した場合に、重複領域に画像処理を施すと判定する。
これにより、画像処理を施すべき領域をより適切に特定することができる。例えば、特定領域内に存在する人体の推定人体領域内の一部にプライバシーを保護すべき特定領域外の人物の人体が入りこんでいる場合であっても、表示領域を適切に設定することができる。したがって、プライバシーを保護したい人物が意図せずに表示されてしまうことを適切に抑制することができる。
なお、画像処理装置30は、重複領域に画像処理を施すか否かを判定することなく、重複領域を含む第一領域に画像処理を施してもよい。この場合、重複領域については、無条件に画像処理を行うことができる。つまり、特定領域外の人体が含まれる領域に対して、確実に透明化処理などの画像処理を施すことができる。したがって、特定領域外の人物のプライバシーを確実に保護することができる。
さらに、画像処理装置30は、重複領域を除く第一領域と、重複領域とに、同じ画像処理を行うことができる。この場合、画像処理が、例えば透明化処理である場合、重複領域を含む第一領域全体に透明化処理が施される。このように、重複領域を含む第一領域全体に同じ画像処理を施すので、容易かつ適切に特定領域外の人物のプライバシーを保護することができる。
さらに、画像処理装置30は、複数のカメラ20を用いて人体の三次元位置推定を行う。人体の三次元位置の推定に際し、まず画像処理装置30は、複数のカメラ20によって撮像された複数の画像に基づいて、複数の画像間で対応付けられた人体を検出する。そして、画像処理装置30は、複数の画像に基づいて、当該複数の画像間で対応付けられた人体の三次元位置を三角測量の方式を用いて推定する。したがって、人体が特定領域内に存在するか否かを確実に判断することができ、特定の人体とその他の人体とを適切に区別することができる。
また、画像処理装置30は、画像中の物体(人体を含む)の物体領域を検出し、その物体領域から第一領域および第二領域を除く領域に、第一領域に対する画像処理および第二領域に対する画像処理のいずれか一方を施すこともできる。つまり、画像処理装置30は、特定領域内に存在する人体をそのまま表示し、特定領域外に存在する人体と画像中の人体以外の物体とを非表示とすることができる。また、画像処理装置30は、特定領域内に存在する人体と画像中の人体以外の物体とをそのまま表示し、特定領域外に存在する人体を非表示とすることもできる。このように、三次元位置が推定されていない特定物体以外の物体についても、目的に応じて適切な画像処理を施すことができる。
このように、本実施形態における画像処理装置30は、マルチカメラを用いた三次元位置推定により特定物体の位置を推定し、所定の三次元領域内の特定物体と三次元領域外の特定物体とを区別して適切な画像処理を行うことができる。したがって、特定位置の人物と他の人物とを区別して適切にプライバシー保護を行うことができる。
(第二の実施形態)
次に、本発明における第二の実施形態について説明する。
上述した第一の実施形態では、三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して手前側に位置すると判定した場合、重複領域を透明化処理する場合について説明した。第二の実施形態では、透明化処理に替えて、画像補完処理を行う場合について説明する。
図15は、第二の実施形態における画像処理装置30の動作を示すフローチャートである。この図15に示す処理は、図6に示す処理と同様のタイミングで実行される。画像処理装置30は、CPU31が必要なプログラムを読み出して実行することにより、図15に示す各処理を実現することができる。ただし、上述したように、図4に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図15の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。
図15に示す処理は、図6におけるS7〜S9の処理がS21およびS22の処理に置換され、S11の処理の後にS23の処理が追加されていることを除いては、図6と同様である。したがって、図6と同様の処理には同一ステップ番号を付し、以下、図6とは処理の異なる部分を中心に説明する。
S21では、画像処理部310は、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域によって遮蔽される遮蔽領域が存在するか否かを判定する。具体的には、画像処理部310は、まず、S6において抽出された人体領域に、三次元領域外に存在すると判定された人体に対応する推定人体領域との重複領域が存在するか否かを判定する。次に、画像処理部310は、重複領域が存在すると判定すると、S5において領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体と、当該人体に重複している人体とのカメラに対する前後位置関係を判定する。そして、画像処理部310は、領域501に対応する三次元領域内に存在すると判定された人体領域に対応する人体よりも、当該人体に重複している人体がカメラに対して手前側に位置すると判定した場合、上記人体領域に遮蔽領域が存在すると判定する。つまり、遮蔽領域は、重複領域に相当する。
図12に示すように、人物P2に対応する人体領域512に、人物P1に対応する推定人体領域511との重複領域が存在する場合、画像処理部310は、人物P1およびP2の推定人体位置に基づいて人物P1と人物P2との前後位置関係を判定する。ここで、図7に示すように、人物P2は、人物P1よりもカメラ20Aに対して手前に位置している。そのため、この場合、画像処理部310は、上記重複領域を、人体領域512を遮蔽する遮蔽領域として判定する。
画像処理部310は、このS21において遮蔽領域が存在しないと判定した場合にはS10に移行し、遮蔽領域が存在すると判定した場合には、遮蔽領域に対して画像補完処理を施すとしてS22に移行する。
S22では、画像処理部310は、画像補完処理の対象である遮蔽領域に対して、画像補完処理を施すための補完画像を生成する。図16は、図13における人体領域512を切り出した図である。画像補完処理の対象となる遮蔽領域は、人体領域512に存在する推定人体領域511との重複領域であり、図16の領域512aである。
画像補完処理に際し、画像処理部310は、先ずS3により推定された推定人体位置を利用し、遮蔽領域に対応する他のカメラの画像領域を推定する。図16に示すカメラ20Aの画像の場合、人体領域512に対する遮蔽領域512aの割合と位置とを算出する。ここで、遮蔽領域512aの割合は、人体領域512に対する縦方向の割合Aと横方向の割合Bとで表すことができる。次に画像処理部310は、算出した遮蔽領域512aの割合と位置とを、カメラ20Bの撮像画像における人物P2に対応する推定人体領域に適用する。このようにして、画像処理部310は、遮蔽領域に対応する他のカメラの画像領域を推定する。
そして、画像処理部310は、人体領域512に対する遮蔽領域512aの割合AおよびBを用いて、上記の他のカメラの画像領域に対して投影変換等の画像変換を行い、人体領域512の補完画像を生成する。この補完画像は、図16の遮蔽領域512aに対応する画像となる。
なお、カメラ20Bの画像においても、人物P2が他の人物などにより隠れており対応画像領域が取得できない場合は、さらにカメラ20C、カメラ20D等の画像を用いて補完画像を生成するようにしてもよい。但し、補完画像の生成元となる撮像画像は、カメラ20Aとなるべく近い位置に配置されたカメラの画像であることが望ましい。
S23では、画像処理部310は、S11において生成された合成後の画像の遮蔽領域に、S22において生成された補完画像を重畳することで、カメラ20Aの画像を補完する。なお、本実施形態では、補完処理として、補完画像を遮蔽領域に重畳する処理について説明したが、遮蔽領域に対応する他のカメラの画像領域を含む領域の他カメラ画像を、遮蔽領域の近傍の別枠内に重畳するようにしてもよい。
上記の画像補完処理により、図17に示すように、人物P2の人体部分522のうち人物P1に対応する推定人体領域511と重複する人体部分は、擬似再現されて表示されることになる。つまり、人物P1の人体部分(図12では肩部)によって隠されていた人物P2の人体部分(図12では脚部)も、上記の画像補完処理により表示させることができる。一方、人物P1の人体部分521は、人物P2に対応する人体領域512と重複する人体部分についても、適切に透明化処理されることになる。
以上のように、画像処理装置30は、第一領域の画像処理に際し、重複領域(遮蔽領域)を除く第一領域に第一の画像処理を施し、重複領域(遮蔽領域)に第二の第一の画像処理とは異なる第二の画像処理を施す。ここで、第一の画像処理は、透明化処理などの抽象化処理とし、第二の画像処理は、第二領域における上記重複領域に対応する遮蔽領域を補完する画像補完処理とすることができる。
その際、画像処理装置30は、遮蔽領域が存在する第一の画像を撮像したカメラ20とは異なる別のカメラ20によって撮像された第二の画像に基づいて、遮蔽領域を補完する。具体的には、画像処理装置30は、第二の画像中における遮蔽領域に対応する画像領域を推定し、推定された画像領域の画像を投影変換等により第一の画像中の遮蔽領域に対応する画像に変換し、第一の画像の遮蔽領域に重畳する。これにより、遮蔽領域の擬似再現が可能となり、ユーザに遮蔽領域に対応する画像を提示することができる。
なお、画像処理装置30は、第二の画像中における遮蔽領域に対応する画像領域を推定した場合、推定された画像領域を含む領域の画像を、第一の画像の遮蔽領域の近傍に重畳してもよい。この場合、複雑な処理を必要とすることなく、ユーザに遮蔽領域に対応する画像を提示することができる。
(変形例)
上記実施形態においては、画像処理の対象を物体および人体としているが、人体のみを画像処理の対象とする場合には、画像処理装置30は、図4の物体検出部302や物体領域検出部303を備えていなくてもよい。
また、上記実施形態においては、画像処理装置30は、特定領域内の人物以外のプライバシーを保護することを目的とした画像処理を行う場合について説明したが、画像処理の内容は上記に限定されない。例えば、特定領域内に進入した人物を容易に確認することを目的として、特定領域内の人体のみを強調表示するといった画像加工を施してもよい。このように、画像処理の内容は、目的に応じて適宜選択可能である。
さらに、上記実施形態においては、カメラ20が監視カメラである場合について説明したが、公共の場での放送映像用のカメラであってもよい。この場合、特定領域内(例えば、画面中央)に位置するアナウンサーだけを表示し、他の物体(人体を含む)はぼかしたりするような処理を行うことができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
10…ネットワークカメラシステム、20…カメラ、30…画像処理装置、40…LAN、301…画像取得部、302…物体検出部、303…物体領域検出部、304…人体位置推定部、305…人体領域推定部、306…領域設定部、307…人体領域抽出部、308…背景画像取得部、309…合成マップ生成部、310…画像処理部、311…出力部

Claims (17)

  1. 複数の撮像手段によりそれぞれ撮像された複数の画像を取得する取得手段と、
    前記取得手段により取得された複数の画像に基づいて、前記画像中の特定物体の三次元位置を推定する第一の推定手段と、
    前記第一の推定手段により推定された前記特定物体の三次元位置に基づいて、前記画像中における、所定の三次元領域外に存在する前記特定物体を包含する領域である第一領域と、前記三次元領域内に存在する前記特定物体を包含する領域である第二領域とをそれぞれ抽出する抽出手段と、
    前記第一領域と前記第二領域との重複領域を特定する特定手段と、
    前記特定手段により特定された重複領域を含む前記第一領域に画像処理を施す画像処理手段と、を備えることを特徴とする画像処理装置。
  2. 前記特定物体の三次元位置に基づいて、前記重複領域を有する前記第一領域および前記第二領域にそれぞれ対応する特定物体の前記撮像手段に対する前後位置関係を判定し、前記第一領域に対応する特定物体が前記撮像手段に対して前方に位置すると判定した場合に、前記重複領域に前記画像処理を施すと判定する判定手段をさらに備え、
    前記画像処理手段は、
    前記判定手段により前記重複領域に画像処理を施すと判定された場合に、前記重複領域を含む前記第一領域に前記画像処理を施し、前記判定手段により前記重複領域に前記画像処理を施さないと判定された場合は、前記第一領域から前記重複領域を除外した領域に前記画像処理を施すことを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像処理手段は、
    前記判定手段により前記重複領域に画像処理を施すと判定された場合、前記重複領域を除く前記第一領域と、前記重複領域とに、同じ画像処理を施すことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記画像処理手段は、
    前記判定手段により前記重複領域に画像処理を施すと判定された場合、前記重複領域を除く前記第一領域に第一の画像処理を施し、前記重複領域に前記第一の画像処理とは異なる第二の画像処理を施すことを特徴とする請求項1または2に記載の画像処理装置。
  5. 前記画像処理手段は、
    前記第二の画像処理として、前記第二領域における前記重複領域に対応する遮蔽領域を補完する処理を行う補完手段を備えることを特徴とする請求項4に記載の画像処理装置。
  6. 前記補完手段は、
    前記取得手段により取得された複数の画像のうち、前記遮蔽領域が存在する第一の画像を撮像した前記撮像手段とは異なる前記撮像手段によって撮像された第二の画像において、前記遮蔽領域に対応する画像領域を推定する第二の推定手段と、
    前記第二の画像における前記第二の推定手段によって推定された画像領域を含む領域の画像を、前記第一の画像の前記遮蔽領域の近傍に重畳する重畳手段と、を備えることを特徴とする請求項5に記載の画像処理装置。
  7. 前記補完手段は、
    前記取得手段により取得された複数の画像のうち、前記遮蔽領域が存在する第一の画像を撮像した前記撮像手段とは異なる前記撮像手段によって撮像された第二の画像において、前記遮蔽領域に対応する画像領域を推定する第二の推定手段と、
    前記第二の画像における前記第二の推定手段によって推定された画像領域の画像を、前記第一の画像の前記遮蔽領域に対応する画像に変換し、前記第一の画像の前記遮蔽領域に重畳する重畳手段と、を備えることを特徴とする請求項5に記載の画像処理装置。
  8. 前記抽出手段は、
    前記第一の推定手段により推定された前記特定物体の三次元位置に基づいて、前記画像中における前記特定物体を包含する領域を、所定形状の領域として抽出することを特徴とする請求項1から7のいずれか1項に記載の画像処理装置。
  9. 前記抽出手段は、
    前記特定物体の輪郭を検出する輪郭検出手段を有し、
    前記輪郭検出手段によって検出された輪郭の情報に基づいて、前記画像中における前記特定物体を包含する領域を抽出することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
  10. 前記画像処理は、前記画像を抽象化して表示するための抽象化処理を含むことを特徴とする請求項1から9のいずれか1項に記載の画像処理装置。
  11. 前記画像処理手段は、
    前記抽象化処理として、透明化処理、半透明化処理、ぼかし処理、モザイク処理および塗りつぶし処理のいずれかの処理を行うことを特徴とする請求項10に記載の画像処理装置。
  12. 前記画像処理手段は、
    前記抽象化処理として、前記取得手段により取得された画像と背景画像とを合成する処理を行うことを特徴とする請求項10に記載の画像処理装置。
  13. 前記特定物体は、人体を含むことを特徴とする請求項1から12のいずれか1項に記載の画像処理装置。
  14. 前記取得手段により取得された複数の画像に基づいて、前記複数の画像間で対応付けられた人体を検出する検出手段をさらに備え、
    前記第一の推定手段は、
    前記取得手段により取得された複数の画像に基づいて、前記検出手段により検出された人体の三次元位置を推定することを特徴とする請求項13に記載の画像処理装置。
  15. 複数の撮像手段と、
    請求項1から14のいずれか1項に記載の画像処理装置と、
    前記画像処理手段による画像処理後の画像を表示手段に表示させる表示制御手段と、を備えることを特徴とする画像処理システム。
  16. 複数の撮像手段によりそれぞれ撮像された複数の画像を取得するステップと、
    前記複数の画像に基づいて、前記画像中の特定物体の三次元位置を推定するステップと、
    前記特定物体の三次元位置に基づいて、前記画像中における、所定の三次元領域外に存在する前記特定物体を包含する領域である第一領域と、前記三次元領域内に存在する前記特定物体を包含する領域である第二領域とをそれぞれ抽出するステップと、
    前記第一領域と前記第二領域との重複領域を特定するステップと、
    前記重複領域を含む前記第一領域に画像処理を施すステップと、を含むことを特徴とする画像処理方法。
  17. コンピュータを、請求項1から14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016092680A 2016-05-02 2016-05-02 画像処理装置、画像処理方法およびプログラム Active JP6732522B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016092680A JP6732522B2 (ja) 2016-05-02 2016-05-02 画像処理装置、画像処理方法およびプログラム
US15/584,440 US10249055B2 (en) 2016-05-02 2017-05-02 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016092680A JP6732522B2 (ja) 2016-05-02 2016-05-02 画像処理装置、画像処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2017201745A true JP2017201745A (ja) 2017-11-09
JP6732522B2 JP6732522B2 (ja) 2020-07-29

Family

ID=60157515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016092680A Active JP6732522B2 (ja) 2016-05-02 2016-05-02 画像処理装置、画像処理方法およびプログラム

Country Status (2)

Country Link
US (1) US10249055B2 (ja)
JP (1) JP6732522B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019092076A (ja) * 2017-11-15 2019-06-13 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019165431A (ja) * 2018-01-23 2019-09-26 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH プライバシー対応データを記録するための方法およびシステム
JP2020135525A (ja) * 2019-02-21 2020-08-31 Kddi株式会社 画像処理装置及びプログラム
US20220148142A1 (en) * 2020-11-12 2022-05-12 Canon Kabushiki Kaisha Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium
WO2022211083A1 (ja) * 2021-03-31 2022-10-06 ダイキン工業株式会社 登録システム、空気調和システム及び登録プログラム
JP7441732B2 (ja) 2019-06-14 2024-03-01 アクシス アーベー 画像またはビデオ内の関心対象物をハイライトする方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6587435B2 (ja) * 2015-06-29 2019-10-09 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
WO2019161562A1 (en) * 2018-02-26 2019-08-29 Intel Corporation Object detection with image background subtracted
JP7458769B2 (ja) * 2019-12-18 2024-04-01 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
US20230104858A1 (en) * 2020-03-19 2023-04-06 Nec Corporation Image generation apparatus, image generation method, and non-transitory computer-readable medium
JP2023117149A (ja) * 2022-02-10 2023-08-23 ヤマハ株式会社 画像処理方法および画像処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243509A (ja) * 2006-03-08 2007-09-20 Hitachi Ltd 画像処理装置
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2011130271A (ja) * 2009-12-18 2011-06-30 Canon Inc 撮像装置および映像処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2408192A3 (en) * 2004-04-16 2014-01-01 James A. Aman Multiple view compositing and object tracking system
US7684612B2 (en) * 2006-03-28 2010-03-23 Pitney Bowes Software Inc. Method and apparatus for storing 3D information with raster imagery
JP5574692B2 (ja) 2009-12-17 2014-08-20 キヤノン株式会社 映像情報処理方法及びその装置
US9191650B2 (en) * 2011-06-20 2015-11-17 National Chiao Tung University Video object localization method using multiple cameras
US9165190B2 (en) * 2012-09-12 2015-10-20 Avigilon Fortress Corporation 3D human pose and shape modeling
WO2015102731A2 (en) * 2013-10-18 2015-07-09 Aerovironment, Inc. Privacy shield for unmanned aerial systems
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
US9576204B2 (en) * 2015-03-24 2017-02-21 Qognify Ltd. System and method for automatic calculation of scene geometry in crowded video scenes

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007243509A (ja) * 2006-03-08 2007-09-20 Hitachi Ltd 画像処理装置
JP2009225398A (ja) * 2008-03-19 2009-10-01 Secom Co Ltd 画像配信システム
JP2011130271A (ja) * 2009-12-18 2011-06-30 Canon Inc 撮像装置および映像処理装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019092076A (ja) * 2017-11-15 2019-06-13 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7122815B2 (ja) 2017-11-15 2022-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2019165431A (ja) * 2018-01-23 2019-09-26 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH プライバシー対応データを記録するための方法およびシステム
JP2020135525A (ja) * 2019-02-21 2020-08-31 Kddi株式会社 画像処理装置及びプログラム
JP7078564B2 (ja) 2019-02-21 2022-05-31 Kddi株式会社 画像処理装置及びプログラム
JP7441732B2 (ja) 2019-06-14 2024-03-01 アクシス アーベー 画像またはビデオ内の関心対象物をハイライトする方法
US20220148142A1 (en) * 2020-11-12 2022-05-12 Canon Kabushiki Kaisha Image processing apparatus for combining a plurality of images, imaging apparatus, imaging method, and recording medium
WO2022211083A1 (ja) * 2021-03-31 2022-10-06 ダイキン工業株式会社 登録システム、空気調和システム及び登録プログラム
JP2022159213A (ja) * 2021-03-31 2022-10-17 ダイキン工業株式会社 登録システム、空気調和システム及び登録プログラム
JP7189484B2 (ja) 2021-03-31 2022-12-14 ダイキン工業株式会社 登録システム、空気調和システム及び登録プログラム

Also Published As

Publication number Publication date
US20170316575A1 (en) 2017-11-02
US10249055B2 (en) 2019-04-02
JP6732522B2 (ja) 2020-07-29

Similar Documents

Publication Publication Date Title
JP6732522B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6650677B2 (ja) 映像処理装置、映像処理方法、およびプログラム
US10810438B2 (en) Setting apparatus, output method, and non-transitory computer-readable storage medium
JP6425780B1 (ja) 画像処理システム、画像処理装置、画像処理方法及びプログラム
TWI554976B (zh) 監控系統及其影像處理方法
US9600898B2 (en) Method and apparatus for separating foreground image, and computer-readable recording medium
TW201142745A (en) Information processing apparatus, information processing system, and information processing method
AU2014304760A1 (en) Devices, systems and methods of virtualizing a mirror
JP2017103602A (ja) 位置検出装置、位置検出方法及びプログラム
CN106997579B (zh) 图像拼接的方法和装置
JP2017017431A (ja) 画像処理装置、情報処理方法及びプログラム
JP6910772B2 (ja) 撮像装置、撮像装置の制御方法およびプログラム
US9218794B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
KR102144394B1 (ko) 영상 정합 장치 및 이를 이용한 영상 정합 방법
EP3605468A1 (en) Image processing apparatus, image processing apparatus control method, and non-transitory computer-readable storage medium
WO2020173258A1 (zh) 图像识别系统及其方法
KR20140128654A (ko) 증강현실 제공 장치 및 그 방법
JP5361758B2 (ja) 画像生成方法、画像生成装置、及びプログラム
JP2007053621A (ja) 画像生成装置
KR101645451B1 (ko) 스테레오 카메라를 이용한 감지영역 내의 이동객체 감지시스템
JP2013115738A (ja) 車両周辺撮影装置および車両周辺画像の処理方法
KR20120091749A (ko) 혼합 현실 가시화 시스템 및 혼합 현실 가시화 방법
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム
KR101470198B1 (ko) 영상 합성 장치 및 방법
WO2022022809A1 (en) Masking device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200708

R151 Written notification of patent or utility model registration

Ref document number: 6732522

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151