JP6827790B2 - 画像処理装置およびその制御方法 - Google Patents

画像処理装置およびその制御方法 Download PDF

Info

Publication number
JP6827790B2
JP6827790B2 JP2016241597A JP2016241597A JP6827790B2 JP 6827790 B2 JP6827790 B2 JP 6827790B2 JP 2016241597 A JP2016241597 A JP 2016241597A JP 2016241597 A JP2016241597 A JP 2016241597A JP 6827790 B2 JP6827790 B2 JP 6827790B2
Authority
JP
Japan
Prior art keywords
predetermined
image
detected
subject
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016241597A
Other languages
English (en)
Other versions
JP2018097611A (ja
JP2018097611A5 (ja
Inventor
日下部 稔
稔 日下部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016241597A priority Critical patent/JP6827790B2/ja
Priority to US15/838,964 priority patent/US10540546B2/en
Publication of JP2018097611A publication Critical patent/JP2018097611A/ja
Publication of JP2018097611A5 publication Critical patent/JP2018097611A5/ja
Application granted granted Critical
Publication of JP6827790B2 publication Critical patent/JP6827790B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7796Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2193Validation; Performance evaluation; Active pattern learning techniques based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像中の所定の被写体を検出する際の誤検出を抑制する画像処理技術に関する。
撮像された画像中に映っている人物を検出する技術が実用化されてきている。この種の技術には、様々な用途への適用が考えられる。例えば、撮像された画像から人数をカウントすることができるため、店舗などにおける来店者数の把握によるマーケティングへの活用、あるいは、道路などにおける通行量の把握による都市計画への活用、が考えられる。
人物を検出する技術においてその検出精度は向上しているとはいえ、一般に、完全に誤検出を抑制することは困難である。特許文献1には、ユーザが目視で誤検出を確認し、誤検出が発生している箇所を指定することで誤検出を抑制する構成が記載されている。
特開2013−93639号公報
しかしながら、特許文献1の構成では、たとえば、店舗に設置されたネットワークカメラを使用して人数をカウントする場合に、人物検出に関して誤検出が発生しているか否かを常時監視する人が必要となる。したがって、このようなシステムを導入して誤検出を監視する人を配置するよりも、初めから人数をカウントする人を配置した方が、コスト的に有利になることも考えられる。
また、誤検出の発生は、照明条件や周囲に配置された物体などの撮像環境、の影響を受ける。更に、検出精度が処理系によって異なる場合もある。例えば、新旧の処理系を有する複数の検出処理や、コストダウンのために検出性能を下げた検出処理などでは検出処理性能や誤検出率が大きく異なる場合がある。したがって、撮影環境毎およびカメラ毎(処理系毎)に検出精度が大きく異なってしまい、結果を統一的に扱えないなどの問題が発生する。
本発明は上記の課題に鑑みてなされたものであり、所定の被写体を検出する処理の誤検出の影響を低減する画像処理装置およびその制御方法を提供することを目的とする。
上記の課題を解決するための本発明の一態様による画像処理装置は以下の構成を備える。すなわち、
画像から所定の被写体を検出する検出手段と、
ユーザにより指定された所定の期間において撮像された第1画像から前記検出手段により検出された所定の被写体の位置に基づき、当該所定の期間と異なる期間において撮像された第2画像から前記検出手段により検出された所定の被写体に対する所定の処理の実行を制御する制御手段と、を備える
本発明によれば、所定の被写体を検出する処理の誤検出の影響を低減することができる。
第一実施形態の画像処理装置のハードウェア構成例を示すブロック図。 第一実施形態の画像処理装置の適用例を説明する図。 第一実施形態の画像処理装置の機能構成例を示すブロック図。 第一実施形態の画像処理装置による動作を示すフローチャート。 第二実施形態の画像処理装置の機能構成例を示すブロック図。 第二実施形態の画像処理装置による動作を示すフローチャート。
以下、添付の図面を参照して本発明の好適な実施形態を説明する。
<第一実施形態>
図1は第一実施形態による画像処理装置200のハードウェア構成例を示すブロック図である。画像処理装置200として、たとえば汎用のコンピュータを用いることができる。図1において、CPU100は、ROM101および/またはRAM102に格納されているプログラムを実行することにより、各種処理を実行するプロセッサである。ROM101は、不揮発性の読み出し専用メモリであり、プログラムなどを格納する。RAM102は、随時読み書きが可能なメモリであり、プログラムや画像データなどを一時的に格納する。格納部103は、プログラムや画像データなどを格納する二次記憶装置として動作する。格納部103の記憶媒体には、たとえばハードディスクドライブ(HDD)やソリッドステートドライブ(SSD)などが用いられる。LANインターフェース104は、ネットワークカメラおよび他のコンピュータなどとの通信を行う。図1では、ネットワークカメラ202がLANインターフェース104に接続された様子が示されている。ディスプレイ105はCPU100の制御下で各種表示を行う。
図2は、第一実施形態による画像処理装置200を含む画像処理システムの構成例を示す図である。図2において、ネットワークカメラ202は、撮像範囲内を撮像してネットワーク経由で画像を画像処理装置200に送信する。図2の例では、ネットワークカメラ202の撮像範囲内に、被写体として人物203と人以外の物体204が存在している。この場合、ネットワークカメラ202が撮像する画像には、人物203と物体204が被写体として映っている。本実施形態において、物体204は、人物検出処理を行った際に人物として誤検出される物体であるとする。
なお、図2の構成では画像処理装置200に画像を送信する機器の例としてネットワークカメラ202を示したが、本実施形態はこれに限定されるものではない。例えば、撮像された画像が一旦他のコンピュータのストレージデバイスに保存され、その後、他のコンピュータにより画像処理装置200に送信される構成であっても良い。また、本実施形態では、画像処理装置200とネットワークカメラ202(画像を送信する機器)とを、LANなどのネットワークを介して接続する構成を示したがこれに限られるものではない。たとえば、デジタルカメラ(デジタルスチルカメラまたはデジタルビデオカメラ)と画像処理装置200をUSB接続して、USBを介してデジタルカメラから画像処理装置200へ画像を送信する構成などでも良い。
図3は画像処理装置200の機能構成例を示すブロック図である。なお、以下に説明する機能ブロックの各々は、CPU100がプログラムを実行することにより実現されてもよいし、その一部あるいは全てが専用のハードウェアにより実現されてもよい。
図3において、画像入力部300は、ネットワークカメラ202から画像を入力する。画像入力部300は、たとえば、画像フレームを動画として連続的に入力する。人物領域検出部301は、所定の被写体の領域を検出する検出部の一例であり、画像入力部300が入力した画像から人物領域を検出する。人物領域検出部301は、たとえば、人の頭部、顔、上半身、全身など、人物が映っている領域を検出する。なお、人物領域検出部301が検出する人物の内容は処理アルゴリズムなどによって予め決まっており、例えば人数をカウントするためには、頭部や顔などを含むような検出を行うと良い。また、本実施形態では、検出対象の被写体の種類を人物としたがこれに限られるものではなく、たとえば、自動車など、人物以外の特定の種類の被写体を検出対象とするものでもよい。
誤検出判定部302は、検出された領域に対して誤検出判定を行う判定部の一例であり、人物領域検出部301により検出された人物領域が誤検出か否かを判定する。誤検出判定部302による誤検出の判定処理については後述する。なお、本実施形態では、人物領域検出部301は、画像から検出した人物領域の位置と大きさをリスト350に登録する。誤検出判定部302は、リスト350に登録されている各領域(人物領域として検出された領域)について誤検出か否かの判定を行い、その判定結果をリスト350に登録する。
処理制御部303は、画像から検出された各領域についての誤検出の判定結果に基づいて、各領域に対する処理(被写体に関連した処理)の実行を制御する制御部の一例である。本実施形態では、処理制御部303は、誤検出判定部302の判定結果に基づいて、人物領域検出部301が検出した人物領域に対する人物領域処理部304の処理の実行を制御する。人物領域処理部304は、画像から検出された領域に対して所定の被写体(本実施形態では人物)に関連する処理を行う処理部の一例である。人物領域処理部304は、処理制御部303の制御に従って、人物領域検出部301において検出された人物領域に対して所定の処理を行う。人物領域処理部304が実行する処理の例としては、たとえば検出された人数をカウントする処理が挙げられる。他にも、人物領域処理部304が実行する処理の例として、たとえば、人物領域検出部301において検出された人物領域に対して更なる解析処理を行うことにより、
・人物の年齢や性別などを推定する処理、
・あらかじめ登録された人物か否かを判定する人物認証、
・動画の複数フレームを使用した人物追尾処理、或いは、
・人物の移動方向を推定する処理、
などが挙げられる。また、上述の人物領域に対して適用可能な様々な処理は、単独で実行されてもよいし、複数の処理が組み合わされて実行されても良い。
結果出力部305は、人物領域処理部304により処理結果を、たとえばCPU100が実行する他のアプリケーションによる利用のために出力する。
図4は第一実施形態の画像処理装置200の処理例を示すフローチャートである。図4に示される処理は、たとえばCPU100がROM101またはRAM102に格納されているプログラムを実行することにより実現される。
処理が開始されると、ステップS400において、CPU100は処理に必要な初期化を行う。ステップS401において、CPU100は、ネットワークカメラ202に対して画像フレームの取得要求(画像取得要求)を行い、撮像画像の取得を開始する。ステップS402において、画像入力部300は、ネットワークカメラ202により撮像された動画像の画像フレームを受信する。ステップS403において、人物領域検出部301は、ステップS402で受信した画像フレームから人物領域の検出を行う。ここで、店舗や道路などをネットワークカメラ202で撮像した場合には、複数の人物領域が検出される場合がある。複数の人物領域を管理するために、検出処理の結果得られた人物領域(人物の位置や大きさ、範囲など)の情報はリスト350に保持され、管理される。また、このリスト350では、個々の人物領域に関連のある後述する他の情報(たとえば、誤検出の判定結果)が併せて管理可能となっている。
ステップS404〜S406では、誤検出判定部302がリスト350に登録されている人物領域の各々について誤検出判定処理を行い、その判定結果をリスト350に登録する。まず、ステップS404において、誤検出判定部302は、画像フレーム中で検出された人物領域(リスト350に登録されている人物領域)に関して、誤検出か否かの判定処理が未実行な領域(未判定の人物領域)があるか否かを判定する。未判定の人物領域がある場合、ステップS405において、誤検出判定部302は、未判定の人物領域に対して後述する誤判定か否かの判定処理を実行する。ステップS406において、誤検出判定部302は、ステップS405の判定結果をリスト350の人物領域に関連付けて保持する。以上のS405〜S406の処理は、リスト350に登録されている全ての人物領域が誤検出判定処理済みとなるように繰り返される(ステップS404)。
リスト350に登録されている全ての人物領域について誤検出判定処理が実行されるとステップS407〜S410に示される処理が実行される。ステップS407〜S410では、処理制御部303が、リスト350に登録されている人物領域のうち誤検出ではないと判定された人物領域を人物領域処理部304に処理させる。
まず、ステップS407において、処理制御部303は、リスト350に登録されている人物領域のうち人物領域に関する処理が未処理となっている人物領域があるかどうかを判定する。人物領域に関する処理が未処理の人物領域があれば、ステップS408において、処理制御部303は、未処理の人物領域の一つを選択する。このとき選択された人物領域については、リスト350において、処理済みである旨が記録される。次に、ステップS409において、処理制御部303は、ステップS408で選択した人物領域の誤検出判定結果を参照して、選択した人物領域が誤検出か否かを判断する。誤検出ではないと判断されると、ステップS410において、処理制御部303は、人物領域処理部304に当該人物領域に対して処理を実行させる。一方、ステップS408で誤検出していると判定された場合には、処理はステップS407に戻る。
ステップS407において未処理の人物領域が無いと判定されると、ステップS411において、CPU100は、処理の終了要求の有無を判定し、終了要求があれば処理を終了させる。一方、ステップS411で終了要求が無いと判定された場合、ステップS412において、CPU100は、動画のフレームレート分の時間待機した後に、処理をステップS402に戻す。なお、フレームレート毎の画像送受信のタイミングをカメラなどの画像送信側で行う場合には、ステップS412は不要である。この場合は、画像が受信されるまでの待ち、及びステップS411の終了判定待ちをステップS402において行うようにすればよい。
また、図4のフローチャートにおいて、ステップS402の画像フレームの受信は複数のカメラから送信される複数の画像を受信するようにしても良い。或いは、ネットワークカメラにおいてPTZ(パン、チルト、ズーム)が切り替え可能な場合には、自動巡回させて撮像した異なる複数の撮像位置の画像を受信するようにしても良い。この場合、ステップS404、及びステップS409の処理は受信した全画像フレーム、及び全画像フレーム中に検出された全人物領域に関して処理を行うようにするとよい。
また、図4のフローチャートにおいて、ステップS404の判定はステップS403で検出されたすべての領域に対して行うようにしているが、予め指定された範囲に含まれるもののみ実行するようにしても良い。このような方法は、カメラの撮像範囲内において誤検出が発生しやすい個所が特定されている場合などに有用であり、処理の効率化を図ることが可能となる。
また、図4に示したフローチャートにおいては、ステップS409において誤検出していると判定された人物領域にはステップS410の処理(人物領域処理部304の処理)が実行されないようにしたが、これに限るものではない。例えばステップS410における人物領域に関する処理が複数あり、誤検出の判定結果に応じて処理を切り替えるようにしても良い。更にこの場合には、ステップS405の誤検出判定処理の出力結果が誤検出の有無の2値ではなく程度を示す値(3値以上の値)としておき、該値に応じて処理内容を切り替えるようにしても良い。このようにすることでステップS410の処理が3種類以上あった場合に、必要に応じて対応が可能となる。具体的な例としては、該程度を示す値を所定の閾値で判定することにより3段階に分け、誤検出の有無に加え、判定不能の判断を行い表示を切り替えるなどが挙げられる。このようにすることで例えば、人数をカウントする場合において人物であることの確実性の高いカウントと、判断不能な結果を含むカウントの2種類を行い、誤差を考慮した上限と下限が把握しやすいようなカウントを実現するなどが実現可能となる。
また、ステップS406では、誤検出の判定結果をステップS403で検出された人物領域に関連付けて保持するようにしているが、本実施形態はこれに限るものではない。例えば、判定結果を保存する代わりにステップS405で誤検出と判定された人物領域を検出リストから除外するようにしてもよい。このようにすることで、ステップS409における誤検出しているか否かの判定と同等の処理がステップS406で実行されることになるため、処理が軽減される。また、誤検出の判定結果を保持しない他の例としては、ステップS405の処理の直後にステップS409およびステップS410の処理を行うようにする方法も挙げられる。
次にステップS405の、誤検出判定部302による誤検出判定方法について説明する。本実施形態では、人物を検出対象としているので領域の飛車互い人物であるか否かの判定となる。人物領域の検出方法には様々なアルゴリズムが提案されている。例えば、輪郭抽出を行い、予め保持されている頭部の輪郭テンプレートとのパターンマッチングを行う方法が挙げられる。このような場合、パターンが偶然一致したものは人物でなくても人物領域であるとの誤検出を発生させる可能性がある。例えば非常に複雑な模様または密集している小さな物体が被写体となった場合に、このような偶然の一致が発生する可能性がある。
一方、人物を撮影した場合には、例えば人の顔は肌色領域が所定範囲に広がっているという特徴がある。また、頭部であれば髪の毛の色が所定範囲に広がっているという特徴があるなど、人物の顔や頭部は類似色が所定範囲に広がっているという特徴を有している傾向がある。よって、ステップS405の誤検出判定方法の好適な例として、検出された人物領域の色を検出し、色の分布(例えばヒストグラム)により人物領域か否かの判定を行うようにするとよい。この処理の具体例としては人肌として出現する可能性の少ない範囲の色成分が多く含まれるか否かを判断すると良い。より簡素な処理の例としては、肌色は青や緑の成分が単独で突出して多くなる可能性が低いという特徴があるため、青や緑の成分が単独で所定以上検出されている場合には誤検出と判定する方法でもよい。また、撮像環境の照明が白色光源ではく、特定色を有していることがあらかじめ分かっている場合には、光源の影響を考慮した肌色の成分を判定基準にしても良い。なお、検出した領域の色に基づいて誤検出の判定を行う判定方法は上述の例に限るものではなく、他の様々な方法が適用可能である。
更に、色以外にも例えば、人物画像には所定以上の平坦領域があることから、人物として検出された領域の平坦度合いを検出する方法もある。このような、検出された領域の画像の平坦度に基づく誤検出の判定処理の例としては、エッジ検出フィルタによるエッジの状態による判断や、周波数特性を用いた高周波成分の状態など様々な方法が適用可能である。更に、動画の場合、フレーム間の差分、たとえば前フレームとの差分、を取ることにより判定することも可能であり、例えば単純に差分がない領域に対して検出された人物領域は誤検出と判断するなどの方法が挙げられる。
以上のように、ステップS405の処理としては、誤検出の可能性が高い条件を適用すると良い。このようにすることで、性能の異なる複数の人物領域検出処理が行われた場合や、誤検出の発生のしやすさが異なる複数の被写体を撮像した画像に対する人物領域検出処理が行われた場合に、統一的な基準で誤検出を抑制することが可能となる。その結果、統一的な誤検出率での人物検出結果を活用して処理を行うことが可能となる。
また、本実施形態における人物検出結果(結果出力部305の出力)を活用した処理の好適な例としては、統計的な処理が挙げられる。統計的な処理の具体的な例としては、人数のカウントや、人物属性推定処理の結果を考慮した年齢性別毎の人数カウント、人物が特定位置に留まっていた割合を蓄積したヒートマップなどが挙げられる。また、本実施形態は上記の例に限るものではなく、様々な用途に適用可能である。
以上説明したように、第一実施形態によれば人物領域の検出処理を行った場合に、誤検出発生時に操作者の指定を必要とすることなく誤検出率を抑えることが可能となる。特に、撮像環境や撮像条件による誤検出率の抑制や、性能の異なる複数の人物領域検出処理が適用される場合に統一的な基準で誤検出を抑制し、一定の性能を確保した人物検出結果の活用を行うことが可能となる。
<第二実施形態>
第一実施形態では、図4のステップS405における人物領域の誤検出の判定方法として、予め決定された判断基準により誤検出を判定する方法を説明した。第二実施形態では、他の誤検出の判定方法を用いた場合の例を説明する。第二実施形態では、所定の期間に撮像された画像から検出された人物領域を誤検出領域として記録しておき、所定の期間以外に撮像された画像から検出された人物領域が誤検出か否かを、記録された誤検出領域に基づいて判定する。これは、例えば閉店時間が存在する店舗などにおいて、閉店時間に検出されている人物領域は誤検出と考えられる可能性が高いことを、誤検出の判断基準として活用したものである。第一実施形態では、現在のフレームに対する誤検出の判定結果を、現在のフレームの人物領域に対する処理の制御に使用するのに対し、第二実施形態では、異なる時間に検出された誤検出結果を、現在のフレームの人物領域に対する処理の制御に使用する。なお、第二実施形態の画像処理装置200のハードウェア構成、画像処理システムの構成は、第一実施形態(図1、図2)と同様である。
図5は、第二実施形態の画像処理装置200における機能ブロック図である。第一実施形態(図3)に示す機能ブロックと同等の機能ブロックには同一の参照番号が付してある。図5において、時間取得部310は、検出された人物領域を誤検出と判定する期間(誤検出判定時間)を示す時間指定を取得し、誤検出判定部302aに通知する。誤検出判定部302aは、誤検出判定時間内に人物領域検出部301が検出した人物領域を誤検出リスト351に登録する。第一実施形態で上述したリスト350が1つの画像フレームについて有効であるのに対し、誤検出リスト351は、誤検出と判定された領域を所定の期間(たとえば、次の誤検出判定時間が開始されるまで)にわたり維持される。誤検出判定部302aは、時間取得部310により取得された誤検出判定時間以外の時間に取得された画像から検出された人物領域について、誤検出リスト351を参照して誤検出の判定を行う。以下、図6のフローチャートにより第二実施形態の画像処理装置200の動作について説明する。
図6は、第二実施形態の画像処理装置200による処理を示すフローチャートであり、例えば図1に示すCPU100により実行される。なお、第一実施形態(図4)と同様の処理を行うステップには、同じ符号を付してある。
処理が開始されると、CPU100は初期化を行い、ネットワークカメラ202に対して画像取得要求を行う(ステップS400、S401)。ステップS600において、時間取得部310は、検出された人物領域を誤検出と判定する期間(誤検出判定時間)を取得する。誤検出判定時間は、適用環境に応じて適切な時間を操作者が入力可能であり、時間取得部310はこの入力された時間を取得する。なお、誤検出判定時間として、通常は人物が映らない時間帯が設定されることが望ましい。たとえば、店舗の営業時間外などの時間を開始時刻と終了時刻の形で指定することにより誤検出判定時間を設定できるようにする。ステップS600では、このような操作者による誤検出判定時間の指定を、時間取得部310が取得する。
続いて、画像入力部300がネットワークカメラ202により撮像された動画像の画像フレームを受信し、人物領域検出部301が、受信された画像フレームから人物領域を検出し、リスト350に登録する(ステップS402およびステップS403)。
次に、ステップS601において、誤検出判定部302aは、ステップS402で受信した画像フレームの撮像された時刻を取得する。なお、動画像の各フレームの撮像時間は画像データのヘッダ部などに格納されている場合がある。このような場合には、画像フレームの受信時に撮像時刻も取得しているため、ステップS601はステップS402に含まれているとみなすことも可能である。ステップS602において、誤検出判定部302aは、ステップS601で取得した撮像時刻がステップS600で取得した誤検出判定時間の間か否かを判定する。誤検出判定時間の間であると判定された場合、ステップS603において、誤検出判定部302aは、ステップS403で検出された人物領域を誤検出が発生している誤検出領域であるとして誤検出リスト351に登録する。そして、ステップS411、S412の処理を行う。ステップS411、S412の処理は第一実施形態と同様である。
一方、ステップS602において、撮像時刻が誤検出判定時間内ではないと判定されると、処理はステップS407に移行する。ステップS407、S408、S504、S410の処理では、人物領域検出部301が検出した人物領域のうち、誤検出判定部302aが誤検出ではないと判定した人物領域について、人物領域処理部304が処理を行う。なお、人物領域検出部301が検出した人物領域は、リスト350に記録されている。
まず、ステップS407において、誤検出判定部302aは、リスト350に未処理の人物領域があるか否かを判定する。未処理の人物領域があると判定された場合、ステップS408において、誤検出判定部302aは、未処理の人物領域のうちの一つを選択する。選択された人物領域については、リスト350の「処理済」の欄に「済」が記録される。ステップS604において、誤検出判定部302aは、ステップS408で選択した人物領域が、誤検出リスト351に記録されている誤検出領域の位置の近傍であるか否かにより、その人物領域が誤検出か否かを判定する。選択された人物領域の検出位置が誤検出リスト351に記録されている誤検出領域の何れかの検出位置の近傍である場合、その人物領域は誤検出であると判定される。なお、近傍か否かは、たとえば、検出位置の距離が所定値を超えるか否かにより判定することができる。また、誤検出か否かの判定条件として、距離の条件に加えて、検出された領域の大きさを条件として加えてもよい。たとえば、検出された人物領域の大きさと誤検出リスト351に記録されている領域の大きさの差(割合)が所定範囲内であることを条件として用いてもよい。ステップS604で誤検出であると判定された場合、処理制御部303は、人物領域処理部304に当該人物領域を処理させない。したがって、処理はそのままステップS407に戻る。ステップS604で誤検出ではないと判断された場合、ステップS410において、処理制御部303は、人物領域処理部304に、選択された人物領域を処理させる。
なお、ステップS600で取得する時間は開始時間と終了時間ではなく、開始時間と実行期間の指定でもよい。或いは、開始時間と、処理を行う画像フレーム数でもよい。或いは、処理を行う期間、或いは画像フレーム数を予め決定しておいた所定値としておき、開始時間のみを取得するようにしても良い。
また、ステップS601で取得する撮像時刻の代わりに、画像処理装置200内の現在時刻を使用するようにしても良い。この場合、現在時刻が誤検出判定時間の間に人物領域検出部301が検出した領域が誤検出領域として誤検出リスト351に記録されることになる。このようにすることで、ネットワークカメラ202が撮像時刻に関する情報を送信してこなかった場合や、取得した撮像時刻が画像処理装置200内の現在時刻と比較して明らかに異常な場合などにも対応することが可能になる。
また、上述の例ではステップS603の処理において検出されたすべての領域を誤検出とみなす例を示したが、第一実施形態のステップS405で説明した誤検出判定処理と組み合わせた結果で判断するようにしても良い。誤検出判定時間内では、原則として人物が存在しない時間帯であり検出される人物領域は少ない。また、誤検出判定時間内では、人物領域に関する処理(ステップS410)は行われない。したがって、ステップS603では、誤検出判定処理により多くの時間を割くことができるため、高精度な判定処理を適用することができる。
また、上述の例ではステップS604の処理において誤検出か否かを判断しているが、これに限られるものではない。第一実施形態のステップS409の処理と同様に検出の判定結果を3値以上として、ステップS410での人物領域に関する処理内容を誤検出の判定結果に応じて切り替えるようにしても良い。
以上説明したように、上述した各実施形態によれば、誤検出の発生原因が推測できないような場合であっても、結果的に発生した誤検出発生時に操作者の指定を必要とすることなく誤検出率を所定内に抑えることが可能となる。すなわち、人物領域検出処理の誤検出の影響を人の手を介すことなく抑制することが可能となる。また、人物領域検出部301が複数の場合に、誤検出判定部302は統一的な抑制基準となり得る。すなわち、人物検出処理を行う際に、検出処理系毎、或いは測定環境毎に異なる誤検出の発生状況を統一的な基準で抑制することが可能になる。その結果、人物検出処理結果を活用した処理結果の誤検出によるばらつきを抑制することが可能になる。
<変形例>
第一実施形態において、ステップS405による誤検出判定処理の結果を第二実施形態で説明したような誤検出リスト351に記録、蓄積しておき、ステップS409の誤検出の判定において誤検出リストを参照するようにしてもよい。このようにすることで、例えば店舗などにおいて人物が撮像範囲内に入る可能性がある時間帯において、商品の追加補充などにより誤検出が発生するようになった場合の誤検出などを抑制することが可能となる。なお、誤検出リストは所定の間隔で(たとえば1日に1回、1週間に1回など)でリセットされればよい。
また、上述の各実施形態においては、図2に示した画像処理装置200で動作するソフトウェアプログラムによって実現される構成としたが、これに限られるものではない。例えば、ネットワークカメラ202内のハードウェア処理、或いは組み込みのソフトウェア処理で上述の処理を実現する方法が挙げられる。或いは、上述の処理の一部をネットワークカメラ202で行い、他の処理を画像処理装置200で行うなど、単一機器内での処理に限定しない分散処理を行うシステム構成であってもよい。分散処理の例としては、人物領域の検出処理であるステップS403の処理をネットワークカメラ202で行い、誤検出判定処理(ステップS405)、誤検出リストへの登録処理(ステップS603)を画像処理装置200で実行することが挙げられる。また、人物領域検出処理が、ネットワークカメラ202と画像処理装置200で実行されるようにしてもよいし、ネットワークカメラ202以外の複数のコンピュータで実行されるようにしても良い。また、誤検出判定処理は、同一のコンピュータ内で実行される複数の人物領域検出機能を有するアプリケーションの出力結果に対して適用されてもよい。
以上のように処理を複数の装置で分担することにより人物領域検出処理403の性能がカメラやアプリケーション毎に異なっている場合や、異なる対象を撮像した場合でも、統一的な基準で誤検出を抑制することができる。そのため、検出された人物領域を活用した処理ステップS410の結果のばらつきをカメラ間で抑制することが可能となる。
更に上述の実施形態は、本発明の好適な一実施例について述べているが、本発明は上述の内容に限定されるものではない。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100:CPU、101:ROM、102:RAM、103:格納部、104:LANインターフェース、105:ディスプレイ、200:画像処理装置、202:ネットワークカメラ、203:被写体(人物)、204:被写体(物体)、300:画像入力部、301:人物領域検出部、302:誤検出判定部、303:処理制御部、304:人物領域処理部、305:結果出力部、350:リスト

Claims (15)

  1. 画像から所定の被写体を検出する検出手段と、
    ユーザにより指定された所定の期間において撮像された第1画像から前記検出手段により検出された所定の被写体の位置に基づき、当該所定の期間と異なる期間において撮像された第2画像から前記検出手段により検出された所定の被写体に対する所定の処理の実行を制御する制御手段と、を備えることを特徴とする画像処理装置。
  2. 前記制御手段は、前記所定の期間において撮像された前記第1画像から前記検出手段により検出された所定の被写体の位置と該所定の被写体のサイズとに基づき、当該所定の期間と異なる期間において撮像された第2画像から前記検出手段により検出された所定の被写体に対する前記所定の処理の実行を制御することを特徴とする請求項1に記載の画像処理装置。
  3. 前記制御手段は、前記第1画像から検出された所定の被写体の位置と、前記第2画像から検出された所定の被写体の位置との間の距離が所定値以上の場合、該第2画像から検出された所定の被写体に対して前記所定の処理を実行するよう制御することを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第1画像から前記検出手段により検出された所定の被写体の位置を記憶する記憶手段を更に有し、
    前記制御手段は、前記記憶手段により記憶された所定の被写体の位置に基づき、前記第2画像から検出された所定の被写体に対する前記所定の処理の実行を制御することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記所定の処理を実行する処理手段を更に有し、
    前記処理手段は、前記第2画像から検出された所定の被写体に対し前記所定の処理を実行するよう前記制御手段により制御された場合、該所定の被写体に対し該所定の処理を実行することを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記第2画像から検出された所定の被写体に対する前記所定の処理は、該所定の被写体の年齢又は性別を推定する処理、該被写体が予め登録された被写体かを推定する処理、または、該所定の被写体をカウント対象に含める処理であることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記検出手段は所定の被写体として人物を検出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  8. 画像から所定の被写体を検出する検出工程と、
    ユーザにより指定された所定の期間において撮像された第1画像から前記検出工程において検出された所定の被写体の位置に基づき、当該所定の期間と異なる期間において撮像された第2画像から前記検出工程において検出された所定の被写体に対する所定の処理の実行を制御する制御工程と、を有することを特徴とする画像処理装置の制御方法。
  9. 前記制御工程において、前記所定の期間において撮像された前記第1画像から前記検出工程において検出された所定の被写体の位置と該所定の被写体のサイズとに基づき、当該所定の期間と異なる期間において撮像された第2画像から前記検出工程において検出された所定の被写体に対する前記所定の処理の実行を制御することを特徴とする請求項8に記載の制御方法。
  10. 前記制御工程において、前記第1画像から検出された所定の被写体の位置と、前記第2画像から検出された所定の被写体の位置との間の距離が所定値以上の場合、該第2画像から検出された所定の被写体に対して前記所定の処理を実行するよう制御することを特徴とする請求項8又は9に記載の制御方法。
  11. 前記第1画像から前記検出工程において検出された所定の被写体の位置を記憶する記憶工程を更に有し、
    前記制御工程において、前記記憶工程において記憶された所定の被写体の位置に基づき、前記第2画像から検出された所定の被写体に対する前記所定の処理の実行を制御することを特徴とする請求項8乃至10のいずれか1項に記載の制御方法。
  12. 前記所定の処理を実行する処理工程を更に有し、
    前記処理工程において、前記第2画像から検出された所定の被写体に対し前記所定の処理を実行するよう前記制御工程において制御された場合、該所定の被写体に対し該所定の処理を実行することを特徴とする請求項8乃至11のいずれか1項に記載の制御方法。
  13. 前記第2画像から検出された所定の被写体に対する前記所定の処理は、該所定の被写体の年齢又は性別を推定する処理、該被写体が予め登録された被写体かを推定する処理、または、該所定の被写体をカウント対象に含める処理であることを特徴とする請求項8乃至12のいずれか1項に記載の制御方法。
  14. 前記検出工程において、所定の被写体として人物を検出することを特徴とする請求項8乃至13のいずれか1項に記載の制御方法。
  15. コンピュータを請求項1乃至7のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016241597A 2016-12-13 2016-12-13 画像処理装置およびその制御方法 Active JP6827790B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016241597A JP6827790B2 (ja) 2016-12-13 2016-12-13 画像処理装置およびその制御方法
US15/838,964 US10540546B2 (en) 2016-12-13 2017-12-12 Image processing apparatus, control method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016241597A JP6827790B2 (ja) 2016-12-13 2016-12-13 画像処理装置およびその制御方法

Publications (3)

Publication Number Publication Date
JP2018097611A JP2018097611A (ja) 2018-06-21
JP2018097611A5 JP2018097611A5 (ja) 2020-01-23
JP6827790B2 true JP6827790B2 (ja) 2021-02-10

Family

ID=62490065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016241597A Active JP6827790B2 (ja) 2016-12-13 2016-12-13 画像処理装置およびその制御方法

Country Status (2)

Country Link
US (1) US10540546B2 (ja)
JP (1) JP6827790B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7104523B2 (ja) 2018-02-05 2022-07-21 キヤノン株式会社 情報処理装置、システム、情報処理装置の制御方法、及び、プログラム
DE102019113647A1 (de) * 2019-05-22 2020-11-26 Ifm Electronic Gmbh Kamerasystem zur Erfassung von Objekten und/oder Objekteigenschaften
JP2021110973A (ja) * 2020-01-06 2021-08-02 オムロン株式会社 人体検出装置および人体検出方法
US11575837B2 (en) * 2020-04-27 2023-02-07 Canon Kabushiki Kaisha Method, apparatus and computer program for generating and displaying a heatmap based on video surveillance data
JP2022137733A (ja) * 2021-03-09 2022-09-22 オムロン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013093639A (ja) 2010-03-03 2013-05-16 Panasonic Corp 車両周辺監視装置
JP5665401B2 (ja) * 2010-07-21 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP5693162B2 (ja) * 2010-11-09 2015-04-01 キヤノン株式会社 画像処理システム、撮像装置、画像処理装置及びそれらの制御方法、プログラム

Also Published As

Publication number Publication date
US20180165515A1 (en) 2018-06-14
US10540546B2 (en) 2020-01-21
JP2018097611A (ja) 2018-06-21

Similar Documents

Publication Publication Date Title
JP6827790B2 (ja) 画像処理装置およびその制御方法
KR101687530B1 (ko) 촬상 시스템에 있어서의 제어방법, 제어장치 및 컴퓨터 판독 가능한 기억매체
US10115178B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP6914007B2 (ja) 情報処理装置および情報処理方法
US9258481B2 (en) Object area tracking apparatus, control method, and program of the same
US11594060B2 (en) Animal information management system and animal information management method
JP2009211274A (ja) 画像処理装置、画像処理方法、プログラム及び記憶媒体
US10127424B2 (en) Image processing apparatus, image processing method, and image processing system
JP2015103104A (ja) 情報処理装置、情報処理方法、情報処理システム
US20190230269A1 (en) Monitoring camera, method of controlling monitoring camera, and non-transitory computer-readable storage medium
JP2016134803A (ja) 画像処理装置及び画像処理方法
US8798369B2 (en) Apparatus and method for estimating the number of objects included in an image
US10455144B2 (en) Information processing apparatus, information processing method, system, and non-transitory computer-readable storage medium
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
JP2015008385A (ja) 画像選択装置、撮像装置および画像選択プログラム
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
JP4985742B2 (ja) 撮影システム、方法及びプログラム
US20190279477A1 (en) Monitoring system and information processing apparatus
JP5193944B2 (ja) 画像処理方法
JP2020086961A (ja) 画像解析装置、撮影装置、画像解析方法、及び、プログラム
WO2023276050A1 (ja) 画像処理システム及び撮像装置
GB2585276A (en) Survelliance Assist Device
JP5777389B2 (ja) 画像処理装置、画像処理システム及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191203

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210120

R151 Written notification of patent or utility model registration

Ref document number: 6827790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151