JP7475959B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7475959B2
JP7475959B2 JP2020088126A JP2020088126A JP7475959B2 JP 7475959 B2 JP7475959 B2 JP 7475959B2 JP 2020088126 A JP2020088126 A JP 2020088126A JP 2020088126 A JP2020088126 A JP 2020088126A JP 7475959 B2 JP7475959 B2 JP 7475959B2
Authority
JP
Japan
Prior art keywords
image
foreground
processing device
foreground region
threshold
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020088126A
Other languages
English (en)
Other versions
JP2021182320A (ja
JP2021182320A5 (ja
Inventor
翔平 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020088126A priority Critical patent/JP7475959B2/ja
Priority to US17/226,121 priority patent/US11954865B2/en
Publication of JP2021182320A publication Critical patent/JP2021182320A/ja
Publication of JP2021182320A5 publication Critical patent/JP2021182320A5/ja
Application granted granted Critical
Publication of JP7475959B2 publication Critical patent/JP7475959B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理に関する。
カメラ等の撮像装置で撮像された画像から、注目する被写体画像を抽出する手法は様々な目的で使用されており、その手法も様々である。例えば、入力画像と背景画像とを比較し、画素値の差が所定の閾値以上の画素を前景領域として抽出する背景差分法がある。背景差分法では、複数フレームの各画素の画素値の変化を観測し、変化が所定の閾値以下の場合に背景画像に取り込む。そして、フレーム毎に入力画像と背景画像とを比較して、画素値の差が所定の閾値以上の画素を前景領域として抽出する。しかし、この閾値は撮像時の照明条件により適切な値が変動する。この課題を解決するために、特許文献1では、入力画像の輝度値と照度との少なくともどちらか一方を利用して、閾値を適宜変更する技術が開示されている。
特開2018-147329号公報
しかしながら、特許文献1で開示される技術では、入力画像の輝度値と照度との少なくとも一方に基づいて変更した閾値が適切な値かを判定できない。そのため、変更した閾値と適切な閾値との間に誤差がある場合、前景領域の抽出精度が低下する。
そこで本発明の一実施形態は、上記の課題に鑑み、前景領域を精度よく抽出することを目的とする。
本発明の一実施形態は、学習により撮像画像から前景領域が抽出された結果に基づいて、撮像画像と当該撮像画像に対応する背景画像との差分に基づく前景画像の生成に用いられる閾値を決定する決定手段と、前記決定手段によって決定された閾値を用いて、前記撮像画像と前記背景画像に基づいて、前景画像を生成する生成手段と、を有することを特徴とする画像処理装置である。
本発明の一実施形態によれば、前景領域を精度よく抽出することが可能になる。
第1の実施形態に係る画像処理装置100のハードウェア構成を示すブロック図 第1の実施形態における画像処理装置100の機能構成を示すブロック図 第1の実施形態における抽出部による前景領域抽出の説明図 第1の実施形態における画像処理装置100が実行する各処理の流れを示すフローチャート 第1の実施形態における画像処理装置100の適用例を示す図 第2の実施形態における画像処理装置100が実行する各処理の流れを示すフローチャート 第3の実施形態における画像処理装置700の機能構成を示すブロック図 第3の実施形態における画像処理装置700が実行する各処理の流れを示すフローチャート
以下、図面を参照しながら実施形態を説明する。尚、以下の実施形態において示す構成は例示に過ぎず、本発明は図示された構成に限定されるものではない。また、仮想視点画像とは、実カメラとは異なる仮想カメラの位置及び向き等に基づいて生成される画像であり、自由視点画像や任意視点画像とも呼ばれる。また、以下の説明において、画像とは、画像を表す画像データを指す場合もある。
[第1の実施形態]
本実施形態では、背景差分法による前景領域抽出を行った前景シルエット画像を、機械学習による前景領域抽出を行った前景シルエット画像を用いて評価した結果に基づいて、背景差分法で使用する閾値を適切に決定する。これにより、照明変化が起きる撮像環境であっても、精度の高い前景シルエット画像を生成することができる。
<画像処理装置のハードウェア構成>
図1は、本実施形態に係る画像処理装置100のハードウェア概略構成を示すブロック図である。画像処理装置100とは、具体的にはPC等の情報処理装置であり、CPU111と、ROM112と、RAM113と、補助記憶装置114と、表示部115と、操作部116と、通信I/F117と、バス118と、を有する。
CPU111は、ROM112やRAM113に記憶されているコンピュータプログラムやデータを用いて画像処理装置100の全体を制御することで、図2に示す画像処理装置100の各機能を実現する。尚、画像処理装置100がCPU111とは異なる1又は複数の専用ハードウェアを有し、CPU111による処理の少なくとも一部をこの専用ハードウェアが実行してもよい。専用ハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)等がある。
ROM112には、変更を必要としないプログラム等が記憶される。RAM113には、補助記憶装置114から供給されるプログラムおよびデータ、並びに通信I/F117を介して外部から供給されるデータ等が一時的に記憶される。補助記憶装置114は、例えばハードディスクドライブ等を有し、画像データや音声データ等の種々のデータが記憶される。
表示部115は、例えば液晶ディスプレイやLED等を有し、ユーザが画像処理装置100を操作するためのGUI(グラフィカルユーザインターフェース)等を表示する。操作部116は、例えばキーボードやマウス、ジョイスティック、タッチパネル等を有し、ユーザによる操作を受けて各種の指示をCPU111に入力する。CPU111は、表示部115を制御する表示制御部、及び操作部116を制御する操作制御部として動作する。
通信I/F117は、画像処理装置100の外部の装置との通信に用いられる。例えば、画像処理装置100が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F117に接続される。画像処理装置100が外部の装置と無線通信する機能を有する場合には、通信I/F117はアンテナを備える。バス118は、画像処理装置100の各部をつないで情報を伝達する。
本実施形態では表示部115と操作部116が画像処理装置100の内部に存在するものとするが、表示部115と操作部116との少なくとも一方が画像処理装置100の外部に別の装置として存在していてもよい。
<画像処理装置の機能構成>
図2は、本実施形態における画像処理装置100の機能構成(ソフトウェア構成)を示すブロック図である。画像処理装置100は、前景領域の抽出対象である入力画像203を入力として、前景領域の抽出結果である第1前景シルエット画像204を出力する画像処理装置である。
画像処理装置100は、入力部201と、第1抽出部202と、パラメータ調整部210と、を有する。パラメータ調整部210は、取得部211と、第2抽出部212と、第3抽出部213と、高精度抽出部214と、評価部215と、パラメータ更新部216と、を有する。
入力部201は、撮像された前景領域を抽出する対象となる入力画像203を受信する機能を有する。入力部201は、カメラなどの撮像装置からの撮像画像をSDIケーブルなどで入力されるものであってもよいし、画像データとしてUSBやPCIeなどのインターフェース経由で入力されるものでもよい。
第1抽出部202は、入力部201で受信した入力画像203と背景画像とを背景差分法により閾値に基づいて比較することで、前景領域を抽出、つまり、画像処理装置100の出力となる前景領域を表す第1前景シルエット画像204を生成する。第1前景シルエット画像204とは例えば、入力画像203における前景領域と背景領域とを2値で表現した、入力画像203と同じ解像度の画像でもよいし、その画像内の各前景領域を外接矩形で切り出した画像でもよい。
パラメータ調整部210は、第1抽出部202の背景差分法で使用される閾値を適切な値に調整する処理を行う。
取得部211は、入力部201から入力画像を受け取り、パラメータ調整部210における第1抽出部202の背景差分法で使用される閾値を適切な値に調整する処理が終了するまで保持しておく機能を有する。適切な閾値に調整する処理が終了すると、入力部201がその時点で受信したフレームの入力画像を受け取り、また保持しておく。
第2抽出部212は、第1抽出部202、第3抽出部213とは異なる手法により、前景領域を抽出、つまり、基準となる第2前景シルエット画像を生成する。本例では、第1抽出部202、第3抽出部213において前景領域として抽出したいオブジェクトの前景領域を、前景シルエット画像として出力するように学習した学習済みモデルによる前景領域の抽出手法を用いるものとする。このような手法としては、例えば、ConvolutionネットワークとDeconvolutionネットワークとを組み合わせて用い、意味的に異なる複数の前景候補領域の前景シルエット画像を出力することが出来る。意味的に異なるとは、例えば人間とボールなどの異なる種類の物体であることを指す。そしてこの手法によれば、背景差分法による前景領域抽出とは異なり、入力画像のみから前景領域を抽出できるため、閾値によらず撮像環境の変化に頑健な前景シルエット画像を生成できる。第2抽出部212は、前述した機械学習により、取得部211で保持してある入力画像に基づいて第2前景シルエット画像を生成する。ここで第2前景シルエット画像は、例えば前景領域と背景領域とを2値で表す2値画像であってもよいし、各画素値が前景領域である確率を表す多値の多値画像であってもよい。また、取得部211で保持してある入力画像に所定の加工を施してから第2前景シルエット画像を生成してもよい。例えば、第3抽出部213で各前景領域を外接矩形で切り出した画像を前景シルエット画像として生成した場合を検討する。この場合、まずその各外接矩形の座標情報等を受け取り、入力画像から各外接矩形に対応する領域のみを切り出すことで取得される複数の画像に基づいて、第2前景シルエット画像を生成することも可能である。尚、基準となる前景画像を生成する第2抽出部を、基準画像生成部と呼んでもよい。
第3抽出部213は、第1抽出部202と同じ処理を行う。前述の通り、第1抽出部202が画像処理装置100の出力である第1前景シルエット画像204を生成する。これに対し、第3抽出部213は、パラメータ調整部210内で算出したパラメータが適切な値であるかを確認するために、パラメータ更新部216で更新された閾値を使用して第3前景シルエット画像を生成する。尚、基準画像と比較する対象となる比較画像を生成する第3抽出部を、比較画像生成部と呼んでもよい。
高精度抽出部214は、第2前景シルエット画像から、精度の高い前景領域のみを抽出する。例えば、機械学習により前景領域である確率を表す多値画像として第2前景シルエット画像を第2抽出部212が生成した場合、該生成した第2前景シルエット画像に前景領域であるか背景領域であるかが曖昧な確率を示す前景領域が含まれる可能性がある。従って、高精度抽出部214で抽出した精度の高い第2前景シルエット画像を評価部215に渡すことで、正しい評価値を算出することができる。また、第2前景シルエット画像を生成したフレームと同一フレームから生成された第3前景シルエット画像を受け取り、第2前景シルエット画像の精度の高い領域と対応するように、第3前景シルエット画像から前景領域を抽出する処理を行う。精度の高い前景領域を抽出する手法としては、例えば、各画素が前景領域である確率を表す第2前景シルエット画像に基づいてヒストグラムを算出し、確率の高い画素数が一定数を超えた前景領域のみを抽出する手法がある。尚、例えば高精度な前景シルエット画像を生成できる機械学習による前景領域の抽出手法を採用した場合等の、高精度な領域を抽出する必要のない場合、高精度抽出部214は省略可能である。
評価部215は、まず高精度抽出部214で抽出した第2前景シルエット画像と、第3前景シルエット画像とを入力として取り込む。次に、評価部215は、取り込んだ第3前景シルエット画像と、第2前景シルエット画像とに基づいて評価値を算出し、第3抽出部213において、適正な前景領域を抽出できているか否かを評価する。この評価値は、第1抽出部202において背景差分法に使用する閾値を変更するための指標として使用する。評価値として例えば、領域分割の評価指標としてよく用いられるF1score(いわゆるF値)やIoU(Intersection over Union)等を用いることが出来る。
パラメータ更新部216は、前述した評価値に基づいて、第1抽出部202または第3抽出部213に閾値を設定する機能を有する。
図3は、第1抽出部202と第2抽出部212における前景領域の抽出結果としてのイメージ画像を示す。入力画像301には、前景シルエットとして抽出する被写体が映っている。入力画像301を入力として、第2抽出部212の処理により、第2前景シルエット画像302が生成される。同様に、第1抽出部202の処理により、第1前景シルエット画像が生成される。その際に、例えば設定されている閾値が大きすぎると、実際の前景領域を十分に抽出できず画像303のように前景領域が痩せていたり、欠けていたりするような前景シルエット画像が生成さる。一方、閾値が小さすぎると、前景領域を余分に抽出してしまい画像304のように前景領域が太っているような前景シルエット画像が生成される。本実施形態では、第3前景シルエット画像と第2前景シルエット画像とを比較することで、撮像環境の変化に頑健な第2前景シルエット画像に近づけるように第1抽出部202、第3抽出部213で用いられる閾値を更新する。閾値の更新により、画像303や、画像304のような前景シルエット画像より適切な前景シルエット画像を生成することが可能になる。
画像処理装置100は、フレーム毎に入力画像を受信し、第1抽出部202で前景シルエット画像204を生成する。一方で、並列処理としてパラメータ調整部210では、入力部201から任意のフレームで入力画像を取得し、該取得した入力画像を取得部211で保持する。その任意のフレームに対して適切な値となるようにパラメータを調整し、第1抽出部202で用いるパラメータを更新する。
<パラメータ調整部が実行する処理>
図4は、本実施形態に係る画像処理装置100におけるパラメータ調整部210が実行する各処理の流れを示したフローチャートである。本実施形態では、図4の処理を実行する前に、閾値調整用に設定する可能性のある代表的なN個の閾値からなる閾値リストを予め用意しておく。そして、取得部211で保持されている入力画像に対して、第3抽出部213において閾値リストに含まれる値をそれぞれ設定することで、各閾値に対応する第3前景シルエット画像を生成する。生成した第3前景シルエット画像と第2前景シルエット画像とを比較し、最も評価値の高い第3前景シルエット画像を生成した閾値を、パラメータ更新部216は、第1抽出部202に設定する。
ステップS401において、取得部211は、前景領域の検出対象である入力画像を取得する。取得部211は、パラメータ調整部210の処理を行うたびに入力部201から入力画像を受け取り、処理が終わるまでその入力画像を保持しておく。尚、以下では、「ステップS~」を「S~」と略記する。
S402において、第2抽出部212は、S401で取得した入力画像から前景領域を抽出することで、第2前景シルエット画像を生成する。
S403において、高精度抽出部214は、S402で生成した第2前景シルエット画像から精度の高い前景領域のみを抽出する。
S404において、CPU111は、閾値リストに含まれる閾値の中で未処理の閾値を、第3抽出部213に設定する。
S405において、第3抽出部213は、S404で選択的に設定された閾値を用いてS401で取得した入力画像から前景領域を抽出することで、第3前景シルエット画像を生成する。
S406において、高精度抽出部214は、S405で生成した第3前景シルエット画像から、前景領域を抽出する。本ステップでは、高精度抽出部214は、S403で第2前景シルエット画像から抽出した精度の高い前景領域に合わせて、前景領域を抽出する。
S407において、評価部215は、S406での抽出により取得された第3前景シルエット画像とS403での抽出により取得された第2前景シルエット画像とを比較することで、評価値を算出する。
S408において、CPU111は、閾値リストに含まれるN個の閾値を全て第3抽出部213に設定したか判定する。本ステップの判定結果が真の場合、S409に進む一方、該判定結果が偽の場合、S404に戻る。
S409において、パラメータ更新部216は、S407で算出した評価値の中で最も高い値を得られた第3前景シルエット画像を生成した閾値を第1抽出部202に設定する。
尚、S404からS405の処理は、1回目の処理においてはS402からS403の処理と並行して実施してもよい。
図5に、本実施形態における画像処理装置100の適用例500を示す。適用例500には、サッカーのフィールドである前景抽出対象フィールド501の周囲に複数台の撮像装置502が配置され、各撮像装置502に画像処理装置100が接続されている。撮像装置502で撮像した画像は入力画像203として画像処理装置100に入力され、前景シルエット画像204が出力される。本実施形態は例えば、生成された前景シルエット画像204に基づく、3次元モデルの生成や前景テクスチャの抽出を伴う、フィールド内の任意の視点からの仮想視点映像の生成に適用可能である。また、例えば、構内に設置された監視カメラや、遠隔地や屋外に設置された監視カメラなどにおける、危険予測等に使用するための動物体検出等にも、本実施形態を適用可能である。
本実施形態によれば、フレーム毎に前景シルエット画像を生成しながら、任意のフレーム毎にパラメータ調整部110の処理により閾値を更新することで、撮像環境の変化に頑健な前景シルエット画像の生成が可能になる。
[第2の実施形態]
第1の実施形態では、設定する予定のある閾値が保持された閾値リストを予め用意した。そして、この閾値リストに含まれる閾値を夫々第3抽出部に設定し、各閾値を用いて生成された前景シルエット画像の中から最も評価値の高い前景シルエット画像を生成した閾値を、第1抽出部に設定した。
これに対し、本実施形態では、第3前景シルエット画像を、第2前景シルエット画像を基準に評価した結果取得される評価値を用いて、閾値の変化量を算出し、該算出した変化量に従って閾値を更新する。尚、以下では、前述の実施形態と共通する内容の説明は適宜省略し、前述の実施形態と異なる点について主に説明する。
本実施形態における画像処理装置の構成は、第1の実施形態と同様である(図1及び図2参照)。
<パラメータ調整部が実行する処理>
図6は、本実施形態に係る画像処理装置100におけるパラメータ調整部210が実行する各処理の流れを示したフローチャートである。本実施形態では、同一フレームの入力画像において、第3前景シルエット画像の評価結果に基づいて、第1抽出部202の閾値を適切に更新する。
S601において、取得部211は、前景領域の検出対象である入力画像を取得する。取得部211は、パラメータ調整部210の処理を行うたびに入力部201から入力画像を受け取り、処理が終わるまでその入力画像を保持しておく。
S602において、第2抽出部212は、S601で取得した入力画像から前景領域を抽出することで、第2前景シルエット画像を生成する。
S603において、高精度抽出部214は、S602で生成した第2前景シルエット画像から精度の高い前景領域のみを抽出する。
S604において、第3抽出部213は、S601で取得した入力画像から前景領域を抽出することで、第3前景シルエット画像を生成する。第3前景シルエット画像の生成に用いる閾値の初期値として、例えば、S601で受け取るフレームにおける第1前景シルエット画像の生成に用いる閾値を使用してよい。
S605において、高精度抽出部214は、S604で生成した第3前景シルエット画像から、S603で第2前景シルエット画像から抽出した精度の高い前景領域に合わせて、前景領域を抽出する。
S606において、評価部215は、S605での抽出により取得された第3前景シルエット画像とS603での抽出により取得された第2前景シルエット画像とを比較することで、評価値を算出する。
S607において、CPU111は、S606で算出した評価値に基づいて、閾値の変化量を算出する。例えば、第3前景シルエット画像と第2前景シルエット画像との間の前景領域の差が大きければ大きいほど変化量を大きくし、差が少なければ少ないほど変化量を小さくする。また、閾値を変化させる方向は、第3前景シルエット画像において余分な前景領域を抽出していると判定した場合は閾値を上げる方向である。一方、第3前景シルエット画像において必要な前景領域であるのに抽出できていないと判定した場合は閾値を下げる方向である。
S608において、CPU111は、S606で算出した評価値と、基準となる評価値とを比較することで、該算出した値が良い値を示しているか(具体的には、S606で算出した評価値≧基準評価値か)判定する。本ステップの判定結果が真の場合、S611に進む一方、該判定結果が偽の場合、S609に進む。
S609において、CPU111は、S604からS607の繰り返し回数がN回以上か判定する。本ステップの判定結果が真の場合、S611に進む一方、該判定結果が偽の場合、S610に進む。S604からS607の処理を繰り返すことで、より適切な閾値を算出できる。しかし、繰り返し処理を重ねても基準評価値以上の適切な閾値を算出できない場合は、無限ループに陥る可能性がある。そこで、本ステップのように、繰り返し回数の上限を設定しておくことで、無限ループに陥ることなく繰り返し処理を終了することができる。
S610において、パラメータ更新部216は、その時点において第3抽出部213で用いる閾値として設定されている閾値から、S607で算出した変化量だけ変化させた値を、第3抽出部213で新たに用いる閾値として第3抽出部213に設定する。
S611において、パラメータ更新部216は、第1抽出部202で用いる閾値として設定されている閾値から、S607で算出した変化量だけ変化させた値を、第1抽出部202で新たに用いる閾値として第1抽出部202に設定する。
尚、S604の処理は、1回目の処理においてはS602からS603の処理と並行して実施してもよい。
本実施形態によれば、予め設定する閾値リストを準備せずとも、撮像環境の変化に頑健な前景シルエット画像の生成が可能になる。また、第1の実施形態と異なり閾値リスト全ての閾値を設定せずに済むため、第1の実施形態よりもパラメータ調整部210の処理負荷を低減することが可能になる。
[第3の実施形態]
第1の実施形態および第2の実施形態では、第1抽出部202で用いる閾値を更新する前に、第3抽出部213によって第3前景シルエット画像を生成し、該生成された第3前景シルエット画像を用いて、適切な値かの評価を行った。これに対し、本実施形態では、フレーム毎に処理される第1抽出部によって生成された第1前景シルエット画像そのものを、評価に用いる。
<画像処理装置の機能構成>
図7は、本実施形態における画像処理装置700の機能構成(ソフトウェア構成)を示すブロック図である。尚、図2と同じ番号を付与しているモジュールは、第1の実施形態と同様の機能を有するため説明を省略する。
画像処理装置700は、入力部201と、第1抽出部202と、パラメータ調整部710と、を有する。パラメータ調整部710は、取得部711と、第2抽出部212と、高精度抽出部214と、評価部215と、パラメータ更新部216と、を有する。
取得部711は、入力部201からの入力画像、及び、その入力画像に基づき第1抽出部202で生成された第1前景シルエット画像を受け取る機能を有する。
画像処理装置700は、フレーム毎に入力画像を受信し、第1抽出部202で前景シルエット画像204を生成する。一方で、パラメータ調整部710では、任意のフレーム毎に適切なパラメータとなるようにパラメータを調整し、第1抽出部202で用いるパラメータを更新する。
<パラメータ調整部が実行する処理>
図8は、本実施形態に係る画像処理装置700におけるパラメータ調整部710が実行する各処理の流れを示したフローチャートである。
S801において、取得部711は、入力部201から渡された、前景領域の検出対象である入力画像を受け取る。
S802において、取得部711は、S801で取得する入力画像に基づいて、第1抽出部202により生成された第1前景シルエット画像を受け取る。
S803において、第2抽出部212は、S801で取得した入力画像から第2前景領域を抽出することで、第2前景シルエット画像を生成する。
S804において、高精度抽出部214は、S803で生成した第2前景シルエット画像から精度の高い前景領域のみを抽出する。
S805において、高精度抽出部214は、S802で取得した第1前景シルエット画像から、前景領域を抽出する。本ステップでは、高精度抽出部214は、S804で第2前景シルエット画像から抽出した精度の高い前景領域に合わせて、前景領域を抽出する。
S806において、評価部215は、S805での抽出により取得された第1前景シルエット画像と、S804での抽出により取得された第2前景シルエット画像とを比較することで、閾値の変化量を算出するための評価値を算出する。
S807において、CPU111は、S806で算出した評価値と、予め設定されている基準となる評価値とを比較することで、該算出した評価値が良い値を示しているか(具体的には、S806で算出した評価値>基準評価値か)判定する。本ステップの判定結果が真の場合、S808に進む一方、該判定結果が偽の場合、一連の処理は終了する。
S808において、CPU111は、S806で算出した評価値に基づいて、閾値の変化量を算出する。
S809において、パラメータ更新部216は、その時点において第1抽出部202で用いる閾値として設定されている閾値から、S808で算出した変化量だけ変化させた値を、第1抽出部202で新たに用いる閾値として第1抽出部202に設定する。尚、図8のフローを1度実施するだけでは、ステップS809で最適な閾値を設定できるとは限らない。複数のフレームに対して実施することで、第1抽出部に対して最適な閾値を算出、設定することができる。
尚、S802の処理は、S803からS804の処理と並行して実施してもよい。
前述したように、第1の実施形態および第2の実施形態で存在していた第3抽出部における処理が、本実施形態ではなくなっている。従って、パラメータ調整部における処理負荷を低減することが可能になる。
[その他の実施形態]
パラメータ調整部により調整できるものは背景差分法に使用する閾値のみとは限らない。例えば、パラメータ調整部は、生成された前景シルエット画像をさらに実際の前景領域画像に近づけるように加工する際に使用するパラメータも調整可能である。
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。尚、本発明は、前述の実施形態の要素を適宜組み合わせて構成してもよい。
100 画像処理装置
203 入力画像
212 第2抽出部
216 パラメータ更新部

Claims (9)

  1. 学習により撮像画像から前景領域を抽出して、前景の基準画像を生成する第1生成手段と、
    前記撮像画像から前景領域を抽出することにより、前記基準画像と比較するための比較画像を生成する第2生成手段と、
    前記基準画像及び前記比較画像に基づき、前記撮像画像と当該撮像画像に対応する背景画像との差分に基づく前景画像の生成に用いられる閾値を決定する決定手段と、
    決定された前記閾値を用いて、前記撮像画像と前記背景画像との差に基づき、前景画像を生成する第3生成手段と、
    を有し、
    前記第2生成手段は、前記撮像画像と背景画像との差分及び閾値調整にて設定する可能性のある複数の閾値の中から選択的に設定される1つの閾値に基づいて、前記前景領域の抽出を行う、
    ことを特徴とする画像処理装置。
  2. 前記比較画像において適正な前景領域を抽出できているか評価するための評価値を、前記基準画像と前記比較画像とに基づいて算出する第1算出手段を更に有し、
    前記決定手段は、算出された前記評価値に基づいて、前記閾値を決定する、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記第1算出手段は、前記複数の閾値それぞれに対して前記評価値を算出し、
    前記第3生成手段は、前記第1算出手段によって算出された評価値のうち最も高いものに対応する閾値を用いた背景差分法により、前記前景画像を生成する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記基準画像から、精度の高い前景領域を抽出するとともに、前記比較画像から、該抽出した精度の高い前景領域に対応する領域を抽出する抽出手段を更に有し、
    前記第1算出手段は、前記基準画像から抽出された精度の高い前景領域と前記比較画像から抽出された精度の高い前景領域とに基づいて前記評価値を算出することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記基準画像は、各画素値が前景領域である確率を表す多値の多値画像であり、
    前記抽出手段は、前記基準画像に基づいてヒストグラムを取得し、当該取得したヒストグラムに基づき、確率の高い画素数が一定数を超えた前景領域のみを、前記精度の高い前景領域として抽出する、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第3生成手段が前記前景画像の生成に用いる前記閾値、及び、前記第2生成手段が前記比較画像の生成に用いる前記閾値を更新する更新手段を更に有することを特徴とする請求項4乃至5の何れか1項に記載の画像処理装置。
  7. 前記評価値に基づいて、前記第2生成手段が前記比較画像の生成に用いる前記閾値に対する変化量を算出する第2算出手段を更に有し、
    前記更新手段は、前記第2算出手段によって算出された前記変化量に従って、前記第2生成手段が前記比較画像の生成に用いる前記閾値を更新する、
    ことを特徴とする請求項6に記載の画像処理装置。
  8. 学習により撮像画像から前景領域を抽出して、前景の基準画像を生成する第1生成ステップと、
    前記撮像画像から前景領域を抽出することにより、前記基準画像と比較するための比較画像を生成する第2生成ステップと、
    前記基準画像及び前記比較画像に基づき、前記撮像画像と当該撮像画像に対応する背景画像との差分に基づく前景画像の生成に用いられる閾値を決定する決定ステップと、
    決定された前記閾値を用いて、前記撮像画像と前記背景画像との差に基づき、前景画像を生成する第3生成ステップと、
    を含むことを特徴とする画像処理方法。
  9. コンピュータに請求項8に記載の方法を実行させるためのプログラム。
JP2020088126A 2020-05-20 2020-05-20 画像処理装置、画像処理方法、及びプログラム Active JP7475959B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020088126A JP7475959B2 (ja) 2020-05-20 2020-05-20 画像処理装置、画像処理方法、及びプログラム
US17/226,121 US11954865B2 (en) 2020-05-20 2021-04-09 Image processing apparatus, image processing method, and storage medium for foreground extraction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020088126A JP7475959B2 (ja) 2020-05-20 2020-05-20 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2021182320A JP2021182320A (ja) 2021-11-25
JP2021182320A5 JP2021182320A5 (ja) 2023-06-08
JP7475959B2 true JP7475959B2 (ja) 2024-04-30

Family

ID=78606614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020088126A Active JP7475959B2 (ja) 2020-05-20 2020-05-20 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11954865B2 (ja)
JP (1) JP7475959B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7446756B2 (ja) * 2019-10-02 2024-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005485A (ja) 2015-06-10 2017-01-05 住友電気工業株式会社 画像監視装置および画像監視方法
JP2018147329A (ja) 2017-03-07 2018-09-20 株式会社デンソーテン 画像処理装置、画像処理システム、及び画像処理方法
JP2018195119A (ja) 2017-05-18 2018-12-06 住友電装株式会社 異変検出装置及び異変検出方法
JP2019153057A (ja) 2018-03-02 2019-09-12 富士通株式会社 画像処理装置、学習装置、画像処理方法、学習方法、画像処理プログラムおよび学習プログラム
US20190385312A1 (en) 2018-06-14 2019-12-19 Axis Ab Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094943B2 (en) * 2007-09-27 2012-01-10 Behavioral Recognition Systems, Inc. Background-foreground module for video analysis system
CN101686338B (zh) * 2008-09-26 2013-12-25 索尼株式会社 分割视频中的前景和背景的系统和方法
JP2011211628A (ja) * 2010-03-30 2011-10-20 Sony Corp 画像処理装置および方法、並びにプログラム
US9659350B2 (en) * 2014-01-31 2017-05-23 Morpho, Inc. Image processing device and image processing method for image correction, and non-transitory computer readable recording medium thereof
CN110088805B (zh) * 2016-12-20 2023-06-06 柯达阿拉里斯股份有限公司 用于检测和分割多个前景对象的方法
US10706558B2 (en) * 2017-08-04 2020-07-07 Université de Liège Foreground and background detection method
EP3438929B1 (en) * 2017-08-04 2020-07-08 Université de Liège Foreground and background detection method
JP7207957B2 (ja) * 2018-11-07 2023-01-18 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10902608B2 (en) * 2019-05-23 2021-01-26 Microsoft Technology Licensing, Llc Segmentation for holographic images
CN111160099B (zh) * 2019-11-28 2023-03-24 福建省星云大数据应用服务有限公司 一种视频图像目标的智能化分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017005485A (ja) 2015-06-10 2017-01-05 住友電気工業株式会社 画像監視装置および画像監視方法
JP2018147329A (ja) 2017-03-07 2018-09-20 株式会社デンソーテン 画像処理装置、画像処理システム、及び画像処理方法
JP2018195119A (ja) 2017-05-18 2018-12-06 住友電装株式会社 異変検出装置及び異変検出方法
JP2019153057A (ja) 2018-03-02 2019-09-12 富士通株式会社 画像処理装置、学習装置、画像処理方法、学習方法、画像処理プログラムおよび学習プログラム
US20190385312A1 (en) 2018-06-14 2019-12-19 Axis Ab Method, device and system for determining whether pixel positions in an image frame belong to a background or a foreground
JP2020024675A (ja) 2018-06-14 2020-02-13 アクシス アーベー 画像フレームのピクセル位置が背景に属しているか前景に属しているかを判定する方法、デバイスおよびシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZENG, Dongdong et al.,Background Subtraction With Real-Time Semantic Segmentation,IEEE Access [online],IEEE,2019年02月20日,Vol. 7,pp. 153869 - 153884,[検索日 2024.03.08],インターネット,URL:https://ieeexplore.ieee.org/document/8645635

Also Published As

Publication number Publication date
JP2021182320A (ja) 2021-11-25
US20210366129A1 (en) 2021-11-25
US11954865B2 (en) 2024-04-09

Similar Documents

Publication Publication Date Title
CN111507958B (zh) 目标检测方法、检测模型的训练方法及电子设备
JP4915655B2 (ja) 自動追尾装置
US20190156157A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN108833785B (zh) 多视角图像的融合方法、装置、计算机设备和存储介质
CN110793544B (zh) 路侧感知传感器参数标定方法、装置、设备及存储介质
CN112560980B (zh) 目标检测模型的训练方法、装置及终端设备
CN112561978B (zh) 深度估计网络的训练方法、图像的深度估计方法、设备
CN107272899B (zh) 一种基于动态手势的vr交互方法、装置及电子设备
CN110674837A (zh) 视频相似度获取方法、装置、计算机设备及存储介质
JP6817742B2 (ja) 情報処理装置およびその制御方法
CN115578515B (zh) 三维重建模型的训练方法、三维场景渲染方法及装置
CN110706262A (zh) 图像处理方法、装置、设备及存储介质
US11127141B2 (en) Image processing apparatus, image processing method, and a non-transitory computer readable storage medium
CN111524086A (zh) 运动物体检测装置、运动物体检测方法、存储介质
CN110111341B (zh) 图像前景获取方法、装置及设备
JP7475959B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN106323190B (zh) 可定制深度测量范围的深度测量方法及深度图像的系统
CN113439227A (zh) 放大图像的捕获和存储
CN113628259A (zh) 图像的配准处理方法及装置
CN116430069A (zh) 机器视觉流体流速测量方法、装置、计算机设备及存储介质
JP2021026599A (ja) 画像処理システム
CN111866493B (zh) 基于头戴显示设备的图像校正方法、装置及设备
CN110874814A (zh) 一种图像处理方法、图像处理装置及终端设备
US10949713B2 (en) Image analyzing device with object detection using selectable object model and image analyzing method thereof
CN111918049B (zh) 三维成像的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240306

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240417

R150 Certificate of patent or registration of utility model

Ref document number: 7475959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150