JP2022085643A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2022085643A
JP2022085643A JP2020197430A JP2020197430A JP2022085643A JP 2022085643 A JP2022085643 A JP 2022085643A JP 2020197430 A JP2020197430 A JP 2020197430A JP 2020197430 A JP2020197430 A JP 2020197430A JP 2022085643 A JP2022085643 A JP 2022085643A
Authority
JP
Japan
Prior art keywords
image
correction
value
background
foreground
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020197430A
Other languages
English (en)
Other versions
JP2022085643A5 (ja
Inventor
翔平 山内
Shohei Yamauchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020197430A priority Critical patent/JP2022085643A/ja
Priority to US17/530,505 priority patent/US20220172401A1/en
Publication of JP2022085643A publication Critical patent/JP2022085643A/ja
Publication of JP2022085643A5 publication Critical patent/JP2022085643A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

Figure 2022085643000001
【課題】背景差分法によって撮像画像から前景領域を抽出する場合において、より簡便な方法で高精度に前景領域を抽出する画像処理装置、画像処理方法およびプログラムを提供する。
【解決手段】画像処理システムにおいて、画像処理装置は、前景となるオブジェクトを含む撮像画像及びオブジェクトを含まない背景画像を取得する取得手段と、背景画像を補正するためのパラメータを設定する補正パラメータ設定部303と、設定されたパラメータに基づいて、背景画像を構成する画素の画素値を補正する補正処理部302と、補正後の背景画像と撮像画像との差分に基づき、前景となるオブジェクトの領域を撮像画像から抽出する抽出手段と、を有する。
【選択図】図3

Description

本開示の技術は、撮像画像から前景領域を抽出する画像処理技術に関する。
撮像画像から前景領域(人物などの注目するオブジェクトに対応する画像領域)を抽出する技術は様々な目的で使用されており、その手法も様々である。代表的な手法としては背景差分法がある。背景差分法は、入力撮像画像と何らかの方法で取得したその背景画像(注目オブジェクトを含まない画像)とを比較し、対応関係にある画素同士の画素値の差が所定の閾値以上である画素を前景領域として抽出する手法である。この背景差分法では、前景となるオブジェクトの色と背景の色とが類似している場合は、画素値の差が小さくなり、前景領域を精度よく抽出できないという課題がある。この点、特許文献1には、可視光カメラに加えて、不可視光である赤外線を感知可能なカメラと赤外線を照射する照明器具を別途用いることで、前景と背景とで色が同一又は類似していても安定して前景領域を抽出する技術が開示されている。
特開2020-021397号公報
上記特許文献1の技術では、可視光カメラに加えて赤外線等の不可視光を感知・照射するための装置が別途必要になるため、撮像に要する手間が増え、設備も大掛かりになってしまうという問題がある。
本開示は、簡便に適切に撮像画像から前景領域を抽出することを目的とする。
本開示に係る画像処理装置は、前景となるオブジェクトを含む撮像画像及び前記オブジェクトを含まない背景画像を取得する取得手段と、前記背景画像を補正するためのパラメータを設定する設定手段と、前記設定されたパラメータに基づいて、前記背景画像を構成する画素の画素値を補正する補正手段と、前記補正後の背景画像と前記撮像画像との差分に基づき、前記前景となるオブジェクトの領域を前記撮像画像から抽出する抽出手段と、を有することを特徴とする。
本開示の技術によれば、簡便に適切に前景領域を抽出することが可能になる。
(a)は画像処理システムの概略構成を示す図、(b)は画像処理装置のハードウェア構成を示す図。 画像処理システムの主要な機能構成を示すブロック図。 実施形態1に係る、背景生成部の内部構成を示す図。 実施形態1に係る、入力画像から前景シルエット画像を生成する一連の処理の流れを示したフローチャート。 (a)は入力画像の一例を示す図、(b)は背景画像の一例を示す図。 (a)は従来手法による前景シルエット画像の一例を示す図、(b) は実施形態1の手法による前景シルエット画像の一例を示す図。 (a)及び(b)は、入力画像と背景画像との差分についてのヒストグラムの一例を示す図。 実施形態2に係る、背景生成部の内部構成を示す図。 (a)及び(b)は、補正領域の設定を説明する図。 補正値の設定を説明する図。 実施形態2に係る、入力画像から前景シルエット画像を生成する一連の処理の流れを示したフローチャート。 背景画像内の特定画像領域のみが補正された背景画像の一例を示す図。
以下、図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、図示された構成に限定されるものではない。
[実施形態1]
本実施形態では、背景差分法によって撮像画像から前景領域を抽出して、仮想視点画像の生成に必要な前景シルエット画像を生成する場面を適用例として、説明を行うものとする。
まず、仮想視点画像の概要を簡単に説明する。複数の視点で撮像された複数視点の撮像画像を用いて、任意の仮想視点における仮想視点画像を生成する技術がある。例えば、仮想視点画像を用いると、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴閲覧することができるので、通常の画像と比較してユーザに高臨場感を与えることができる。
仮想視点画像を生成する際には、オブジェクト(被写体)の形状を表す前景部分を背景部分から切り離してモデル化した上でレンダリングする処理が行われる。前景をモデル化する際には、複数の撮像装置から見たときのオブジェクトの形状(シルエット)の情報と前景のテクスチャの情報(例えば前景部分の各画素のR、G、Bの色情報)とが必要となる。前景部分を背景部分から切り離す処理は「前景背景分離処理」と呼ばれる。この前景背景分離処理には、前景を含む撮像画像とその背景画像との差分を求め、差分値が所定の閾値以上と判定された画素の集まりである領域を前景領域とする「背景差分法」が一般的に用いられる。本実施形態では、背景差分法において使用する背景画像に対して、前景を含む撮像画像との差分が大きくなるような補正を行うことで、前景領域の抽出精度を高める。
なお、本実施形態では、仮想視点画像を生成するシステムにおいて前景シルエット画像を生成するための前景領域の抽出を例に説明を行うが、本実施形態で開示する前景抽出手法の用途は前景シルエット画像の生成に限定されるものではない。例えば様々な施設内に設置された監視撮像装置や、遠隔地や屋外に設置された監視撮像装置などにおいて、危険予測等に使用するための動物体検出等にも本実施形態の前景抽出手法は有効である。
<システム構成>
図1(a)は、本実施形態の画像処理システム100の概略構成を説明する図である。競技場101では、例えばサッカーなどの競技が行われ、競技場101の中に前景となる人物102が存在しているものとする。前景となるオブジェクトには、例えば選手、監督、または審判等の特定の人物、或いはボールやゴール等のように画像パターンが予め定められている物体が含まれる。また、前景となるオブジェクトは動体であってもよいし、静止体であってもよい。競技場101の周囲には、複数のカメラ画像処理装置103が配置され、競技場101で行われるサッカーの試合等を複数の視点から同期撮像可能なように構成されている。複数のカメラ画像処理装置103それぞれは、撮像機能と画像処理機能を有している。カメラ画像処理装置103同士は、例えばネットワークケーブル104を使ったリング型のネットワーク接続がされており、ネットワークを介して隣のカメラ画像処理装置103へ画像データを順次伝送するように構成されている。つまり、各カメラ画像処理装置103は、受信した画像データと、自身で撮像・処理して得られた画像データとを併せて隣のカメラ画像処理装置103に伝送するように構成されている。そして、各カメラ画像処理装置103において処理された画像データは、最終的に統合画像処理装置105に送られる。統合画像処理装置105では、受信した画像データを用いて、仮想視点画像を生成する処理が行われる。なお、図1(a)に示すシステム構成は一例であって、例えばリング型のネットワーク接続に限定されず、スター型など他の接続形態でもよい。
<ハードウェア構成>
図1(b)は、カメラ画像処理装置103と統合画像処理装置105に共通する、基本的なハードウェア構成を示すブロック図である。画像処理装置103/105は、CPU11、ROM12、RAM13、補助記憶装置14、表示部15、操作部16、通信I/F17、及びバス18を有する。CPU11は、ROM12やRAM13に格納されているコンピュータプログラムやデータを用いて装置全体を制御することで、画像処理装置103/105における各機能を実現する。なお、CPU11とは異なる1又は複数の専用のハードウェアを有し、CPU11による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM12は、変更を必要としないプログラムなどを格納する。RAM13は、補助記憶装置14から供給されるプログラムやデータ、及び通信I/F17を介して外部から供給されるデータなどを一時記憶する。補助記憶装置14は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。表示部15は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像処理装置105を操作するためのGUI(Graphical User Interface)などを表示する。操作部16は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU11に入力する。CPU11は、表示部15を制御する表示制御部、及び操作部16を制御する操作制御部として動作する。通信I/F17は、画像処理装置103/105の外部の装置との通信に用いられる。例えば、外部装置と有線で接続される場合には、通信用のケーブルが通信I/F17に接続される。また、外部装置と無線通信する機能を有する場合には、通信I/F17はアンテナを備える。バス18は、装置内各部を繋いで情報を伝達する。本実施形態では表示部15と操作部16が装置内部に存在するものとして説明したが、表示部15と操作部16との少なくとも一方が装置外部に別の装置として存在していてもよい。また、カメラ画像処理装置103においては表示部15や操作部16は必須の構成ではなく、例えば外部のコントローラ(不図示)から遠隔操作可能なシステム構成であってもよい。
<機能構成>
図2は、本実施形態の画像処理システム100における主要な機能構成を示すブロック図である。カメラ画像処理装置103は、撮像制御部201、画像前処理部202、背景生成部203、前景シルエット生成部204、前景テクスチャ生成部205からなる。統合画像処理装置105は、形状モデル生成部211、仮想視点画像生成部212からなる。以下、カメラ画像処理装置103と統合画像処理装置105を構成する各部について、順に説明する。
まず、カメラ画像処理装置103の内部構成について説明する。撮像制御部201は、不図示の光学系を制御して、所定のフレームレート(例えば60fps)の動画像による撮像を行う。撮像制御部201が内蔵するイメージセンサは可視光域を検知する撮像素子を有している。なお、カラーフィルターの1画素を近赤外線域用に割り当てて、通常のカラー画像(RGB画像)とは別に近赤外線画像を同時に取得可能なイメージセンサであってもよい。この場合、後述の前景背景分離処理をRGBの3チャネルにIR(近赤外光)の1チャネルを加えた4チャネルで行うことができ、より高精度に前景抽出を行うことが可能になる。撮像制御部201によって得られた撮像画像は、画像前処理部202に入力される。画像前処理部202は、入力された撮像画像に対し、現像、歪み補正、振動補正などの前処理を行う。前処理後の撮像画像はフレーム単位で、背景生成部203、前景シルエット生成部204及び前景テクスチャ生成部205にそれぞれ入力される。なお、これら各部にフレーム単位で入力される前処理後の撮像画像を、以下では、「入力画像」と呼ぶこととする。背景生成部203は、画像前処理部202からの入力画像を基に背景画像を生成する。この際、生成した背景画像に対して所定の補正処理を行うが、その詳細については後述する。前景シルエット生成部204は、画像前処理部202からの入力画像と背景生成部203からの背景画像とを用いて、背景差分法による前景背景分離処理を行って、前景シルエット画像を生成する。なお、前景シルエット画像は、「前景マスク」とも呼ばれる。生成された前景シルエット画像のデータは、前景テクスチャ生成部205に入力される。前景テクスチャ生成部205は、画像前処理部202からの入力画像から前景のシルエットに相当する部分の色情報を抽出して、前景テクスチャを生成する。そして、上記のようにして得られた前景シルエット画像と前景テクスチャを一まとめにした画像データ210(以下、「カメラ画像データ」と呼ぶ)が、全てのカメラ画像処理装置103から順次送信され、統合画像処理装置105に集約される。
次に、統合画像処理装置105の内部構成について説明する。形状モデル生成部211は、受信した各カメラ画像処理103に対応するカメラ画像データ210に含まれる前景シルエット画像を基に、オブジェクトの三次元形状を表す形状データ(以下、「形状モデル」と呼ぶ。)を生成する。仮想視点画像生成部212は、仮想的な視点位置や姿勢の情報に従って、形状モデルに対し前景テクスチャを貼り付けて色付けし、背景画像と合成することにより、仮想視点からの見えを表す仮想視点画像を生成する。
上述した各機能部は、ASICやFPGAの内部に実装されている。或いは、CPU11がROM12等に記憶されたプログラムをRAM13に読み出して実行することで、CPU11が図2に示す各部として機能する形態でもよい。すなわち、カメラ画像処理装置103及び統合画像処理装置105は、ソフトウェアのモジュールとして図2に示す各機能モジュールを実現してもよい。
<背景生成部の詳細>
次に、背景生成部203が行う処理について詳しく説明する。図3は、本実施形態に係る背景生成部203の内部構成を示す機能ブロック図である。図3に示す通り、背景生成部203は、背景領域抽出部301、補正処理部302及び補正パラメータ設定部303を有する。以下、各機能部について説明する。
背景領域抽出部301は、入力画像から背景領域を抽出して、ベースとなる背景画像を生成する。背景領域の抽出方法としては、時系列に並ぶ複数枚の入力画像から静止している領域を背景領域として抽出する手法(フレーム間差分法)がある。具体的には、入力されるn番目のフレームと、その一つ前の(n-1)番目のフレームの画像情報との差分を取り、その差分がある一定値を越えた場合に動きのある領域とし、それ以外の領域を静止している領域と判定して、背景領域を抽出する。この手法は、隣接する2つのフレーム間で、画角が固定された状態で、撮像された時間だけが僅かに異なっていることから、両フレーム間の差分が閾値以下の画素領域を背景領域と見做すものである。抽出された背景領域を示す画像は、後述の補正処理の対象となるベースの背景画像として、補正処理部302に入力される。
補正処理部302は、背景領域抽出部301で生成された背景画像に対し、前景領域がより精度良く抽出できるようにするための補正処理を行う。本実施形態では、背景画像に含まれる色の色相を変化させる処理を、補正処理として行う。一般に色相は0度~360度の範囲で与えられ、0度と360度が赤、60度が黄、120度が緑、180度がシアン、240度が青、300度がマゼンタを表す。本実施形態では、入力された背景画像に含まれる各色について、その色相角度を所定角度(例えば10度)の分だけプラス或いはマイナス方向にずらす(オフセットを掛ける)処理を行う。いま、入力画像の各画素はRGB値を持っており、当該入力画像から生成される背景画像の各画素もRGB値を持つ。そこで、補正処理部302は、背景画像に含まれる色の色相を補正するため、先ず、背景画像の色空間をRGBからHSVへ変換する。具体的には、以下の式(1)~式(3)を用いて、各画素の色相Hを求める。
min(R,G,B)=B のとき、
H=(G-R)/S×60+60 式(1)
min(R,G,B)=R のとき、
H=(B-G)/S×60+180 式(2)
min(R,G,B)=G のとき、
H=(R-B)/S×60+300 式(3)
上記式(1)~(3)においてSは彩度を表し、以下の式(4)により求められる。
S=max(R,G,B)-min(R,G,B) 式(4)
そして、背景画像を構成する各画素について、その色相を表す成分値である色相角度に上記所定角度の値を加算(或いは減算)して、新たな色相Hを算出する。こうして、各画素の色相を補正したら、上記変換式の逆算(逆変換)によって今度はRGB色空間の画素値へと戻す。これにより、背景画像に含まれる色の色相が変更された新たな背景画像が得られる。
補正パラメータ設定部303は、補正処理部302において実行される上述のオフセットを掛ける補正処理のためのオフセット値を、補正パラメータとして設定する。背景画像に含まれる色の色相を変化させる本実施形態の場合、補正パラメータ設定部303は、色相の変化量を規定する上述の所定角度をオフセット値として設定し、補正パラメータとして補正処理部302に提供する。いま、オフセット値として例えば「+10度」が設定されたとする。この場合、背景画像内の黄緑色の画素については、その色相角度「90度」に対してプラス方向に10度だけずれる結果、青の色味が増えることになる。もしオフセット値が「-10度」であれば、「90度」に対してマイナス方向に10度だけずれることになり、黄の色味が増えることになる。設定されるオフセット値はユーザ入力に基づいて、具体的には、不図示のユーザインタフェース画面等を介して、ユーザが主要なオブジェクトの色などを考慮して指定する。なお、オフセット値が大きすぎると、後述の前景領域抽出処理において本来は背景となるべき部分を前景領域として誤抽出してしまう可能性が高まるので留意が必要である。
以上のような処理によって、本実施形態では、ベースの背景画像内の特定の色が補正されて、新たな背景画像が生成されることになる。
(背景生成部及び前景シルエット生成部の処理)
図4は、本実施形態のカメラ画像処理装置103における、入力画像から前景シルエット画像を生成する一連の処理の流れを示したフローチャートである。以下、図4のフローチャートに沿って詳しく説明する。なお、記号「S」はステップを意味する。
S401では、背景生成部203の補正処理部302が、補正パラメータ設定部303によって設定された補正パラメータ(本実施形態では、オフセット値)を取得する。この際には、予め設定・保存されたオフセット値の情報を補助記憶装置14等から読み込むことで取得する。或いは、補正パラメータ設定用UI画面(不図示)を表示部15に表示させ、当該UI画面を介して入力された所定角度の値を補正パラメータ設定部303がまず設定し、その後に当該設定されたオフセット値の情報を取得するようにしてもよい。
S402では、背景生成部203と前景シルエット生成部204が、画像前処理が済んだ動画像のうち注目するフレームの画像(入力画像)を取得する。
S403では、背景生成部203内の背景領域抽出部301が、注目フレームの入力画像から、前述した方法にて背景画像を生成する。生成された背景画像のデータは、補正処理部302に入力される。
S404では、背景生成部201内の補正処理部302が、入力された背景画像に対し、S401で取得した補正パラメータに基づいて補正処理を行う。前述のとおり本実施形態では、背景画像に含まれる色の色相を、予め設定されたオフセット値の分だけ変化させる処理が補正処理として実行される。この補正処理によって得られた、各画素の色の色相が変更された背景画像(以下、「補正背景画像」と呼ぶ。)のデータは、前景シルエット生成部204に入力される。
S405では、前景シルエット生成部204が、S404で生成された補正背景画像を用いて、S401で取得した注目フレームの入力画像における前景領域を背景差分法により抽出して、前景シルエット画像を生成する。前景シルエット画像は、抽出された前景領域を「1」、それ以外の背景領域を「0」で表現した2値画像である。前景領域の抽出においては、まず注目フレームの入力画像と補正背景画像との差分diffを求める。ここで、差分diffは、以下の式(1)で表される。
Figure 2022085643000002
上記式(1)において、(Rin、Gin、Bin)は入力画像における画素値を表し、(Rbg、Gbg、Bbg)は補正背景画像における画素値を表す。また、KR、KG、KBはR成分、G成分、B成分それぞれの差分の重みを表す。
注目フレームの入力画像と補正背景画像との差分diffを求めると、次に、所定の閾値THを用いて2値化処理を行う。これにより、前景領域を白(1)、背景領域を黒(0)で表した前景シルエット画像が得られる。なお、前景シルエット画像は、入力画像と同じサイズ(同じ解像度)でもよいし、抽出した前景領域の外接矩形の部分だけを入力画像から切り出した部分画像でもよい。生成された前景シルエット画像のデータは、前景テクスチャ生成部205に入力されると共に、カメラ画像データの一部として形状モデル生成部211に送られることになる。
S406では、処理対象の動画像を構成する全てのフレームについての処理が完了したか否かが判定される。全てのフレームの処理が完了していない場合はS402に戻って次の注目フレームの入力画像を取得して処理を続行する。一方、全てのフレームの処理が完了していた場合は、本処理を終了する。
以上が、本実施形態における、入力画像から前景シルエット画像を生成するまでの処理の流れである。なお、本実施形態では、注目フレームの入力画像を背景生成部203と前景シルエット生成部204がフレーム単位で画像前処理部202から順次取得するものとして説明を行ったがこれに限定されない。例えば、処理対象となる動画像の全フレーム分のデータを背景生成部203と前景シルエット生成部204がそれぞれ取得し、それぞれがフレーム単位での処理を同期して行ってもよい。
ここで、本実施形態の手法によって得られる前景シルエット画像について、従来技術と比較して、その違い・効果を説明する。
図5(a)は人物オブジェクト501が映っている注目フレームの入力画像を示し、同(b)は当該注目フレームの背景画像を示している。この場合おいて、前景である人物501が着ている服の星形マーク502の色と、背景である床503の色が似ているものとする。図6(a)及び(b)は、図5(a)の入力画像と同(b)の背景画像とに基づき得られた前景シルエット画像を示し、図6(a)が従来手法、図6(b)が本実施形態の手法に対応している。図6(a)に示す前景シルエット画像では、人物501のシルエット部分601が前景を表す白画素、それ以外の部分602が背景を表す黒画素となっている一方で、星形マーク502に対応する部分603も黒画素になっている。これは、服の模様である星形マーク502と背景である床503の色合いが似ていたためにその差分diffが、2値化処理のための閾値THを超えず、星形マーク502の部分が背景領域と判断されてしまったことが原因である。図7(a)は、従来手法に係る図6(a)の前景シルエット画像生成時の2値化処理を説明する図であり、図5(a)におけるA-A’断面のx座標を横軸、その差分diffの値を縦軸にとったヒストグラムである。星形マーク502に対応する部分の差分diffの値が閾値THを超えていないことが分かる。
一方、本実施形態に係る図6(b)に示す前景シルエット画像では、星形マーク502に対応する部分を含めた人物501のシルエット全体611が、前景領域を表す白画素、それ以外の部分612が黒画素になっている。そして、図7(b)は、本実施形態に係る図6(b)の前景シルエット画像生成時の2値化処理を説明するヒストグラムである。上記図7(a)に示す従来手法のヒストグラムと異なり、星形マーク502に対応する部分の差分diffの値も閾値THを超えていることが分かる。このように本実施形態の手法では、背景画像への補正処理によって、入力画像と背景画像との差分diffが閾値THを超える程度まで大きくなり、背景と色合いが似ている星形マーク502の部分についても前景領域として抽出できるようになる。
<変形例>
本実施形態では背景画像の生成を毎フレーム行っているが、必ずしも毎フレーム生成する必要はない。例えば屋内で行われるスポーツの試合など、日照による背景変化が起きないような撮像シーンでは、固定された背景画像を用いてもよい。固定された背景画像は、例えば前景のオブジェクトが存在しない状態(例えば試合の開始前)で撮像することで得ることができる。
また、本実施形態の補正処理では、背景画像の色空間をRGBからHSVに変換して色相Hにオフセットを掛けているが、補正処理の内容はこれに限定されない。例えばRGB色空間のまま各成分値(或いはRGBのうち1つ又は2つの成分値)にオフセットを掛けてもよい。また、HSV以外の他の色空間、例えばYUVに変換して輝度Yにオフセットを掛けてもよい。
以上のとおり本実施形態によれば、背景画像に対し補正処理を行うことで、入力画像内の前景となるオブジェクトの色と背景の色とが似ていても、大きな差分diffを得られるようになる。その結果、前景背景分離のための2値化処理において前景領域の一部が背景であると判断されるような誤判定が起きにくくなり、適切に前景領域を抽出することが可能になる。
[実施形態2]
実施形態1の手法では、背景画像の全体が、予め定めた補正値で一律に補正されることになる。しかしながら、固定された補正値で背景画像全体を補正する手法の場合、実際には背景を構成する画素であるにも関わらず補正によって入力画像との差分値が却って大きくなり、誤って前景領域として抽出されてしまうという可能性がある。また、例えば専用スタジオにていわゆるクロマキー撮像を行うようなケースでは、例えばオブジェクトの一部にグリーンバッグやブルーバッグの色が反射して映り込んでしまうことがある。このような場合、入力画像内の前景領域のうち当該映り込みが生じている部分について誤って背景領域として抽出されないようにするには、背景画像の全体を固定された補正値で一律に補正する手法では対応が困難である。そこで、補正処理の対象となる領域(補正領域)と補正値を適応的に決定して、背景画像内の必要な領域だけを対象として補正を行う態様を、実施形態2として説明する。なお、基本のシステム構成など実施形態1と共通する内容については説明を省略ないしは簡略化し、以下では差異点である、背景画像に対する補正処理を中心に説明を行うこととする。
<背景生成部の詳細>
図8は、本実施形態に係る背景生成部203の内部構成を示す機能ブロック図である。図8に示す通り、背景生成部203の構成要素は実施形態1と基本的には同じであり、背景領域抽出部301、補正処理部302’及び補正パラメータ設定部303’を有する。実施形態1と大きく異なるのは、補正処理部302’において背景画像を限定的に補正するために必要となる、補正領域を特定するための情報が、補正パラメータとして設定される点である。以下、各機能部について、実施形態1と異なるところを中心に説明する。
背景領域抽出部301は、実施形態1と同様、入力画像から背景領域を抽出して、ベースとなる背景画像を生成する。但し、本実施形態では、生成された背景画像は、補正処理部302に加えて、補正パラメータ設定部303’にも入力される。
補正処理部302’は、背景領域抽出部301で生成された背景画像に対し、補正パラメータ設定部303’が設定した補正パラメータに基づき、背景画像内の一部の画像領域を対象として補正処理を行う。なお、本実施形態では、背景画像に対して色空間の変換を行わず、RGB色空間のまま補正処理を行う場合を例に説明を行うものとする。
補正パラメータ設定部303’は、背景画像内の補正領域と補正値を適応的に決定し、補正処理部302’に補正パラメータとして提供する。ここで、補正領域の設定と補正値の設定とを分けて説明する。
≪補正領域の設定≫
補正領域は、例えば空間情報を用いて設定する。ここで、空間情報とは、例えばマスク画像やROI(Region of Interest)などを指す。マスク画像の場合は白(又は黒)画素の領域によって、背景画像内の補正領域が表現される。ROIの場合は、座標位置(x,y)、対象とする画像領域の幅(w)や高さ(h)といった要素によって、背景画像内の補正領域が表現される。ここで、マスク画像によって補正領域を表現する場合の補正領域の決定方法について、前述した図5(a)の入力画像と同(b)の背景画像の場合を例に説明する。図5(b)に示す背景画像において補正処理が必要となる領域は、前景(ここでは人物オブジェクト501)と色合いが似ていて誤抽出の虞がある領域である。そこでまず、図5(a)に示す入力画像と図5(b)に示す背景画像との差分diffを、前述の式(1)を用いて求める。図9(a)は、求めた差分diffについてのヒストグラムであり、縦軸が画素数を、横軸が差分値を表している。そして、図9(a)のヒストグラムには、差分値に対する2つの閾値(THlowとTHhigh)が示されている。この2つの閾値は、前景と背景との異同、例えば前景となる人物が背景と似た色の服を着ているといった現状に着目して、ユーザが不図示のUI画面などを介して設定する。ユーザによって設定された2つの閾値に基づき、差分値が0から閾値THlowまでの範囲901が、背景である確率が高い領域となる。同様に、差分値がTHlowからTHhighまでの範囲902が、前景であるか背景であるかが曖昧な領域となる。また、差分値がTHhighを超えた範囲903が、前景である確率が高い領域となる。そして、図9(b)は、上記2つの閾値THlowとTHhighによって分離される上記3種類の画像領域を、それぞれ白、グレー、黒の3種類の画素で表した図である。図9(b)において、白画素領域911が前景の範囲903に対応し、人物オブジェクト501の縁部と星形マーク502の2箇所あるグレー画素領域912が曖昧な範囲902に対応し、黒画素領域913が背景の範囲901に対応している。最後に、上記2つの閾値を用いた閾値処理によって得られた2か所のグレー画素領域912を補正領域として決定し、当該決定した補正領域を白画素、それ以外の領域を黒画素で示したマスク画像(以下、「補正領域マスク」と呼ぶ。)を生成すればよい。この補正領域マスクを用いることで、背景画像のうち前景オブジェクトと色合いが似ている画像領域のみを対象とした限定的な補正処理が可能になる。
≪補正値の設定≫
補正値については、上記2つの閾値THlowとTHhighを用いた演算処理によって得たオフセット値を設定する。RGB色空間のまま補正処理を行う本実施形態では、RGB各成分のオフセット値(Rn,Gn,Bn)を、例えば、以下の式(2)或いは式(3)と、RGBそれぞれの重みWによって求める。
Figure 2022085643000003
Figure 2022085643000004
この場合おいて重みWは、例えば各成分について均等に(Rn:Gn:Bn)=(1:1:1)のように予め決めておけばよい。いま、上記2つの閾値がそれぞれTHlow=50、THhigh=30であって、上記式(3)を適用したとする。この場合、およそ前景らしい画像領域の範囲は、差分diffの値が“40”から“50”までの範囲となり、上記式(3)により
Figure 2022085643000005
の値は“10”となる。そして、重みWは各成分について均等であるため、オフセット値(Rn,Gn,Bn)=(3,3,3)に決定されることになる。
ここで、上記式(2)や式(3)によってオフセット値を決定することの意味について確認しておく。図10は、あるフレームfの入力画像とその背景画像との差分diffについてのヒストグラムであり、図9(a)のヒストグラムと同様、縦軸が画素数を、横軸が差分値を表している。前述のとおり、予め設定等された2つの閾値(THhighとTHlow)によって挟まれた範囲1000に対応する画像領域が、前景か背景かが曖昧な画像領域(中間領域)となる。そして、この中間領域には背景と判断すべき画像領域と前景と判断すべき画像領域の両方が含まれており、そのうち前景と判断すべき画像領域は、範囲1000のうち閾値THhighにより近い側にあると推測される。そこで、例えば上記式(2)を用いることで、上述の挟まれた範囲1000のうち上位半分の範囲1001に相当する画像領域を前景として抽出できるようなオフセット値を決定している。
(背景生成部及び前景シルエット生成部の処理)
図11は、本実施形態のカメラ画像処理装置103における、入力画像から前景シルエット画像を生成する一連の処理の流れを示したフローチャートである。以下、図11のフローチャートに沿って詳しく説明する。なお、記号「S」はステップを意味する。
S1101では、背景生成部203の補正パラメータ設定部303’が、予め設定された2つの閾値(THlowとTHhigh)を用いて、補正パラメータとしてのオフセット値を上述の手法で決定する。なお、2つの閾値(THlowとTHhigh)については、補助記憶装置14等に保存しておいたものを読み出すなどすればよい。決定したオフセット値の情報は、RAM13に保持される。
次のS1102では、実施形態1の図4のフローにおけるS402と同様、背景生成部203と前景シルエット生成部204が、処理対象の注目フレームの入力画像を取得する。本実施形態の場合、背景生成部203が取得した入力画像のデータは、背景領域抽出部301に加え、補正パラメータ設定部303’にも送られることになる。
S1103では、背景生成部203内の背景領域抽出部301が、注目フレームの入力画像を用いて背景画像を生成する。生成された背景画像のデータは、補正処理部302’に入力される。
S1104では、補正パラメータ設定部303’が、S1103で生成された背景画像と上記注目フレームの入力画像とを用いて、前述した補正領域マスクを生成する。
S1105では、補正処理部302’が、S1103で生成された背景画像のうち注目する画素を決定し、当該注目画素の位置が、S1104で生成された補正領域マスクが示すマスク領域(白画素領域)内かどうかを判定する。判定の結果、注目画素の位置がマスク領域内であればS1106に進む。一方、注目画素の位置がマスク領域外であれば、S1106をスキップしてS1107に進む。
S1106では、補正処理部302’が、背景画像内の注目画素の画素値を、S1101で決定されたオフセット値を用いて補正する。RGB色空間のまま補正処理を行う本実施形態の場合、注目画素の位置(x,y)の画素値(R,G,B)にオフセット値(Rn,Gn,Bn)を加算する処理が実行される。例えば、オフセット値が(Rn,Gn,Bn)=(3,3,3)であって、注目画素の画素値が(R,G,B)=(100,100,50)であったとする。この場合、補正後の背景画像における注目画素の画素値は、(R,G,B)=(103,103,53)となる。なお、オフセットを掛けられればよいので、加算する処理に代えて減算する処理を行ってもよい。
S1107では、補正処理部302’が、S1103で生成された背景画像内のすべての画素についてS1105の判定処理が完了したか否かを判定する。未処理の画素があればS1105に戻って次の注目画素を決定して処理を続行する。一方、背景画像内の全画素について処理が完了していれば、S1108に進む。
S1108では、実施形態1の図4のフローにおけるS405と同様、前景シルエット生成部204が、上記補正処理によって補正された背景画像を用いて、注目フレームの入力画像における前景領域を抽出して前景シルエット画像を生成する。図12は、前述の図9(b)に対応する、特定の補正領域だけを対象に補正処理を施した背景画像を示している。図5(b)に示す補正前の背景画像と比較すると、図9(b)におけるグレー領域912に対応する領域1201(すなわち、人物オブジェクト501の縁部と星形マーク502の部分)が、補正処理によって変化しているのが分かる。
S1109では、実施形態1の図4のフローにおけるS406と同様、処理対象の動画像を構成する全てのフレームについての処理が完了したか否かが判定される。全てのフレームの処理が完了していない場合はS1102に戻って次の注目するフレームを決定して処理を続行する。一方、全てのフレームの処理が完了していた場合は、本処理を終了する。
以上が、本実施形態における、入力画像から前景シルエット画像を生成するまでの処理の流れである。上述のような処理によって、背景画像のうち特定の画像領域に属する画素の画素値に対してのみ補正処理が実行されることになる。
<変形例>
上記説明では、補正領域の特定に空間情報を用いたが、色空間情報を用いてもよい。例えば、HSV色空間における色相Hの最小値と最大値を指定したり、RGB色空間におけるRGB各成分値の最小値と最大値を指定したりといった具合である。これにより、指定された範囲の色相やRGB値を持つ画素で構成される画像領域を補正領域として特定することができる。例えば、ラグビーやサッカーの試合を対象に撮像を行う場合において、選手のユニフォームの色と背景である芝生の色とが類似しているようなケースでは、このような手法が有効である。HSV色空間を用いる場合であれば、色相Hの下限をHmin=100度、上限をHmax=140度のように芝生の色周辺の色相範囲を指定すればよい。このように色空間情報を用いることでも、背景画像のうち前景であるか背景であるかが曖昧な画像領域だけを補正領域として設定することができる。
また、補正方法として、オフセットを掛ける処理に代えて、指定された範囲の画像領域に含まれる各画素を特定の色で塗り潰したり、或いはその周辺領域の画素の色に合わせるといった処理を行ってもよい。
上記のとおり本実施形態の場合、一定の条件を満たす画像領域のみを補正した背景画像に基づき前景抽出処理が行われる。これにより、実際には背景の領域を誤って前景領域として抽出したり、その逆に実際には前景の領域を誤って背景として扱ったりといった誤抽出をより効果的に抑制することができる。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
103 カメラ画像処理装置
203 背景生成部
302 補正処理部
303 補正パラメータ設定部

Claims (21)

  1. 前景となるオブジェクトを含む撮像画像及び前記オブジェクトを含まない背景画像を取得する取得手段と、
    前記背景画像を補正するためのパラメータを設定する設定手段と、
    前記設定されたパラメータに基づいて、前記背景画像を構成する画素の画素値を補正する補正手段と、
    前記補正後の背景画像と前記撮像画像との差分に基づき、前記前景となるオブジェクトの領域を前記撮像画像から抽出する抽出手段と、
    を有することを特徴とする画像処理装置。
  2. 前記設定手段は、前記画素値をどのように変化させるかを規定する補正値を、前記パラメータとして設定し、
    前記補正手段は、前記補正値に基づいて、前記補正処理を行う、
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記補正は、ある色空間に従った成分値にオフセットを掛ける処理であり、
    前記設定手段は、前記補正値として、オフセット値を設定する、
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記補正手段は、
    前記背景画像における第1の色空間を、当該第1の色空間とは異なる第2の色空間に変換し、
    前記第2の色空間に従った成分値に対し、前記オフセットを掛ける処理を行う、
    ことを特徴とする請求項3に記載の画像処理装置。
  5. 前記第1の色空間は、RGBであり、
    前記第2の色空間は、HSVであり、
    前記設定手段は、前記HSVの成分値のうち色相を表す成分値についてのオフセット値を設定し、
    前記補正手段は、色空間がHSVに変換された前記背景画像を構成する画素の成分値のうち前記色相を表す成分値に対し前記オフセット値を加算又は減算する処理を行う、
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記第1の色空間は、RGBであり、
    前記第2の色空間は、YUVであり、
    前記設定手段は、前記YUVの成分値のうち輝度を表す成分値についてのオフセット値を設定し、
    前記補正手段は、色空間がYUVに変換された前記背景画像を構成する画素の成分値のうち前記輝度を表す成分値に対し前記オフセット値を加算又は減算する処理を行う、
    ことを特徴とする請求項4に記載の画像処理装置。
  7. ユーザが、前記補正値を指定するためのユーザインタフェースをさらに備え、
    前記設定手段は、前記ユーザインタフェースを介したユーザ入力に基づいて、前記補正値を設定する、
    ことを特徴とする請求項2乃至6のいずれか1項に記載の画像処理装置。
  8. 前記補正手段は、前記背景画像のうち特定の画像領域に属する画素の画素値に対して前記補正を行なう、
    ことを特徴とする請求項2乃至7のいずれか1項に記載の画像処理装置。
  9. 前記設定手段は、前記特定の画像領域を規定する空間情報を前記パラメータとして設定することを特徴とする請求項8に記載の画像処理装置。
  10. 前記空間情報は、前記特定の画像領域とそれ以外の画像領域を2値で表現したマスク画像であることを特徴とする請求項9に記載の画像処理装置。
  11. 前記設定手段は、
    前記背景画像のうち、前記撮像画像と前記背景画像との差分に基づき、2つの閾値を用いた閾値処理を行って前景であるか背景であるかが曖昧な画像領域を決定し、
    前記決定された画像領域を前記特定の画像領域として前記マスク画像を生成する、
    ことを特徴とする請求項10に記載の画像処理装置。
  12. 前記設定手段は、前記特定の画像領域を規定する色空間情報を前記パラメータとして設定することを特徴とする請求項8に記載の画像処理装置。
  13. 前記色空間情報は、所定の色空間に従った成分値についての最小値と最大値の情報であり、
    前記特定の画像領域は、前記最小値と前記最大値とで挟まれた範囲の成分値を持つ画素で構成される、
    ことを特徴とする請求項12に記載の画像処理装置。
  14. 前記所定の色空間に従った成分値は、HSV色空間における色相を表す成分値、またはRGB色空間におけるRGB値であることを特徴とする請求項13に記載の画像処理装置。
  15. 前記設定手段は、前記2つの閾値を用いた演算処理によって得た値を、前記補正値として設定することを特徴とする請求項11に記載の画像処理装置。
  16. 前記補正は、前記特定の画像領域に属する各画素の画素値を、別の色を表す画素値に置き換える処理であり、
    前記設定手段は、前記別の色を規定する色情報を、前記パラメータとして設定する、
    ことを特徴とする請求項8乃至14のいずれか1項に記載の画像処理装置。
  17. ユーザが、前記別の色を指定するためのユーザインタフェースをさらに備え、
    前記設定手段は、前記ユーザインタフェースを介したユーザ入力に基づいて、前記色情報を設定する、
    ことを特徴とする請求項16に記載の画像処理装置。
  18. 前記補正は、前記特定の画像領域に属する各画素の画素値を、当該特定の画像領域の周辺領域に属する画素の画素値に合わせる処理である、ことを特徴とする請求項8乃至14のいずれか1項に記載の画像処理装置。
  19. 前記抽出手段で抽出された前景領域に基づき、前記オブジェクトの形状を表す前景シルエット画像を生成する生成手段をさらに備えたことを特徴とする請求項1乃至18のいずれか1項に記載の画像処理装置。
  20. 前景となるオブジェクトを含む撮像画像及び前記オブジェクトを含まない背景画像を取得する取得ステップと、
    前記背景画像を補正するためのパラメータを設定する設定ステップと、
    前記設定されたパラメータに基づいて、前記背景画像を構成する画素の画素値を補正する補正ステップと、
    前記補正後の背景画像と前記撮像画像との差分に基づき、前記前景となるオブジェクトの領域を前記撮像画像から抽出する抽出ステップと、
    を有することを特徴とする画像処理方法。
  21. コンピュータを、請求項1乃至19のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2020197430A 2020-11-27 2020-11-27 画像処理装置、画像処理方法及びプログラム Pending JP2022085643A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020197430A JP2022085643A (ja) 2020-11-27 2020-11-27 画像処理装置、画像処理方法及びプログラム
US17/530,505 US20220172401A1 (en) 2020-11-27 2021-11-19 Image processing apparatus, image generation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020197430A JP2022085643A (ja) 2020-11-27 2020-11-27 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2022085643A true JP2022085643A (ja) 2022-06-08
JP2022085643A5 JP2022085643A5 (ja) 2023-12-05

Family

ID=81752822

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020197430A Pending JP2022085643A (ja) 2020-11-27 2020-11-27 画像処理装置、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20220172401A1 (ja)
JP (1) JP2022085643A (ja)

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116323B2 (en) * 1998-05-27 2006-10-03 In-Three, Inc. Method of hidden surface reconstruction for creating accurate three-dimensional images converted from two-dimensional images
US6912313B2 (en) * 2001-05-31 2005-06-28 Sharp Laboratories Of America, Inc. Image background replacement method
US7085413B2 (en) * 2003-04-04 2006-08-01 Good News Enterprises Limited Image background detection and removal
KR100834638B1 (ko) * 2006-10-13 2008-06-02 삼성전자주식회사 영상 투사기의 영상 색상 조절 방법 및 그 장치
US7970206B2 (en) * 2006-12-13 2011-06-28 Adobe Systems Incorporated Method and system for dynamic, luminance-based color contrasting in a region of interest in a graphic image
US7853074B2 (en) * 2007-02-26 2010-12-14 Eastman Kodak Company Multi-color dropout for scanned document
US20100035682A1 (en) * 2008-07-01 2010-02-11 Yoostar Entertainment Group, Inc. User interface systems and methods for interactive video systems
US8059892B1 (en) * 2008-10-01 2011-11-15 Hewlett-Packard Development Company, L.P. Image enhancement method and apparatus
JP5051156B2 (ja) * 2009-03-05 2012-10-17 カシオ計算機株式会社 画像処理装置及びプログラム
US8515134B2 (en) * 2009-12-11 2013-08-20 Nxp B.V. System and method for motion estimation using image depth information
US20130301918A1 (en) * 2012-05-08 2013-11-14 Videostir Ltd. System, platform, application and method for automated video foreground and/or background replacement
JP6040838B2 (ja) * 2012-08-29 2016-12-07 株式会社Jvcケンウッド デプス推定装置、デプス推定方法、デプス推定プログラム、画像処理装置、画像処理方法及び画像処理プログラム
US9191643B2 (en) * 2013-04-15 2015-11-17 Microsoft Technology Licensing, Llc Mixing infrared and color component data point clouds
US9286508B2 (en) * 2013-07-25 2016-03-15 Morphotrust Usa, Llc System and method for creating a virtual backdrop
US20160019698A1 (en) * 2014-07-21 2016-01-21 Florida Atlantic University Systems and methods for people counting in sequential images
KR102372711B1 (ko) * 2015-10-13 2022-03-17 삼성전자주식회사 영상 촬영 장치 및 이의 제어 방법
WO2018129104A1 (en) * 2017-01-03 2018-07-12 Owlii Inc. Processing holographic videos
JP2020129276A (ja) * 2019-02-08 2020-08-27 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP7391542B2 (ja) * 2019-06-04 2023-12-05 キヤノン株式会社 画像処理システム、画像処理方法、およびプログラム
JP7520539B2 (ja) * 2020-03-19 2024-07-23 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2023013538A (ja) * 2021-07-16 2023-01-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US20220172401A1 (en) 2022-06-02

Similar Documents

Publication Publication Date Title
RU2718413C2 (ru) Устройство обработки информации, устройство формирования изображений, способы управления для них и энергонезависимый машиночитаемый носитель хранения данных
US8781249B2 (en) Image processing apparatus and image processing method
TWI767985B (zh) 用於處理影像性質圖的方法及裝置
US10055815B2 (en) Image processing apparatus, image processing system, imaging apparatus and image processing method
US20180232943A1 (en) System and method for generating a virtual viewpoint apparatus
JP4346634B2 (ja) 目標物検出装置
JP5984493B2 (ja) 画像処理装置、画像処理方法、撮像装置およびプログラム
KR20180092495A (ko) 다중 카메라 영상 내 관심 객체 중심의 베스트 뷰 영상 생성 장치 및 방법
JPWO2017159312A1 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2015197745A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP7207957B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2019146418A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
CN113014803A (zh) 滤镜添加方法、装置及电子设备
JP2020119096A (ja) 画像処理装置、画像処理方法、および、プログラム
US10182184B2 (en) Image processing apparatus and image processing method
JP7374582B2 (ja) 画像処理装置、画像生成方法およびプログラム
JP2006033380A (ja) 監視システム
JP7024658B2 (ja) 処理装置
JP2022085643A (ja) 画像処理装置、画像処理方法及びプログラム
US20220343529A1 (en) Image signal processing based on virtual superimposition
CN113705408B (zh) 一种人脸活体检测方法及系统
CN110089103B (zh) 一种去马赛克方法及装置
JP2021149691A (ja) 画像処理システム及び制御プログラム
US20070242881A1 (en) Segmentation of digital images of an observation area in real time
JP5694060B2 (ja) 画像処理装置、画像処理方法、プログラム、撮像装置及びテレビジョン受像機

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240903