JP7446756B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP7446756B2
JP7446756B2 JP2019182004A JP2019182004A JP7446756B2 JP 7446756 B2 JP7446756 B2 JP 7446756B2 JP 2019182004 A JP2019182004 A JP 2019182004A JP 2019182004 A JP2019182004 A JP 2019182004A JP 7446756 B2 JP7446756 B2 JP 7446756B2
Authority
JP
Japan
Prior art keywords
foreground
extraction
area
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019182004A
Other languages
English (en)
Other versions
JP2021056960A (ja
Inventor
秀憲 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019182004A priority Critical patent/JP7446756B2/ja
Priority to KR1020200122674A priority patent/KR20210039945A/ko
Priority to US17/032,600 priority patent/US11869196B2/en
Priority to CN202011049848.5A priority patent/CN112598691A/zh
Publication of JP2021056960A publication Critical patent/JP2021056960A/ja
Application granted granted Critical
Publication of JP7446756B2 publication Critical patent/JP7446756B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30228Playing field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像から前景領域を抽出する技術に関する。
従来、画像から前景領域を抽出する前景抽出手法は種々の目的で用いられており、様々な手法が提案されている。例えば、特許文献1に開示された技術では、まず背景差分手法により動きのある領域を前景候補領域として抽出し、当該前景候補領域から特徴量を用いて前景領域を検出する。一方、例えば、非特許文献1に開示された技術では、ConvolutionネットワークとDeconvolutionネットワークを組み合わせて用い、機械学習の結果に基づく前景抽出手法によって、意味的に異なる複数の前景領域を抽出することが出来る。意味的に異なるとは、例えば人間とボールなどの異なる種類の物体であることを指す。
特開2012-48484号公報
Hyeonwoo Noh,Seunghoon Hong,and Bohyung Han. "Learning deconvolution network for semantic segmentation." Proceedings of the IEEE International Conference on Computer Vision(ICCV),2015,p.1520-1528
しかしながら、入力画像に対して、背景差分手法と機械学習の結果を用いた前景抽出方法のいずれかを用いる場合、以下のような問題が生じる。すなわち、背景差分手法では、複数の入力画像間で各画素の画素値の変化を検出し、変化が所定のしきい値内に収まっている画素より背景画像を生成する。そして、前景領域抽出対象の入力画像と背景画像とを比較して、画素値の差が所定のしきい値以上の画素を前景領域として抽出する。この方法では、ほとんど動かない静止物体は背景画像に取り込まれてしまうため、静止物体が存在する領域を前景領域として抽出することが出来ない。例えば、サッカー競技において、プレイヤーやボールなどの移動物体が存在する領域を前景領域として抽出することは出来るが、ゴールネットを含むゴールやコーナーフラッグなどの静止物体が存在する領域を前景領域として抽出することは出来ない。一方、機械学習の結果を用いた前景抽出手法では、処理の負荷が増大してしまう。
本発明は、このような問題に鑑みてなされたものであり、その目的とするところは、前景領域をより適切に抽出することにある。
本発明の一実施形態における画像処理装置は、入力画像から前景領域を抽出する画像処理装置であって、前記入力画像に対して、第1領域と、前記第1領域とは異なる第2領域とを設定する設定手段と、前記第1領域から前記前景領域を抽出する第1の抽出手段と、前記第1の抽出手段とは異なる抽出手法により、前記第2領域から前記前景領域を抽出する第2の抽出手段とを有し、前記設定手段は、前記第1の抽出手段による前記前景領域の抽出処理が適用される前記第1領域の位置と前記第2の抽出手段による前記前景領域の抽出処理が適用される前記第2領域の位置とを指定する情報である領域情報に基づいて、前記入力画像に対して前記第1領域及び前記第2領域を設定し、前記第2の抽出手段は、背景差分による抽出手法を用いて前記前景領域を抽出することを特徴とする。
本発明によれば、前景領域をより適切に抽出することができる。
第1の実施形態における画像処理装置の機能構成図である。 第1の実施形態における画像処理装置の適用例を示す図である。 第1の実施形態における前景抽出処理のフローチャートである。 第1の実施形態における静止物体のみが存在する入力画像の例を示す図である。 第1の実施形態における領域情報の例を示す図である。 第1の実施形態における静止物体および移動物体が存在する入力画像の例を示す図である。 第1の実施形態における第1前景領域抽出部によって処理される画像の例を示す図である。 第1の実施形態における第2前景領域抽出部によって処理される画像の例を示す図である。 第1の実施形態における第1前景領域の抽出結果の例を示す図である。 第1の実施形態における第2前景領域の抽出結果の例を示す図である。 第2の実施形態における画像処理装置の構成図である。 第2の実施形態における画像処理装置の適用例を示す図である。 第2の実施形態における前景抽出処理のフローチャートである。 第2の実施形態における静止物体のみが存在する入力画像の例を示す図である。 第2の実施形態における領域情報の例を示す図である。 第2の実施形態における静止物体および移動物体が存在する入力画像の例を示す図である。 第1及び第2の実施形態における情報処理装置のハードウェア構成図である。
以下、添付の図面を参照して、本発明の実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。以下の実施形態の説明では、サッカー競技において本発明を適用した例を図示し説明するが、本発明はこれに限定されるものではない。プレイヤー(人物)やボールなどの移動物体と、フィールドに固定的に設置されたサッカーゴールやコーナーフラッグなどの静止物体とが存在する任意の画像に対して、本発明は適用可能である。なお、本実施形態において、移動物体は、プレイヤー(人物)およびボールの少なくとも一方を含むものとすることができる。また、静止物体は、サッカーの試合に用いられるサッカーゴールおよびコーナーフラッグの少なくとも一方を含むものとすることができる。また、本実施形態における静止物体は、位置及び向きが固定された撮像装置が連続して撮像を行った場合に、その位置に変化が見られない静的オブジェクトであればよい。例えば、静止物体は、所定の位置に設置された物体とすることができる。また、静止物体の少なくとも一部は、移動物体である人物が競技を行うフィールド上に設置してもよい。また、屋内スタジオなどを撮像シーンとする場合には、家具や小道具を静止物体として扱うことができる。
以下の実施形態では、参照符号の後ろに付与したアルファベットのみが異なる用語については、同一機能を持つ装置の別インスタンスを示すものとする。例えば、カメラ202Aとカメラ202Bは同一の機能を持つ別インスタンスを示している。
(第1の実施形態)
第1の実施形態では、入力画像のうち、機械学習の結果に基づく前景抽出手法を適用する領域を、静止物体の含まれる領域に限定し、残りの領域に背景差分手法を用いる例について説明する。これにより、機械学習の結果に基づく前景抽出手法の使用による計算処理の処理負荷の増大を抑制して、移動物体とともに静止物体を前景領域として抽出することが可能となる。
図1は、第1の実施形態における画像処理装置100の機能構成図を示す。画像処理装置100は、前景領域の抽出対象である入力画像105と、入力画像105の各部分領域に適用する前景領域抽出部を示す領域情報106を入力として、前景領域の抽出結果である第1前景領域画像107と第2前景領域画像108を出力する。
画像入力部101は、入力画像105を受信し、画像処理装置100に入力する。入力画像105は、カメラなどの撮像装置からSDIケーブルなどを介して入力されてもよいし、画像データとしてUSBやPCIeなどのインターフェース経由で入力されてもよい。
領域情報設定部102は、領域情報106を受信し、記憶する。領域情報106は、位置及び向きが固定された各撮像装置に対して、ユーザによって予め指定された情報であって、入力画像105中のどの領域にどの前景領域抽出部を適用するかの情報を含む。領域情報106は、例えば、入力画像105に対して、「0」と「1」の2値を用いて、2つの前景領域抽出部のどちらを適用する領域かを表すことができる。すなわち、位置及び向きが固定された各撮像装置が撮像する画像に対して、各前景領域抽出部を適用する領域の位置を指定することができる。詳細は、後述の画像処理装置100の動作例で説明する。領域情報106は、画像入力部101に対して出力される。画像入力部101は領域情報106に基づいて、入力画像105の部分領域を第1前景領域抽出部103および第2前景領域抽出部104のいずれかに振り分ける。
第1前景領域抽出部103および第2前景領域抽出部104は、画像入力部101によって振り分けられた部分領域に対して、それぞれ異なる前景領域抽出手法により、前景が存在する領域を示す前景領域画像を生成する。第1前景領域抽出部103および第2前景領域抽出部104は、それぞれ生成した前景領域画像である第1前景領域画像107および第2前景領域画像108を出力する。前景領域画像は、例えば、前景をシルエットとして白で表現し、背景を黒で表現したシルエット画像とすることができる。
図2は、第1の実施形態における画像処理装置100の適用例200を示す。適用例200には、サッカーのフィールドである前景抽出対象フィールド201の周囲に配置されたカメラ202Aからカメラ202L、および各カメラと接続した画像処理装置100Aから画像処理装置100Lが存在する。カメラ202により前景抽出対象フィールド201を撮像し、撮像した結果を入力画像105として画像処理装置100に入力する。それぞれの画像処理装置100は、入力画像105から前景領域を抽出した結果である前景領域画像を生成する。生成した前景領域画像は、例えばそのシルエット情報およびテクスチャ情報から3次元モデルを生成し、3次元空間内の任意の仮想視点からの仮想視点画像を生成するために使用可能である。
次に、図3から図9を用いて、第1の実施形態における画像処理装置100の動作例について説明する。本動作例の説明では、図2のカメラ202Bおよびカメラ202Dによって撮像される画像を入力画像として用いる。フィールド内にプレイヤーおよびボールがない状態のそれぞれの入力画像は、図4(a)の入力画像401および図4(b)の入力画像402となる。入力画像401および入力画像402は、フィールド403、ゴールA404およびゴールB405を含む。
また、本実施形態において、第1前景領域抽出部103は、非特許文献1に示されるような機械学習による手法を用いて前景領域を抽出し、第2前景領域抽出部104は、背景差分法による手法を用いて前景領域を抽出する。非特許文献1では、人物と非人物を含む入力画像に対し、それぞれに異なる領域を割り当てた前景領域情報の出力が可能であることが示されている。本実施形態では、静止物体であるサッカーゴールおよびコーナーフラッグに加え、移動物体であるプレイヤーおよびボールを前景領域として検出することが出来るように学習がなされた手法を用いるものとする。
ここで、第1前景領域抽出部103の学習について説明を行う。第1前景領域抽出部103は、例えば、入力層と中間層と出力層とを含む畳み込みニューラルネットワークで構成される。そして、入力層に入力される入力データに応じてニューラルネットワークの出力層から出力される出力データと、教師データとの誤差とが得られる。損失関数を用いて、ニューラルネットワークからの出力データと教師データとの誤差が計算されてもよい。ここでは、入力データとしては、静止物体と移動物体と、それ以外の背景等を含む画像であり、教師データは、正解である静止物体と移動物体のみが含まれる画像である。
上記の誤差に基づいて、その誤差が小さくなるように、ニューラルネットワークのノード間の結合重み付け係数等が更新される。例えば、誤差逆伝播法を用いて、結合重み付け係数等が更新される。誤差逆伝播法は、上記の誤差が小さくなるように、各ニューラルネットワークのノード間の結合重み付け係数等を調整する手法である。
なお、学習の具体的なアルゴリズムとしては、最近傍法、ナイーブベイズ法、決定木、サポートベクターマシンなどが挙げられる。また、ニューラルネットワークを利用して、学習するための特徴量、結合重み付け係数を自ら生成する深層学習(ディープラーニング)も挙げられる。適宜、上記アルゴリズムのうち利用できるものを用いて本実施形態に適用することができる。
図3は、第1の実施形態における前景抽出処理のフローチャートを示す。このフローチャートに示す動作により、画像処理装置100は複数フレームの入力画像105を受信し、前景抽出処理を行い、前景領域画像を生成する。なお、フローチャートで示される一連の処理は、画像処理装置100のCPUがROMまたはHDDに格納されている制御プログラムをRAMに展開して実行することにより行われる。あるいはまた、フローチャートにおけるステップの一部または全部の機能をASICや電子回路等のハードウェアで実現してもよい。また、フローチャートの説明における記号「S」は、当該フローチャートにおける「ステップ」を意味する。その他のフローチャートについても同様である。
S301において、領域情報設定部102は、領域情報106を受信し、各前景領域抽出部の適用領域の設定を行う。本動作例におけるカメラ202Bに対応する画像処理装置100Bは、領域情報106として、図5(a)に示す領域情報501を受信する。また、カメラ202Dに対応する画像処理装置100Dは、領域情報106として、図5(b)に示す領域情報502を受信する。領域情報501は、機械学習の結果に基づく前景抽出手法が適用される第1処理領域503を含み、領域情報502は、同じく機械学習の結果に基づく前景抽出手法が適用される第1処理領域504を含む。領域情報501、502において、第1処理領域503、504とそれ以外の領域は、例えば、「0」と「1」の2値を用いて表現することが出来る。第1処理領域503、504を「1」とし、第1前景領域抽出部103を適用する領域とする一方で、第1処理領域503、504以外の領域を「0」とし、第2前景領域抽出部104を適用する領域とすることが出来る。このように、領域情報106によって、各前景領域抽出部を適用する領域の位置を指定することで、各前景領域抽出部を使い分けることが出来る。上述の通り、本実施形態の第1前景領域抽出部103は、静止物体であるサッカーゴールおよびコーナーフラッグが抽出できるように学習されている。第1処理領域503、504のように、機械学習の結果に基づく前景抽出手法が適用される部分領域がサッカーゴールを含むように設定することで、本領域に含まれるサッカーゴールを前景として抽出することが出来る。また、本実施形態の第1前景領域抽出部103は、移動物体であるプレイヤーおよびボールも抽出することが可能である。そのため、第1処理領域503、504にプレイヤーおよびボールが入り込んでいる状態の入力画像であっても、プレイヤーおよびボールを前景領域として抽出することが可能となる。本実施形態では、図5(a)、(b)に示すように機械学習の結果に基づく前景抽出手法の適用領域である第1処理領域503、504を、静止物体が含まれる領域に限定することで、計算処理負荷の増大を抑制することが可能となる。なお、静止物体は、その位置が変化しないため、位置及び向きが固定された撮像装置が連続して撮像を行う場合、フレームによらず、第1処理領域として指定される領域は固定されてもよい。
S302において、画像入力部101は、前景領域の検出対象である入力画像105を入力する。図6(a)は、フィールド内にプレイヤーおよびボールが存在するあるフレームにおける画像処理装置100Bに対する入力画像601を示す。図6(b)は、フィールド内にプレイヤーおよびボールが存在するあるフレームにおける画像処理装置100Dに対する入力画像602を示す。入力画像601および入力画像602には、ボール603、プレイヤーA604、プレイヤーB605、プレイヤーC606およびプレイヤーD607が存在する。
S303において、画像入力部101は、設定された領域情報106に基づいて、入力画像105の第1前景領域抽出部103および第2前景領域抽出部104への振り分けを行う。入力画像105のうち、第1処理領域503、504内の画像は第1前景領域抽出部103に出力され、それ以外の領域の画像は第2前景領域抽出部104に出力される。図7(a)は、画像処理装置100Bにおける第1前景領域抽出部103が処理する画像701を示す。図7(b)は、画像処理装置100Dにおける第1前景領域抽出部103が処理する画像702を示す。また、図8(a)は、画像処理装置100Bにおける第2前景領域抽出部104が処理する画像801を示す。図8(b)は、画像処理装置100Dにおける第2前景領域抽出部104が処理する画像802を示す。
S304において、画像処理装置100B、100Dの第1前景領域抽出部103は、それぞれ画像701、702から前景領域を抽出する。第1前景領域抽出部103は、画像701、702に対して機械学習の結果に基づく前景領域抽出処理を行い、第1前景領域画像107として図9(a)に示す第1前景抽出結果901および図9(b)に示す第1前景抽出結果902を生成する。第1前景抽出結果901は、静止物体であるゴールA404およびゴールB405の他に、移動物体であるボール603、プレイヤーA604およびプレイヤーD607を含む。第1前景抽出結果902は、静止物体であるゴールA404およびゴールB405の他に、移動物体であるボール603を含む。
S305において、画像処理装置100B、100Dの第2前景領域抽出部104は、それぞれ画像801、802から前景領域を抽出する。画像801、802は、第1処理領域503、504以外の領域の画像を示す。第2前景領域抽出部104は、画像801、802に対して背景差分法による前景抽出処理を行い、第2前景領域画像として図10(a)に示す第2前景抽出結果1001および図10(b)に示す第2前景抽出結果1002を生成する。第2前景抽出結果1001は、移動物体であるプレイヤーB605およびプレイヤーC606を含む。第2前景抽出結果1002は、移動物体であるプレイヤーA604、プレイヤーB605、プレイヤーC606およびプレイヤーD607を含む。なお、本実施形態では、第2前景領域抽出部104の処理領域にボールが含まれていないが、ボールが第2前景領域抽出部104の処理領域に含まれている場合、移動物体であるボールも背景差分法により前景領域として抽出することが出来る。
S304及びS305における前景抽出処理は、この順序に限らず、S305を先に実施してもよいし、S304及びS305を並行に実施してもよい。
S306において、画像入力部101は、次のフレームの入力画像があるかどうか判定する。次のフレームの入力画像があれば、S302に戻って処理を継続し、なければ処理を終了する。
なお、第1前景領域画像107および第2前景領域画像108を結合し、1枚の前景領域画像とすることも可能である。
以上の説明の通り、第1の実施形態における画像処理装置100は、前景として抽出対象の静止物体を含む入力画像に対して、処理負荷の高い前景領域抽出手法の適用領域を小さくし、処理負荷の増大を抑制した上で前景抽出処理を実施することが出来る。すなわち、入力画像から静止物体を前景領域として抽出可能にすると共に、前景抽出処理の処理負荷の増大を抑制することが出来る。
(第2の実施形態)
第2の実施形態では、図4に示した入力画像に、さらに前景領域の抽出対象ではない観客席および観客が含まれている場合に、観客席および観客を前景抽出の処理対象から除外する方法について説明する。
図11は、第2の実施形態における画像処理装置1100の機能構成図を示す。図11において、第1の実施形態の図1と同じ符号を付したブロックについては、第1の実施形態と同じ動作をするため説明を省略する。
画像入力部1101は、前景領域の抽出対象である入力画像105を受信し、画像処理装置1100に入力する。
領域情報設定部1102は、領域情報1103を受信する。領域情報1103は、第1の実施形態の領域情報106と同様に、入力画像105中のどの領域にどの前景領域抽出部を適用するかの情報を含むと共に、いずれの前景領域抽出部も適用しない、すなわち前景抽出処理を行わない領域の情報も含む。詳細は、後述の画像処理装置1100の動作例で説明する。領域情報1103は、画像入力部1101に対して出力される。画像入力部1101は領域情報1103に基づいて、入力画像105のある部分領域を第1前景領域抽出部103に出力し、別の部分領域を第2前景領域抽出部104に出力し、いずれの領域にも含まれない領域は出力しない。
図12は、第2の実施形態における画像処理装置1100の適用例1200を示す。適用例1200には、サッカーのフィールドである前景抽出対象フィールド201の周囲に配置されたカメラ202Aからカメラ202L、および各カメラと接続した画像処理装置1100Aから画像処理装置1100Lが存在する。カメラ202により前景抽出対象フィールド201を撮像し、撮像した結果を入力画像105として画像処理装置1100に入力する。それぞれの画像処理装置1100は、入力画像105から前景領域を抽出した結果である前景領域画像を生成する。
次に、図13から図16を用いて、第2の実施形態における画像処理装置1100の動作例について説明する。本動作例の説明では、図12において第1の実施形態と同じカメラ202Bおよびカメラ202Dから撮像される画像を入力画像として用いる。人物(プレイヤー、観客等)およびボールがない状態のそれぞれの入力画像は、図14(a)の入力画像1401および図14(b)の入力画像1402となる。入力画像1401は、第1の実施形態で示したフィールド403、ゴールA404およびゴールB405の他に、観客席A1403および観客席B1404を含む。入力画像1402は、第1の実施形態で示したフィールド403、ゴールA404およびゴールB405の他に、観客席A1403を含む。
また、第2の実施形態においても第1の実施形態と同様に、第1前景領域抽出部103は機械学習による手法を用いて前景領域を抽出し、第2前景領域抽出部104は背景差分法による手法を用いて前景領域を抽出する。
図13は、第2の実施形態における前景抽出処理のフローチャートを示す。図13において第1の実施形態の図3と同じ符号を付したステップについては、第1の実施形態と同じ動作をするため説明を省略する。
S1301において、領域情報設定部1102は、領域情報1103を受信し、各前景領域抽出部の適用領域の設定を行う。本動作例におけるカメラ202Bに対応する画像処理装置1100Bは、領域情報1103として、図15(a)に示す領域情報1501を受信する。また、カメラ202Dに対応する画像処理装置1100Dは、領域情報1103として、図15(b)に示す領域情報1502を受信する。領域情報1501は、第1処理領域503および第2処理領域1503を含み、領域情報1502は、第1処理領域504および第2処理領域1504を含む。第1処理領域503、504は、機械学習の結果に基づく前景抽出手法(すなわち、第1前景領域抽出部103)が適用される領域である。第2処理領域1503、1504は、背景差分法による前景抽出手法(すなわち、第2前景領域抽出部104)が適用される領域である。第1処理領域503、504および第2処理領域1503、1504のどちらにも含まれない領域は、前景抽出処理は行われない。第2の実施形態においては、観客席A1403および観客席B1404が前景抽出処理領域に含まれない。
本実施形態における領域情報1103は、2つの画像情報によって表現することが出来る。1つは、前景領域抽出処理を実施する領域か否かを示す第1の画像情報であり、もう一つは、前景領域抽出処理を実施する領域に対して、どの前景領域抽出部を適用するかを示す第2の画像情報である。いずれの画像情報も、例えば、「0」と「1」の2値を用いて表現することが出来る。なお、第2の画像情報において、前景領域抽出処理を実施しない領域については、任意の値で表現してよい。この場合、画像入力部1101は、後のステップで入力画像105の振り分けを行う際に、まず、第1の画像情報を参照して、前景領域抽出処理を実施する領域か否かを判定する。次いで、前景領域抽出処理を実施する領域に対して、第2の画像情報を参照し、どの前景領域抽出部に振り分けるかどうか判定する。
また、領域情報1103は、「0」、「1」、及び「2」の多値を用いて表現することも出来る。例えば、前景抽出処理を実施しない領域を「0」とし、第1処理領域503、504を「1」とし、第2処理領域1503、1504を「2」として設定する。そうすることで、画像入力部1101は、「1」が設定された領域を第1前景領域抽出部103に振り分け、「2」が設定された領域を第2前景領域抽出部104に振り分けることが出来る。なお、「0」が設定された領域は、前景抽出処理を実施しない領域であるため、いずれの前景領域抽出部にも振り分けない。
S1302において、画像入力部1101は、前景領域の検出対象である入力画像105を入力する。図16(a)は、フィールド内にプレイヤーおよびボールが存在し、観客席に観客が存在するあるフレームにおける画像処理装置1100Bに対する入力画像1601を示す。図16(b)は、フィールド内にプレイヤーおよびボールが存在し、観客席に観客が存在するあるフレームにおける画像処理装置1100Dに対する入力画像1602を示している。入力画像1601は、ボール603、プレイヤーA604、プレイヤーB605、プレイヤーC606およびプレイヤーD607の他、観客の存在する観客席A1403および観客席B1404を含む。入力画像1602は、ボール603、プレイヤーA604、プレイヤーB605、プレイヤーC606およびプレイヤーD607の他、観客の存在する観客席A1403を含む。なお、プレイヤーおよびボールの存在する位置は第1の実施形態の図6と同じ位置としている。
S1303において、画像入力部1101は、設定された領域情報1103に基づいて、入力画像105の第1前景領域抽出部103および第2前景領域抽出部104への振り分けを行う。入力画像105のうち、第1処理領域503、504内の画像は第1前景領域抽出部103に出力され、第2処理領域1503、1504内の画像は第2前景領域抽出部104に出力される。また、第1処理領域503、504および第2処理領域1503、1504のどちらにも含まれない領域(例えば、観客席)の画像は、いずれの前景領域抽出部に対しても出力されない。例えば、観客席の画像が背景差分法による前景抽出の対象となっていた場合、観客席の観客が移動することにより、前景としては不要な観客が、前景として抽出される可能性がある。しかし、観客席に対応する領域を前景抽出の対象から除外することにより、不要な前景を抽出しないようにすることが出来る。また、前景抽出処理を行う領域が小さくなるため、計算処理負荷も低減させることが出来る。
なお、S304及びS1305における前景抽出処理は、この順序に限らず、S1305を先に実施してもよいし、S304及びS1305を並行に実施してもよい。
S1305において、画像処理装置100B、100Dの第2前景領域抽出部104は、それぞれ第2処理領域1503、1504内の画像から前景領域を抽出する。第2前景領域抽出部104は、背景差分法による前景抽出処理を行い、第2前景領域画像を生成する。第1の実施形態では、第2前景領域抽出部104の処理対象は、第1処理領域以外の領域としたが、本実施形態では、第2処理領域として設定された領域となる。
このように、本実施形態では、入力画像に対して第1処理領域および第2処理領域を設定するとともに、前景抽出処理の対象から除外する領域を設けた。したがって、第2の実施形態においても、第1前景領域抽出部103および第2前景領域抽出部104に入力される画像は、入力画像1601、1602から観客席の領域が除外され、図7および図8と同一となる。よって、それぞれの前景領域抽出部による前景領域の抽出結果である第1および第2前景抽出結果は、図9および図10と同一となる。
以上の説明の通り、第2の実施形態における画像処理装置1100は、入力画像に対して前景抽出の対象から除外する領域を設定することにより、不要な前景の抽出を防止し、前景抽出処理の処理負荷を低減させること出来る。
(ハードウェア構成)
図17を参照して、情報処理装置1700のハードウェア構成について説明する。上述した実施形態における画像処理装置100のハードウェア構成も、以下で説明する情報処理装置1700の構成と同様である。情報処理装置1700は、CPU1711、ROM1712、RAM1713、補助記憶装置1714、表示部1715、操作部1716、通信I/F1717、及びバス1718を有する。
CPU1711は、ROM1712やRAM1713に格納されているコンピュータプログラムやデータを用いて情報処理装置1700の全体を制御することで、図1に示す各機能を実現する。なお、情報処理装置1700がCPU1711とは異なる1又は複数の専用のハードウェアを有し、CPU1711による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM1712は、変更を必要としないプログラムなどを格納する。RAM1713は、補助記憶装置1714から供給されるプログラムやデータ、及び通信I/F1717を介して外部から供給されるデータなどを一時記憶する。補助記憶装置1714は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。
表示部1715は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置1700を操作するためのGUI(Graphical User Interface)などを表示する。操作部1716は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU1711に入力する。
通信I/F1717は、情報処理装置1700の外部の装置との通信に用いられる。例えば、情報処理装置1700が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F1717に接続される。情報処理装置1700が外部の装置と無線通信する機能を有する場合には、通信I/F1717はアンテナを備える。バス1718は、情報処理装置1700の各部をつないで情報を伝達する。
図17では、表示部1715と操作部1716が情報処理装置1700の内部に存在するものとするが、表示部1715と操作部1716との少なくとも一方が情報処理装置1700の外部に別の装置として存在していてもよい。この場合、CPU1711が、表示部1715を制御する表示制御部、及び操作部1716を制御する操作制御部として動作してもよい。
(その他の実施形態)
第1および第2の実施形態では、2つの前景領域抽出部を用いる場合を説明したが、これに限ったものではなく、3つ以上の前景領域抽出部を用いることも可能である。
また、1つの前景領域抽出部とそれに対応する前景抽出部適用領域を設定することも可能である。これは、入力画像に対し、前景抽出処理の対象とする領域と対象としない領域を設定することに相当する。
第1および第2の実施形態では、第1前景領域抽出部として機械学習の結果に基づく前景領域抽出手法を用いる場合について説明したが、これに限るものではない。例えば、静止物体の画像としての特徴量をあらかじめ抽出しておき、入力画像に含まれる特徴量と比較することで静止物体を前景領域として抽出する手法も適用可能である。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 画像処理装置
101 画像入力部
102 領域情報設定部
103 第1前景領域抽出部
104 第2前景領域抽出部
105 入力画像
106 領域情報
107 第1前景領域画像
108 第2前景領域画像

Claims (13)

  1. 入力画像から前景領域を抽出する画像処理装置であって、
    前記入力画像に対して、第1領域と、前記第1領域とは異なる第2領域とを設定する設定手段と、
    前記第1領域から前記前景領域を抽出する第1の抽出手段と、
    前記第1の抽出手段とは異なる抽出手法により、前記第2領域から前記前景領域を抽出する第2の抽出手段と
    を有し、
    前記設定手段は、前記第1の抽出手段による前記前景領域の抽出処理が適用される前記第1領域の位置と前記第2の抽出手段による前記前景領域の抽出処理が適用される前記第2領域の位置とを指定する情報である領域情報に基づいて、前記入力画像に対して前記第1領域及び前記第2領域を設定し、
    前記第2の抽出手段は、背景差分による抽出手法を用いて前記前景領域を抽出することを特徴とする画像処理装置。
  2. 前記領域情報は、ユーザによって予め指定された情報であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記設定手段は、前記第1領域及び前記第2領域とは異なる第3領域をさらに設定し、
    前記第3領域に対して前記前景領域の抽出処理は行われないことを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記第1の抽出手段は、機械学習の結果に基づく抽出手法を用いて前記前景領域を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記第1の抽出手段は、特徴量に基づく抽出手法を用いて前記前景領域を抽出することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  6. 前記第1の抽出手段は、静止物体を前記前景領域として抽出可能な抽出手法により、前記前景領域を抽出し、
    前記第2の抽出手段は、移動物体を前記前景領域として抽出可能な抽出手法により、前記前景領域を抽出することを特徴とする請求項1乃至のいずれか1項に記載の画像処理装置。
  7. 前記第1の抽出手段は、前記第1領域から前記静止物体と前記移動物体とを、前記前景領域として抽出することを特徴とする請求項に記載の画像処理装置。
  8. 前記移動物体は、人物及びボールの少なくとも一方を含むことを特徴とする請求項またはに記載の画像処理装置。
  9. 前記静止物体は、所定の位置に設置された物体であることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  10. 前記静止物体の少なくとも一部は、前記移動物体である人物が競技を行うフィールド上に設置されていることを特徴とする請求項乃至のいずれか1項に記載の画像処理装置。
  11. 前記静止物体は、サッカーの試合に用いられるサッカーゴール及びコーナーフラッグの少なくとも一方を含むことを特徴とする請求項乃至10のいずれか1項に記載の画像処理装置。
  12. コンピュータを請求項1乃至11のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
  13. 入力画像から前景領域を抽出する画像処理方法であって、
    前記入力画像に対して、第1領域と、前記第1領域とは異なる第2領域とを設定する設定ステップと、
    前記第1領域から前記前景領域を抽出する第1の抽出ステップと、
    前記第1の抽出ステップとは異なる抽出手法により、前記第2領域から前記前景領域を抽出する第2の抽出ステップと
    を含み、
    前記設定ステップでは、前記第1の抽出ステップにおいて前記前景領域の抽出処理が適用される前記第1領域の位置と前記第2の抽出ステップにおいて前記前景領域の抽出処理が適用される前記第2領域の位置とを指定する情報である領域情報に基づいて、前記入力画像に対して前記第1領域及び前記第2領域が設定され
    前記第2の抽出ステップでは、背景差分による抽出手法を用いて前記前景領域が抽出されることを特徴とする画像処理方法。
JP2019182004A 2019-10-02 2019-10-02 画像処理装置、画像処理方法、及びプログラム Active JP7446756B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019182004A JP7446756B2 (ja) 2019-10-02 2019-10-02 画像処理装置、画像処理方法、及びプログラム
KR1020200122674A KR20210039945A (ko) 2019-10-02 2020-09-23 화상 처리 장치, 화상 처리 방법 및 기억 매체
US17/032,600 US11869196B2 (en) 2019-10-02 2020-09-25 Image processing apparatus, image processing method, and storage medium
CN202011049848.5A CN112598691A (zh) 2019-10-02 2020-09-29 图像处理装置、图像处理方法和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019182004A JP7446756B2 (ja) 2019-10-02 2019-10-02 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2021056960A JP2021056960A (ja) 2021-04-08
JP7446756B2 true JP7446756B2 (ja) 2024-03-11

Family

ID=75180288

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019182004A Active JP7446756B2 (ja) 2019-10-02 2019-10-02 画像処理装置、画像処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US11869196B2 (ja)
JP (1) JP7446756B2 (ja)
KR (1) KR20210039945A (ja)
CN (1) CN112598691A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3951715A1 (en) 2020-08-05 2022-02-09 Canon Kabushiki Kaisha Generation apparatus, generation method, and program
JP7480088B2 (ja) 2021-04-27 2024-05-09 キヤノン株式会社 画像処理装置、画像処理方法、プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316882A (ja) 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法
JP2013008070A (ja) 2009-10-20 2013-01-10 Panasonic Corp 標識認識装置及び標識認識方法
JP2013061919A (ja) 2011-09-15 2013-04-04 Clarion Co Ltd 外界認識方法,装置,および車両システム
JP2017076399A (ja) 2015-10-14 2017-04-20 富士通株式会社 交通状態の検出方法、装置及び電子機器
JP2019067129A (ja) 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
WO2019150649A1 (ja) 2018-01-30 2019-08-08 株式会社日立国際電気 画像処理装置および画像処理方法

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5848185A (en) * 1994-12-28 1998-12-08 Canon Kabushiki Kaisha Image processing apparatus and method
JP3490559B2 (ja) * 1995-11-14 2004-01-26 富士写真フイルム株式会社 画像の主要部判定方法及び複写条件決定方法
US6335985B1 (en) * 1998-01-07 2002-01-01 Kabushiki Kaisha Toshiba Object extraction apparatus
JP4313873B2 (ja) * 1998-01-30 2009-08-12 キヤノン株式会社 電子機器及びデータ処理方法
US6529630B1 (en) * 1998-03-02 2003-03-04 Fuji Photo Film Co., Ltd. Method and device for extracting principal image subjects
US6282317B1 (en) * 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US7092569B1 (en) * 1999-07-29 2006-08-15 Fuji Photo Film Co., Ltd. Method and device for extracting specified image subjects
US20020085743A1 (en) * 2000-04-04 2002-07-04 Konica Corporation Image processing selecting method, image selecting method and image processing apparatus
JP4596216B2 (ja) * 2001-06-20 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
KR100443678B1 (ko) * 2001-09-29 2004-08-09 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US20060204036A1 (en) * 2005-03-09 2006-09-14 Dean Huang Method for intelligent video processing
JP4165580B2 (ja) * 2006-06-29 2008-10-15 トヨタ自動車株式会社 画像処理装置及び画像処理プログラム
US7830550B2 (en) * 2006-08-07 2010-11-09 Samsung Electronics Co., Ltd. Image converting method and apparatus, and image forming apparatus having the same
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
JP4470067B2 (ja) * 2007-08-07 2010-06-02 本田技研工業株式会社 対象物種別判定装置、車両
US8548215B2 (en) * 2007-11-23 2013-10-01 Pme Ip Australia Pty Ltd Automatic image segmentation of a volume by comparing and correlating slice histograms with an anatomic atlas of average histograms
JP2009271693A (ja) * 2008-05-07 2009-11-19 Canon Inc 画像処理装置、画像処理方法、プログラム、記憶媒体
EP2416292A4 (en) * 2009-03-31 2014-09-03 Konica Minolta Holdings Inc IMAGE INTEGRATION UNIT AND IMAGE INTEGRATION PROCESS
KR20110066011A (ko) * 2009-12-10 2011-06-16 한국전자통신연구원 이미지 특성 추출을 이용한 유사 쉐이더 검색장치 및 방법
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction
JP5975598B2 (ja) 2010-08-26 2016-08-23 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US8774504B1 (en) * 2011-10-26 2014-07-08 Hrl Laboratories, Llc System for three-dimensional object recognition and foreground extraction
US8917934B2 (en) * 2012-06-14 2014-12-23 International Business Machines Corporation Multi-cue object detection and analysis
KR20140031613A (ko) * 2012-09-05 2014-03-13 삼성전자주식회사 영상 처리 장치 및 방법
US9636871B2 (en) * 2013-08-21 2017-05-02 Microsoft Technology Licensing, Llc Optimizing 3D printing using segmentation or aggregation
JP6482196B2 (ja) * 2014-07-09 2019-03-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム、及び記憶媒体
JP6602009B2 (ja) * 2014-12-16 2019-11-06 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2016172870A1 (zh) * 2015-04-29 2016-11-03 北京旷视科技有限公司 视频监控方法、视频监控系统以及计算机程序产品
JP6821398B2 (ja) * 2016-11-09 2021-01-27 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR20190004010A (ko) * 2017-07-03 2019-01-11 삼성에스디에스 주식회사 전경 추출 방법 및 장치
JP6948175B2 (ja) * 2017-07-06 2021-10-13 キヤノン株式会社 画像処理装置およびその制御方法
JP6425847B1 (ja) * 2017-08-14 2018-11-21 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2019067130A (ja) * 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
EP3474228A1 (en) * 2017-10-20 2019-04-24 Koninklijke Philips N.V. Segmenting an image
JP7122815B2 (ja) * 2017-11-15 2022-08-22 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP6911995B2 (ja) * 2018-02-20 2021-07-28 日本電気株式会社 特徴抽出方法、照合システム、およびプログラム
JP7475959B2 (ja) * 2020-05-20 2024-04-30 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316882A (ja) 2006-05-25 2007-12-06 Mitsubishi Electric Corp 遠隔操作装置及び方法
JP2013008070A (ja) 2009-10-20 2013-01-10 Panasonic Corp 標識認識装置及び標識認識方法
JP2013061919A (ja) 2011-09-15 2013-04-04 Clarion Co Ltd 外界認識方法,装置,および車両システム
JP2017076399A (ja) 2015-10-14 2017-04-20 富士通株式会社 交通状態の検出方法、装置及び電子機器
JP2019067129A (ja) 2017-09-29 2019-04-25 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
WO2019150649A1 (ja) 2018-01-30 2019-08-08 株式会社日立国際電気 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20210104050A1 (en) 2021-04-08
US11869196B2 (en) 2024-01-09
JP2021056960A (ja) 2021-04-08
KR20210039945A (ko) 2021-04-12
CN112598691A (zh) 2021-04-02

Similar Documents

Publication Publication Date Title
Xu et al. Deep image matting
CN108520223B (zh) 视频图像的分割方法、分割装置、存储介质和终端设备
KR101288670B1 (ko) 최초 배경 복구에 대한 대응책
US9852767B2 (en) Method for generating a cyclic video sequence
US8923612B2 (en) Image processing apparatus and method, and program
WO2021209042A1 (zh) 三维模型驱动方法、装置、电子设备及存储介质
JP7446756B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7023696B2 (ja) 情報処理装置、情報処理方法及びプログラム
AU2010257409B2 (en) Temporal-correlation-based mode connection
JP7405198B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN113034358A (zh) 一种超分辨率图像处理方法以及相关装置
KS et al. Deep multi-stage learning for hdr with large object motions
CN110580696A (zh) 一种细节保持的多曝光图像快速融合方法
CA3061908A1 (en) Ball trajectory tracking
CN116664603B (zh) 图像处理方法、装置、电子设备及存储介质
US11501577B2 (en) Information processing apparatus, information processing method, and storage medium for determining a contact between objects
Teixeira et al. Object segmentation using background modelling and cascaded change detection
KR101853211B1 (ko) 모바일 gpu 환경에서 차영상 정보를 이용한 sift 알고리즘의 복잡도 감소 기법
US20220036591A1 (en) Image processing apparatus, image processing method, and storage medium
WO2022226724A1 (en) Method and system of image processing with multi-skeleton tracking
US11941841B2 (en) Determination of a locational position for a camera to capture a collision of two or more actors
Walters et al. BenderNet and RingerNet: Highly efficient line segmentation deep neural network architectures for ice rink localization
JP2009003615A (ja) 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体
WO2020115565A1 (en) Ball trajectory tracking
US20220383507A1 (en) Image processing apparatus, image processing system, image processing method, learning device, learning method, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230815

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R151 Written notification of patent or utility model registration

Ref document number: 7446756

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151