JP6346157B2 - 画像処理装置、画像処理方法及びコンピュータプログラム - Google Patents
画像処理装置、画像処理方法及びコンピュータプログラム Download PDFInfo
- Publication number
- JP6346157B2 JP6346157B2 JP2015232342A JP2015232342A JP6346157B2 JP 6346157 B2 JP6346157 B2 JP 6346157B2 JP 2015232342 A JP2015232342 A JP 2015232342A JP 2015232342 A JP2015232342 A JP 2015232342A JP 6346157 B2 JP6346157 B2 JP 6346157B2
- Authority
- JP
- Japan
- Prior art keywords
- input image
- image
- complement
- camera
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Stereoscopic And Panoramic Photography (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Description
図10は、従来システムにおいて仮想全天球画像を得るためのシステムを示す図である。図10に示すように、画像処理システム1は、全天球カメラ2と、複数のカメラ3−1、3−2、3−3、・・・、3−N(以下、「カメラ群3」という。)(Nは4以上の整数)と、画像処理装置4と、表示装置5とを備える。画像処理システム1は、競技用コート10内に仮想視点11を設定した場合に、競技用コート10外に設置したカメラ群3によって撮影された画像の合成によって仮想視点11における仮想全天球画像を得る。
図11は、画像処理システム1における画像処理の流れを説明するための図である。図11(A)は、背景画像20の具体例を示す図である。背景画像20には、仮想視点11を中心として全方位(360度)の被写体が撮影されている。背景画像20は、競技用コート10内に人物がいない状態で撮影される画像であるので競技用コート10内には人物が撮影されない。
図1は、本発明における画像処理システム100のシステム構成を示す図である。
画像処理システム100は、全天球カメラ60、複数のカメラ70−1〜70−M(Mは2以上の整数)及び画像処理装置80を備える。なお、以下の説明では、カメラ70−1〜70−Mについて特に区別しない場合には、カメラ70と記載する。
オブジェクト解析部802は、入力画像記憶部801に記憶されている入力画像を入力とする。オブジェクト解析部802は、入力された入力画像中に前景オブジェクトが存在するか否か解析し、入力画像中に前景オブジェクトが存在する場合には入力画像中の当該オブジェクトの領域(補完対象領域)を示す情報を判定部803に出力する。入力画像中に前景オブジェクトが存在しない場合には、オブジェクト解析部802は入力画像を部分領域抽出部806に出力する。オブジェクト解析部802が行う解析の方法としては、例えば、セグメンテーションにより入力画像に含まれるオブジェクト領域を切り出す方法が挙げられる。次に、オブジェクト解析部802は、切り出したオブジェクト領域に基づいて、仮想視点82よりも手前に位置するか否かを判別する。なお、判別する手法はどのような方法であってもよい。例えば、オブジェクト解析部802は、図示しないセンサ等で、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよいし、複数のカメラ70で撮影された入力画像から幾何的な解析により、あるカメラ70から入力画像中のオブジェクトまでの距離を取得してもよい。そして、オブジェクト解析部802は、取得した距離が、あるカメラ70から仮想視点までの距離以下であれば入力画像中の対応するオブジェクトを仮想視点より手前にある前景オブジェクトであると判定し、それ以外の場合には入力画像中の対応するオブジェクトを後景オブジェクトであると判定する。そして、オブジェクト解析部802は、入力画像と、入力画像中の補完対象領域を示す情報と、入力画像における後景オブジェクトの有無を示す情報とを判定部803に出力する。オブジェクト解析部802は、オブジェクト認識により他のカメラ70の入力画像にも同一オブジェクトが存在する場合には、それも前景オブジェクトとする。
合成情報記憶部805は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。合成情報記憶部805は、合成情報テーブルを記憶する。合成情報テーブルは、入力画像から生成される画像を背景画像に重畳するための情報(以下、「合成情報」という。)を表すレコード(以下、「合成情報レコード」という。)によって構成される。
合成情報テーブルは、合成情報レコードを複数有する。合成情報レコードは、カメラID、抽出領域情報及び変換情報の各値を有する。カメラIDの値は、カメラ70を識別するための識別情報を表す。例えば、図2におけるカメラID“C1”で識別されるカメラ70はカメラ70−1であり、カメラID“CM”で識別されるカメラ70はカメラ70−Mである。
部分領域抽出部806は、オブジェクト解析部802から出力された入力画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。また、部分領域抽出部806は、補完処理部804から出力された補完後画像と、合成情報記憶部805に記憶されている合成情報テーブルとを入力とする。部分領域抽出部806は、合成情報テーブルに基づいて、画像(入力画像又は補完後画像)から部分領域を抽出することによって部分領域画像を生成する。部分領域抽出部806は、生成した部分領域画像を画像合成部808に出力する。
背景画像記憶部807は、磁気ハードディスク装置や半導体記憶装置などの記憶装置を用いて構成される。背景画像記憶部807は、全天球カメラ60によって撮影された全天球画像を背景画像として記憶する。
オブジェクト解析部802は、あるカメラxを選択する(ステップS101)。カメラxの選択方法は、どのような方法であってもよい。予め特定のカメラをカメラxとして定めておいてもよい。次に、オブジェクト解析部802は、選択したカメラxの入力画像を入力画像記憶部801から読み出す(ステップS102)。例えば、オブジェクト解析部802は、選択したカメラxが撮影した動画中のある入力画像を入力画像記憶部801から読み出す。オブジェクト解析部802は、読み出した入力画像を入力とし、入力された入力画像を解析することによって入力画像に前景オブジェクトが存在するか否か判定する(ステップS103)。なお、この際、オブジェクト解析部802は、入力画像に後景オブジェクトが存在するか否かについても解析する。入力画像に前景オブジェクトが存在する場合(ステップS103−YES)、オブジェクト解析部802は入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを判定部803に出力する。判定部803は、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とを入力とし、入力された入力画像及び補完対象領域と、後景オブジェクトの有無を示す情報とに基づいて難易性を判定、即ち、補完対象領域を補完しやすいか否か判定する(ステップS104)。
一方、判定部803は、補完しやすいと判定しなかった場合(ステップS104−NO)、その旨を示す判定結果と、補完対象領域の情報とを補完処理部804に出力する。補完しやすいと判定しなかった場合に出力される判定結果の一例として、例えば、補完しやすいわけではないことを示す判定結果、あるいは、補完しにくいことを示す判定結果が挙げられる。補完処理部804は、判定部803から出力された判定結果と、補完対象領域の情報と、入力画像記憶部801に記憶されている入力画像とを入力とし、入力された判定結果が補完しやすいことを示していないため第2補完手法を利用して入力画像中の補完対象領域を補完する(ステップS106)。第2補完手法の具体的な処理については後述する。補完処理部804は、補完後画像を部分領域抽出部806に出力する。
一方、前景オブジェクトが存在すると判定された全てのカメラ70の入力画像に対して補完手法による処理が行なわれていない場合(ステップS109−NO)、ステップS101以降の処理が実行される。
判定部803は、オブジェクト解析部802による解析結果に基づいて補完対象領域を決定する(ステップS201)。判定部803には、オブジェクト解析部802から出力された入力画像と、補完対象領域を示す情報と、後景オブジェクトの有無を示す情報とが入力されている。そこで、判定部803は、入力画像中の補完対象領域を示す情報で示される領域を補完対象領域に決定する。次に、判定部803は、補完対象領域が背景であるか否か判定する(ステップS202)。補完対象領域が背景であるか否かの判定は、前景オブジェクトの後方に後景オブジェクトが存在するか否かで行われる。まず、判定部803は、入力された後景オブジェクトの有無を示す情報から後景オブジェクトの有無を判定する。後景オブジェクトが存在しない場合、判定部803は補完対象領域が背景であると判定する。一方、後景オブジェクトが存在する場合、判定部803は後景オブジェクトが補完対象領域の後方に存在するか否か判定する。後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景ではないと判定する。一方、後景オブジェクトが補完対象領域の後方に存在する場合、判定部803は補完対象領域が背景であると判定する。
一方、補完対象領域が背景ではない場合(ステップS202−NO)、判定部803は他のカメラ70の入力画像(過去の入力画像も含む)から類似画像を検索する(ステップS204)。例えば、判定部803は、ステップS101の処理で選択されたカメラx以外のカメラ70(例えば、カメラy)について、S(Vy(T+1)、Vy(t))<Thとなる時刻tを求める。ここで、S(a、b)は、aとbとの類似度を表す。Thは、閾値を表す。T+1は現時刻を表し、tは現時刻よりも前の時刻を表す。つまり、類似画像とは、ステップS101の処理で選択されたカメラxの入力画像の後景オブジェクトが存在する画像であり、かつ、上記Th未満となる時刻tの画像を表す。
一方、それ以外の場合、即ち、前景オブジェクトが存在しない時刻tがない場合(ステップS206−NO)、判定部803は補完対象領域を補完しやすいわけではない、あるいは、補完しにくいと判定する(ステップS207)。そして、判定部803は、補完対象領域を補完しやすいわけではないこと、あるいは、補完しにくいことを示す情報を含む判定結果と、補完対象領域の情報とを補完処理部804に出力する。
補完処理部804は、前景オブジェクトが存在しない時刻tにおけるカメラxの入力画像を参照画像とする(ステップS301)。次に、補完処理部804は、補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。そして、補完処理部804は、参照画像を用いて、生成したマスク画像で示されているマスク領域を補完する(ステップS302)。具体的には、まず補完処理部804は、ステップS102の処理で読み出された入力画像から補完対象領域と、補完対象領域以外の領域とを共に含む小領域(パッチ)を選択する。この方法としては、補完対象領域の輪郭上に存在するパッチであって、パッチ領域中の補完対象領域以外の領域の画素のエッジ強度が強いパッチから選定する方法などが挙げられる。次に、補完処理部804は、選択したパッチの補完対象領域以外の画素を基に、参照画像から類似パッチを検出する。ここで、類似パッチとは、選択したパッチの画素の画素値と画素値が類似したパッチを表す。そして、補完処理部804は、検出した類似パッチを、選択したパッチに重畳する。つまり、補完処理部804は、類似パッチの画素値で選択したパッチの画素値を置き換える。補完処理部804は、以上の処理を補完対象領域が無くなるまで実行する。
補完処理部804は、第1前処理を行う(ステップS401)。具体的には、補完処理部804は、第1前処理として、ステップS102の処理で読み出された入力画像と同時刻に撮影された全てのカメラ70の入力画像を読み出すとともに、各入力画像の補完対象領域に対して画像処理を行うことを示すマスク領域を有するマスク画像を生成する。その結果を図7に示す。
図7(A)は、同時刻に撮影された複数のカメラ70の入力画像を表す図である。図7(A)では、カメラID“1”からカメラID“5”で識別される5台のカメラ70−1〜70−5それぞれで撮影された入力画像を示している。例えば、入力画像83−1はカメラID“1”で識別されるカメラ70−1で撮影された画像を表す。各入力画像83−1〜83−5には、オブジェクト84及び85が含まれる。ここで、オブジェクト84は後景オブジェクトを表し、オブジェクト85は前景オブジェクトを表す。つまり、オブジェクト85の領域が補完対象領域を表す。
図8は、マスク画像毎のマスク領域の大きさを表す図である。
図8において、縦軸はマスク領域の大きさを表し、横軸はカメラIDを表す。図8に示されるグラフには、各マスク画像87−1〜87−5のマスク領域88−1〜88−5の大きさ(ピクセル数)に応じたプロットが示されている。図8を参照すると、カメラID“2”〜“4”で識別されるカメラ70−2〜70−4の入力画像に対するマスク画像のマスク領域が最も大きいことが示されている。
一方、マスク領域が存在する場合(ステップS403−YES)、補完処理部804は基準カメラを決定する(ステップS404)。ここで、基準カメラとは、第2補完手法を施す対象となるマスク領域、つまり補完対象領域を有する入力画像を撮影したカメラ70を表す。基準カメラを決定する方法として以下のような方法がある。
ステップS402の処理で求めた入力画像のマスク領域が最も大きい入力画像を撮影したカメラ70(前景オブジェクトが最も大きく映り込んでいる入力画像を撮影したカメラ70)を基準カメラに決定。
マスク領域が最も大きい入力画像を撮影したカメラ70が複数存在する場合(図8におけるカメラID2、ID3及びID4)、それらの中央に近いカメラ70を基準カメラに決定。
中央に近いカメラ70が複数存在する場合(例えば、マスク領域が最も大きい入力画像を撮影したカメラ70が4台の場合)、内側の2台のカメラのうちどちらかのカメラ70を基準カメラに決定。この場合は、どちらのカメラ70に決定されてもよい。
図9において、各マスク画像87−1、87−2、87−4及び87−5には、それぞれ領域90が示されている。この領域90は、アフィン変換時に対応が取れなかった画素の領域を表す。つまり、領域90は、アフィン変換時に基準カメラからの見た目が作れなかった領域を表す。以下、領域90を非マスク領域(マスク領域に含めない領域)と表す。なお、マスク画像87−3は、基準カメラの入力画像におけるマスク画像であるため領域90が存在しない。
E=α1×d1+α2×S+α3×S1+α4×(1/d2)+α5×a
ここで、α1〜α5は重み係数を表す。d1は基準カメラから他のカメラまでの距離を表す。Sはマスク領域の大きさを表す。S1はアフィン変換時に対応が取れなかった画素の大きさを表す。つまり、S1は非マスク領域の大きさを表す。d2は前景オブジェクトと、後景オブジェクトとのオブジェクト間距離を表す。ここで、d2は以下のように算出される。まず補完処理部804は、セグメンテーションにより入力画像から各オブジェクトを抽出する。次に、補完処理部804は、前景オブジェクトと、後景オブジェクトとの中心位置間の距離を算出する。なお、後景オブジェクトが複数存在する場合には、後景オブジェクトの中で最も前景オブジェクトの近くに位置している後景オブジェクトと、前景オブジェクトとの中心位置間の距離を表す。aは前景オブジェクトと、後景オブジェクトとが完全に離れているかを示す2値数である。ここで、aは以下のように求められる。まず補完処理部804は、背景差分法によりオブジェクト領域を抽出する。次に、補完処理部804は、クラスタリング等によりオブジェクトの個数を算出する。そして、補完処理部804は、オブジェクトの個数が基準カメラのオブジェクト個数を上回っていれば1、そうでなければ0とする。
画像処理装置80は、エネルギー関数Eを用いて参照カメラを決定し、決定した参照カメラの入力画像を用いて、基準カメラの入力画像の補完対象領域を補完する。エネルギー関数Eには、基準カメラからの距離が含まれる。つまり、基準カメラとの距離が近いカメラ程参照カメラとして選択される可能性が高い。さらに、基準カメラとの距離が近いカメラの入力画像は、基準カメラの入力画像と見え方が近いため、補完後の違和感が少なくなる。そのため、複数の撮影装置のそれぞれで撮影された複数の画像のいずれかに存在する除去対象となる被写体による画像の品質低下を抑制することが可能になる。
本発明は上記の実施形態に限定される必要はない。例えば、本発明は、複数のカメラ70でそれぞれ撮影された複数の動画に含まれる特定の動画中の特定の画像において除去対象となる被写体が除去された領域(補完対象領域)を補完した後の画像を得る場合にも適用可能である。
本実施形態では、合成情報テーブルに登録されている幅の値が全てのカメラIDで同じであるが、幅の値はカメラID毎に異なっていてもよいし、一部のカメラIDで異なっていてもよい。
本実施形態では、前景オブジェクトと後景オブジェクトとの切り分け方として、オブジェクト認識やセグメンテーションを用いる方法を示したが、以下のような2つの方法が用いられてもよい。
(第1の方法)
第1の方法は、レンジセンサを用いる方法である。レンジセンサを用いる場合、仮想視点よりも奥に位置するオブジェクトを後景オブジェクトとし、仮想視点よりも手前に位置するオブジェクトを前景オブジェクトとする。
(第2の方法)
第2の方法は、競技用コート10上部のカメラ映像を用いる方法である。競技用コート10上部にカメラを設置できる場合、予め天井などの競技用コート10上部に設置したカメラと、競技用コート10外に設置したカメラ70とのキャリブレーションを事前に済ませておく。その後、競技用コート10上部のカメラの映像から人物やボールなどのオブジェクトをトラッキングし、各オブジェクトが各カメラ70からどのように観察できているのかを推定する。
Claims (9)
- 所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理部、
を備え、
前記補完処理部は、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理装置。 - 前記入力画像を撮影装置毎に時系列順に記憶する入力画像記憶部をさらに備え、
前記補完処理部は、前記入力画像記憶部に記憶されている前記複数の撮影装置の入力画像において、前記補完対象領域の大きさを求め、前記補完対象領域の大きさが最も大きい入力画像を前記補完対象領域の補完対象となる入力画像に決定する、請求項1に記載の画像処理装置。 - 前記補完処理部は、前記複数の撮影装置のうち、少なくとも前記前景オブジェクトと前記仮想視点よりも後方に存在するオブジェクトを表す後景オブジェクトとの関係を表すパラメータと、前記前景オブジェクトと前記後景オブジェクトとが離れているか否かを示すパラメータのいずれかを含む所定の関数に基づいて選択される撮影装置の入力画像を用いて、決定された前記入力画像の前記補完対象領域を補完する、請求項2に記載の画像処理装置。
- 前記所定の関数は、決定された前記入力画像を撮影した撮影装置である基準撮影装置と他の撮影装置との距離と、前記他の撮影装置の入力画像の補完対象領域の大きさと、前記他の撮影装置で撮影した入力画像を前記基準撮影装置の位置から見た画像に変換した場合に対応付けられなかった前記他の撮影装置で撮影した入力画像の領域の大きさと、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとの間の距離と、前記他の撮影装置の入力画像の前景オブジェクトと前記後景オブジェクトとが離れているか否かを示す値の重み付き和で表される、請求項3に記載の画像処理装置。
- 複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理部を備え、
前記補完処理部は、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理装置。 - 前記所定の関数は、前記特定の入力画像が撮影された時刻と同じ時刻に他の撮影装置で撮影された入力画像と前記特定の入力画像とのうち前記補完対象領域の大きさが最も大きい入力画像を撮影した撮影装置である基準撮影装置と前記基準撮影装置以外の撮影装置との間の距離と、前記複数の撮影装置の入力画像における前記補完対象領域の大きさと、前記基準撮影装置以外の撮影装置で撮影された入力画像内の補完対象領域を前記基準撮影装置の位置で撮影した画像に変換した場合に対応が取れなかった画素の大きさと、前記入力画像に存在する前記対象物と前記後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値とのそれぞれに対して所定の重み係数を乗算し、乗算結果を加算する関数である、請求項5に記載の画像処理装置。
- 所定の領域内に設定された仮想的な視点を表す仮想視点を含む入力画像を撮影する複数の撮影装置によって撮影された複数の入力画像のうち、前記仮想視点よりも手前に存在するオブジェクトを表す前景オブジェクトが存在する補完対象領域を有する入力画像における前記補完対象領域を補完する補完処理ステップ、
を有し、
前記補完処理ステップにおいて、前記補完対象領域の補完対象となる前記入力画像を、前記入力画像を撮影した撮影装置の近傍の撮影装置の入力画像を用いて補完する画像処理方法。 - 複数の撮影装置それぞれで撮影された映像のうち特定の映像中の特定の入力画像に存在する除去対象となる対象物が存在する補完対象領域を補完する補完処理ステップを有し、
前記補完処理ステップにおいて、前記特定の入力画像が撮影された時刻の時間近傍で撮影された前記複数の撮影装置の入力画像毎に、前記入力画像に存在する前記対象物と前記対象物よりも後方に存在する被写体である後景オブジェクトとの間の距離と、前記対象物と前記後景オブジェクトとが離れているか否かを示す値との何れかを含む所定の関数を用いて入力画像毎の値を算出し、算出した値が最小となる入力画像を撮影した撮影装置で撮影された入力画像を用いて前記補完対象領域を補完する画像処理方法。 - 請求項1から6のいずれか一項に記載の画像処理装置としてコンピュータを機能させるためのコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232342A JP6346157B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015232342A JP6346157B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017098906A JP2017098906A (ja) | 2017-06-01 |
JP6346157B2 true JP6346157B2 (ja) | 2018-06-20 |
Family
ID=58817549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015232342A Active JP6346157B2 (ja) | 2015-11-27 | 2015-11-27 | 画像処理装置、画像処理方法及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6346157B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7080614B2 (ja) * | 2017-09-29 | 2022-06-06 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007053621A (ja) * | 2005-08-18 | 2007-03-01 | Mitsubishi Electric Corp | 画像生成装置 |
JP5519085B1 (ja) * | 2012-07-20 | 2014-06-11 | パナソニック株式会社 | 動画像生成装置および動画像生成方法 |
JP5969376B2 (ja) * | 2012-12-19 | 2016-08-17 | Kddi株式会社 | 仮想視点映像生成装置、仮想視点映像生成方法、およびプログラム |
JP2015139018A (ja) * | 2014-01-21 | 2015-07-30 | 株式会社ニコン | 電子機器及び制御プログラム |
-
2015
- 2015-11-27 JP JP2015232342A patent/JP6346157B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017098906A (ja) | 2017-06-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109788215B (zh) | 图像处理装置、计算机可读存储介质以及图像处理方法 | |
KR101670282B1 (ko) | 전경-배경 제약 조건 전파를 기초로 하는 비디오 매팅 | |
US11151787B2 (en) | Generation device, generation method and storage medium for three-dimensional model from object images and structure images | |
KR101223046B1 (ko) | 정지장면의 연속프레임 영상에 기반한 영상분할장치 및 방법 | |
JP7159384B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2010176380A (ja) | 情報処理装置および方法、プログラム、並びに記録媒体 | |
JP2020129276A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
CN110505398B (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
US11798233B2 (en) | Generation device, generation method and storage medium for three-dimensional model that remove a portion of the three-dimensional model | |
JPWO2018180578A1 (ja) | 画像処理装置、撮像装置、画像処理方法、およびプログラム | |
Choi et al. | Human detection using image fusion of thermal and visible image with new joint bilateral filter | |
JP6389452B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP5290915B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6272071B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP6606242B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP6346157B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
US20140055644A1 (en) | Apparatus and method for extracting object | |
JP6416741B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP5838112B2 (ja) | 複数の被写体領域を分離する方法、プログラム及び装置 | |
KR101718309B1 (ko) | 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법 | |
JP6420750B2 (ja) | 合成情報テーブル作成装置、合成情報テーブル作成方法及びコンピュータプログラム | |
KR101297396B1 (ko) | 상대적인 상관도 기반의 그림자 제거 방법 | |
JP6416734B2 (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
JP2017097798A (ja) | 画像処理装置、画像処理方法及びコンピュータプログラム | |
KR101893142B1 (ko) | 객체 영역 추출 방법 및 그 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170801 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6346157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |