JP2009512246A - 画像のショットタイプを決定する方法及び装置 - Google Patents
画像のショットタイプを決定する方法及び装置 Download PDFInfo
- Publication number
- JP2009512246A JP2009512246A JP2008532915A JP2008532915A JP2009512246A JP 2009512246 A JP2009512246 A JP 2009512246A JP 2008532915 A JP2008532915 A JP 2008532915A JP 2008532915 A JP2008532915 A JP 2008532915A JP 2009512246 A JP2009512246 A JP 2009512246A
- Authority
- JP
- Japan
- Prior art keywords
- cluster
- image
- depth
- difference
- shot type
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/786—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
画像のショットタイプを決定する方法及び装置が開示されている。この方法は、少なくとも第1クラスタ又は第2クラスタに前記画像の一部を割り当てるステップであって、これらクラスタは、異なる範囲の、当該クラスタに対応する深さ値を持つ、ステップ203、205と、前記第1クラスタ及び前記第2クラスタの両方が少なくとも1つの部分に割り当てられているかどうか、または前記第1クラスタ及び前記第2クラスタの深さの差の段階的若しくは漸次的な変化があるかどうかに基づいて前記画像のショットタイプを決定するステップ207、209とを有する。
Description
本発明は、画像のショットタイプ(shot type)を決定する方法及び装置に関する。
ビデオコンテンツは、異なる種類のショットタイプからなる。これらショットタイプは、監督により、異なる種類の情報を伝えることが目論まれている。典型的には、これらのショットは、3つのタイプ、すなわち、ロングショット、ミディアムショット及びクローズアップショット、すなわち、ショートショットに分類される。ロングショットは、場所、人及び物体全体を含むアクションエリア全体を含む。ミディアムショットにおいては、主題及びその設定が、フレームにおおよそ等しい面積を占める。クローズアップショット、すなわち、ショートショットは、人物の顔等のシーンの小部分を詳細に示し、ゆえに、該小部分が当該シーンを満たす。図1aは、ロングショットの一例を示し、図1bは、ミディアムショットの一例を示している。
ショット(またさらには個々のフレーム)のロングショット、ミディアムショット及びクローズアップへの自動的な分類は、シーンの章分け(chaptering)等のビデオコンテンツ分析アプリケーションのための有用な情報を与える。自動的な分類はまた、いくつかのビデオ信号処理アプローチ、例えば、3Dシーンのレンダリング(この場合、ロングショットは、例えば、可能な限り鮮鋭にするためにシーン面近くにクローズアップ内の前景をレンダリングすることによるクローズアップと異なってレンダリングされても良く、然るに、ロングショットについては、シーンのより大きな部分がスクリーン前方にレンダリングされても良い)に役立つことを保証する。
自動分類のため、フレーム又はショットから演算可能な特徴が必要とされる。この特徴は、ロングショット、ミディアムショット及びクローズアップを区別できる必要がある。既知の技術の一つは、ショットタイプを決定するための幾つかのタイプの情報を用いる。これは、動き、焦点、テクスチャ、カメラの動き、視野、その他多くのものを含む。しかしながら、この技術は複雑であり、ショットのタイプを区別する不正確さがあり得る。
精度が改善された演算的に簡単なショットの自動的な分類を提供することが望ましい。
これは、本発明の一態様によって、画像のショットタイプを決定する方法であって、少なくとも第1クラスタ又は第2クラスタに前記画像の一部を割り当てるステップであって、これらクラスタは、異なる範囲の、当該クラスタに対応する深さ値を持つ、ステップ、及び前記第1クラスタ及び前記第2クラスタの両方が少なくとも1つの部分に割り当てられているかどうか、または前記第1クラスタ及び前記第2クラスタの深さ値の差の段階的(stepped)若しくは漸次的(gradual)な変化があるかどうかに基づいて前記画像のショットタイプを決定するステップ、を有する方法を提供することにより達成される。
これはまた、本発明の他の態様によって、画像のショットタイプを決定する装置であって、画像入力用のインタフェース手段、及び少なくとも第1クラスタ又は第2クラスタに前記画像の一部を割り当てるプロセッサであって、これらクラスタは、異なる範囲の、当該クラスタに対応する深さ値を持ち、当該プロセッサは、前記第1クラスタ及び前記第2クラスタの両方が少なくとも1つの部分に割り当てられているかどうか、または前記第1クラスタ及び前記第2クラスタの深さの差の段階的若しくは漸次的な変化があるかどうかに基づいて前記画像のショットタイプを決定する、プロセッサ、を有する装置を提供することにより達成される。
基本的な概念は、少なくとも2つのクラスタの深さ値が区別され得る場合、すなわち、深さの著しい(marked)又は段階的な差がある場合、ビデオフレームはクローズアップ又はミディアムショットタイプであるのに対し、そのようなクラスタの区別が存在しない、漸次的なプロファイル、又は1つのクラスタしかない場合、これはロングショットを示している、ということにある。好ましい実施例においては、深さ信号が、シーンと非常に直接的な関係があるので、単純にシーンを分類するもの(scene classifier)として直接用いられ得る。
好ましくは、深さ値の著しい又は段階的な差があるかどうかの決定は、前記クラスタの統計的特性に基づく。前記統計的特性は、前記第1クラスタ及び前記第2クラスタの前記深さ値の平均値の差、クラスタにおける深さ値の標準偏差及びクラスタの面積のうちの少なくとも1つを含んでも良い。
これらは、高速、効果的且つ精度の高い単純な演算方法を提供する。
前記第1クラスタ及び前記第2クラスタの深さの差の段階的若しくは漸次的な変化があるかどうかを決定する前記ステップは、前記第1クラスタ及び前記第2クラスタの一方における深さ値の標準偏差を前記第1クラスタ及び前記第2クラスタの平均深さ値の差と比較するステップ、及び前記標準偏差が前記平均深さ値の差と比較してかなり小さい場合、前記第1クラスタ及び前記第2クラスタの深さの差の段階的な変化があり、前記画像はショートショットタイプとして分類されるステップ、を有しても良い。
この場合、ミディアムショットタイプ又はショートショットタイプ、すなわち、クローズアップが、クラスタの統計的特性の単純な検定により簡単に特定される。
前記第1クラスタ及び前記第2クラスタの深さの差の漸次的な変化があるかどうかを決定する前記ステップは、前記第1クラスタ及び前記第2クラスタの平均深さ値の差を比較するステップ、前記平均深さ値の差が閾値より小さいかどうか決定するステップ、及び前記平均深さ値の差が前記閾値より小さい場合、前記第1クラスタ及び前記第2クラスタの深さの差の漸次的な変化があり、前記画像はロングショットであると決定されるステップ、を有しても良い。
さらに、当該方法は、前記第1クラスタ及び前記第2クラスタの各々の面積を比較するステップ、及び前記第1クラスタ及び前記第2クラスタの一方が小さい若しくはゼロである場合、または面積の差が閾値よりも大きい場合、前記画像はロングショットタイプとして決定されるステップ、を有しても良い。
前記第1クラスタ及び前記第2クラスタは、前記画像の背景及び前景を有しても良い。
前記第1クラスタ及び前記第2クラスタの境界上にある前記画像の一部が特定されても良く、前記特定された一部に対するピクセルの深さと前記第1クラスタ及び前記第2クラスタの各々の平均深さ値との差が演算されても良く、次いで、前記一部が最小の深さの差を持つクラスタに割り当てられても良い。
このようにして、前記境界上にある部分がより高精度に割り当てられ得る。
前記画像が3D画像である場合、当該画像に対応する深さプロファイルマップが利用されても良く、前記深さ値は前記深さプロファイルマップから導出され得る。斯くして、当該好ましい実施例の演算は、予め利用可能な又は容易に導出され得るデータを用いる。
前記画像が2D画像である場合、前記深さ値は前記2D画像の推定された深さプロファイルマップから導出されても良く、処理は3D画像に対するのと同じである。
深さプロファイルマップが推定されない又は2D画像に対して演算するのが困難であるような場合、前記第1クラスタ及び前記第2クラスタは複数の異なるキュー、例えば、動き及び焦点等から獲得されても良い。
それゆえ、当該好ましい実施例においては、深さプロファイルが与えられて、このプロファイルのフィット性(fit)が、2つの異なる深さモデル、すなわち、滑らかな深さプロファイル(例えば、縦の画像座標に伴う線形の深さ変化)及び2つのクラスタからなるプロファイル(例えば、前景深さ及び背景深さ)と比較されることができる。ロングショットに対しては、滑らかなプロファイルが、より良好にフィットすると見込まれているのに対し、ミディアムショット又はクローズアップに対しては、クラスタプロファイルが、より良好にフィットすると見込まれている。
本発明のより完全な理解のため、添付図面と関連した以下の記載を参照する。
本記載はロングショットのタイプとクローズアップとの区別に言及しているが、当該実施例は、閾値のただ適切な設定によってミディアムショットを分類することにも等しく適用可能であることを理解されたい。
第1の好ましい実施例の方法は、2D画像又は3D画像の何れかの分類に適用可能である。
通例2Dビデオにおいて深さプロファイル(depth profile)は存在しないので、このプロファイルはビデオ自体から演算され得る。2Dから3Dへのビデオ変換のため、画像データから演算される深さキュー(depth cues)が用いられる。斯かる技術は当該技術分野においてよく知られており、ここでは詳細に述べない。3Dビデオの場合、深さプロファイルが存在し得る。例えば、3Dカメラが用いられた場合、通常のビデオストリームとは別個に、ダイレクト深さストリーム(direct depth stream)も記録される。さらに、ステレオ材料が利用できるかもしれない。このステレオ材料からは深さ情報が抽出され得る。
図2を参照すると、第1の好ましい実施例による方法は、入力ビデオ信号を読み取るステップ(ステップ201)、(深さプロファイルが記録されていない3D画像又は2D画像の場合)深さプロファイルを演算するステップ又は(関連する深さプロファイルが記録されている3D画像の場合)深さプロファイルを読み取るステップ(ステップ203)、検定統計量(test statistic(s))を演算するステップ(ステップ205)、検定統計量を関連する閾値と比較するステップ(ステップ207)及びこの比較からショットタイプを定義するステップ(ステップ209)を有する。
本発明の好ましい実施例による装置は、画像入力用のインタフェース手段を有する。インタフェース手段は、図2の方法のステップを実行するように構成されたプロセッサに接続される。
検定統計量を演算するステップ205の詳細が図3に示されている。
先ず、ビデオフレームが深さでクラスタ化される(ステップ301)ビデオフレームのピクセルが、2つの深さ値のクラスタ、すなわち、前景及び遠景に分けられる。最初のクラスタ化は、左、上及び右境界(例えば、画像の1/4)上の画像部分、すなわち、ピクセルブロックを"背景"クラスタに割り当て、他のピクセルを"前景"クラスタに割り当てることからなる。次いで、反復プロシージャ(ステップ303乃至307)が、このクラスタをより正確にする(refine)ために実行される。
ステップ303において、2つのクラスタの各々に対して、平均クラスタ深さが演算される。次いで、ステップ305において、画像が掃引され(swept)、クラスタ境界上の各部分に対して、クラスタの平均深さに最小の差を持つクラスタに割り当てられる。これらのステップは、収斂が生じる(ステップ307)まで繰り返される。これは典型的には4回の反復を要することが分かった。
生成された2つのクラスタを持って、これらクラスタを検定するために用いられる種々の統計量が演算される(ステップ308)。
演算される統計量は、例えば、これらクラスタの平均値の差、これらクラスタの標準偏差及びこれらクラスタの面積である。
一般に、平均値の小さな差、又はこれらクラスタのうちの一つに対する小さな面積は、クラスタのための証拠が無いこと、すなわち、フレームはロングショットであることを示すのに対し、(平均値の差と比較して)小さな標準偏差は、クラスタ化が有意であること、すなわち、クローズアップショットであることを示す。
ショットタイプを区別するために用いられる検定統計量は、以下のように与えられる。
ここで、α1及びα2は、(α1+α2=1であるように)各クラスタの面積の割合であり、Δμは、クラスタの平均値の差であり、σtは、深さ信号の標準偏差である。
ここで、α1及びα2は、(α1+α2=1であるように)各クラスタの面積の割合であり、Δμは、クラスタの平均値の差であり、σtは、深さ信号の標準偏差である。
各クラスタが画像の半分を占める場合に対して、この式は、平均値の差が有意であるかどうかを検定するための従来の検定になる。したがって、95%の信頼区間(confidence interval)に対して、
である。
である。
これは、2つの異なるクラスタの存在、すなわち、クローズアップショットの存在を意味するであろう。前景の深さ及び背景の深さの割合は典型的にはちょうど50%ではないので、閾値を少し小さめに選択しても良い。他のアプローチは、多量のビデオコンテンツの統計量に基づく、例えば、適合率曲線(precision curve)/再現率曲線(recall curve)に基づく閾値の経験的決定であろう。
深さが2Dビデオから演算される場合、上述の実施例が直接実行され得る。しかしながら、代替例が図4を参照して以下に述べられている。
目下の深さ推定プロセスにおいては、異なるキューから導出される深さ信号が(線形に)マージされる。したがって、組み合わされた深さプロファイルを用いることに代えて、キューの限定的なサブセットが用いられてもよい。深さキューは、本質的に生理学的又は心理学的であっても良い。本発明のこの実施例においては、動き及び焦点分析から導出される深さ信号しか用いられていない。以下の表1は、異なる状況を区別している。
基本的に、(深さキューの何れかにおいて)2つの明らかに区別できるクラスタからなる深さ信号が得られた場合、これはクローズアップを示し、明らかなクラスタ化を伴う深さキューがない場合、これはロングショットを示す。しかしながら、静止シーン(カメラ又は物体の移動がない)の場合、区別は不可能である。
図4を参照して、本発明の第2の実施例が述べられている。
先ず、入力ビデオ信号が読み取られる(ステップ401)。次いで、動き推定(motion estimation)が演算される(ステップ403)。これは、例えば、G de Haan及びP.W.A.C. Biezenによる1998年発行の "An efficient true-motion estimator using candidate vectors from a parametric motion model", IEEE Transactions on Circuits and Systems for Video Technology, vol. 8, 85-91頁に述べられているような従来の3DRS動き推定を用いて実行される。(動きフィールドがそれ程滑らかではないため)好ましさが低い代替例は、MPEG動きベクトルを用いることであろう。
ステップ405において、動き検出検定統計量が演算される。動きがあるかどうかを検出するため、以下の検定統計量が用いられる。
ここで、bは全てのブロックのラベルであり、Nbはブロックの数であり、m(b)は動きベクトルである。したがって、tcは動きの平均の大きさである。
ここで、bは全てのブロックのラベルであり、Nbはブロックの数であり、m(b)は動きベクトルである。したがって、tcは動きの平均の大きさである。
ステップ409において、動きからの深さが演算される。動きフィールドから深さ信号を演算するため、背景の動きが減算される。背景の動きの推定は、(変換(translation)及びズームパラメータからなる)パン−ズームモデルを推定することからなる。これは当該技術分野において既知である。次いで、動きからの深さの信号dmが以下のように演算される。
ここで、mbgは、特定ブロックの予測された背景動きベクトルである。
ここで、mbgは、特定ブロックの予測された背景動きベクトルである。
次いで、ステップ411において、動きからの深さのクラスタ化の検定統計量が演算され、上述した式(1)及び(2)により与えられる方法と同様にステップ413において閾値と比較される。
さらに、ステップ415において、焦点からの深さが演算される。焦点は、例えば、J.H. Elder及びS.W. Zuckerによる1998年発行の"Local scale control for edge detection and blur estimation", IEEE Transactions on Pattern Analysis and Machine Intelligence", vol. 20, 689-716頁に開示されている方法を用いて演算され得る。
次いで、ステップ417において、焦点からの深さのクラスタ化の検定統計量が演算され、上述した式(1)及び(2)により与えられる方法と同様にステップ419において閾値と比較される。
表1にしたがって、ショットタイプに関する決定がなされる(ステップ421)。これは、個々のフレームに基づいてなされ得るし、又はショットの全てのフレームにわたる多数決としてなされ得る。代替的な実施例においては、検定統計量の値が与えられる特定のショットタイプの確率が割り当てられても良く、これから、ショットタイプが導出される。
本発明の好ましい実施例が、添付の図面を参照して図示され、上述の詳細な説明において述べられたが、本発明は、開示された実施例に限定されるものではなく、請求項に述べられる発明の範囲から逸脱することなく多くの変形が可能であることを理解されたい。
Claims (15)
- 画像のショットタイプを決定する方法であって、
少なくとも第1クラスタ又は第2クラスタに前記画像の一部を割り当てるステップであって、これらクラスタは、異なる範囲の、当該クラスタに対応する深さ値を持つ、ステップ、及び
前記第1クラスタ及び前記第2クラスタの両方が少なくとも1つの部分に割り当てられているかどうか、または前記第1クラスタ及び前記第2クラスタの深さ値の差の段階的若しくは漸次的な変化があるかどうかに基づいて前記画像のショットタイプを決定するステップ、
を有する方法。 - 深さ値の差の段階的若しくは漸次的な変化があるかどうかに基づく前記決定は、前記クラスタの統計的特性に基づくことを特徴とする請求項1に記載の方法。
- 前記統計的特性は、前記第1クラスタ及び前記第2クラスタの前記深さ値の平均値の差、クラスタにおける深さ値の標準偏差及びクラスタの面積のうちの少なくとも1つを含むことを特徴とする請求項2に記載の方法。
- 前記第1クラスタ及び前記第2クラスタの深さの差の段階的若しくは漸次的な変化があるかどうかを決定する前記ステップは、
前記第1クラスタ及び前記第2クラスタの一方における深さ値の標準偏差を前記第1クラスタ及び前記第2クラスタの平均深さ値の差と比較するステップ、及び
前記標準偏差が前記平均深さ値の差と比較してかなり小さい場合、前記第1クラスタ及び前記第2クラスタの深さの差の段階的な変化があり、前記画像はショートショットタイプとして分類されるステップ、
を有することを特徴とする請求項3に記載の方法。 - 前記第1クラスタ及び前記第2クラスタの深さの差の漸次的な変化があるかどうかを決定する前記ステップは、
前記第1クラスタ及び前記第2クラスタの平均深さ値の差を比較するステップ、
前記平均深さ値の差が閾値より小さいかどうか決定するステップ、及び
前記平均深さ値の差が前記閾値より小さい場合、前記第1クラスタ及び前記第2クラスタの深さの差の漸次的な変化があり、前記画像はロングショットであると決定されるステップ、
を有することを特徴とする請求項3又は4に記載の方法。 - 当該方法は、
前記第1クラスタ及び前記第2クラスタの各々の面積を比較するステップ、及び
前記第1クラスタ及び前記第2クラスタの一方が小さい若しくはゼロである場合、または面積の差が閾値よりも大きい場合、前記画像はロングショットタイプとして決定されるステップ、
を有することを特徴とする請求項3、4又は5に記載の方法。 - 前記第1クラスタ及び前記第2クラスタは前記画像の背景及び前景を有することを特徴とする請求項1乃至6の何れか一項に記載の方法。
- 当該方法は、
前記第1クラスタ及び前記第2クラスタの境界上にある前記画像の前記一部を特定するステップ、
前記画像の前記特定された一部のピクセルの深さと前記第1クラスタ及び前記第2クラスタの各々の平均深さ値との差を演算するステップ、及び
前記一部を最小の深さの差を持つクラスタに割り当てるステップ、
を有することを特徴とする請求項1乃至7の何れか一項に記載の方法。 - 前記画像は当該画像に対応する深さプロファイルマップを持つ3D画像であり、前記深さ値は前記深さプロファイルマップから導出されることを特徴とする請求項1乃至8の何れか一項に記載の方法。
- 前記画像は2D画像であることを特徴とする請求項1乃至8の何れか一項に記載の方法。
- 前記深さ値は前記2D画像の推定された深さプロファイルマップから導出されることを特徴とする請求項10に記載の方法。
- 前記第1クラスタ及び前記第2クラスタは複数の異なるキューから獲得されることを特徴とする請求項10又は11に記載の方法。
- 前記キューは動き及び焦点を含むことを特徴とする請求項12に記載の方法。
- 画像のショットタイプを決定する装置であって、
画像入力用のインタフェース手段、及び
少なくとも第1クラスタ又は第2クラスタに前記画像の一部を割り当てるプロセッサであって、これらクラスタは、異なる範囲の、当該クラスタに対応する深さ値を持ち、当該プロセッサは、前記第1クラスタ及び前記第2クラスタの両方が少なくとも1つの部分に割り当てられているかどうか、または前記第1クラスタ及び前記第2クラスタの深さ値の差の段階的若しくは漸次的な変化があるかどうかに基づいて前記画像のショットタイプを決定する、プロセッサ、
を有する装置。 - 請求項1乃至13の何れか一項に記載の方法を実行するための複数のプログラムコード部分を有するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05109019 | 2005-09-29 | ||
PCT/IB2006/053211 WO2007036823A2 (en) | 2005-09-29 | 2006-09-11 | Method and apparatus for determining the shot type of an image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009512246A true JP2009512246A (ja) | 2009-03-19 |
Family
ID=37836617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008532915A Pending JP2009512246A (ja) | 2005-09-29 | 2006-09-11 | 画像のショットタイプを決定する方法及び装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20080253617A1 (ja) |
EP (1) | EP1932117A2 (ja) |
JP (1) | JP2009512246A (ja) |
CN (1) | CN101278314A (ja) |
WO (1) | WO2007036823A2 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4664432B2 (ja) * | 2007-04-13 | 2011-04-06 | パイオニア株式会社 | ショットサイズ識別装置及び方法、電子機器、並びにコンピュータプログラム |
JP4876080B2 (ja) * | 2008-01-25 | 2012-02-15 | 富士重工業株式会社 | 環境認識装置 |
JP4956452B2 (ja) * | 2008-01-25 | 2012-06-20 | 富士重工業株式会社 | 車両用環境認識装置 |
US8452599B2 (en) * | 2009-06-10 | 2013-05-28 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for extracting messages |
US8269616B2 (en) * | 2009-07-16 | 2012-09-18 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for detecting gaps between objects |
US8337160B2 (en) * | 2009-10-19 | 2012-12-25 | Toyota Motor Engineering & Manufacturing North America, Inc. | High efficiency turbine system |
US8237792B2 (en) * | 2009-12-18 | 2012-08-07 | Toyota Motor Engineering & Manufacturing North America, Inc. | Method and system for describing and organizing image data |
US8424621B2 (en) | 2010-07-23 | 2013-04-23 | Toyota Motor Engineering & Manufacturing North America, Inc. | Omni traction wheel system and methods of operating the same |
US8861836B2 (en) | 2011-01-14 | 2014-10-14 | Sony Corporation | Methods and systems for 2D to 3D conversion from a portrait image |
WO2012114236A1 (en) * | 2011-02-23 | 2012-08-30 | Koninklijke Philips Electronics N.V. | Processing depth data of a three-dimensional scene |
CN104135658B (zh) * | 2011-03-31 | 2016-05-04 | 富士通株式会社 | 在视频中检测摄像机运动类型的方法及装置 |
US20140181668A1 (en) | 2012-12-20 | 2014-06-26 | International Business Machines Corporation | Visual summarization of video for quick understanding |
CN109165557A (zh) * | 2018-07-25 | 2019-01-08 | 曹清 | 景别判断系统及景别判断方法 |
CN113572958B (zh) * | 2021-07-15 | 2022-12-23 | 杭州海康威视数字技术股份有限公司 | 一种自动触发摄像机聚焦的方法及设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244424A (ja) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 映像シーン分類方法及び装置及びプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6084979A (en) * | 1996-06-20 | 2000-07-04 | Carnegie Mellon University | Method for creating virtual reality |
US6556704B1 (en) * | 1999-08-25 | 2003-04-29 | Eastman Kodak Company | Method for forming a depth image from digital image data |
US7016540B1 (en) * | 1999-11-24 | 2006-03-21 | Nec Corporation | Method and system for segmentation, classification, and summarization of video images |
JP2003018604A (ja) * | 2001-07-04 | 2003-01-17 | Matsushita Electric Ind Co Ltd | 画像信号符号化方法、画像信号符号化装置および記録媒体 |
US7031844B2 (en) * | 2002-03-18 | 2006-04-18 | The Board Of Regents Of The University Of Nebraska | Cluster analysis of genetic microarray images |
JP4036328B2 (ja) * | 2002-09-30 | 2008-01-23 | 株式会社Kddi研究所 | 動画像データのシーン分類装置 |
-
2006
- 2006-09-11 WO PCT/IB2006/053211 patent/WO2007036823A2/en active Application Filing
- 2006-09-11 JP JP2008532915A patent/JP2009512246A/ja active Pending
- 2006-09-11 US US12/067,993 patent/US20080253617A1/en not_active Abandoned
- 2006-09-11 EP EP06809281A patent/EP1932117A2/en not_active Withdrawn
- 2006-09-11 CN CNA2006800360231A patent/CN101278314A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244424A (ja) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 映像シーン分類方法及び装置及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN101278314A (zh) | 2008-10-01 |
WO2007036823A2 (en) | 2007-04-05 |
US20080253617A1 (en) | 2008-10-16 |
WO2007036823A3 (en) | 2007-10-18 |
EP1932117A2 (en) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009512246A (ja) | 画像のショットタイプを決定する方法及び装置 | |
CN112990191B (zh) | 一种基于字幕视频的镜头边界检测与关键帧提取方法 | |
CN106664417B (zh) | 用于视频编码的内容自适应背景前景分割的方法、系统及机器可读介质 | |
KR100901904B1 (ko) | 카메라 움직임 추정 방법 및 비디오 움직임 식별 장치 | |
KR100846498B1 (ko) | 영상 해석 방법 및 장치, 및 동영상 영역 분할 시스템 | |
US8045783B2 (en) | Method for moving cell detection from temporal image sequence model estimation | |
US8325220B2 (en) | Stereoscopic image display method and apparatus, method for generating 3D image data from a 2D image data input and an apparatus for generating 3D image data from a 2D image data input | |
Karaman et al. | Comparison of static background segmentation methods | |
CN106663325B (zh) | 图像处理装置及其图像处理方法 | |
JPWO2018061976A1 (ja) | 画像処理装置 | |
JP2009147911A (ja) | 映像データ圧縮前処理方法およびこれを用いた映像データ圧縮方法と映像データ圧縮システム | |
CN109194955B (zh) | 一种场景切换检测方法及系统 | |
US8306123B2 (en) | Method and apparatus to improve the convergence speed of a recursive motion estimator | |
US8311269B2 (en) | Blocker image identification apparatus and method | |
KR100963701B1 (ko) | 영상 식별 장치 | |
KR101667011B1 (ko) | 입체 영상의 장면 전환 검출 장치 및 방법 | |
US9082176B2 (en) | Method and apparatus for temporally-consistent disparity estimation using detection of texture and motion | |
US8582882B2 (en) | Unit for and method of segmentation using average homogeneity | |
CN106416244A (zh) | 运动场估计 | |
JP2006518960A (ja) | ショット切れ目検出 | |
KR20190102736A (ko) | 이동체를 고려한 영상 잡음 제거 방법 및 그를 위한 장치 | |
Prabavathy et al. | Gradual transition detection in shot boundary using gradual curve point. | |
Ewerth et al. | University of Marburg at TRECVID 2005: Shot Boundary Detection and Camera Motion Estimation Results. | |
JPWO2006129622A1 (ja) | 特徴量の予測誤差に基づいて動画像のカット点を検出する装置 | |
Deshpande et al. | Motion based video classification for SPRITE generation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111011 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20120301 |