JP4146955B2 - 画像処理方法及び画像処理装置 - Google Patents
画像処理方法及び画像処理装置 Download PDFInfo
- Publication number
- JP4146955B2 JP4146955B2 JP03652499A JP3652499A JP4146955B2 JP 4146955 B2 JP4146955 B2 JP 4146955B2 JP 03652499 A JP03652499 A JP 03652499A JP 3652499 A JP3652499 A JP 3652499A JP 4146955 B2 JP4146955 B2 JP 4146955B2
- Authority
- JP
- Japan
- Prior art keywords
- frame
- image
- scene change
- image processing
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
Description
【発明の属する技術分野】
本発明は、動画から動画シーンの変わり目、いわゆるシーンチェンジを検出する画像処理方法及び画像処理装置に関するものである。
【0002】
【従来の技術】
従来より、動画からシーンチェンジを抽出する方法として、動画を構成する各フレームの色のヒストグラムを取りその変化を演算し、その評価値を何らかのしきい値処理を行なうことで検出する方法や、MPEG2等で用いる動きベクトル情報を用いた方法が提案されてきた。
【0003】
【発明が解決しようとする課題】
しかしながら、ヒストグラムを用いる方法は、計算コストが小さく処理が早くリアルタイム性があるという長所がある反面、次のシーンが似たようなヒストグラムを持つシーンにおいてはシーンチェンジが検出できない、あるいは物体の急激な変形や回転によりシーンチェンジが過剰に検出されるなどの欠点もあった。
【0004】
また、動きベクトルを用いた方法は、精度が高くオブジェクト抽出等の他の応用も考えられる処理であるが、計算に非常に多くの時間がかかり、リアルタイム性がないという欠点がある。また、MPEG2でエンコードされたデータから動きベクトル情報を抜き出し、動きベクトル演算を省略する場合でも、この動きベクトル演算の精度はエンコーダの性能に依存しているので、必ずしも全てのMPEG2のファイルに対して高い性能を約東できないなどの弱点があった。
【0005】
本発明は、上記の問題点に鑑みてなされたものであり、色とその構図を考慮したシーンチェンジ検出を行う画像処理方法及び画像処理装置を提供することを目的とする。
【0006】
また、本発明の他の目的は、ファイルのエンコーダに依存せず、しかもリアルタイム性のある効果的で且つ処理の軽いシーンチェンジ検出を行う画像処理方法及び画像処理装置を提供することにある。
【0007】
【課題を解決するための手段】
上記の目的を達成するための本発明の画像処理装置は、動画像のフレーム画像を取得する取得手段と、フレーム画像の特徴量を抽出する抽出手段と、前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積手段と、前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出手段と、前記検出手段による前記動画像のシーンチェンジの検出頻度に応じて前記検出手段の検出感度を制御する制御手段と、
を備えることを特徴とする。
【0008】
また、上記目的を達成する本発明の画像処理方法は、動画像のフレーム画像を取得する取得工程と、フレーム画像の特徴量を抽出する抽出工程と、前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積工程と、前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出工程と、前記検出工程における前記動画像のシーンチェンジの検出頻度に応じてシーンチェンジの検出感度を制御する制御工程と、を備えることを特徴とする。
【0009】
また、上記目的を達成する本発明の記憶媒体は、動画像のフレーム画像を取得する取得工程と、フレーム画像の特徴量を抽出する抽出工程と、前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積工程と、前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出工程と、前記検出工程における前記動画像のシーンチェンジの検出頻度に応じてシーンチェンジの検出感度を制御する制御工程と、をコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体である。
【0010】
【発明の実施の形態】
以下、添付の図面を参照して本発明の好適な一実施の形態を説明する。
【0011】
<本実施の形態の画像処理装置の構成例>
図1は、本実施の形態のシーンチェンジ検出機能を有する画像処理装置の構成例を示すブロック図である。
【0012】
同図において、101はCPUであり、本実施の形態のシーンチェンジ検出装置における各種演算・制御を実行する。102はROMであり、本装置の立ち上げ時に実行されるブートプログラムや各種の固定データを格納する。103はRAMであり、CPU101が処理するための制御プログラムを格納するとともに、CPU101が各種制御を実行する際の作業領域を提供する。例えば、RAM103は、動画像の複数フレームのラベル列を記憶するラベル列記憶部103aと、ラベル列生成モジュールやDPマッチングモジュール等を含むプログラム記憶部103bとを有し、例えば、以下に説明するフレーム画像メモリとしても使用される。104はキーボード、105はマウスであり、ユーザによる各種入力操作環境を提供する。
【0013】
106は外部記憶装置であり、ハードディスクやフロッピー(登録商標)ディスク、CD−ROM等で構成され、例えば、以下に説明する動画像管理データベースを記憶する。107は表示器である。108はネットワークインターフェースであり、ネットワーク上の各機器との通信を可能とする。109はインターフェース、110は動画像入力のための周辺機器である。また、111は上記の各構成を接続するパスである。
【0014】
なお、上記の構成において外部記憶装置106はネットワーク上に配置されたもので代用してもよく、動画像入力のための周辺機器110はビデオカメラのほかビデオデッキやビデオプレーヤー及びテレビチューナーの様に動画を入力する様々な機器を指す。また、RAM103の制御プログラムは、外部記憶装置106あるいは周辺装置110やネットワークからロードされて実行されるよう構成されてもよい。
【0015】
図2は、本実施の形態の画像処理装置装置のシーンチェンジ検出機能の構成を示すブロック図である。
【0016】
同図において、11はユーザインターフェース部であり、表示器107、キーボード104及びマウス105を用いて、ユーザからの各種の操作入力を検出する。12は動画像入力部であり、動画像入力のための周辺機器110による動画像のフレーム取り込みを行う。13はフレーム画像メモリであり、動画像入力部12によって得られたフレーム画像のデータをRAM103の所定の領域に格納する。
【0017】
14は画像特微量抽出部であり、フレーム画像メモリ13に格納した画像について、後述の手順で特徴量を抽出する。15は特徴量ラベル列化部であり、画像特徴量抽出部14によって得られた特徴量に基づいてラベル列を生成する。16はパターンマッチングによるシーンチェンジ検出部であり、RAM103の所定の領域に格納されているN個の隣接あるいは近傍のフレーム画像のラベル列群との類似度を算出し、その値を閾値処理することによりシーンチェンジフレームを検出する。そして、FIFO(First In First Out)の原理でRAM103に格納した最も古いフレーム画像のラベル列を破棄し、現在のフレーム画像のラベル列を格納する。
【0018】
17はシーンチェンジ情報蓄積部であり、動画像入力部12等によって得られた動画像データのどのフレームがシーンチェンジ点であるかを記憶・蓄積する。
【0019】
図3は、シーンチェンジ情報蓄積部17におけるシーンチェンジ情報の格納状態を説明する図である。
【0020】
動画像データ中の各画像フレームにはその動画中におけるユニークな画像フレームIDが付与され、シーンチェンジ情報蓄積部17にはシーンチェンジ情報112が新しいシーンの開始する画像フレームのIDの形で保持される。
【0021】
18は動画像管理データベース(以下、動画像管理DB)であり、図8で示されるデータ形態で、動画像データ113とシーンチェンジ情報蓄積部17に格納されたシーンチェンジ情報112を対応づけて管理する。
【0022】
シーンチェンジ検出処理に関してさらに説明を行なう。
【0023】
まず、動画像から各フレーム画像を順に取り出し、これらのフレーム画像を、図5のように、複数のブロックに分割し、各ブロックについて取得された特徴量に応じてラベルを付与する。次に、付与されたラベルを所定のブロック順序に基づいて並べることによりラベル列を生成し、生成されたラベル列を過去Nフレーム分メモリに記憶する。この時に、メモリに記憶された過去のフレームのラベル列と生成された現在のフレームのラベル列の比較を行ない、比較に基づいてシーンチェンジの有無を判定する。
【0024】
<本実施の形態の画像処理装置の動作例>
以上のような構成を備えた本実施の形態の画像処理装置の動作例を以下に説明する。なお、以下の例では、色に着目した画像特徴量として、赤(R)、緑(G)、青(B)の3色を採用し、3次元の色空間での処理を用いて説明する。
【0025】
(フレームからラベル列を得る処理)
まず、動画像から1つのフレーム画像を取り出し、このフレーム画像を複数のブロックに分割し、各ブロックについて取得された特徴量に応じてラベルを付与し、付与されたラベルを所定のブロック順序に基づいて並べることによりラベル列を生成する処理を説明する。
【0026】
図4は、本実施の形態によるフレームからラベル列を得る処理の手順を表すフローチャートである。
【0027】
ユーザーインターフェース部11を介しての指示により、シーンチェンジ検出を行なう動画ファイルを指示すると、ステップS10の判定により、残りのフレーム画像が存在するだけステップS11からステップS18までの処理が繰り返される。
【0028】
まず、ステップS11において、動画ファイルをシークし、1フレームの画像を読み出しフレーム画像メモリ13に保持する。次に、ステップS12において、この画像を複数のブロックに分割する。本実施の形態では、画像を縦横の複数ブロックに分割する。図5は、本実施の形態による画像のブロック分割例を示す図である。同図に示されるように、本実施の形態では、3×3の計9個に画像を分割するものとする。次に、ステップS13において、分割された各ブロックの特徴量を算出し、得られた特徴量を次の手順でラベル化する。
【0029】
図6は、本実施の形態による多次元特徴量空間を説明する図である。
【0030】
図6に示すように、多次元特徴量空間(RGBカラー空間)を複数のブロック(色ブロック)、即ちセル(色セル)に分割し、夫々のセル(色セル)に対して通し番号でユニークなラベルを付与する。ここで、多次元特徴量空間(RGBカラー空間)を複数のブロックに分けたのは微妙な特徴量(色)の違いを吸収するためである。
【0031】
ステップS13では、ステップS12で得られた各分割ブロックに対して、定められた画像特徴量計算処理を行い、上記多次元特徴量空間上のどのセルに属するかを求め、対応するラベルを求める。この処理を全てのブロックに対して行う。すなわち、本例の画像特徴量計算処理では、分割画像ブロックに対して、全ての画素がどの色セルに属するかの計算処理を行い、もっとも頻度の多い色セルのラベルをその分割画像ブロックのパラメータラベル(カラーラベル)として決定し、この処理を全てのブロックに対して行う。
【0032】
以上のようにして各ブロックに対してパラメータラベルが付与されると、ステップS14において、各ブロックに付与されたパラメータラベルを所定のブロック順序で並べることにより、パラメータラベル列(以下、ラベル列という)が生成される。
【0033】
図7は、ラベル列を生成する際のブロック順序例を説明する図である。同図の分割画像ブロックの升にある数字の小さい順に上記のパラメータラベルを並べ、ラベル列を作る。
【0034】
なお、本実施の形態に適用可能なスキャンの方法としては、例えば、
・水平方向のスキャン(例えば、左から右へのスキャンを上から下へ行う:図7の(a)、左から右へのスキャンを下から上へ行う:図7の(c)、右から左へのスキャンを上から下へ行う:図7の(b)、右から左へのスキャンを下から上へ行う:図7の(d)、等のスキャン方法が考えられる)と、
・垂直方向のスキャン(例えば、図示しないが、上から下へのスキャンを左から右へ行う、上から下へのスキャンを右から左へ行う、下から上へのスキャンを左から右へ行う、下から上へのスキャンを右から左へ行う、等のスキャン方法が考えられる)とがある。しかしながら、これに限定されるものではない。
【0035】
本実施の形態では、以下の条件を満足するスキャン方法を採用する。
(1)ラベル列同士の時系列的な比較であるので、この順序に逆転が生じることは好ましくない。よって、すべての画像を所定のスキャン方法でスキャンしてラベル列化を行う必要がある。
(2)位置の近いブロックはラベル列中においても近くに位置することが望ましい。
(3)注目する物体に引っ掛かるブロックのラベルが出来る限り早く現れ、且つ長く続くことがマッチングを行いやすくする。
(4)物体が動いたり、アングルが変わったりしても、ラベルの並びが極端に変わらないようにする。
【0036】
本実施の形態では、図7の(a)のように左から右方向への水平スキャンを上から下へ行うスキャンを採用する。
【0037】
(シーンチェンジを検出する処理)
以上のようにして得たラベル列が過去Nフレーム分だけメモリ上に蓄積してあり、続いてステップS15において、過去のNフレームと現在のフレームのラベル列を比較し、シーンチェンジを検出する。ここで、Nは最小値を2とする。
【0038】
以下、全く違うシーンが結合されたもののシーンチェンジを検出する方法を例に、本実施の形態のラベル列からシーンチェンジを検出する一例を、ステップS15を更に詳細に示した図9のフローチャートを用いて説明する。尚、全く違うシーンが結合されたものにおいても、編集におけるコマ落ち等の不備や、カメラのフラッシュ等のように1コマだけ大きく明るさの変わるものがあり、これに対して誤動作(シーンチェンジの過剰検出)を行なわないようにすることが大切である。
【0039】
まず、ステップS20において現在のフレーム画像から得たラベル列と直前のフレーム画像から得たラベル列の類似度を後で述べる方法で求め、ステップS21においてこの類似度と閾値とを比較し、類似度が閾値より大きければステップS25においてシーンチェンジ無しというステータスを返し、リターンする。補足をするとこの後は、図4に戻ってステップS16からステップ18に進んで、現在のフレーム画像のラベル列をRAMに記憶したのち、ステップS10に戻り続いてステップS11以下における新しいフレーム画像を読み込み込む処理に戻る。
【0040】
ステップS21において類似度が閾値以下であれば、ステップS22において、先に求めRAM上に記憶してある現在の2つ前のフレーム画像から得たラベル列と現在のフレーム画像から得たラベル列とを比較し、ステップS23においてその類似度がやはり閾値以下であれば、ステップS24においてシーンチェンジありというステータスを返す。もし、ステップS23においてその類似度が閾値より大きければ、編集における不備や、カメラのフラッシュ等のように1コマだけ大きく明るさの変わったものとみなし、ステップS25においてシーンチェンジ無しというステータスを返す。
【0041】
(類似度を算出する処理)
次に、フレーム画像間の類似度の算出、即ちラベル列同士の類似比較(類似度の算出)を行う方法について詳細に述べる。なお、以下では、ステップS14で取得したラベル行列を検索元フレーム画像の検索元ラベル行列と称する。
【0042】
ラベル間のパターンマッチングの際に隣接するセル同士ではペナルティー(距離の)を小さくし、遠いものには大きなペナルティーを与えるために、図10に示すようなラベル間でのペナルティーマトリックスを導入する。ステップS15内のステップS20やS22では、このペナルティーマトリックスを考慮してラベル行列同士を比較するが、その際に以下に説明する2次元的なDPマッチング(以下、2次元DPマッチングという)を使用する。
【0043】
図11は、本実施の形態による類似度算出処理を説明する図である。
【0044】
上述のステップS14において取得された検索元ラベル行列は、そのスキャン方法に従って図11の(b)のように並べることができる。また、RAMに格納された過去Nフレーム分のフレーム画像のラベル行列のうちの1つを比較先フレーム画像の比較先ラベル行列とすると、そのラベル行列は図11の(a)のように並べることができる。
【0045】
まず、比較先ラベル行列の第1行目のラベル列「abc」と、検索元ラベル行列の第1から第3行目のラベル列(「123」、「456」、「789」)のそれぞれとの距離をDPマッチングによって求め、その距離が最少となるラベル列の検索元ラベル行列における行番号を類似ライン行列(図11の(c))の該当する位置に記憶する。また、得られた最小距離が所定の閾値よりも大きい場合には、どの行とも類似していないと判断し、類似ライン行列の該当する位置に「!」を記憶する。DPマッチングの性質により、たとえば画像のアングルが水平方向に多少変わっていたとしても、上記処理により類似する行(ライン)を検出可能である。以上の処理を、類似比較先画像の全ての行(「def」、「ghi」)について行うことで、図11の(c)のような列方向の類似ライン行列が得られる。
【0046】
図11の(c)では、「abc」に類似した行が検索元ラベル行列に存在せず、「def」に類似した行が検索元ラベル行列の第1行目、「ghi」に類似した行が検索元ラベル行列の第2行目であったことを示している。以上のようにして得られた類似ライン行列と標準ライン行列(検索元フレーム画像の行の並びであり、本例では「123」となる)との類似度を、更にDPマッチングを用いて算出し、これを当該検索元フレーム画像と当該比較先フレーム画像との類似度として出力する。
【0047】
なお、DPマッチングでは、周知のように、比較するラベルシーケンスが最も類似距離が小さくなるように、比較するラベルシーケンスを伸縮(比較する相手を次に進めないで我慢する)させて比較するという処理を行う。また、何処まで伸縮(我慢)できるかを制約条件(整合窓の幅)で与えることも可能である。
【0048】
図12は、本実施の形態による2次元DPマッチングを採用した類似度算出の手順を説明するフローチャートである。上記図11を参照して説明した処理を、図12のフローチャートを参照して更に詳細に説明する。尚、このフローチャートの処理がステップS20、S22でそれぞれ異なる類似比較先画像に基づいて実行される。
【0049】
まず、ステップS101において、比較先フレーム画像の行番号を表す変数iと、検索元フレーム画像の行番号を表す変数jを1に初期化し、ともに第1行目を示すように設定する。次に、ステップS102において、比較先フレーム画像の第i行目のラベル列を取得する。例えば図11の場合、i=1であれば「abc」が取得される。そして、ステップS103において、検索元フレーム画像の第j行目のラベル列を取得する。例えば、図11において、j=1であれば、「123」が取得される。
【0050】
次にステップS104では、上記ステップS102、S103で得られた2つのラベル列間の距離を、図10で説明した色セルのペナルティー・マトリクスを用いながら、DPマッチングによって求める。そして、ステップS105において、ステップS104で得た距離が第i行目に関してそれまでに得られた距離の最小値であれば、当該行番号(j)をライン行列要素LINE[i]に記憶する。
【0051】
以上のステップS103からステップS105の処理を、類似検索元画像の全ての行について行う(ステップS106、S107)。以上のようにして、比較先フレーム画像の第i行目のラベル列に対して、検索元フレーム画像に含まれる行のうち最も距離の近い行の番号がLINE[i]に格納されることになる。
【0052】
そして、ステップS108において、上記処理で得られたLINE[i]と所定の閾値(Thresh)とを比較する。そして、LINE[i]がThresh以上であればステップS109へ進み、いずれの行とも類似していないことを表す「!」をLINE[i]に格納する。
【0053】
以上説明したステップS102からS108の処理を比較先フレーム画像の全ての行について実行する(ステップS110、S111)ことにより、LINE[1]のLINE[imax]が得られるので、これを類似ライン行列LINE[i]として出力する。
【0054】
次に、ステップS113において、標準ライン行列[1,2,…,imax]と類似ライン行列LINE[1,2,…,imax]とのDPマッチングを行い、両者の距離を算出する。なお、ここで、標準ライン行列とは、1から始まり、列方向に1ずつ増加する行列である。
【0055】
ここで、標準ライン行列と類似ライン行列間とのDPマッチングにおいて用いられるペナルティーについて説明する。列方向の類似ライン行列と標準ライン行列とのDPマッチングのペナルティーの設定として動的なペナルティーを提案する。動的なペナルティーとは、動的にライン番号間のペナルティーを設定するものであり、画像によってライン番号間のペナルティーは変化する。本実施の形態では、類似検索元画像の自分自身の横(行)方向のラベル行列の距離を求め、これに基づいて各行間のペナルティーを求める。
【0056】
図13は、本実施の形態による動的なペナルティー値の設定手順を示すフローチャートである。
【0057】
ステップS121において、変数iを1に、変数jを2にそれぞれセットする。次に、ステップS122において、検索元フレーム画像の第i行目のラベル列を取得し、ステップS123において、検索元フレーム画像の第j行目のラベル列を取得する。そして、ステップS124において、検索元フレーム画像の第i行目のラベル列と第j行目のラベル列とについて、色ペナルティーマトリクスを用いてDPマッチングを行い、距離を獲得する。ステップS125では、ステップS124で得たDPマッチングの距離を、検索元フレーム画像のi行目のラベル列とj行目のラベル列間のペナルティーとしてLINE[i][j]に記憶すると共に、検索元フレーム画像のj行目のラベル列とi行目のラベル列間のペナルティーとしてLINE[j][i]に記憶する。
【0058】
ステップS126によって、変数jの値がjmaxとなるまで、ステップS123、S125の処理が繰返される。この結果、第i行目のラベル列について、i+1からjmax行目の各ラベル列との間のペナルティー値が決定される。そして、ステップS128、S129、S130により、ステップS123、S126の処理を変数iの値が(imax−1)となるまで繰返される。この結果、LINE[i][j]には、i=jの対角成分を除く全てに、上記処理で決定されたペナルティー値が記憶されることになる。
【0059】
次にステップS131では、上記処理で決定されていないLINE[i][j]の対角成分のペナルティーを決定する。この部分はi=jであり、同一のラベル列であるから、その距離は0であり、従ってペナルティー0が記憶される。また、ステップS132では、「!」に関してペナルティーを決定する。すなわち、「!」に対するペナルティーは、LINE[i][j]の全てのペナルティー値の中で、最大のペナルティー値よりもある程度大きな値を設定する。ただし、このペナルティー値を極端に大きくすると、曖昧にヒットする性質が損なわれてしまう。
【0060】
以上のようにして検索元フレーム画像に関して計算されたラベル列間のペナルティーを用いて、上記ステップS113におけるDPマッチングを行い、検索元フレーム画像と比較先フレーム画像との類似度を獲得する。
【0061】
以上説明したマッチング処理は次のような特徴を有する。もし、図11の(a)と(b)が極めて類似していれば、類似ライン行列は「123」となり、その距離は0となる。また、類似ライン行列が「!12」や「212」であれば、検索元フレーム画像に対して比較先フレーム画像は下方向へずれたものである可能性があるし、類似ライン行列が「23!」や「233」であれば検索元フレーム画像に対して比較先フレーム画像が上方向へずれたものである可能性がある。また、類似ライン行列が「13!」や「!13」であれば、検索元フレーム画像に対して比較先フレーム画像が縮小したものである可能性がある。同様に、検索元フレーム画像が比較先フレーム画像を拡大したようなものである場合も検出可能である。
【0062】
上述のステップS113で説明したように、類似ライン行列と標準ライン行列との間でDPマッチングを行うことにより、垂直方向へのずれが効果的に吸収される。このため、上述したような、上方向や下方向へのずれや拡大、縮小等に起因する検索元フレーム画像と比較先フレーム画像との相違が効果的に吸収され、動画のフレーム画像間の良好な類似判定を行うことが可能となる。
【0063】
すなわち、本実施の形態の2次元DPマッチングは、ラベル行列の各ラベル列における前後の曖昧さを許容するマッチングであり、画像の位置ずれの影響を吸収する性質を有する。また、アングルの違い等により物体の位置が変わり、ブロックによって切りとられる物体の位置が変わることにより、ブロックの色合いも微妙に異なることが予想されるが、この違いは上述のペナルティーマトリクスにより吸収されることになる。このように、本実施の形態の2次元DPマッチングによる曖昧さを許容するマッチングと、ペナルティーマトリクスによる特徴量の曖昧さの許容との相乗効果によって、上下左右や拡大、縮小のずれに対しても影響の少ないマッチングを可能としている。
【0064】
ここで動的なペナルティーの利点の他の例を挙げると、例えば、一面麦畑の検索元フレーム画像があったとした場合、どのラインも似たようなラベル列となることが考えられる。一方、比較先フレーム画像にも一面麦畑の画像があったとした場合に、この画像の類似ライン行列には全て最初のライン番号1が入り、「111」となってしまう可能性がある。この場合、類似検索元画像のどのラインも似たような画像となっており、ライン番号間のペナルティーが極めて小さくなければ低い距離でのヒットはしない。しかしながら、動的なペナルティーを用いた場合は、ライン番号間のペナルティーが低くなり、類似度の高い結果を得ることができる。
【0065】
なお、上記実施の形態では、水平方向のブロック並びに対応するラベル列を用いて類似ライン行列を得たが、垂直方向のブロック並びに対応するラベル列を用いて類似ライン行列を得るようにすることも、上記と同様の手法で実現可能である。又、水平及び垂直方向の両方を組み合わせてもよい。
【0066】
また、上記実施の形態では画像特徴量として色情報を選んだが、本発明はこれに限られるものではなく、その他の画像パラメータを画像分割ブロックごとに求めることで実施することも可能である。
【0067】
また、検索元フレーム画像と比較先フレーム画像を比較する際に曖昧度を指定することにより、DPマッチングにおけるいわゆる整合窓の幅を変更することにより、比較の暖味度を所望に設定可能とすることもできる。
【0068】
図14はDPマッチングにおける整合窓を説明する図である。図14において直線AはJ=I+rで表され、直線BはJ=I−rで表される。整合窓の幅はrの値を変更することで行える。したがって、曖昧度を可変することにより、このrの値が変更されるように構成すれば、所望の曖昧度(整合窓の幅)で類似度演算を行えるようになり、例えば動きが極めて激しい動画におけるシーンチェンジ検出や、手ぶれの激しいムービーなどのシーンチェンジ検出にも効果的である。むろんキーボード104から、ユーザが手動でrの値を変化させシーンチェンジの感度を変化させる事も可能であるし、過度にシーンチェンジを検出する場合には自動的にrの値を増加させたり、逆にシーンチェンジが少なすぎる場合にはrの値を自動的に小さくすることも考えられる。
【0069】
また、上記実施の形態のような2次元DPマッチングにおいては、水平方向のDPマッチングにおける整合窓の幅と、垂直方向のDPマッチングにおける整合窓の幅とを別々に設定できるようにしてもよい。或いは、両整合窓が異なる変化率で変化するように構成してもよい。このようにすれば、類似比較演算に際してよりきめ細かい曖昧さの設定を行えるようになる。例えば、図7の(a)で示されたようなブロック順序を用いた場合において、検索元の画像中における注目物体の横方向への移動を許容したいような場合には、横方向への暖味度を大きくするために水平方向のDPマッチングにおける整合窓の幅をより大きくすればよい。
【0070】
再び図4のフローチャートの説明に戻るが、ステップS15において、シーンチェンジを検出したかどうかをステップS16において判断を行い、シーンチェンジを検出していればステップS17の処理でシーンチェンジ情報蓄積部へシーンチェンジ情報を追記する。そして最後にステップS18で、N個過去のフレーム画像のラベル列を破棄し、現在のフレーム画像のラベル列をRAMに格納する。そしてステップS10の処理に戻り、残りのフレーム画像が存在するだけ上記処理を繰り返す。
【0071】
以上説明したように、特徴量群(特徴量空間を分割して得られる特徴量のグループ)を1つのシンボルで表現し(すなわちラベル化し)、ラベル同士の類似度に基づく距離を、上述の2次元DPマッチングとペナルティーマトリクスによって与える。このため、2つの画像のブロック間の距離の計算量を大幅に減少させることができるとともに、類似した特徴量が同じラベルで表されることになるので、2つの画像の類似度計算を良好に行うことができる。
【0072】
また、(1)ペナルティーマトリクスによるラベル同士の距離概念を導入し、(2)比較するラベル位置を前後曖昧に移動させることが出来て、トータルの距離が最小(類以度が最大)となるようなラベル行列の比較を実現する上記2次元DPマッチングを導入したことにより、隣接あるいは近傍の画像フレームに関してはカメラのパンなどによる画像のアングルの変化、被写体の位置の変化や変形、あるいは光源等の撮影条件が変わったりすることによって生じる、色のある程度の違い等を吸収するなど、動画像の或程度の連続した変化を吸収しつつ、真に連続性の無いフレームの出現で顕著にフレーム間類似度が低下するフレーム間パターンマッチャーの実現が可能となる。
【0073】
なお、本発明は、例えばホストコンピュータ,インタフェイス機器,記憶媒体などの複数の機器から構成されるシステムに適用しても、一つの機器からなる装置(例えば、ビデオ編集装置など)に適用してもよい。
【0074】
また、本発明の目的は、前述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
【0075】
プログラムコードを供給するための記憶媒体としては、例えば、フロッピーデイスク,ハードデイスク,光ディスク,光磁気ディスク,CD−ROM,CD−R,磁気テープ,不揮発性のメモリカード,ROMなどを用いることができる。
【0076】
また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0077】
さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0078】
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した(図4、図9、図12、図13等に示す)フローチャートに対応するプログラムコードと含むプログラムが格納されることになる。
【0079】
【発明の効果】
以上説明したように、本発明によれば、カメラのパンなどによる画像のアングルの変化、被写体の位置の変化や変形、あるいは光源等の撮影条件が変わったりすることによって生じる色のある程度の違い等を吸収するなど、動画像の或程度の連続した変化を吸収しつつ、真に連続性の無いフレームの出現で顕著にフレーム間類似度が低下するフレーム間パターンマッチャーの実現によるシーンチェンジ検出が可能となる。
【図面の簡単な説明】
【図1】本実施の形態によるシーンチェンジ検出機能を有する画像処理装置の構成例を示すブロック図である。
【図2】本実施の形態によるシーンチェンジ検出機能の構成例を示すブロック図である。
【図3】本実施の形態によるシーンチェンジ情報蓄管理DBにおけるシーンチェンジ情報の格納状態を説明する図である。
【図4】本実施の形態によるシーンチェンジ情報生成処理の手順を表すフローチャートである。
【図5】本実施の形態による画像のブロック分割例を示す図である。
【図6】本実施の形態による多次元特徴量空間を説明する図である。
【図7】本実施の形態によるラベル列を生成する際のブロック順序例を説明する図である。
【図8】本実施の形態による動画像管理データベースによる動画像データファイル情報の格納形態を説明する図である。
【図9】l本実施の形態による図4におけるシーンチェンジ検出処理の詳細な手順を説明するフローチャートである。
【図10】本実施の形態によるラベル列を比較し類似度を求める際に用いるラベル間のペナルティーマトリックスの一例を示す図である。
【図11】本実施の形態による類似度算出処理を説明する図である。
【図12】本実施の形態による2次元DPマッチングを採用した類似度算出の手順を説明するフローチャートである。
【図13】本実施の形態による動的なペナルティー値の設定手順を示すフローチャートである。
【図14】本実施の形態によるDPマッチングにおける整合窓の調整を説明する図である。
Claims (17)
- 動画像のフレーム画像を取得する取得手段と、
フレーム画像の特徴量を抽出する抽出手段と、
前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積手段と、
前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出手段と、
前記検出手段による前記動画像のシーンチェンジの検出頻度に応じて前記検出手段の検出感度を制御する制御手段と、
を備えることを特徴とする画像処理装置。 - 前記シーンチェンジの検出が多い場合に、前記制御手段が前記検出手段のシーンチェンジの検出感度を下げることを特徴とする請求項1に記載の画像処理装置。
- 前記シーンチェンジの検出が少ない場合に、前記制御手段が前記検出手段のシーンチェンジの検出感度を上げることを特徴とする請求項1又は2に記載の画像処理装置。
- 前記検出手段は、前記抽出手段で所定のフレームから抽出した特徴量が、前記所定のフレームから複数個前までの各フレームから抽出された特徴量の何れにも類似しないと判断された場合に前記所定のフレームにシーンチェンジがあるとして検出することを特徴とする請求項1乃至3の何れか1項に記載の画像処理装置。
- 前記検出手段で検出した前記シーンチェンジのフレームに関する情報を前記フレーム画像と関連付けて記憶する記憶手段をさらに備えることを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
- 前記記憶手段が、前記検出されたシーンチェンジに関するフレームの情報として、検出されたシーンチェンジのフレームの動画先頭からのフレーム数あるいは経過時間を記憶することを特徴とする請求項5に記載の画像処理装置。
- 前記抽出手段が、前記フレーム画像を複数のブロックに分割し、ブロック毎に抽出した特徴量を量子化しラベル行列とすることを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
- 前記検出手段が、前記抽出手段で抽出したラベル行列と前記蓄積手段に蓄積しているラベル行列とを、行又は列毎にDPマッチングで比較することを特徴とする請求項7に記載の画像処理装置。
- 前記検出感度は前記検出手段におけるDPマッチングの整合窓の幅であって、前記制御手段がシーンチェンジの検出頻度に応じて前記整合窓の幅を調節することを特徴とする請求項8に記載の画像処理装置。
- 前記検出手段は、ラベル行列を比較する際に類似度を算出し、演算した類似度が所定値以下になった場合にシーンチェンジと判定することを特徴とする請求項9に記載の画像処理装置。
- 前記検出手段は、所定のフレーム画像のラベル行列の値と以前のフレーム画像のラベル行列の値とを比較する際に、ペナルティーテーブルを参照してペナルティー値を取得し、取得したペナルティー値に基づいて類似度を算出することを特徴とする請求項10に記載の画像処理装置。
- 前記ラベルは、多次元特徴量空間を複数のセルに分割して得られたセルの夫々に与えられる固有のラベルであり、前記ペナルティー値は、2つのラベルが表すセル間の距離に基づいて設定される値であることを特徴とする請求項11に記載の画像処理装置。
- 前記検出手段は、
シーンチェンジのフレーム候補のフレーム画像データのラベル行列より抽出される行単位のラベル列と、それ以前のフレーム画像データのラベル行列より抽出される行単位のラベル列とをDPマッチングによって対応づけて、該抽出された画像データの行並びを得る第1マッチング手段と、
シーンチェンジのフレーム候補のフレーム画像データのラベル行列の行並びと、前記第1マッチング手段で得られた行並びとの類似度をDPマッチングによって求める第2マッチング手段とを備えることを特徴とする請求項1乃至12の何れか1項に記載の画像処理装置。 - 前記第2マッチング手段によって得られた類似度が所定値以下になり、更にそれ以前のフレーム画像に対して上記と同様の処理を行なった結果、前記第2マッチング手段によって得られた類似度が所定値以下になる場合に、シーンチェンジのフレーム候補のフレーム画像データをシーンチェンジのフレーム画像データと決定するフレーム決定手段を更に備えることを特徴とする請求項13に記載の画像処理装置。
- 前記第2マッチング手段は、行並びにおける各行番号のペアについてペナルティー値を保持する行間ペナルティーテーブルを有し、前記シーンチェンジのフレーム候補のフレーム画像データの行並びと前記それ以前のフレーム画像の行並びの類似度をDPマッチング手法を用いて算出するに際して、該行間ペナルティーテーブルを参照することを特徴とする請求項14に記載の画像処理装置。
- 動画像のフレーム画像を取得する取得工程と、
フレーム画像の特徴量を抽出する抽出工程と、
前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積工程と、
前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出工程と、
前記検出工程における前記動画像のシーンチェンジの検出頻度に応じてシーンチェンジの検出感度を制御する制御工程と、
を備えることを特徴とする画像処理方法。 - 動画像のフレーム画像を取得する取得工程と、
フレーム画像の特徴量を抽出する抽出工程と、
前記特徴量を前記フレーム画像に対応付けて蓄積する蓄積工程と、
前記抽出手段で抽出した特徴量と前記蓄積手段に蓄積している特徴量とを比較し、前記動画像のシーンチェンジを検出する検出工程と、
前記検出工程における前記動画像のシーンチェンジの検出頻度に応じてシーンチェンジの検出感度を制御する制御工程と、
をコンピュータに実行させるためのプログラムを記憶したコンピュータ読み取り可能な記憶媒体。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03652499A JP4146955B2 (ja) | 1999-02-15 | 1999-02-15 | 画像処理方法及び画像処理装置 |
US09/503,477 US6977963B1 (en) | 1999-02-15 | 2000-02-14 | Scene change detection method using two-dimensional DP matching, and image processing apparatus for implementing the method |
US11/247,330 US20060050791A1 (en) | 1999-02-15 | 2005-10-12 | Scene change detection method using two-dimensional DP matching, and image processing apparatus for implementing the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP03652499A JP4146955B2 (ja) | 1999-02-15 | 1999-02-15 | 画像処理方法及び画像処理装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000235639A JP2000235639A (ja) | 2000-08-29 |
JP2000235639A5 JP2000235639A5 (ja) | 2005-07-28 |
JP4146955B2 true JP4146955B2 (ja) | 2008-09-10 |
Family
ID=12472202
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03652499A Expired - Fee Related JP4146955B2 (ja) | 1999-02-15 | 1999-02-15 | 画像処理方法及び画像処理装置 |
Country Status (2)
Country | Link |
---|---|
US (2) | US6977963B1 (ja) |
JP (1) | JP4146955B2 (ja) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7075683B1 (en) * | 1999-02-15 | 2006-07-11 | Canon Kabushiki Kaisha | Dynamic image digest automatic editing system and dynamic image digest automatic editing method |
JP2003109009A (ja) * | 2001-09-26 | 2003-04-11 | Communication Research Laboratory | 画像の類似性計測方法及び装置 |
US7286749B2 (en) | 2002-04-16 | 2007-10-23 | Canon Kabushiki Kaisha | Moving image playback apparatus, moving image playback method, and computer program thereof with determining of first voice period which represents a human utterance period and second voice period other than the first voice period |
JP3819870B2 (ja) * | 2003-04-25 | 2006-09-13 | 三洋電機株式会社 | 画像表示装置 |
US7313183B2 (en) * | 2003-06-24 | 2007-12-25 | Lsi Corporation | Real time scene change detection in video sequences |
JP4235604B2 (ja) | 2004-11-22 | 2009-03-11 | キヤノン株式会社 | 画像処理装置、画像処理方法、ならびにプログラム |
JP4613724B2 (ja) * | 2005-07-15 | 2011-01-19 | ソニー株式会社 | 撮像装置および撮像方法 |
US20090168871A1 (en) * | 2007-12-31 | 2009-07-02 | Ning Lu | Video motion estimation |
US20090323084A1 (en) * | 2008-06-25 | 2009-12-31 | Joseph Christen Dunn | Package dimensioner and reader |
US8798160B2 (en) * | 2009-11-06 | 2014-08-05 | Samsung Electronics Co., Ltd. | Method and apparatus for adjusting parallax in three-dimensional video |
JP2011176541A (ja) * | 2010-02-24 | 2011-09-08 | Sony Corp | 立体映像処理装置および方法、並びにプログラム |
US20130170543A1 (en) * | 2011-12-30 | 2013-07-04 | Ning Lu | Systems, methods, and computer program products for streaming out of data for video transcoding and other applications |
CN104244801B (zh) * | 2012-04-18 | 2017-05-10 | 奥林巴斯株式会社 | 图像处理装置和图像处理方法 |
US9544615B2 (en) * | 2014-11-14 | 2017-01-10 | Sony Corporation | Method and system for processing video content |
KR102192488B1 (ko) * | 2015-11-25 | 2020-12-17 | 삼성전자주식회사 | 프레임 레이트 변환 장치 및 그 프레임 레이트 변환 방법 |
CN106937114B (zh) * | 2015-12-30 | 2020-09-25 | 株式会社日立制作所 | 用于对视频场景切换进行检测的方法和装置 |
CN105528594B (zh) * | 2016-01-31 | 2019-01-22 | 江南大学 | 一种基于视频信号的事件识别方法 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2953712B2 (ja) * | 1989-09-27 | 1999-09-27 | 株式会社東芝 | 移動物体検知装置 |
US5099322A (en) * | 1990-02-27 | 1992-03-24 | Texas Instruments Incorporated | Scene change detection system and method |
JP2863818B2 (ja) * | 1990-08-31 | 1999-03-03 | 工業技術院長 | 動画像の変化点検出方法 |
JP3036287B2 (ja) * | 1992-12-15 | 2000-04-24 | 富士ゼロックス株式会社 | 動画像シーン検出装置 |
JP3108585B2 (ja) * | 1993-07-28 | 2000-11-13 | 日本電信電話株式会社 | ビデオ画像プリントアクセス方法およびシステム |
US6606636B1 (en) * | 1993-07-29 | 2003-08-12 | Canon Kabushiki Kaisha | Method and apparatus for retrieving dynamic images and method of and apparatus for managing images |
US5880775A (en) * | 1993-08-16 | 1999-03-09 | Videofaxx, Inc. | Method and apparatus for detecting changes in a video display |
JP2765674B2 (ja) * | 1993-12-16 | 1998-06-18 | インターナショナル・ビジネス・マシーンズ・コーポレイション | データ供給装置 |
US6055025A (en) * | 1993-12-21 | 2000-04-25 | Lucent Technologies, Inc. | Method and apparatus for detecting abrupt and gradual scene changes in image sequences |
JP2914170B2 (ja) * | 1994-04-18 | 1999-06-28 | 松下電器産業株式会社 | 映像変化点検出方法 |
US5802361A (en) * | 1994-09-30 | 1998-09-01 | Apple Computer, Inc. | Method and system for searching graphic images and videos |
US5805733A (en) * | 1994-12-12 | 1998-09-08 | Apple Computer, Inc. | Method and system for detecting scenes and summarizing video sequences |
US5821945A (en) * | 1995-02-03 | 1998-10-13 | The Trustees Of Princeton University | Method and apparatus for video browsing based on content and structure |
JP3534368B2 (ja) * | 1996-04-03 | 2004-06-07 | 株式会社東芝 | 動画像処理方法及び動画像処理装置 |
US6404920B1 (en) * | 1996-09-09 | 2002-06-11 | Hsu Shin-Yi | System for generalizing objects and features in an image |
US6208385B1 (en) * | 1996-10-17 | 2001-03-27 | Kabushiki Kaisha Toshiba | Letterbox image detection apparatus |
JPH10145779A (ja) * | 1996-11-06 | 1998-05-29 | Sony Corp | フィールド検出装置およびフィールド検出方法、画像符号化装置および画像符号化方法、並びに記録媒体および記録方法 |
US6219382B1 (en) * | 1996-11-25 | 2001-04-17 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for locating a caption-added frame in a moving picture signal |
US5806733A (en) * | 1996-11-26 | 1998-09-15 | Nepsco, Inc. | Shoulder carrying strap |
US6400853B1 (en) * | 1997-03-19 | 2002-06-04 | Canon Kabushiki Kaisha | Image retrieval apparatus and method |
US6014183A (en) * | 1997-08-06 | 2000-01-11 | Imagine Products, Inc. | Method and apparatus for detecting scene changes in a digital video stream |
US6571054B1 (en) * | 1997-11-10 | 2003-05-27 | Nippon Telegraph And Telephone Corporation | Method for creating and utilizing electronic image book and recording medium having recorded therein a program for implementing the method |
US20010003214A1 (en) * | 1999-07-15 | 2001-06-07 | Vijnan Shastri | Method and apparatus for utilizing closed captioned (CC) text keywords or phrases for the purpose of automated searching of network-based resources for interactive links to universal resource locators (URL's) |
-
1999
- 1999-02-15 JP JP03652499A patent/JP4146955B2/ja not_active Expired - Fee Related
-
2000
- 2000-02-14 US US09/503,477 patent/US6977963B1/en not_active Expired - Fee Related
-
2005
- 2005-10-12 US US11/247,330 patent/US20060050791A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2000235639A (ja) | 2000-08-29 |
US6977963B1 (en) | 2005-12-20 |
US20060050791A1 (en) | 2006-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4146955B2 (ja) | 画像処理方法及び画像処理装置 | |
US8525935B2 (en) | Moving image processing apparatus and method, and computer readable memory | |
US7489803B2 (en) | Object detection | |
Yu et al. | Trajectory-based ball detection and tracking in broadcast soccer video | |
US8971585B2 (en) | Image processing apparatus for retrieving object from moving image and method thereof | |
Zhong et al. | Spatio-temporal video search using the object based video representation | |
Venkatesh et al. | Efficient object-based video inpainting | |
JP2009539273A (ja) | ビデオクリップからのキーフレーム候補の抽出 | |
US20050129276A1 (en) | Object detection | |
CN106296725A (zh) | 运动目标实时检测与跟踪方法及目标检测装置 | |
CN103390040A (zh) | 一种视频拷贝检测方法 | |
EP1542154A2 (en) | Object detection | |
CN112614159B (zh) | 一种面向仓库场景的跨摄像头多目标跟踪方法 | |
EP1542152A1 (en) | Object detection | |
US20030123541A1 (en) | Shot transition detecting method for video stream | |
JP2018078431A (ja) | オブジェクト追跡装置及びそのプログラム | |
JPH11312248A (ja) | 画像検索装置及び方法 | |
Yang et al. | A multimodal fusion system for people detection and tracking | |
JPH11288418A (ja) | 画像検索装置及び方法 | |
Chen et al. | Player trajectory reconstruction for tactical analysis | |
Mei et al. | Structure and event mining in sports video with efficient mosaic | |
JP3720538B2 (ja) | 画像検索装置及び方法 | |
JP4144835B2 (ja) | 動画像処理装置及びその方法、コンピュータ可読メモリ | |
TWI839241B (zh) | 用於視角轉換的影像處理裝置以及方法 | |
CN113689467B (zh) | 一种适用于平面跟踪的特征点优化方法、系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20041216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20041216 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20041216 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20041216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080331 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080530 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080616 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080623 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110627 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120627 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130627 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |