JP2013196700A - ビデオ処理装置、ビデオ処理方法及び設備 - Google Patents
ビデオ処理装置、ビデオ処理方法及び設備 Download PDFInfo
- Publication number
- JP2013196700A JP2013196700A JP2013053509A JP2013053509A JP2013196700A JP 2013196700 A JP2013196700 A JP 2013196700A JP 2013053509 A JP2013053509 A JP 2013053509A JP 2013053509 A JP2013053509 A JP 2013053509A JP 2013196700 A JP2013196700 A JP 2013196700A
- Authority
- JP
- Japan
- Prior art keywords
- video scene
- video
- scene
- soft label
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Processing (AREA)
Abstract
【解決手段】かかるビデオ処理装置は、代表フレームの抽出及び画像分割を行う前処理ユニット;シーンレベル、フレームレベル及び領域レベルの視覚特徴を抽出する特徴抽出ユニット;シーンレベル、フレームレベル及び領域レベルの重み付きグラフを形成する重み付きグラフ形成ユニット;コスト関数を構築する関数構築ユニット;コスト関数の最適化問題を解き、ビデオシーン、代表フレーム及び領域のソフトラベルを計算する計算ユニット;及び、それらのソフトラベルに基づいてビデオ処理を行うビデオ処理ユニットを含む。
【選択図】図1
Description
(外1)
及び
(外2)
は、それぞれ、上述のビデオシーンセット中の第g個及び第h個のビデオシーンのソフトラベルを表し、そのうち、g=1、2、…、Lであり、h=1、2、…、Lであり、Lは、ビデオシーンセット中に含まれるビデオシーンの数である。
(外3)
及び
(外4)
は、それぞれ、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレーム中の第i個及び第j個の代表フレームのソフトラベルを表し、そのうち、i=1、2、…、Mであり、j=1、2、…、Mであり、Mは、上述のビデオシーンセット中の全てのビデオシーンが含む代表フレームの数である。
(外5)
及び
(外6)
は、それぞれ、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレームが含む全ての領域中の第k個及び第l個の領域のソフトラベルを表し、そのうち、k=1、2、…、Nであり、l=1、2、…、Nであり、Nは、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレームが含む領域の数である。また、fSは、上述のビデオシーンセット中の全てのビデオシーンのソフトラベルからなるベクトルを表し、fFは、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレームのソフトラベルからなるベクトルを表し、fRは、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレーム中の全ての領域のソフトラベルからなるベクトルを表す。
(外7)
は、ビデオシーンセット中の第g個のビデオシーン及び第h個のビデオシーンがシーンレベル重み付きグラフにおいてそれぞれ対応するノード間の重み付き辺の重み値を表し、WSは、シーンレベル重み付きグラフ中の全ての重み付き辺の重み値からなるマトリックスを表し、即ち、
(外8)
は、WSの第g行、第h列の要素であり、また、
(外9)
及び
(外10)
は、それぞれ、WSの第g行の全ての要素の和、及び第h行の全ての要素の和を表す。
(外11)
は、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレーム中の第i個の代表フレーム及び第j個の代表フレームがフレームレベル重み付きグラフにおいてそれぞれ対応するノード間の重み付き辺の重み値を表し、WFは、フレームレベル重み付きグラフ中の全ての重み付き辺の重み値からなるマトリックスを表し、即ち、
(外12)
は、WFの第i行、第j列の要素であり、また、
(外13)
和
(外14)
は、それぞれ、WFの第i行の全ての要素の和、及び第j行の全ての要素の和を表す。同様に、
(外15)
は、上述のビデオシーンセット中の全てのビデオシーンの全ての代表フレームが含む全ての領域中の第k個の領域及び第l個の領域が領域レベル重み付きグラフにおいてそれぞれ対応するノード間の重み付き辺の重み値を表し、WRは、領域レベル重み付きグラフ中の全ての重み付き辺の重み値からなるマトリックスを表し、即ち、
(外16)
は、WRの第k行、第l列の要素であり、また、
(外17)
及び
(外18)
は、それぞれ、WRの第k行の全ての要素の和、及び第l行の全ての要素の和を表す。
(外19)
は、それぞれ、上述の数1中の各対応コスト項の重み付き係数であり、その値は、それぞれ、経験値又は試験により予め設定されてもよい。
2であってもよい。なお、当業者が上述の開示内容及び/又は従来技術と組み合わせることにより取得した上述の式の変形、改良又は他の形式は、全て、本発明の範囲内に属すべきである。
(外23)
のようにし;Sgが負のラベルを持つビデオシーンであれば、
(外24)
のようにし;及び、Sgがラベル無しのビデオシーンであれば、
(外25)
のようにする。
(外26)
のようにし;Fiが負のラベルを持つビデオシーン中の代表フレームであれば、
(外27)
のようにし;及び、Fiがラベル無しのビデオシーン中の代表フレームであれば、
(外28)
のようにする。
(外29)
と定義されてもよい。そのうち、THFは、上述の第五所定閾値であり、且つTHFの値は、次のような式により確定されてもよい。
(外30)
と定義されてもよい。そのうち、THRは、上述の第六所定閾値であり、且つTHRの値は、次の式により確定されてもよい。
(外31)
であってもよい。即ち、各ビデオシーンSg(g=1、2、…、L)について、上述の計算式により、1つの対応する重み付き和の値をそれぞれ算出し、そして、重み付き和が最大である前のN個の重み付き和が対応するビデオシーンを最終の検索結果として選出することができる。そのうち、
(外32)
は、ビデオシーンSg中の最大ソフトラベルを有する代表フレームのソフトラベルの値を表し、Fi0は、ビデオシーンSg中の最大ソフトラベルを有する代表フレームを表し、
(外33)
は、上述のビデオシーンSg中の最大ソフトラベルを有する代表フレームFi0中の、最大ソフトラベルを有する領域のソフトラベルの値を表す。また、α及びβは、線形組み合わせ係数であり、且つ0<α<1、0<β<1及び0<α+β<1である。
(外34)
は、対象ビデオシーンのソフトラベルを表し、
(外35)
は、対象ビデオシーン中のある代表フレームFtのソフトラベルを表し、
(外36)
(外37)
は、上述の意味と同じである。
(外38)
は、対象ビデオシーンStとビデオシーンセット中の第g個のビデオシーンSgの間におけるシーンレベル視覚特徴に基づく類似度を表し、
(外39)
は、ビデオシーンセット中の第g個のビデオシーンSgとシーンレベル重み付きグラフ中の全てのノードが対応するビデオシーンとの類似度の和を表し、
(外40)
は、対象ビデオシーンとシーンレベル重み付きグラフ中の全てのノードが対応するビデオシーンとの類似度の和を表す。
(外41)
は、対象ビデオシーン中のある代表フレームFtとビデオシーンセット中の全てのビデオシーンの全ての代表フレーム中の第i個の代表フレームFiとの間におけるフレームレベル視覚特徴に基づく類似度を表し、
(外42)
は、上述の第i個の代表フレームFiとフレームレベル重み付きグラフ中の全てのノードが対応する代表フレームとの類似度の和を表し、
(外43)
は、対象ビデオシーン中のある代表フレームFtとフレームレベル重み付きグラフ中の全てのノードが対応する代表フレームとの類似度の和を表す。
(外44)
は、対象ビデオシーン中のある代表フレームFt中のある領域Rtとビデオシーンセット中の全てのビデオシーンの全ての代表フレーム中に含まれる全ての領域中の第k個の領域Rkの間における領域レベル視覚特徴に基づく類似度を表し、
(外45)
は、上述の第k個の領域Rkと領域レベル重み付きグラフ中の全てのノードが対応する領域との類似度の和を表し、
(外46)
は、対象ビデオシーン中のある代表フレームFt中のある領域Rtと領域レベル重み付きグラフ中の全てのノードが対応する領域との類似度の和を表す。
(外47)
である。そのうち、式中のパラメータは、上述の定義と同じであるので、ここでは、その説明を省略する。
ビデオ処理装置であって、
ビデオシーンセット中の各ビデオシーンの少なくとも1つの代表フレームをそれぞれ抽出し、抽出した各代表フレームを複数の領域に分割する前処理ユニットであって、前記ビデオシーンセットの少なくとも一部のビデオシーンはラベル有りのビデオシーンである、前処理ユニットと、
前記ビデオシーンセット中の各ビデオシーンのシーンレベル視覚特徴、フレームレベル視覚特徴及び領域レベル視覚特徴を抽出する特徴抽出ユニットと、
前記シーンレベル視覚特徴に基づいてシーンレベル重み付きグラフを形成し、前記フレームレベル視覚特徴に基づいてフレームレベル重み付きグラフを形成し、前記領域レベル視覚特徴に基づいて領域レベル重み付きグラフを形成する重み付きグラフ形成ユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記各ビデオシーン中の各代表フレームのソフトラベル及び前記各代表フレーム中の各領域のソフトラベルを未知量とし、前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、及び、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、コスト関数を構築する関数構築ユニットと、
前記コスト関数の最適化問題を解くことにより、前記未知量の計算値を得る計算ユニットと、
前記計算ユニットにより得られた計算値に基づいて、ビデオ処理を行うビデオ処理ユニットと、を含む、ビデオ処理装置。
付記1に記載のビデオ処理装置であって、
前記ビデオ処理装置は、ビデオ検索装置であり、
前記ビデオシーンセットは、ラベル有りの検索ビデオシーンを含み、
前記ビデオ処理ユニットは、前記計算ユニットにより得られた計算値に基づいて、前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンを検索結果として判定する、ビデオ処理装置。
付記2に記載のビデオ処理装置であって、
前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンは、
そのソフトラベルが第一所定閾値よりも高いビデオシーンであって、該ビデオシーン中に最大ソフトラベルを有する代表フレームのソフトラベルが第二所定閾値よりも高く、且つ該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルが第三所定閾値よりも高い、ビデオシーン、又は、
そのソフトラベル、その中に最大ソフトラベルを有する代表フレームのソフトラベル、及び該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルの三者の重み付き和が最大である前のN個のビデオシーンであって、Nは正整数である、ビデオシーンである、ビデオ処理装置。
付記2又は3に記載のビデオ処理装置であって、
前記検索ビデオシーンが1つのみのフレーム(画像)を含む場合、前記検索ビデオシーンは、検索画像であり、前記検索ビデオシーン中の代表フレームは、前記検索画像そのものである、ビデオ処理装置。
付記1に記載のビデオ処理装置であって、
前記ビデオ処理装置は、ビデオコンセプト検出装置であり、
前記ビデオ処理ユニットは、前記計算ユニットにより得られた結果に基づいて、ラベル無しの対象ビデオシーンに前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念が含まれているかどうかを判定する、ビデオ処理装置。
付記5に記載のビデオ処理装置であって、
前記ビデオ処理ユニットは、
前記対象ビデオシーンが前記ビデオシーンセットに含まれているかどうかを判定する第一判定サブユニットと、
前記対象ビデオシーンが前記ビデオシーンセットに含まれていない場合、前記対象ビデオシーンの少なくとも1つの代表フレームを抽出し、前記対象ビデオシーンの各代表フレームを複数の領域に分割し、前記計算ユニットにより得られた結果に基づいて、前記対象ビデオシーンのソフトラベルの計算値、前記対象ビデオシーン中の各代表フレームのソフトラベルの計算値、及び前記対象ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を求める第一計算サブユニットと、
前記第一計算サブユニットにより得られた結果に基づいて、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含む程度の値を計算する第二計算サブユニットと、
前記第二計算サブユニットにより算出された前記程度の値が第四所定閾値以上である場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいると判定し、前記程度の値が前記第四所定閾値よりも小さい場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいないと判定する第二判定サブユニットと、を含む、ビデオ処理装置。
付記5又は6に記載のビデオ処理装置であって、
前記ビデオ処理ユニットは、さらに、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいると判定した場合、前記ビデオシーンセット中の、正のラベルを持つビデオシーンのラベルを用いて前記対象ビデオシーンに対して注釈を行う、ビデオ処理装置。
付記1乃至7の何れか1つのビデオ処理装置であって、
前記重み付きグラフ形成ユニットは、
前記ビデオシーンセット中の各ビデオシーンをノードとし、任意の2つのノード間のシーンレベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記シーンレベル重み付きグラフを形成する第一形成サブユニットと、
前記ビデオシーンセット中の各ビデオシーンの各代表フレームをノードとし、任意の2つのノード間のフレームレベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記フレームレベル重み付きグラフを形成する第二形成サブユニットと、
前記ビデオシーンセット中の各ビデオシーンの各代表フレームの各領域をノードとし、任意の2つのノード間の領域レベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記領域レベル重み付きグラフを形成する第三形成サブユニットと、を含む、ビデオ処理装置。
付記1乃至8に何れか1つに記載のビデオ処理装置であって、
前記関数構築ユニットは、
前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、2つのビデオシーンのシーンレベル視覚特徴が類似すればするほど、該2つのビデオシーンのソフトラベル間の差が小さいようにし、2つの代表フレームのフレームレベル視覚特徴が類似すればするほど、該2つの代表フレームのソフトラベル間の差が小さいようにし、及び、2つの領域の領域レベル視覚特徴が類似すればするほど、該2つの領域のソフトラベル間の差を小さいようにするという第一制約条件を設定する第一設定サブユニットと、
前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、負のラベルを持つビデオシーンのソフトラベル、負のラベルを持つビデオシーン中の全ての代表フレームのソフトラベル、及び負のラベルを持つビデオシーン中の全ての代表フレームの全ての領域のソフトラベルが-1にできるだけ接近するようにし、正のラベルを持つビデオシーンのソフトラベルが1にできるだけ接近するようにし、正のラベルを持つビデオシーンに最大ソフトラベルを有する代表フレームのソフトラベルが、該代表フレームが属するビデオシーンのソフトラベルにできるだけ接近するようにし、及び、正のラベルのビデオシーン中の各可能な正例フレームに最大ソフトラベルを有する領域のソフトラベルが、該領域が属する代表フレームのソフトラベルにできるだけ接近するようにするという第二制約条件を設定する第二設定サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーンの各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーンの各代表フレームの各領域のソフトラベルを未知量とし、前記第一制約条件及び前記第二制約条件に基づいて、コスト関数を構築する関数構築サブユニットと、を含む、ビデオ処理装置。
付記9に記載のビデオ処理装置であって、
前記可能な正例フレームは、そのソフトラベルの値が第五所定閾値よりも高いフレーム、又は、その中にソフトラベルが第六所定閾値よりも高い領域を含むフレームである、ビデオ処理装置。
付記1乃至10の何れか1つに記載のビデオ処理装置であって、
前記計算ユニットは、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルに初期値を与える初期化サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCPを用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を求める第三計算サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCPを用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの計算値を求める第四計算サブユニットと、
前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を用いて計算を行い、前記ビデオシーンセット中の各ビデオシーンのソフトラベルの計算値を求める第五計算サブユニットと、
第三計算サブユニット、第四計算サブユニット及び第五計算サブユニットがそれぞれ一回の計算を行った後に、前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値が収斂になっているかどうかを判断する第三判定サブユニットであって、前者の場合、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値を前記コスト関数中の未知量の計算値として保存し、後者の場合、前記第三判定サブユニットにより前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値が収斂になっていると判断するまでに、再び第三計算サブユニット、第四計算サブユニット及び第五計算サブユニットをそれぞれ用いて次の反復計算を行う、第三判定サブユニットと、を含む、ビデオ処理装置。
ビデオ処理方法であって、
ビデオシーンセット中の各ビデオシーンの少なくとも1つの代表フレームをそれぞれ抽出し、抽出した各代表フレームを複数の領域に分割する前処理ステップであって、前記ビデオシーンセットの少なくとも一部のビデオシーンはラベル有りのビデオシーンである、前処理ステップと、
前記ビデオシーンセット中の各ビデオシーンのシーンレベル視覚特徴、フレームレベル視覚特徴及び領域レベル視覚特徴を抽出する特徴抽出ステップと、
前記シーンレベル視覚特徴に基づいてシーンレベル重み付きグラフを形成し、前記フレームレベル視覚特徴に基づいてフレームレベル重み付きグラフを形成し、前記領域レベル視覚特徴に基づいて領域レベル重み付きグラフを形成するグラフ形成ステップと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記各ビデオシーン中の各代表フレームのソフトラベル、及び前記各代表フレーム中の各領域のソフトラベルを未知量とし、前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、及び、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、コスト関数を構築する関数構築ステップと、
前記コスト関数の最適化問題を解き、前記未知量の計算値を得る未知量計算ステップと、
得られた前記未知量の計算値に基づいて、ビデオ処理を行うビデオ処理ステップと、を含む、ビデオ処理方法。
付記12に記載のビデオ処理方法であって、
前記ビデオ処理は、ビデオ検索であり、
前記ビデオシーンセットは、ラベル有りの検索ビデオシーンを含み、
前記ビデオ処理ステップは、得られた前記未知量の計算値に基づいて、前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンを検索結果として判定することを含む、ビデオ処理方法。
付記13に記載のビデオ処理方法であって、
前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンは、
そのソフトラベルが第一所定閾値よりも高いビデオシーンであって、該ビデオシーン中に最大ソフトラベルを有する代表フレームのソフトラベルが第二所定閾値よりも高く、且つ該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルが第三所定閾値よりも高い、ビデオシーン、又は、
そのソフトラベル、その中に最大ソフトラベルを有する代表フレームのソフトラベル、及び該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルの三者の重み付き和が最大である前のN個のビデオシーンであって、Nは正整数である、ビデオシーンである、ビデオ処理方法。
付記13又は14に記載のビデオ処理方法であって、
前記検索ビデオシーンが1つのみのフレーム(画像)を含む場合、前記検索ビデオシーンは、検索画像であり、前記検索ビデオシーン中の代表フレームは、前記検索画像そのものである、ビデオ処理方法。
付記12に記載のビデオ処理方法であって、
前記ビデオ処理は、ビデオコンセプト検出であり、
前記ビデオ処理ステップは、得られた前記未知量の計算値に基づいて、ラベル無しの対象ビデオシーンに前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念が含まれているかどうかを判定することを含む、ビデオ処理方法。
付記16に記載のビデオ処理方法であって、
前記ラベル無しの対象ビデオシーンに前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念が含まれているかどうかを判定することは、
前記対象ビデオシーンが前記ビデオシーンセットに含まれているかどうかを判定し、
前記対象ビデオシーンが前記ビデオシーンセットに含まれていない場合、前記対象ビデオシーンの少なくとも1つの代表フレームを抽出し、前記対象ビデオシーンの各代表フレームを複数の領域に分割し、得られた前記未知量の計算値に基づいて、前記対象ビデオシーンのソフトラベルの計算値、前記対象ビデオシーン中の各代表フレームのソフトラベルの計算値及び前記対象ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を求め、
求められた前記対象ビデオシーンのソフトラベルの計算値、前記対象ビデオシーン中の各代表フレームのソフトラベルの計算値及び前記対象ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値に基づいて、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含む程度の値を計算し、及び、
算出された前記程度の値が第四所定閾値以上である場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいると判定し、前記程度の値が前記第四所定閾値よりも小さい場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいないと判定することを含む、ビデオ処理方法。
付記16又は17に記載のビデオ処理方法であって、さらに、
前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいると判定した場合、前記ビデオシーンセット中の、正のラベルを持つビデオシーンのラベルを用いて前記対象ビデオシーンに対して注釈を行うことを含む、ビデオ処理方法。
付記12乃至18の何れか1つに記載のビデオ処理方法であって、
前記グラフ形成ステップは、
前記ビデオシーンセット中の各ビデオシーンをノードとし、任意の2つのノード間のシーンレベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記シーンレベル重み付きグラフを形成し、
前記ビデオシーンセット中の各ビデオシーンの各代表フレームをノードとし、任意の2つのノード間のフレームレベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記フレームレベル重み付きグラフを形成し、及び、
前記ビデオシーンセット中の各ビデオシーンの各代表フレームの各領域をノードとし、任意の2つのノード間の領域レベル視覚特徴上の類似度を該2つのノード間の重み付き辺の重み値とし、前記領域レベル重み付きグラフを形成することを含む、ビデオ処理方法。
付記12乃至19の何れか1つに記載のビデオ処理方法であって、
前記関数構築ステップは、
前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、2つのビデオシーンのシーンレベル視覚特徴が類似すればするほど、該2つのビデオシーンのソフトラベル間の差が小さいようにし、2つの代表フレームのフレームレベル視覚特徴が類似すればするほど、該2つの代表フレームのソフトラベル間の差が小さいようにし、及び、2つの領域の領域レベル視覚特徴が類似すればするほど、該2つの領域のソフトラベル間の差を小さいようにするという第一制約条件を設定し、
前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、負のラベルを持つビデオシーンのソフトラベル、負のラベルを持つビデオシーン中の全ての代表フレームのソフトラベル、及び負のラベルを持つビデオシーン中の全ての代表フレームの全ての領域のソフトラベルが-1にできるだけ接近するようにし、正のラベルを持つビデオシーンのソフトラベルが1にできるだけ接近するようにし、正のラベルを持つビデオシーンに最大ソフトラベルを有する代表フレームのソフトラベルが、該代表フレームが属するビデオシーンのソフトラベルにできるだけ接近するようにし、及び、正のラベルのビデオシーン中の各可能な正例フレームに最大ソフトラベルを有する領域のソフトラベルが、該領域が属する代表フレームのソフトラベルにできるだけ接近するようにするという第二制約条件を設定し、及び、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーンの各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーンの各代表フレームの各領域のソフトラベルを未知量とし、前記第一制約条件及び前記第二制約条件に基づいて、コスト関数を構築することを含む、ビデオ処理方法。
付記20に記載のビデオ処理方法であって、
前記可能な正例フレームは、そのソフトラベルの値が第五所定閾値よりも高いフレーム、又は、その中にソフトラベルが第六所定閾値よりも高い領域を含むフレームである、ビデオ処理方法。
付記12乃至21の何れか1つに記載のビデオ処理方法であって、
前記未知量計算ステップは、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルに初期値を与え、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCPを用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を求め、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCPを用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの計算値を求め、
前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を用いて計算を行い、前記ビデオシーンセット中の各ビデオシーンのソフトラベルの計算値を求め、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値が収斂になっているかどうかを判断し、前者の場合、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値を前記コスト関数中の未知量の計算値として保存し、後者の場合、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値が収斂になっていると判断するまでに、再び反復計算を行い、前記各領域のソフトラベルの計算値、前記各代表フレームのソフトラベルの計算値及び前記各ビデオシーンのソフトラベルの計算値をそれぞれ順次計算することを含む、ビデオ処理方法。
付記1乃至11の何れか1つに記載のビデオ処理装置を含む設備。
付記23に記載の設備であって、
前記設備は、カメラ、ビデオカメラ、コンピュータ、携帯電話、パーソナルデジタルアシスタント、又はマルチメディア処理設備である、設備。
コンピュータに、付記12乃至22の何れか1つに記載の方法の各ステップを実行させるためのプログラム。
付記25に記載のプログラムを記録しているコンピュータ読み出し可能な記憶媒体。
Claims (10)
- ビデオ処理装置であって、
ビデオシーンセット中の各ビデオシーンの少なくとも1つの代表フレームをそれぞれ抽出し、抽出した各代表フレームを複数の領域に分割する前処理ユニットであって、前記ビデオシーンセットの少なくとも一部のビデオシーンはラベル有りのビデオシーンである、前処理ユニットと、
前記ビデオシーンセット中の各ビデオシーンのシーンレベル視覚特徴、フレームレベル視覚特徴及び領域レベル視覚特徴を抽出する特徴抽出ユニットと、
前記シーンレベル視覚特徴に基づいてシーンレベル重み付きグラフを形成し、前記フレームレベル視覚特徴に基づいてフレームレベル重み付きグラフを形成し、前記領域レベル視覚特徴に基づいて領域レベル重み付きグラフを形成する重み付きグラフ形成ユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記各ビデオシーン中の各代表フレームのソフトラベル及び前記各代表フレーム中の各領域のソフトラベルを未知量とし、前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、及び、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、コスト関数を構築する関数構築ユニットと、
前記コスト関数の最適化問題を解くことにより、前記未知量の計算値を得る計算ユニットと、
前記未知量の計算値に基づいて、ビデオ処理を行うビデオ処理ユニットと、を含む、ビデオ処理装置。 - 請求項1に記載のビデオ処理装置であって、
前記ビデオ処理装置は、ビデオ検索装置であり、
前記ビデオシーンセットは、ラベル有りの検索ビデオシーンを含み、
前記ビデオ処理ユニットは、前記未知量の計算値に基づいて、前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンを検索結果として判定する、ビデオ処理装置。 - 請求項2に記載のビデオ処理装置であって、
前記ビデオシーンセット中の前記検索ビデオシーン以外の、前記検索ビデオシーンとの類似度が所定の範囲内にあるビデオシーンは、
そのソフトラベルが第一所定閾値よりも高いビデオシーンであって、該ビデオシーン中に最大ソフトラベルを有する代表フレームのソフトラベルが第二所定閾値よりも高く、且つ該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルが第三所定閾値よりも高い、ビデオシーン、又は、
そのソフトラベル、その中に最大ソフトラベルを有する代表フレームのソフトラベル、及び該代表フレーム中に最大ソフトラベルを有する領域のソフトラベルの三者の重み付き和が最大である前のN個のビデオシーンであって、Nは正整数である、ビデオシーンである、ビデオ処理装置。 - 請求項1に記載のビデオ処理装置であって、
前記ビデオ処理装置は、ビデオコンセプト検出装置であり、
前記ビデオ処理ユニットは、前記未知量の計算値に基づいて、ラベル無しの対象ビデオシーンに前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念が含まれているかどうかを判定する、ビデオ処理装置。 - 請求項4に記載のビデオ処理装置であって、
前記ビデオ処理ユニットは、
前記対象ビデオシーンが前記ビデオシーンセットに含まれているかどうかを判定する第一判定サブユニットと、
前記対象ビデオシーンが前記ビデオシーンセットに含まれていない場合、前記対象ビデオシーンの少なくとも1つの代表フレームを抽出し、前記対象ビデオシーンの各代表フレームを複数の領域に分割し、前記未知量の計算値に基づいて、前記対象ビデオシーンのソフトラベルの計算値、前記対象ビデオシーン中の各代表フレームのソフトラベルの計算値、及び前記対象ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を得る第一計算サブユニットと、
前記第一計算サブユニットにより得られた結果に基づいて、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含む程度の値を計算する第二計算サブユニットと、
前記第二計算サブユニットにより算出された前記程度の値が第四所定閾値以上である場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいると判定し、前記程度の値が前記第四所定閾値よりも小さい場合、前記対象ビデオシーンが前記ビデオシーンセット中のラベル有りのビデオシーンと関連する語義概念を含んでいないと判定する第二判定サブユニットと、を含む、ビデオ処理装置。 - 請求項1乃至5の何れか1つに記載のビデオ処理装置であって、
前記関数構築ユニットは、
前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、2つのビデオシーンのシーンレベル視覚特徴が類似すればするほど、該2つのビデオシーンのソフトラベル間の差が小さいようにし、2つの代表フレームのフレームレベル視覚特徴が類似すればするほど、該2つの代表フレームのソフトラベル間の差が小さいようにし、及び、2つの領域の領域レベル視覚特徴が類似すればするほど、該2つの領域のソフトラベル間の差を小さいようにするという第一制約条件を設定する第一設定サブユニットと、
前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、負のラベルを持つビデオシーンのソフトラベル、負のラベルを持つビデオシーン中の全ての代表フレームのソフトラベル、及び負のラベルを持つビデオシーン中の全ての代表フレームの全ての領域のソフトラベルが-1にできるだけ接近するようにし、正のラベルを持つビデオシーンのソフトラベルが1にできるだけ接近するようにし、正のラベルを持つビデオシーンに最大ソフトラベルを有する代表フレームのソフトラベルが、該代表フレームが属するビデオシーンのソフトラベルにできるだけ接近するようにし、及び、正のラベルのビデオシーン中の各可能な正例フレームに最大ソフトラベルを有する領域のソフトラベルが、該領域が属する代表フレームのソフトラベルにできるだけ接近するようにするという第二制約条件を設定する第二設定サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーンの各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーンの各代表フレームの各領域のソフトラベルを未知量とし、前記第一制約条件及び前記第二制約条件に基づいて、コスト関数を構築する関数構築サブユニットと、を含む、ビデオ処理装置。 - 請求項6に記載のビデオ処理装置であって、
前記可能な正例フレームは、
そのソフトラベルの値が第五所定閾値よりも高いフレーム、又は、
その中にソフトラベルが第六所定閾値よりも高い領域を含むフレームである、ビデオ処理装置。 - 請求項1乃至7の何れか1つに記載のビデオ処理装置であって、
前記計算ユニットは、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルに初期値を与える初期化サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCP(constrained concave convex procedure)を用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの計算値を求める第三計算サブユニットと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を制約付き最小化問題に変換し、CCCPを用いて該制約付き最小化問題を解き、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの計算値を求める第四計算サブユニットと、
前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベルの現在値に基づいて、及び、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値に基づいて、前記コスト関数を用いて計算を行い、前記ビデオシーンセット中の各ビデオシーンのソフトラベルの計算値を求める第五計算サブユニットと、
第三計算サブユニット、第四計算サブユニット及び第五計算サブユニットがそれぞれ一回の計算を順次行った後に、前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記ビデオシーンセット中の各ビデオシーン中の各代表フレームのソフトラベル、及び前記ビデオシーンセット中の各ビデオシーン中の各代表フレームの各領域のソフトラベルの現在値が収斂になっているかどうかを判断する第三判定サブユニットであって、前者の場合、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値を前記コスト関数中の未知量の計算値として保存し、後者の場合、前記第三判定サブユニットにより前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの現在値が収斂になっていると判断するまでに、再び第三計算サブユニット、第四計算サブユニット及び第五計算サブユニットをそれぞれ順次用いて次の反復計算を行う、第三判定サブユニットと、を含む、ビデオ処理装置。 - ビデオ処理方法であって、
ビデオシーンセット中の各ビデオシーンの少なくとも1つの代表フレームをそれぞれ抽出し、抽出した各代表フレームを複数の領域に分割する前処理ステップであって、前記ビデオシーンセットの少なくとも一部のビデオシーンはラベル有りのビデオシーンである、前処理ステップと、
前記ビデオシーンセット中の各ビデオシーンのシーンレベル視覚特徴、フレームレベル視覚特徴及び領域レベル視覚特徴を抽出する特徴抽出ステップと、
前記シーンレベル視覚特徴に基づいてシーンレベル重み付きグラフを形成し、前記フレームレベル視覚特徴に基づいてフレームレベル重み付きグラフを形成し、前記領域レベル視覚特徴に基づいて領域レベル重み付きグラフを形成するグラフ形成ステップと、
前記ビデオシーンセット中の各ビデオシーンのソフトラベル、前記各ビデオシーン中の各代表フレームのソフトラベル、及び前記各代表フレーム中の各領域のソフトラベルを未知量とし、前記シーンレベル重み付きグラフ、前記フレームレベル重み付きグラフ及び前記領域レベル重み付きグラフの構造情報に基づいて、及び、前記各ビデオシーンのソフトラベル、前記各代表フレームのソフトラベル及び前記各領域のソフトラベルの間の関係に基づいて、コスト関数を構築する関数構築ステップと、
前記コスト関数の最適化問題を解き、前記未知量の計算値を得る未知量計算ステップと、
得られた前記未知量の計算値に基づいて、ビデオ処理を行うビデオ処理ステップと、を含む、ビデオ処理方法。 - 請求項1乃至8の何れか1つに記載のビデオ処理装置を含む設備。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210071078.3A CN103312938B (zh) | 2012-03-16 | 2012-03-16 | 视频处理装置、视频处理方法以及设备 |
CN201210071078.3 | 2012-03-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013196700A true JP2013196700A (ja) | 2013-09-30 |
JP6015504B2 JP6015504B2 (ja) | 2016-10-26 |
Family
ID=49137695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013053509A Active JP6015504B2 (ja) | 2012-03-16 | 2013-03-15 | ビデオ処理装置、ビデオ処理方法及び設備 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6015504B2 (ja) |
CN (1) | CN103312938B (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196701A (ja) * | 2012-03-16 | 2013-09-30 | Fujitsu Ltd | 画像処理装置、画像処理方法及び設備 |
WO2023134080A1 (zh) * | 2022-01-12 | 2023-07-20 | 平安科技(深圳)有限公司 | 相机作弊识别方法、装置、设备及存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111368732B (zh) * | 2020-03-04 | 2023-09-01 | 阿波罗智联(北京)科技有限公司 | 用于检测车道线的方法和装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123869A (ja) * | 2009-11-11 | 2011-06-23 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP2012054873A (ja) * | 2010-09-03 | 2012-03-15 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6078688A (en) * | 1996-08-23 | 2000-06-20 | Nec Research Institute, Inc. | Method for image segmentation by minimizing the ratio between the exterior boundary cost and the cost of the enclosed region |
CN101299241B (zh) * | 2008-01-14 | 2010-06-02 | 浙江大学 | 基于张量表示的多模态视频语义概念检测方法 |
CN102184242B (zh) * | 2011-05-16 | 2013-08-14 | 天津大学 | 跨摄像头视频摘要提取方法 |
-
2012
- 2012-03-16 CN CN201210071078.3A patent/CN103312938B/zh active Active
-
2013
- 2013-03-15 JP JP2013053509A patent/JP6015504B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011123869A (ja) * | 2009-11-11 | 2011-06-23 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
JP2012054873A (ja) * | 2010-09-03 | 2012-03-15 | Casio Comput Co Ltd | 画像処理装置、画像処理方法及びプログラム |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013196701A (ja) * | 2012-03-16 | 2013-09-30 | Fujitsu Ltd | 画像処理装置、画像処理方法及び設備 |
WO2023134080A1 (zh) * | 2022-01-12 | 2023-07-20 | 平安科技(深圳)有限公司 | 相机作弊识别方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN103312938A (zh) | 2013-09-18 |
CN103312938B (zh) | 2016-07-06 |
JP6015504B2 (ja) | 2016-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7127120B2 (ja) | ビデオ分類の方法、情報処理の方法及びサーバー、並びにコンピュータ可読記憶媒体及びコンピュータプログラム | |
CN108898186B (zh) | 用于提取图像的方法和装置 | |
WO2023273769A1 (zh) | 视频标签推荐模型的训练方法和确定视频标签的方法 | |
US10885344B2 (en) | Method and apparatus for generating video | |
WO2022199504A1 (zh) | 内容识别方法、装置、计算机设备和存储介质 | |
WO2021208601A1 (zh) | 基于人工智能的图像处理方法、装置、设备及存储介质 | |
JP7108259B2 (ja) | 情報を生成するための方法、装置、サーバー、コンピュータ可読記憶媒体およびコンピュータプログラム | |
US8737771B2 (en) | Annotation addition method, annotation addition system using the same, and machine-readable medium | |
US11682415B2 (en) | Automatic video tagging | |
TWI711305B (zh) | 視頻摘要生成方法和裝置、電子設備、電腦儲存介質 | |
CN111667027B (zh) | 多模态图像的分割模型训练方法、图像处理方法及装置 | |
CN107291845A (zh) | 一种基于预告片的电影推荐方法及系统 | |
CN110851644A (zh) | 图像检索方法及装置、计算机可读存储介质、电子设备 | |
WO2022271858A1 (en) | Multi-task attention based recurrent neural networks for efficient representation learning | |
JP6015504B2 (ja) | ビデオ処理装置、ビデオ処理方法及び設備 | |
JP6160143B2 (ja) | 画像処理装置、画像処理方法及び設備 | |
WO2024183465A1 (zh) | 一种模型确定方法和相关装置 | |
Li et al. | Neighbor-Guided Pseudo-Label Generation and Refinement for Single-Frame Supervised Temporal Action Localization | |
CN114299430B (zh) | 视频解析模型的训练方法、装置、视频解析方法及装置 | |
CN112949777B (zh) | 相似图像确定方法及装置、电子设备和存储介质 | |
Shi et al. | Audio segment classification using online learning based tensor representation feature discrimination | |
CN113822324A (zh) | 基于多任务模型的图像处理方法、装置及相关设备 | |
CN113642472A (zh) | 判别器模型的训练方法和动作识别方法 | |
Gu et al. | MVCIR-net: Multi-view Clustering Information Reinforcement Network | |
CN113239215A (zh) | 多媒体资源的分类方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151007 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160823 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160830 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160912 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6015504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |