JP5209593B2 - 映像編集装置,映像編集方法および映像編集プログラム - Google Patents
映像編集装置,映像編集方法および映像編集プログラム Download PDFInfo
- Publication number
- JP5209593B2 JP5209593B2 JP2009279253A JP2009279253A JP5209593B2 JP 5209593 B2 JP5209593 B2 JP 5209593B2 JP 2009279253 A JP2009279253 A JP 2009279253A JP 2009279253 A JP2009279253 A JP 2009279253A JP 5209593 B2 JP5209593 B2 JP 5209593B2
- Authority
- JP
- Japan
- Prior art keywords
- video
- semantic content
- context
- section
- video segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
Description
・時間順序を並び替える
・別の映像(シーン)を挿入する
映像編集の目的は,撮影直後の整理されていない映像を,「視聴に適する形」に整理することである。例えば,主張点を明確にするために,冗長で無駄だと感じられるシーンを削除したり,内容の理解を助けるために,あえて時間順序を入れ替えたりといった場合がある。
[処理1]:前記尤度に基づいて,全ての映像区間をクラスタリングして映像区間クラスタを生成し,各映像区間クラスタから一つ以上の代表映像区間を選出する。
[処理2]:代表映像区間の並びにおける各代表映像区間位置に対して,それよりも過去に位置する代表映像区間位置の映像区間特徴,および,前記尤度と前記関連度合いに基づいて,意味内容カテゴリに帰属する予測確率を計算する。
[処理3]:代表映像区間の並びにおける各代表映像区間位置に対して,それ以前に位置する代表映像区間位置の映像区間特徴,および,前記尤度と前記関連度合いに基づいて,意味内容カテゴリに帰属する事後確率を計算する。
[処理4]:前記予測確率と前記事後確率との類似度を,コンテキスト類似度として計算する。
[処理5]:前記コンテキスト類似度の代表映像区間の並び全体に渡る平均を求め,その平均が最大または最小となるような代表映像区間の並びを選出する。
[処理6]:終了条件が満たされていなければ,選出された代表映像区間群を,新たな映像区間群とみなして,[処理1]に戻る。終了条件が満たされていれば,得られた代表映像区間をつなぎ合わせ,編集映像として出力する。
(1)段階的に映像区間の絞り込みを行う,
(2)意味内容の近い映像区間をクラスタリングする,
という二つの手続きを導入することによって,多項式時間で終了する処理手続きとなっている。
[参考文献1]:Y. Tonomura, A. Akutsu, Y. Taniguchi, and G. Suzuki, "Structured Video Computing", IEEE Multimedia, pp.34-43, 1994.
次に,ステップS203では,映像区間中の画像・音情報から,映像区間特徴量の抽出を行う。映像区間特徴量は,画像から抽出するものと,音から抽出するものとがある。いずれも,例えば,50msなどの微小な区間(フレーム)から抽出したものの統計量を,区間内で計算することによって抽出する。
[参考文献2]:D.G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", International Journal of Computer Vision, pp.91-110, 2004 .
[参考文献3]:H. Bay, T. Tuytelaars, and L.V. Gool, "SURF: Speeded Up Robust Features", Lecture Notes in Computer Science, vol. 3951, pp.404-417, 2006.
また,オブジェクト特徴として,特定の物体に焦点を当て,検出するといった方法を用いることも考えられる。例えば,顔の出現やその表情を得るといったアプローチが代表的である。顔を検出する方法としては,例えば,下記の参考文献4に記載される方法などを用いればよい。さらに表情も認識する場合には,下記の参考文献5に記載される方法などを用いればよい。
[参考文献4]:H.A. Rowley, S. Baluja, and T. Kanade, "Neural Network-based Face Detection", IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp.203-208, 1996 .
[参考文献5]:I. Cohen, N. Sebe, A. Garg, L.S. Chen, and T.S. Huang, "Facial Expression Recognition from Video Sequences: Temporal and Static Modeling", Computer Vision and Image Understanding, vol.91, issues 1-2, pp.160-187, 2003.
画像イベント特徴とは,映像中に生起する事象のことである。例えば,急激なカメラワークや,テロップの出現などがある。例えば,急激なカメラワークを用いる場合には,上記の参考文献1に記載される方法などを用いることによって検出することができる。また,テロップを用いる場合には,下記の参考文献6に記載される方法などを用いることによって検出することができる。
[参考文献6]:桑野秀豪, 倉掛正治, 小高和己, “映像データ検索のためのテロップ文字抽出法”, 電子情報通信学会技術研究報告, PRMU, 96(385), pp.39-46, 1996 .
一方,音情報から抽出する特徴量としては,音高特徴,音量特徴,スペクトル特徴,リズム特徴,発話特徴,音楽特徴,音イベント特徴などがある。
[参考文献7]:古井貞熙, “ディジタル音声処理, 4. 9ピッチ抽出”, pp.57-59, 1985.
音量特徴としては,音声波形データの振幅値を用いるものとしてもよいし,短時間パワースペクトルを求め,任意の帯域の平均パワーを計算して用いるものとしてもよい。
[参考文献8]:E.D. Scheirer, "Tempo and Beat Analysis of Acoustic Musical Signals", Journal of Acoustic Society America, Vol.103, Issue 1, pp.588-601, 1998.
発話特徴,音楽特徴は,それぞれ,発話の有無,音楽の有無を表す。発話・音楽の存在する区間を発見するには,例えば,下記の参考文献9に記載される方法などを用いればよい。
[参考文献9]:K. Minami, A. Akutsu, H. Hamada, and Y. Tonomura, "Video Handling with Music and Speech Detection", IEEE Multimedia, vol.5, no.3, pp.17-25, 1998.
音イベント情報としては,例えば,笑い声や大声などの感情的な音声,あるいは,銃声や爆発音などの環境音の生起などを用いるものとすればよい。このような音イベントを検出するには,例えば,下記の参考文献10(特許文献)に記載される方法などを用いればよい。
[参考文献10]:WO/2008/032787
続いて,ステップS204では,ステップS203で得た映像区間特徴量に基づいて,全ての映像区間に対して,意味内容尤度を計算する。
ここで,xi はある映像区間iの映像区間特徴量,ci はある映像区間iの意味内容カテゴリであり,双方ともに確率変数である。xi は,ステップS203で計算された特徴量の値をとる。ci は,各意味内容カテゴリを指し示す。例えば,ci =「サッカー」,ci =「歩行」などである。
・意味内容カテゴリ2:「スポーツ」
・意味内容カテゴリ3:「海」
・意味内容カテゴリ4:「ハイキング」
・意味内容カテゴリ5:「水泳」
まず,ステップS203において,映像区間iの映像区間特徴量xi が求められている。ステップS204では,各意味内容カテゴリ1〜5のそれぞれに対して,この映像区間特徴量xi と式(1) のp(xi |ci )に基づいて,意味内容尤度を計算するのである。仮に映像区間iがサッカーの様子を撮影したものであるとしよう。上記のカテゴリの例では,p(xi |ci =サッカー) ,および,p(xi |ci =スポーツ) の意味内容尤度は高く計算される。反対に,サッカーの映像には,「海」が含まれていることは稀であり,また,「ハイキング」や「水泳」とも異なることから,p(xi |ci =海) ,p(xi |ci =ハイキング) ,p(xi |ci =水泳) の意味内容尤度は低く計算される。このようにして,ある映像区間iにおける各意味内容カテゴリの尤度が計算される。
p(ci |xi )={p(xi |ci )p(ci )}/p(xi ) …式(2)
が成立することにも注意されたい。
この条件付確率テーブルによれば,ある意味内容カテゴリci-1 が与えられたとき,その他の全ての意味内容カテゴリci との関連度合い(確率)を計算することができる。例えば,ci-1 =「サッカー」であるとしよう。このとき,その他のカテゴリ,例えば,ci =「ボール」や,ci =「スポーツ」の出現する確率は,p(ci =ボール|ci-1 =サッカー) ,p(ci =スポーツ|ci-1 =サッカー) を参照することによって得ることができる。
ただし,
KL[p(x)‖q(x)]=Σx p(x) log{p(x)/q(x)} …式(5)
である(Σx はxについての総和)。カルバック―ライブラーダイバージェンスは,対称性が成立しない。すなわち,上記式(5) にある,二つの確率分布p(x)とq(x)とを入れ替えると,出力される値が変わってしまう。クラスタリングに用いる類似度としては,対称性が成立しないことに不都合がある場合があるため,負のイェンセン−シャノンダイバージェンス,あるいは,イェンセン−シャノンダイバージェンスの逆数を用いる方が好ましい。
ただし,
JS[p(x)‖q(x)]
=λKL[p(x)‖q(x)]+(1−λ)KL[q(x)‖p(x)] …式(7)
ここで,λ=0.5としたとき,対称性が成立する。
(1)K−meansの場合,クラスタリングする前に,クラスタ数を設定する必要がある。affinity propagationでは,事前にクラスタ数を与える必要はない。
(2)K−meansの場合,生成されたクラスタの中心は,必ずしもある映像区間とはならない。affinity propagationの場合,必ずある映像区間を指す。このため,代表映像区間をクラスタ中心として決定することができる。
(3)K−meansの場合,クラスタリング結果が,通常ランダムに選定される初期値に大きく依存するため,複数回の試行の後,最もよいクラスタリング結果を得るなどの工夫を必要とする。affinity propagationの場合,クラスタリング結果は初期値に依存しないので,一度の試行のみで済む。
[参考文献11]:B.J. Frey, and D. Deuck,“Clustering by Passing Messages Between Data Points”, Science, vol.315, pp.972-976, 2007.
また,参考文献12に記載されるTime−Constrained Clusteringを適用する方法を取ってもよい。
[参考文献12]:M.M. Yeung, and B.-L. Yeo,“Time-Constrained Clustering for Segmentation of Video into Story Unites ”,International Conference on Pattern Recognition, vol.3, pp.375-380, 1996.
続いて,ステップS206では,コンテキスト予測確率とコンテキスト事後確率に基づいてコンテキスト類似度を計算し,ステップS207では,このコンテキスト類似度に基づいて,一つ以上の除去する代表映像区間を決定し,残りの代表映像区間を出力する。
=Σp(cj |cj-1 )p(cj-1 |x1 ,x2 ,…,xj-1 ) …式(8)
(ただし,Σはcj-1 に関する総和)
ここで,右辺に現れるp(cj-1 |x1 ,x2 ,…,xj-1 )は,K′j-1 のコンテキスト事後確率である。
={p(xj |cj )p(cj |x1 ,x2 ,…,xj-1 )}/Σ{(p(xj |cj )p(cj |x1 ,x2 ,…,xj-1 )} …式(9)
(ただし,Σはcj に関する総和)
ここで,p(cj |x1 ,x2 ,…,xj-1 )は,式(8) で求めたコンテキスト予測確率である。
(ただし,Σはcj に関する総和)
このコンテキスト類似度tj は,代表映像区間K′j のコンテキスト類似度であるが,K′1 から順に計算することで,他の代表映像区間についても同様に計算することができる。
10 映像
11 映像入力部
12 映像記憶部
13 映像区間分割部
14 映像区間特徴量抽出部
15 意味内容尤度計算部
16 クラスタリング部
17 編集対象映像区間選出部
170 類似度計算部
171 コンテキスト予測確率計算部
172 コンテキスト事後確率計算部
173 コンテキスト類似度計算部
174 代表映像区間篩部
18 編集映像出力部
19 編集映像
20 意味内容カテゴリ辞書
21 意味内容関連度計算部
22 意味内容関連度記憶部
Claims (7)
- 入力映像から自動的に編集映像を生成し,出力する映像編集装置であって,
映像内容の持つ意味を予め定められた特定の単語によって表現した意味内容カテゴリと,映像区間の画像特徴もしくは音特徴またはその双方からなる映像区間特徴量との確率的な関係を示す尤度モデルの情報を記憶する意味内容カテゴリ辞書と,
入力映像を映像区間に分割する映像区間分割部と,
前記各映像区間から映像区間特徴量を抽出する映像区間特徴量抽出部と,
抽出された映像区間特徴量に基づいて,前記意味内容カテゴリ辞書を参照し,該映像区間に対する各意味内容カテゴリの尤度を出力する意味内容尤度計算部と,
前記尤度に基づいて前記映像区間をクラスタリングし,生成された各映像区間クラスタから一つ以上の代表映像区間を選出するクラスタリング部と,
前記選出された代表映像区間の組み合わせから得られる複数の候補代表映像区間の並びについて,少なくとも前記尤度を用いて映像区間の繋がりにおける意味的な変化度合いを示すコンテキスト類似度を算出し,算出したコンテキスト類似度をもとに全体として意味的な変化度合いが大きい候補代表映像区間の並びまたは意味的な変化度合いが小さい候補代表映像区間の並びのいずれかを編集映像に用いる候補代表映像区間群として選出する編集対象映像区間選出部と,
前記選出された候補代表映像区間群の映像区間をつなぎ合わせることにより編集映像を生成して出力する編集映像出力部とを備える
ことを特徴とする映像編集装置。 - 請求項1記載の映像編集装置において,
前記意味内容カテゴリ辞書に格納された各意味内容カテゴリごとに,サンプル映像の学習によって得られた他の意味内容カテゴリとの関連度合いを記憶する意味内容関連度記憶部を備え,
前記編集対象映像区間選出部は,
前記候補代表映像区間の並びにおける各映像区間位置に対して,それよりも過去に位置する映像区間位置の映像区間特徴,前記尤度および前記意味内容関連度記憶部に記憶された関連度合いを入力として,当該位置の映像区間が各々の意味内容カテゴリに帰属する予測確率を計算する式を用いてコンテキスト予測確率を計算するコンテキスト予測確率計算部と,
前記候補代表映像区間の並びにおける各映像区間位置に対して,それ以前に位置する映像区間位置の映像区間特徴,前記尤度および前記意味内容関連度記憶部に記憶された関連度合いを入力として,当該位置の映像区間が各々の意味内容カテゴリに帰属する事後確率を計算する式を用いてコンテキスト事後確率を計算するコンテキスト事後確率計算部と,
前記コンテキスト予測確率と前記コンテキスト事後確率との類似度を,前記意味的な変化度合いを示すコンテキスト類似度として計算するコンテキスト類似度計算部と,
前記候補代表映像区間の並びごとに,前記コンテキスト類似度計算部が算出した類似度の平均を求め,その平均が最大または最小となる候補代表映像区間の並びを選出する代表映像区間篩部とを有する
ことを特徴とする映像編集装置。 - 請求項1または請求項2記載の映像編集装置において,
前記編集対象映像区間選出部が選出した候補代表映像区間群に含まれる映像区間を,前記クラスタリング部によるクラスタリング対象の映像区間とし,所定の終了条件が満たされるまで,前記クラスタリング部による処理と前記編集対象映像区間選出部による処理とを繰り返す
ことを特徴とする映像編集装置。 - 映像編集装置が,入力映像から自動的に編集映像を生成し,出力する映像編集方法であって,
映像内容の持つ意味を予め定められた特定の単語によって表現した意味内容カテゴリと,映像区間の画像特徴もしくは音特徴またはその双方からなる映像区間特徴量との確率的な関係を示す尤度モデルの情報を記憶する意味内容カテゴリ辞書を用い,
入力映像を映像区間に分割する映像区間分割処理と,
前記各映像区間から映像区間特徴量を抽出する映像区間特徴量抽出処理と,
抽出された映像区間特徴量に基づいて,前記意味内容カテゴリ辞書を参照し,該映像区間に対する各意味内容カテゴリの尤度を出力する意味内容尤度計算処理と,
前記尤度に基づいて前記映像区間をクラスタリングし,生成された各映像区間クラスタから一つ以上の代表映像区間を選出するクラスタリング処理と,
前記選出された代表映像区間の組み合わせから得られる複数の候補代表映像区間の並びについて,少なくとも前記尤度を用いて映像区間の繋がりにおける意味的な変化度合いを示すコンテキスト類似度を算出し,算出したコンテキスト類似度をもとに全体として意味的な変化度合いが大きい候補代表映像区間の並びまたは意味的な変化度合いが小さい候補代表映像区間の並びのいずれかを編集映像に用いる候補代表映像区間群として選出する編集対象映像区間選出処理と,
前記選出された候補代表映像区間群の映像区間をつなぎ合わせることにより編集映像を生成して出力する編集映像出力処理とを実行する
ことを特徴とする映像編集方法。 - 請求項4記載の映像編集方法において,
前記意味内容カテゴリ辞書に格納された各意味内容カテゴリごとに,サンプル映像の学習によって得られた他の意味内容カテゴリとの関連度合いを意味内容関連度記憶部に記憶し,
前記編集対象映像区間選出処理では,
前記候補代表映像区間の並びにおける各映像区間位置に対して,それよりも過去に位置する映像区間位置の映像区間特徴,前記尤度および前記意味内容関連度記憶部に記憶された関連度合いを入力として,当該位置の映像区間が各々の意味内容カテゴリに帰属する予測確率を計算する式を用いてコンテキスト予測確率を計算するコンテキスト予測確率計算処理と,
前記候補代表映像区間の並びにおける各映像区間位置に対して,それ以前に位置する映像区間位置の映像区間特徴,前記尤度および前記意味内容関連度記憶部に記憶された関連度合いを入力として,当該位置の映像区間が各々の意味内容カテゴリに帰属する事後確率を計算する式を用いてコンテキスト事後確率を計算するコンテキスト事後確率計算処理と,
前記コンテキスト予測確率と前記コンテキスト事後確率との類似度を,前記意味的な変化度合いを示すコンテキスト類似度として計算するコンテキスト類似度計算処理と,
前記候補代表映像区間の並びごとに,前記コンテキスト類似度計算処理が算出した類似度の平均を求め,その平均が最大または最小となる候補代表映像区間の並びを選出する代表映像区間篩処理とを実行する
ことを特徴とする映像編集方法。 - 請求項4または請求項5記載の映像編集方法において,
前記編集対象映像区間選出処理が選出した候補代表映像区間群に含まれる映像区間を,前記クラスタリング処理によるクラスタリング対象の映像区間とし,所定の終了条件が満たされるまで,前記クラスタリング処理と前記編集対象映像区間選出処理とを繰り返す
ことを特徴とする映像編集方法。 - 請求項4,請求項5または請求項6記載の映像編集方法を,コンピュータに実行させるための映像編集プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009279253A JP5209593B2 (ja) | 2009-12-09 | 2009-12-09 | 映像編集装置,映像編集方法および映像編集プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009279253A JP5209593B2 (ja) | 2009-12-09 | 2009-12-09 | 映像編集装置,映像編集方法および映像編集プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011124681A JP2011124681A (ja) | 2011-06-23 |
JP5209593B2 true JP5209593B2 (ja) | 2013-06-12 |
Family
ID=44288173
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009279253A Expired - Fee Related JP5209593B2 (ja) | 2009-12-09 | 2009-12-09 | 映像編集装置,映像編集方法および映像編集プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5209593B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101369270B1 (ko) * | 2012-03-29 | 2014-03-10 | 서울대학교산학협력단 | 멀티 채널 분석을 이용한 비디오 스트림 분석 방법 |
JP6320112B2 (ja) | 2014-03-27 | 2018-05-09 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
US11438510B2 (en) | 2016-03-22 | 2022-09-06 | Jung Yoon Chun | System and method for editing video contents automatically technical field |
KR101828601B1 (ko) * | 2016-03-22 | 2018-02-12 | (주)잼투고 | 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법 |
KR102361811B1 (ko) * | 2016-03-22 | 2022-02-11 | 천종윤 | 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법 |
CN111695505B (zh) * | 2020-06-11 | 2024-05-24 | 北京市商汤科技开发有限公司 | 视频处理方法及装置、电子设备和存储介质 |
CN112464814A (zh) * | 2020-11-27 | 2021-03-09 | 北京百度网讯科技有限公司 | 视频处理方法、装置、电子设备及存储介质 |
KR20240056031A (ko) * | 2022-10-21 | 2024-04-30 | 씨제이올리브네트웍스 주식회사 | 인공지능을 활용한 이미지 편집 서비스 제공 방법 및 이를 위한 시스템 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285243A (ja) * | 1999-01-29 | 2000-10-13 | Sony Corp | 信号処理方法及び映像音声処理装置 |
JP3934274B2 (ja) * | 1999-03-01 | 2007-06-20 | 三菱電機株式会社 | 動画要約装置および動画要約作成プログラムを記録したコンピュータ読み取り可能な記録媒体および動画再生装置および動画再生プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2003345809A (ja) * | 2002-05-30 | 2003-12-05 | Nec System Technologies Ltd | データベース構築システム、パッセージ検索装置、データベース構築方法及びプログラム |
JP3918772B2 (ja) * | 2003-05-09 | 2007-05-23 | 日本電気株式会社 | 映像編集装置、映像編集方法、および映像編集プログラム |
JP2006287319A (ja) * | 2005-03-31 | 2006-10-19 | Nippon Hoso Kyokai <Nhk> | 番組ダイジェスト作成装置および番組ダイジェスト作成プログラム |
-
2009
- 2009-12-09 JP JP2009279253A patent/JP5209593B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011124681A (ja) | 2011-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5209593B2 (ja) | 映像編集装置,映像編集方法および映像編集プログラム | |
US10528821B2 (en) | Video segmentation techniques | |
Smith et al. | Harnessing ai for augmenting creativity: Application to movie trailer creation | |
Del Fabro et al. | State-of-the-art and future challenges in video scene detection: a survey | |
KR100590537B1 (ko) | 복수 영상의 요약 방법 및 장치 | |
Essid et al. | Smooth nonnegative matrix factorization for unsupervised audiovisual document structuring | |
US8467610B2 (en) | Video summarization using sparse basis function combination | |
Han et al. | An integrated baseball digest system using maximum entropy method | |
WO2012020668A1 (ja) | 情報処理装置、情報処理方法、及び、プログラム | |
KR101341808B1 (ko) | 영상 내 비주얼 특징을 이용한 영상 요약 방법 및 시스템 | |
Sreeja et al. | Towards genre-specific frameworks for video summarisation: A survey | |
JP2009095013A (ja) | ビデオ要約システムおよびビデオ要約のためのコンピュータプログラム | |
JP6557592B2 (ja) | 映像シーン分割装置及び映像シーン分割プログラム | |
JP2006287319A (ja) | 番組ダイジェスト作成装置および番組ダイジェスト作成プログラム | |
Wang et al. | A multimodal scheme for program segmentation and representation in broadcast video streams | |
Xu et al. | Fast summarization of user-generated videos: exploiting semantic, emotional, and quality clues | |
KR20080105387A (ko) | 스포츠 동영상 요약 방법 및 장치 | |
JP2000285243A (ja) | 信号処理方法及び映像音声処理装置 | |
Choroś | Video structure analysis for content-based indexing and categorisation of TV sports news | |
Carbonneau et al. | Real-time visual play-break detection in sport events using a context descriptor | |
JP2010039877A (ja) | 要約コンテンツ生成装置および要約コンテンツ生成プログラム | |
Ainasoja et al. | Keyframe-based Video Summarization with Human in the Loop. | |
Sigari et al. | Sport video classification using an ensemble classifier | |
JP5254900B2 (ja) | 映像再構成方法、映像再構成装置および映像再構成プログラム | |
Dash et al. | A domain independent approach to video summarization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120221 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130221 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160301 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5209593 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |