JP2005236543A - 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム - Google Patents

映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム Download PDF

Info

Publication number
JP2005236543A
JP2005236543A JP2004041591A JP2004041591A JP2005236543A JP 2005236543 A JP2005236543 A JP 2005236543A JP 2004041591 A JP2004041591 A JP 2004041591A JP 2004041591 A JP2004041591 A JP 2004041591A JP 2005236543 A JP2005236543 A JP 2005236543A
Authority
JP
Japan
Prior art keywords
matching
pattern
video
audio
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004041591A
Other languages
English (en)
Other versions
JP4079096B2 (ja
Inventor
Hidenobu Osada
秀信 長田
Yukinobu Taniguchi
行信 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004041591A priority Critical patent/JP4079096B2/ja
Publication of JP2005236543A publication Critical patent/JP2005236543A/ja
Application granted granted Critical
Publication of JP4079096B2 publication Critical patent/JP4079096B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Studio Circuits (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 映像音声とシナリオテキストを短時間で正確に対応付ける。
【解決手段】 本発明は、入力された映像音声と、入力されたシナリオテキストとを整合させ、映像音声とシナリオとの時間的な対応情報が記載されたインデックス情報テーブルを生成し、整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合する。
【選択図】 図1

Description

本発明は、映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラムに係り、特に、映像音声の内容に従った台詞や映像音声の内容の進行を記述した構成表等のシナリオテキストと、当該シナリオテキストの複数箇所を映像音声における再生時間をパターンマッチングにより対応付けたマッチングパス情報を修正するための映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラムに関する。
映像の内容に基づいて特定のシーンを検索したいという要求がある。例えば、ドラマ映像を短編に編集する際、長時間(数時間から十数時間)に及ぶドラマ映像の中から、特定の内容のシーンや、特定の人物の話すシーンを素早く探したいという要求がある。ドラマ、映画、及びニュースといった放送番組は、放映以前の制作段階において、番組のシナリオをまず作成し、シナリオに基づいて映像が制作される。
シナリオには場面の情報や、人物の会話・話題の進行などが含まれるため、シナリオを完成した映像音声と対応付けることができれば、先に述べた内容検索が実現できる。このような技術を実現するために、映像音声から認識技術等を用いてテキストを抽出し、それとシナリオテキストとをマッチングさせることにより、映像音声とシナリオテキストとを関連付ける技術がある(例えば、非特許文献1〜7参照)。
また、2つのパターン(ベクトル)の比較において、時間を非線形に伸縮させる整合方式がある。この方式は、時間の伸縮において、始終端の制約、局所連続性の制約、及び全体パス制約の3つの制約を用いることが一般的である(例えば、非特許文献8参照)。
柳沼、和泉、坂内『同期されたシナリオ文書を用いた映像編集方式の一提案』電子情報通信学会論文誌 D-II, Vol.J79-D-II, No.4, pp.547-558, 1996 柳沼、坂内『DPマッチングを用いたドラマ映像・音声・シナリオ文書の対応付け手法の一提案』電子情報通信学会論文誌 D-II, Vol70-D-II, No.5, pp.747-755, 1996 谷村、中川『音声認識を用いたドラマのシナリオへの時刻情報付与』言語処理学会第5回年次大会講演論文集、pp.513-516, 1999、電子情報通信学会総合大会講演論文集、pp.377-378, 1999 谷村、中川『テレビドラマのシナリオと、音声トラックの自動対応付け』情報処理学会自然言語処理音声言語情報処理合同研究会 pp.23-29 谷村、中川「テレビドラマにおけるシナリオのセリフと音声トラックの同期システム」1999年度第13回人工知能学会全国大会講演論文集、pp.205-208,1999 谷村、中川『ドラマのビデオ音声トラックとシナリオのセリフの時刻同期法』情報処理学会、知識と複雑系研究会、pp.25-31, 1999 Wenli Zhang, Yoshitomo Yaginuma, Masao Sakauchi "A Video Movie Annotation System---Annotation Movie with its Script---" Proc. ICSP2000, pp. 1362-1366, 2000 Lawrence Rabiner, Biing-Hwang Juang(共著)、古井卓煕(監訳)、『音声認識の基礎(上)pp.242-287,NTTアドバンステクノロジ、東京、1995
しかしながら、上記従来の技術では、以下のような問題がある。
・映像音声から認識技術等によって得られるテキスト情報は、一般に誤認識による誤りを含むため、それらの誤りを含むパターンを用いてマッチングを行う場合、最適なマッチングパスへ収束させることが困難である場合がある。
・最適なマッチングパスが仮に得られ、それを用いて映像音声とシナリオテキストとの整合を行ったとしても、その結果意味的に正しい対応付けができることを保証することはできない。
・従来では、誤った対応付けが行われた部分を修正し、それを拘束条件として再度整合を行うといった再帰的な対応付け方法が採られていない。そのため、誤って対応付けがなされた部分を効率的に修正することが困難となっており、結局は手作業で、先頭から対応付け作業を再度行うことで修正することがある。この修正手法によった場合、自動対応付けの結果を全て破棄することと同じである。
結果として、従来の技術では、映像音声とシナリオテキストとの整合状態を修正するために、極めて大きな時間的コストがかかるという問題がある。
本発明は、上記の点に鑑みなされたもので、各話者の発話情報に基づいて映像音声とシナリオテキストとを整合させることができ、正しい整合状態に至らしめるまでの作業時間を短縮することが可能な映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラムを提供することを目的とする。
図1は、本発明の原理を説明するための図である。
本発明は、映像音声とシナリオを整合させた状態を修正する装置における、映像音声とシナリオの整合状態の修正支援方法において、
映像音声入力手段から入力された映像音声と、シナリオテキスト入力手段から入力されたシナリオテキストとを整合させるパターン整合ステップ(ステップ1)と、
映像音声とシナリオとの時間的な対応情報を得るため、パターン整合ステップによって得られるマッチングパス情報に基づいて、インデックス情報テーブルを参照するインデックス情報テーブル参照ステップ(ステップ2)と、
整合された結果をユーザに提示する(ステップ3)ことにより得られた修正指示について(ステップ4)、インデックス情報テーブルを参照して(ステップ2)、再整合するマッチングパス情報修正ステップ(ステップ5)と、からなる。
また、本発明は、上記のパターン整合ステップにおいて、
映像音声入力手段から映像音声を入力し、シナリオテキスト入力手段からシナリオテキストを入力する入力ステップと、
入力された映像音声とシナリオテキストから、話者毎に一意に付与される話者IDに基づくパターンを生成するパターン生成ステップと、
パターンの各要素と、映像音声及びシナリオテキストとの対応関係を記載したインデックス情報を生成するインデックス情報生成ステップと、
対応付けを行う2つのパターンを指定するパターン対指定ステップと、
パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化ステップと、
パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出しステップと、
マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録ステップと、を行う。
また、本発明は、上記のマッチング評価関数呼び出しステップにおいて、
パターンマッチングを行うパターンの整合区間の始端と終端の番号を取得する始端終端取得ステップと、
パターン間の距離を計算するパターン間距離計算ステップと、
パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択ステップと、を行う。
また、本発明は、上記のマッチングパス情報修正ステップにおいて、
パターン整合ステップによって得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定ステップと、
ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出ステップと、
パターン甲の各要素のスコアを全て算出するために、スコア算出ステップを繰り返す繰り返しステップと、
スコア算出ステップにより得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を提示する映像提示ステップと、
ユーザにより修正された映像音声とシナリオテキストとの対応関係からインデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得ステップと、
修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定ステップと、
整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合ステップと、を行う。
また、本発明は、上記のスコア算出ステップにおいて、
m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素がいくつあるのかを示す指標s1と、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素とがどの程度分布するかを示す指標s2と、
パターンPに含まれる任意の要素pが、パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とする。
図2は、本発明の原理構成図である。
本発明は、映像音声とシナリオを整合させた状態を修正する整合状態修正支援装置であって、
映像音声入力手段1から入力された映像音声し、話者インデクシングを行い、話者毎に一意に付与される話者IDの並んだパターンと、パターンの各要素が映像のどこに対応するのかを記したインデックス情報を生成する映像音声解析手段3と、
シナリオテキスト入力手段2から入力されたシナリオテキストを解析し、台詞から話者IDの並んだパターンと、パターンの各要素が該シナリオテキストのどこに対応するのかを記したインデックス情報を生成するシナリオテキスト解析手段3と、
映像音声解析手段3とシナリオテキスト解析手段4において生成されたインデックス情報を格納するインデックス情報テーブル8と、
映像音声解析手段3から取得したパターンと、シナリオテキスト解析手段4から取得したパターンとを整合させるパターン整合手段5と、
パターン整合手段5で整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合する修正手段20と、を有する。
また、本発明のパターン整合手段5は、
映像音声解析手段3とシナリオ解析手段4から取得したパターンから、対応付けを行う2つのパターンを指定するパターン対指定手段と、
パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化手段と、
パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出し手段と、
マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録手段と、を含む。
また、上記のマッチング評価関数呼び出し手段は、
パターンマッチングを行うパターンの整合区間の始端と終端の番号を取得する始端終端取得手段と、
パターン間の距離を計算するパターン間距離計算手段と、
パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択手段と、を含む。
また、上記の修正手段20は、
パターン整合手段5で得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定手段と、
ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出手段と、
パターン甲の各要素のスコアを全て算出するために、スコア算出手段を繰り返す制御を行う繰り返し手段と、
スコア算出手段により得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を表示手段に出力する映像提示手段と、
ユーザにより修正された映像音声とシナリオテキストとの対応関係からインデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得手段と、
修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定手段と、
整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合手段と、を含む。
また、上記のスコア算出手段は、
m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素がいくつあるのかを示す指標s1と、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素とがどの程度分布するかを示す指標s2と、
パターンPに含まれる任意の要素pが、パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とする手段を含む。
本発明は、映像音声とシナリオを整合させた状態を修正するコンピュータに実行させる整合状態修正支援プログラムであって、
映像音声入力手段から入力された映像音声と、シナリオテキスト入力手段から入力されたシナリオテキストとを整合させるパターン整合ステップと、
映像音声とシナリオとの時間的な対応情報を得るため、パターン整合ステップによって得られるマッチングパス情報に基づいて、インデックス情報テーブルを参照するインデックス情報テーブル参照ステップと、
整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合するマッチングパス情報修正ステップと、をコンピュータに実行させる。
また、上記のパターン整合ステップにおいて、
映像音声入力手段から映像音声を入力させ、シナリオテキスト入力手段からシナリオテキストを入力させる入力ステップと、
入力された映像音声とシナリオテキストから、話者毎に一意に付与される話者IDに基づくパターンを生成するパターン生成ステップと、
パターンの各要素と、映像音声及び前記シナリオテキストとの対応関係を記載したインデックス情報を生成するインデックス情報生成ステップと、
対応付けを行う2つのパターンを指定するパターン対指定ステップと、
パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化ステップと、
パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出しステップと、
マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録ステップと、をコンピュータに実行させる。
また、上記のマッチング評価関数呼び出しステップにおいて、
パターンマッチングを行うパターンの整合区間の始端と終端の番号を取得する始端終端取得ステップと、
パターン間の距離を計算するパターン間距離計算ステップと、
パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択ステップと、をコンピュータに実行させる。
また、上記のマッチングパス情報修正ステップにおいて、
パターン整合ステップによって得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定ステップと、
ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出ステップと、
パターン甲の各要素のスコアを全て算出するために、スコア算出ステップを繰り返す繰り返しステップと、
スコア算出ステップにより得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を提示する映像提示ステップと、
ユーザにより修正された映像音声とシナリオテキストとの対応関係からインデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得ステップと、
修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定ステップと、
整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合ステップと、をコンピュータに実行させる。
また、上記のスコア算出ステップにおいて、
m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素がいくつあるのかを示す指標s1と、
パターンPに含まれる任意の要素pに対応付けられるパターンQ側の要素とがどの程度分布するかを示す指標s2と、
パターンPに含まれる任意の要素pが、パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とするステップをコンピュータに実行させる。
上記のように、本発明によれば、各話者の発話情報に基づいて映像音声とシナリオテキストとを整合させることが可能である。このとき、本発明によれば、手作業によって意味的に正しい対応付けを行うべき箇所が自動的に検知されユーザに提示され、ユーザの操作(修正の入力)を反映して対応付けが再帰的に行われるため、従来の技術に比較して、正しい整合状態に至らしめるまでの作業時間を短縮することが可能である。
なお、正しい整合状態に至ったか否かを確かめるため、映像の先頭からの確認を要するという点では、本発明は従来の技術と同様であるが、本発明では、映像の先頭から確認を開始する前の段階において、少ない入力操作で、意味的に正しい対応付けに近い結果がえら得るという特徴がある。すなわち、従来の技術にあったように、先頭から全ての対応関係を入力する入力作業が主ではなく、正しく対応付けられているか否かを判断する確認作業が主となるため、従来に比較して作業量(時間)が少なくことは自明である。
この点については、式によっても明らかにすることができる。すなわち、今、本発明をGUI等のプログラム上で実施する場合、整合の確認作業と入力作業に必要な稼動をそれぞれWc,Wiとし、入力が確認に比較してt倍作業量が必要(すなわち、Wi=tWc)と仮定する。
全ての確認に要する回数をM回、本発明の手法によって正しい対応付け結果が得られるまでの回数をm回とすると、本発明による手法と従来手法による作業量の差Dは、
D{Wc(M−m)+mWi}−MWi=Wc(M−m)(1−t)
となる。Wc>0及びM−m≧0は自明であることから、t>1であれば必ずD≦0となり、本発明の手法による作業量が従来手法に比較して少なくなることがわかる。
一般に、入力作業と確認作業では、入力作業の方が負荷を伴う(t>1である)ことから、本発明によって作業量(時間)を必ず削減することが可能であるといってよい。
以下、図面と共に本発明の実施の形態を説明する。
まず、以下の説明で用いられる用語について説明する。
映像音声の内容に従って台詞を記述したもの、及び、映像音声の内容の進行を記述した構成表等を総じて「シナリオテキスト」と呼ぶ。シナリオテキストの複数箇所を、映像音声における再生時間を対応付けることを「整合」と呼ぶ。話者IDの時系列情報を「パターン」と呼び、これが整合の対象となる。また、整合の際に用いるパターンマッチング処理において、2つのパターンの各要素の対応情報を「マッチングパス情報」と呼ぶ。マッチングパス情報に基づいて作られるシナリオテキストに映像音声の再生時間が関連付けられた情報を、「インデックス情報」と呼ぶ。
図3は、本発明の一実施の形態における整合状態修正支援装置の構成を示す。
同図に示す整合状態修正支援装置は、映像音声入力部1、シナリオ入力部2、映像音声解析部3、シナリオテキスト解析部4、パターン整合処理部5、パターン統合処理部6、Snスコア計算部7、インデックス情報テーブル8、映像/シナリオテキスト表示部9、入力部10、及びパターン分割処理部11から構成される。
映像音声入力部1は、VTR入力やアンテナ等であり、映像音声を入力し、映像音声解析部3に渡す。
映像音声解析部3は、映像音声入力部1から取得した映像を解析し、話者インデクシングを行い、話者毎に一意に付与される話者IDの並んだパターンをパターン整合処理部5へ、当該パターンの各要素が映像音声のどこに対応するかを記したインデックス情報をインデックス情報テーブル8のそれぞれに出力する。
シナリオ入力部2は、パーソナルコンピュータ等であり、シナリオテキストを入力し、シナリオテキスト解析部4に渡す。
シナリオテキスト解析部4は、シナリオテキストを解析し、文字列検索および文字列の長さに基づいて、台詞から話者IDの並んだパターンをパターン整合処理部5へ、当該パターンの各要素が、シナリオテキストのどこに対応するかを記したインデックス情報をインデックス情報テーブル8に、それぞれ出力する。
パターン整合処理部5は、映像音声解析部3とシナリオテキスト解析部4、または、後述するパターン分割処理部11から出力されるパターンを整合する。映像音声解析部3とシナリオテキスト解析部4からパターンが出力された場合には、話者IDに基づくパターンを生成し、対応付けを行う2つのパターンを指定し、パターンマッチングを行う始端・終端を初期化し、マッチング評価関数を呼び出して、当該マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを記憶手段(図示せず)に記録する。
ここで、2つのパターン間の距離を評価する際の式を以下に示す。
パターン統合処理部6は、パターン分割処理部11から出力されたパターンの場合に、パターンを統合する。詳細な動作については後述する。
Snスコア計算部7は、パターン整合処理部5からマッチングパスを取得し、スコアを算出する。ここでは、整合の結果、複数のマッチングパスが存在する場合を考える。すなわち、パターンP中の任意の要素Pnに注目して、Pnと対応付けられたパターンQ中の要素qがk通り(,i=0,1,…,k−1)である場合を想定する。全てのn(n=0,1,…,m−1)について、以下の3つのスコアS1〜S3を求める。
ここで、S1は、n番目の要素pに対応付けられるパターンQ側の要素がいくつあるかを示す批評であり、S2は、n番目の要素pに対応付けられるパターンQ側の要素がどの程度分布するかを示す指標であり、S3は、n番目の要素pが、パターン全体の中点にどれだけ近いかを示す指標である。
S1=k;
S2={Max()―Min()}、(i=0,1,…,k−1);
s3=Δ(n)(但し、Δ(n)は、n=0.5×(m−1)で最大値をとるような線形関数);
あるnに与えられるスコアSは、上記S1〜S3を用い、
=S1+S2+S3 (2)
の計算を行う。
また、上記の計算式(2)に限定されることなく、各S1〜S3に任意の重みをかけて、
=w・S1+w・S2+w・S3
としてもよい。
さらに、S=S3(S1+S2)または、S=S3−S1+S2としてもよい。
インデックス情報テーブル8は、スコアSn>閾値となるnに対し、そのnに対応する映像/シナリオテキストを探すために参照される、映像音声解析部3とシナリオテキスト解析部4から出力されたインデックス情報を格納する記憶手段である。
映像/シナリオテキスト表示部9は、上記のSnスコア計算部7で計算されたSnの値に基づいて、インデックス情報テーブル8を参照し、Snが最大値となる候補が修正に最適な候補であるとして、ディスプレイ等の表示手段に表示する。
入力部10は、ユーザが必要に応じて修正操作を行うキーボードやマウス等の機器である。
パターン分割部11は、ユーザが入力部10から入力した情報に基づいて、インデックス情報テーブル8を参照して、パターン要素番号にそれを変換し、得られたパターン番号を境界としてパターンを2つに分割する。
以下、上記構成の動作を説明する。
図4は、本発明の一実施の形態における全体の動作のフローチャートである。
ステップ10) パターン整合処理部5において、映像音声解析部3が映像音声入力部1から映像を取得し、解析した結果と、シナリオテキスト解析部4がシナリオテキスト入力部2からシナリオテキストを取得し、解析した結果とを時間的に整合する。詳細な動作は、図5で後述する。
ステップ20) パターン統合処理部6、Snスコア計算部7、パターン分割処理部11、映像/シナリオテキスト表示装置9において、パターン整合処理部5において得られた整合の状態を修正する。
次に、上記のステップ10の動作を詳細に説明する。
図5は、本発明の一実施の形態におけるパターン整合処理のフローチャートである。
ステップ110) 映像音声解析部3は、映像音声入力部1から映像を取得し、シナリオテキスト解析部4がシナリオテキスト入力部2からシナリオテキストを取得する。
ステップ120) 映像音声解析部3は、話者のインデクシングを行い、話者IDの時系列情報(パターン)を生成する。また、シナリオテキスト解析部4は、文字列検索等により、台詞から話者IDの並んだパターンを生成する。
ステップ130) 映像音声解析部3は、話者IDの並んだパターンと当該パターンの各要素が映像のどこに対応するのかを記したインデックス情報を生成し、シナリオテキスト解析部4は、台詞から話者IDの並んだパターンと当該パターンの各要素がシナリオテキストのどこに対応するのかを記したインデックス情報を生成し、インデックス情報はインデックス情報テーブル8に送られる。
ステップ140) パターン整合処理部5は、ステップ120で生成されたパターンを2つずつ(1つの映像パターンと1つのシナリオパターン)組み合わせ、対応付けを行う。
ステップ150) ステップ140で指定された2つのパターン(対)のパターンマッチングを行う区間の始端(s=s=h)と終端(e=e=m)とを指定することにより整合区間の初期化を行う。
ステップ160) ステップ140で指定された2つのパターン(対)をステップ150で指定された区間内でマッチングさせるため、マッチング評価関数を呼び出し、マッチング処理を行う。詳細な処理については、図6で後述する。
ステップ170) マッチング評価関数を呼び出すことにより得られたマッチングパス情報を一時的にメモリ等に出力する。
次に、パターン整合処理部5における、上記のステップ160のマッチング評価関数を用いたマッチングについて説明する。
図6は、本発明の一実施の形態におけるマッチング処理のフローチャートである。
ステップ161) 前述のステップ150で決定されたパターンマッチングの該当区間(整合区間)を取得することで、整合区間の始端sと終端eを取得する。
ステップ162) 上記の式(1)により、上記の始端sと終端eとの間でステップ140で指定された2つのパターン間の距離を計算する。
ステップ163) ステップ162で計算されたマッチングパスのうち、距離が最小となるマッチングパスを選択し、一時的に記憶手段(図示せず)に記録する。なお、距離が最小となるマッチングパスが複数存在する場合には、複数のマッチングパスを選択し、記録する。
次に、図4における、マッチングパス情報の修正処理(ステップ20)について説明する。
ステップ210) Snスコア計算部7は、終了判定用変数nを0に初期化し、パターン整合処理部5からN個のマッチングパス情報を取得する。
ステップ220) n>Nであるかを判定し、n>Nであるときステップ230に移行する。
ステップ230) 以下の式に基づいて、マッチングパスの修正を終了するかを判定する。
if(Sn−Th)(S1n−1)S2n≦0
ステップ240) ステップ220において、n<Nである場合は、前述の式(2)によりスコアSnを算出し、n=n+1として、ステップ220に戻る。
ステップ250) 映像/シナリオテキスト表示部9は、上記のステップ240,220の処理により得られるスコアSn(n=0,1,2,…,N)のうち、Snが最大値を取るようなnを持つパターン要素に基づいて、インデックス情報テーブル8及び上記のステップ163で記録されたマッチングパス情報を参照し、映像のタイオムコードとそれに対応するシナリオテキストの文字列とを取得する。さらに、一般的な手法(HTML及びWindows(登録商標)Media等)の方法により、前述のタイムコードに相当する部分映像音声を取得し、部分映像とシナリオテキストとを表示手段へと出力する。
ステップ260) 提示された部分映像をユーザが確認し、GUI等(入力部10)を用いて適切なシナリオテキストを選択する。ユーザは、GUI上でシナリオテキストの番号を入力/選択できる。
ステップ270) パターン分割処理部11は、ステップ250においてSnが最大値をとるnをもつパターン要素の番号及び、ユーザが選択したシナリオテキストのパターン要素の番号を取得する。
ステップ280) パターン分割処理部11は、ステップ270で得られた番号に基づいて、マッチング評価関数で用いるパターンの始端・終端の番号(s←s,e←p)を指定する。
ステップ290) 評価関数に、上記で指定された始端・終端の番号を入力し、マッチングパスを得る。
ステップ300) パターン分割処理部11は、さらに、マッチング評価関数で用いるパターンの始端・終端の番号(s←pn+1、e←e)を指定する。
ステップ310) 再度、上記で指定された始端・終端の番号を評価関数に入力し、マッチングパスを得る。
ステップ320) パターン分割処理部11は、ステップ290及びステップ310で得られたマッチングパスをパターン整合処理部5を介してパターン統合処理部6に転送する。これにより、パターン統合処理部6において、ステップ290及び、ステップ310で得られたマッチングパスを、ステップ270で得られたパターン要素番号を境界として統合する。
図8に、本発明のシナリオ整合GUIの例を示す。同図中左側の画面は、整合操作画面であり、右側の画面が整合状態表示画面である。整合操作画面では、再生画面とテキスト画面が表示され、オペレータは、再生画面とテキスト画面間に表示されている対応位置の修正コントロールボタンを操作することにより、整合の操作を行う。オペレータはこの対応位置の修正コントロールボタンを操作して、映像側の送り戻しの表示操作と思案リオテキストの表示をリンクさせる。シナリオテキスト側についても同様であり、ボタンを押して映像は映像だけで、シナリオはシナリオだけで別々にシーン操作ができる。このような操作により整合した画面が右側に表示される。
なお、上記の図4〜図7の処理をプログラムとして構築し、整合修正支援装置として利用されるコンピュータにインストールし、CPU等の制御手段により実行させる、またはは、ネットワークを介して流通させるようにしてもよい。
また、構築されたプログラムを整合修正支援装置として利用されるコンピュータに接続されるハードディスクや、フレキシブルディスク、CD−ROM等の可搬記憶媒体に格納しておき、本発明を実施する際に、コンピュータにインストールすることも可能である。
なお、本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において種々変更・応用が可能である。
本発明は、ビデオ、テレビ放送番組等の映像音声とシナリオとの対応付けを行うための処理に適用可能である。
本発明の原理を説明するための図である。 本発明の原理構成図である。 本発明の一実施の形態における整合状態修正支援装置の構成図である。 本発明の一実施の形態における全体の動作のフローチャートである。 本発明の一実施の形態におけるパターン整合処理のフローチャートである。 本発明の一実施の形態におけるマッチング処理のフローチャートである。 本発明の一実施の形態におけるマッチングパス情報の修正の処理のフローチャートである。 本発明の一実施の形態におけるシナリオ整合GUIの例である。
符号の説明
1 映像音声入力手段、映像音声入力部
2 シナリオテキスト入力手段、シナリオテキスト入力部
3 映像音声解析手段、映像音声解析部
4 シナリオテキスト解析手段、シナリオテキスト解析部
5 パターン整合手段、パターン整合処理部
6 パターン統合処理部
7 Snスコア計算部
8 インデックス情報テーブル
9 映像/シナリオテキスト表示部
10 入力部
11 パターン分割処理部
20 修正手段

Claims (15)

  1. 映像音声とシナリオを整合させた状態を修正する装置における、映像音声とシナリオの整合状態の修正支援方法において、
    映像音声入力手段から入力された映像音声と、シナリオテキスト入力手段から入力されたシナリオテキストとを整合させるパターン整合ステップと、
    映像音声とシナリオとの時間的な対応情報を得るため、前記パターン整合ステップによって得られるマッチングパス情報に基づいて、インデックス情報テーブルを参照するインデックス情報テーブル参照ステップと、
    整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合するマッチングパス情報修正ステップと、からなることを特徴とする映像音声とシナリオの整合状態の修正支援方法。
  2. 前記パターン整合ステップにおいて、
    前記映像音声入力手段から前記映像音声を入力し、前記シナリオテキスト入力手段から前記シナリオテキストを入力する入力ステップと、
    入力された前記映像音声と前記シナリオテキストから、話者毎に一意に付与される話者IDに基づくパターンを生成するパターン生成ステップと、
    前記パターンの各要素と、前記映像音声及び前記シナリオテキストとの対応関係を記載したインデックス情報を生成するインデックス情報生成ステップと、
    対応付けを行う2つのパターンを指定するパターン対指定ステップと、
    パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化ステップと、
    前記パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出しステップと、
    前記マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録ステップと、を行う請求項1記載の映像音声とシナリオの整合状態の修正支援方法。
  3. 前記マッチング評価関数呼び出しステップにおいて、
    パターンマッチングを行うパターンの前記整合区間の始端と終端の番号を取得する始端終端取得ステップと、
    パターン間の距離を計算するパターン間距離計算ステップと、
    前記パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択ステップと、を行う請求項2記載の映像音声とシナリオの整合状態の修正支援方法。
  4. 前記マッチングパス情報修正ステップにおいて、
    前記パターン整合ステップによって得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定ステップと、
    ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出ステップと、
    前記パターン甲の各要素のスコアを全て算出するために、前記スコア算出ステップを繰り返す繰り返しステップと、
    前記スコア算出ステップにより得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を提示する映像提示ステップと、
    前記ユーザにより修正された映像音声とシナリオテキストとの対応関係から前記インデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得ステップと、
    前記修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定ステップと、
    前記整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合ステップと、を行う請求項1記載の映像音声とシナリオの整合状態の修正支援方法。
  5. 前記スコア算出ステップにおいて、
    m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素がいくつあるのかを示す指標s1と、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素とがどの程度分布するかを示す指標s2と、
    前記パターンPに含まれる任意の要素pが、前記パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とする請求項4記載の映像音声とシナリオの整合状態の修正支援方法。
  6. 映像音声とシナリオを整合させた状態を修正する整合状態修正支援装置であって、
    映像音声入力手段から入力された映像音声し、話者インデクシングを行い、話者毎に一意に付与される話者IDの並んだパターンと、パターンの各要素が映像のどこに対応するのかを記したとインデックス情報を生成する映像音声解析手段と、
    シナリオテキスト入力手段から入力されたシナリオテキストを解析し、台詞から話者IDの並んだパターンと、パターンの各要素が該シナリオテキストのどこに対応するのかを記したインデックス情報を生成するシナリオテキスト解析手段と、
    前記映像音声解析手段と前記シナリオテキスト解析手段において生成された前記インデックス情報を格納するインデックス情報テーブルと、
    前記映像音声解析手段から取得したパターンと、前記シナリオテキスト解析手段から取得したパターンとを整合させるパターン整合手段と、
    前記パターン整合手段で整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合する修正手段と、を有することを特徴とする整合状態修正支援装置。
  7. 前記パターン整合手段は、
    前記映像音声解析手段と前記シナリオ解析手段から取得したパターンから、対応付けを行う2つのパターンを指定するパターン対指定手段と、
    パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化手段と、
    前記パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出し手段と、
    前記マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録手段と、を含む請求項6記載の整合状態修正支援装置。
  8. 前記マッチング評価関数呼び出し手段は、
    パターンマッチングを行うパターンの前記整合区間の始端と終端の番号を取得する始端終端取得手段と、
    パターン間の距離を計算するパターン間距離計算手段と、
    前記パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択手段と、を含む請求項7記載の整合状態修正支援装置。
  9. 前記修正手段は、
    前記パターン整合手段で得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定手段と、
    ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出手段と、
    前記パターン甲の各要素のスコアを全て算出するために、前記スコア算出手段を繰り返す制御を行う繰り返し手段と、
    前記スコア算出手段により得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を表示手段に出力する映像提示手段と、
    前記ユーザにより修正された映像音声とシナリオテキストとの対応関係から前記インデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得手段と、
    前記修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定手段と、
    前記整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合手段と、を含む請求項6記載の整合状態修正支援装置。
  10. 前記スコア算出手段は、
    m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素がいくつあるのかを示す指標s1と、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素とがどの程度分布するかを示す指標s2と、
    前記パターンPに含まれる任意の要素pが、前記パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とする手段を含む請求項9記載の整合状態修正支援装置。
  11. 映像音声とシナリオを整合させた状態を修正するコンピュータに実行させる整合状態修正支援プログラムであって、
    映像音声入力手段から入力された映像音声と、シナリオテキスト入力手段から入力されたシナリオテキストとを整合させるパターン整合ステップと、
    前記映像音声と前記シナリオとの時間的な対応情報を得るため、前記パターン整合ステップによって得られるマッチングパス情報に基づいて、インデックス情報テーブルを参照するインデックス情報テーブル参照ステップと、
    整合された結果をユーザに提示することにより得られた修正指示について、インデックス情報テーブルを参照して再整合するマッチングパス情報修正ステップと、をコンピュータに実行させることを特徴とする整合状態修正支援プログラム。
  12. 前記パターン整合ステップにおいて、
    前記映像音声入力手段から前記映像音声を入力させ、前記シナリオテキスト入力手段から前記シナリオテキストを入力させる入力ステップと、
    入力された前記映像音声と前記シナリオテキストから、話者毎に一意に付与される話者IDに基づくパターンを生成するパターン生成ステップと、
    前記パターンの各要素と、前記映像音声及び前記シナリオテキストとの対応関係を記載したインデックス情報を生成するインデックス情報生成ステップと、
    対応付けを行う2つのパターンを指定するパターン対指定ステップと、
    パターンマッチングを行う整合区間の始端と終端を初期化する整合区間初期化ステップと、
    前記パターンマッチングを行うためのマッチング評価関数を再帰的に呼び出すマッチング評価関数呼び出しステップと、
    前記マッチング評価関数によって計算されるパターン間距離が最小となるようなマッチングパスを取得し、記憶手段に記録するマッチングパス情報記録ステップと、をコンピュータに実行させる請求項11記載の整合状態修正支援プログラム。
  13. 前記マッチング評価関数呼び出しステップにおいて、
    パターンマッチングを行うパターンの前記整合区間の始端と終端の番号を取得する始端終端取得ステップと、
    パターン間の距離を計算するパターン間距離計算ステップと、
    前記パターン間の距離が最小となるマッチングパスを選択するマッチングパス選択ステップと、をコンピュータに実行させる請求項12記載の整合状態修正支援プログラム。
  14. 前記マッチングパス情報修正ステップにおいて、
    前記パターン整合ステップによって得られたマッチングパスについて、マッチングの修正を行う余地があるか否かを判定する終了条件判定ステップと、
    ある1つのパターン(以下、パターン甲)の各要素に対する、ユーザに修正を促すか否かの判定基準となるスコアを算出するスコア算出ステップと、
    前記パターン甲の各要素のスコアを全て算出するために、前記スコア算出ステップを繰り返す繰り返しステップと、
    前記スコア算出ステップにより得られたスコアに基づいて、整合の状態をユーザに修正させるために、視覚的に映像を提示する映像提示ステップと、
    前記ユーザにより修正された映像音声とシナリオテキストとの対応関係から前記インデックス情報テーブルを参照して、修正パターン要素番号を取得する修正パターン要素番号取得ステップと、
    前記修正パターン要素番号に基づいて、再帰的にマッチング評価関数を呼び出すために必要な整合区間を指定する整合区間指定ステップと、
    前記整合区間指定ステップで指定された区間でパターンマッチングを行うマッチング評価関数を呼び出し、パターンマッチングを行うことにより得られたマッチングパス情報を統合するマッチングパス統合ステップと、をコンピュータに実行させる請求項11記載の整合状態修正支援プログラム。
  15. 前記スコア算出ステップにおいて、
    m個の要素からなる2つのパターンP(p,p,…,pn−1)とパターンQ(q,q,…,qm−1)であるとき、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素がいくつあるのかを示す指標s1と、
    前記パターンPに含まれる任意の要素pに対応付けられる前記パターンQ側の要素とがどの程度分布するかを示す指標s2と、
    前記パターンPに含まれる任意の要素pが、前記パターンP全体の中点にどれだけ近いかを示す指標s3と、を用いて計算し、スコアSnが最大となるパターン要素nが修正に最適な候補とするステップをコンピュータに実行させる請求項14記載の整合状態修正支援プログラム。
JP2004041591A 2004-02-18 2004-02-18 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム Expired - Fee Related JP4079096B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004041591A JP4079096B2 (ja) 2004-02-18 2004-02-18 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004041591A JP4079096B2 (ja) 2004-02-18 2004-02-18 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム

Publications (2)

Publication Number Publication Date
JP2005236543A true JP2005236543A (ja) 2005-09-02
JP4079096B2 JP4079096B2 (ja) 2008-04-23

Family

ID=35019065

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004041591A Expired - Fee Related JP4079096B2 (ja) 2004-02-18 2004-02-18 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム

Country Status (1)

Country Link
JP (1) JP4079096B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007295218A (ja) * 2006-04-25 2007-11-08 Nippon Hoso Kyokai <Nhk> ノンリニア編集装置およびそのプログラム
JP2009182859A (ja) * 2008-01-31 2009-08-13 Ntt Communications Kk 字幕出力装置、字幕出力方法、及びプログラム
KR20150022601A (ko) * 2013-08-23 2015-03-04 삼성전자주식회사 저장된 정보 표시 방법 및 그 전자 장치
CN115580390A (zh) * 2022-08-24 2023-01-06 京信数据科技有限公司 一种安全多方计算下的多场景模式计算方法及系统

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007295218A (ja) * 2006-04-25 2007-11-08 Nippon Hoso Kyokai <Nhk> ノンリニア編集装置およびそのプログラム
JP2009182859A (ja) * 2008-01-31 2009-08-13 Ntt Communications Kk 字幕出力装置、字幕出力方法、及びプログラム
KR20150022601A (ko) * 2013-08-23 2015-03-04 삼성전자주식회사 저장된 정보 표시 방법 및 그 전자 장치
KR102114729B1 (ko) * 2013-08-23 2020-05-26 삼성전자주식회사 저장된 정보 표시 방법 및 그 전자 장치
CN115580390A (zh) * 2022-08-24 2023-01-06 京信数据科技有限公司 一种安全多方计算下的多场景模式计算方法及系统
CN115580390B (zh) * 2022-08-24 2023-08-25 京信数据科技有限公司 一种安全多方计算下的多场景模式计算方法及系统

Also Published As

Publication number Publication date
JP4079096B2 (ja) 2008-04-23

Similar Documents

Publication Publication Date Title
US9117450B2 (en) Combining re-speaking, partial agent transcription and ASR for improved accuracy / human guided ASR
US8311832B2 (en) Hybrid-captioning system
KR102085908B1 (ko) 컨텐츠 제공 서버, 컨텐츠 제공 단말 및 컨텐츠 제공 방법
CN109754783B (zh) 用于确定音频语句的边界的方法和装置
JP5149107B2 (ja) 音響処理装置およびプログラム
US20200126559A1 (en) Creating multi-media from transcript-aligned media recordings
JP2008083459A (ja) 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
US7046300B2 (en) Assessing consistency between facial motion and speech signals in video
WO2014141054A1 (en) Method, apparatus and system for regenerating voice intonation in automatically dubbed videos
JP5296598B2 (ja) 音声情報抽出装置
JP6327745B2 (ja) 音声認識装置、及びプログラム
US11967248B2 (en) Conversation-based foreign language learning method using reciprocal speech transmission through speech recognition function and TTS function of terminal
EP3839953A1 (en) Automatic caption synchronization and positioning
Lanchantin et al. The development of the Cambridge University alignment systems for the Multi-Genre Broadcast challenge
JP2006243575A (ja) 音声書き起こし支援装置およびその方法ならびにプログラム
JP2010109898A (ja) 撮影制御装置、撮影制御方法及びプログラム
JP4079096B2 (ja) 映像音声とシナリオとの整合状態の修正支援方法及び整合修正支援装置及び整合修正プログラム
KR101618777B1 (ko) 파일 업로드 후 텍스트를 추출하여 영상 또는 음성간 동기화시키는 서버 및 그 방법
JP2016080863A (ja) 音声認識誤り修正装置
CN114842858A (zh) 一种音频处理方法、装置、电子设备及存储介质
Saz et al. Lightly supervised alignment of subtitles on multi-genre broadcasts
JP2009116107A (ja) 情報処理装置及び方法
Katsalis et al. NLP-Theatre: Employing Speech Recognition Technologies for Improving Accessibility and Augmenting the Theatrical Experience
KR101501705B1 (ko) 음성 데이터를 이용한 문서 생성 장치, 방법 및 컴퓨터 판독 가능 기록 매체
Mocanu et al. Automatic subtitle synchronization and positioning system dedicated to deaf and hearing impaired people

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070807

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080128

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees