JP4378284B2 - ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法 - Google Patents
ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法 Download PDFInfo
- Publication number
- JP4378284B2 JP4378284B2 JP2004538824A JP2004538824A JP4378284B2 JP 4378284 B2 JP4378284 B2 JP 4378284B2 JP 2004538824 A JP2004538824 A JP 2004538824A JP 2004538824 A JP2004538824 A JP 2004538824A JP 4378284 B2 JP4378284 B2 JP 4378284B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- hyperlink
- phrase
- hyperlinked
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 69
- 238000005516 engineering process Methods 0.000 description 9
- 230000000153 supplemental effect Effects 0.000 description 9
- QNVSXXGDAPORNA-UHFFFAOYSA-N Resveratrol Natural products OC1=CC=CC(C=CC=2C=C(O)C(O)=CC=2)=C1 QNVSXXGDAPORNA-UHFFFAOYSA-N 0.000 description 8
- LUKBXSAWLPMMSZ-OWOJBTEDSA-N Trans-resveratrol Chemical compound C1=CC(O)=CC=C1\C=C\C1=CC(O)=CC(O)=C1 LUKBXSAWLPMMSZ-OWOJBTEDSA-N 0.000 description 8
- 235000021283 resveratrol Nutrition 0.000 description 8
- 229940016667 resveratrol Drugs 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000005236 sound signal Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- AFSDNFLWKVMVRB-UHFFFAOYSA-N Ellagic acid Chemical compound OC1=C(O)C(OC2=O)=C3C4=C2C=C(O)C(O)=C4OC(=O)C3=C1 AFSDNFLWKVMVRB-UHFFFAOYSA-N 0.000 description 4
- 229910000577 Silicon-germanium Inorganic materials 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000001360 synchronised effect Effects 0.000 description 4
- ATJXMQHAMYVHRX-CPCISQLKSA-N Ellagic acid Natural products OC1=C(O)[C@H]2OC(=O)c3cc(O)c(O)c4OC(=O)C(=C1)[C@H]2c34 ATJXMQHAMYVHRX-CPCISQLKSA-N 0.000 description 3
- 229920002079 Ellagic acid Polymers 0.000 description 3
- ISWSIDIOOBJBQZ-UHFFFAOYSA-N Phenol Chemical compound OC1=CC=CC=C1 ISWSIDIOOBJBQZ-UHFFFAOYSA-N 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 3
- 235000004132 ellagic acid Nutrition 0.000 description 3
- 229960002852 ellagic acid Drugs 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- FAARLWTXUUQFSN-UHFFFAOYSA-N methylellagic acid Natural products O1C(=O)C2=CC(O)=C(O)C3=C2C2=C1C(OC)=C(O)C=C2C(=O)O3 FAARLWTXUUQFSN-UHFFFAOYSA-N 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 229920001864 tannin Polymers 0.000 description 3
- 235000018553 tannin Nutrition 0.000 description 3
- 239000001648 tannin Substances 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000945 filler Substances 0.000 description 2
- LNTHITQWFMADLM-UHFFFAOYSA-N gallic acid Chemical compound OC(=O)C1=CC(O)=C(O)C(O)=C1 LNTHITQWFMADLM-UHFFFAOYSA-N 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- CUCUKLJLRRAKFN-UHFFFAOYSA-N 7-Hydroxy-(S)-usnate Chemical compound CC12C(=O)C(C(=O)C)C(=O)C=C1OC1=C2C(O)=C(C)C(O)=C1C(C)=O CUCUKLJLRRAKFN-UHFFFAOYSA-N 0.000 description 1
- LEVVHYCKPQWKOP-UHFFFAOYSA-N [Si].[Ge] Chemical compound [Si].[Ge] LEVVHYCKPQWKOP-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 235000010208 anthocyanin Nutrition 0.000 description 1
- 239000004410 anthocyanin Substances 0.000 description 1
- 229930002877 anthocyanin Natural products 0.000 description 1
- 150000004636 anthocyanins Chemical class 0.000 description 1
- 230000000739 chaotic effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 235000004515 gallic acid Nutrition 0.000 description 1
- 229940074391 gallic acid Drugs 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 150000003254 radicals Chemical class 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- NGSWKAQJJWESNS-ZZXKWVIFSA-N trans-4-coumaric acid Chemical class OC(=O)\C=C\C1=CC=C(O)C=C1 NGSWKAQJJWESNS-ZZXKWVIFSA-N 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9558—Details of hyperlinks; Management of linked annotations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/955—Retrieval from the web using information identifiers, e.g. uniform resource locators [URL]
- G06F16/9566—URL specific, e.g. using aliases, detecting broken or misspelled links
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Information Transfer Between Computers (AREA)
Description
現代社会では、情報およびサービスに対する要求が、ますます高まってきている。例えば、講演者による講演会の聴衆(auditor)としてライブ・イベントに参加している観客や、ラジオ、テレビの生放送番組を視聴している視聴者(auditor)は、補足情報にアクセスすることを望んでいる。そのような補足情報としては、例えば、フットボール試合の選手の経歴、ニュース番組で言及された出来事の歴史的背景、オリンピック競技放送中の競技記録などが考えられる。
ラジオやテレビの著しい進歩とはまた別に、ワールド・ワイド・ウェブ(ウェブ)で提供されるようなオンライン・サービスが、現在、社会に急速に出現し、広く使用されている。このようなオンライン・サービスは、インターネット技術を基礎とするものであり、対話ベースの大量の情報へのアクセスを提供するものである。インターネットは、コンピュータのグローバルなネットワークである。インターネットは、TCP/IP(「伝送制御プロトコル/インターネット・プロトコル」)と呼ばれる言語を使用して、多種多様なオペレーティング・システムや言語をベースとするコンピュータを接続する。インターネットの規模や複雑さが増すにつれ、ユーザがネットワーク上で必要な情報を見つけることを支援するツールが開発されてきた。このようなツールは、「ナビゲータ」または「ナビゲーション・システム」と呼ばれることもある。ワールド・ワイド・ウェブ(「WWW」または「ウェブ」)は、最新の優れたナビゲーション・システムである。このウェブは、インターネット・ベースのナビゲーション・システムであり、インターネットのための情報配信・管理システムであり、またウェブ上での通信のための動的なフォーマットである。
マルチポイント対マルチポイントのウェブ・ネットワークとは異なり、聞き手(auditor)(話し手と同じ場所にいる聴衆、または遠隔地に存在するラジオ放送局やテレビ放送局を介してアクセスする視聴者)へのライブ・スピーチは、主に単一の発信者と複数の受信者からなる通信である。それぞれの聞き手は、近くの話し手から、あるいは遠隔地に存在する放送局を介して同一のコンテンツを受信する。
1.同一のユニバーサル・タイム(312)(例えば、GPS受信機(309)、(310)によって提供されるGPS時刻)によって、話し手(301)と聞き手(300)の相対位置に関係なく、話し手側ワークステーション(306)と聞き手側装置(311)を同期させること、および
2.(マイクロホンが接続された)話し手側ワークステーション(306)上で動作する音声認識システム(305)によって、スピーチ(302)の間に話し手(301)によって発音されるハイパーリンクされた語句(304)(例えば、「レスベラトロル」(308))を検出すること。
話し手と聞き手の位置に関係しない、共通のタイミング・シーケンスは、例えば、GPS(GlobalPositioning System)時刻またはUTC(Universal Time Co-ordinated、協定ユニバーサル・タイム)時刻(今日では、GMT時刻やZULU時刻とも呼ばれている)などの絶対的なタイミング基準から得られる。
直接デジタルGPS受信機については、ウェブサイトhttp://w3.research.ibm.com/present/gto200038.htmに記載されている。これは、GPSを何にでも(例えば、PDA、携帯電話、ウェアラブル・コンピュータ、ビデオ・カメラなどに)組み込める、小さな低価格のチップの例である。この受信機は、IBMとライカ・カメラ社(Leica Camera AG)とが共同で開発したものである。シリコンゲルマニウム(SiGe)技術による高速アナログ機能がCMOS技術と統合されたとき、この単一チップの直接デジタルGPS(全地球測位システム)受信機が可能になった。GPSによって得られる位置情報は、地図作成や測量から、車両追跡、携帯電話による911番通報者の位置、自動農機具、ゴルフカート・ロボットにいたるまで、多種多様な応用例に使用されている。この受信機チップにより、無線装置の寸法が縮小され、複雑さが軽減される。従来の2段アナログ・ダウン・コンバージョンで必要とされていた、アナログ・ミキサー段も、(高品質フィルタなど)コストの高いディスクリート部品も必要ない。その代わりに、入ってきたGPS信号はアンテナで完全にデジタル化され、次いでCMOSベースのチップでデジタル的にフィルタ処理される。この直接デジタル化は、微小電力で高速に動作するSiGe技術の機能によって可能となったものであり、この技術のコアは、SiGeベースのアナログ・デジタル・データ変換である。
実際には、ユーザ装置がポータブルまたは車載装置である場合には、衛星信号はユーザが屋外にいるか移動中であるときに受信される。また、ユーザ装置が家屋またはビル内に長期間固定され、設置される場合には、ユーザ装置は、屋外に設置されたGPSまたはGLONASSアンテナ(例えば、ビルの屋上に設置されたアンテナなど)に接続する必要がある。
音声認識は、コンピュータ(または他の種類のシステムまたは装置)が、話し言葉を識別するために使用するプロセスである。基本的には、音声認識システムは、話し手が何を話しているかを正確に認識できるコンピュータである。
図17に示したように、本発明は、スピーチの前に話し手(301)によって使用されるシステム、方法、およびコンピュータ・プログラムであって、スピーチ(302)の間に話し手(301)によって発音される予定の選択された発話(304)(普通に話される言葉または文)から、コンピュータ・ネットワーク、好ましくはウェブに接続されたサーバ上の関連づけられた関連データ(303)へのハイパーリンクを生成し、スピーチをワード・スポッティングするために前記ハイパーリンクされた語句(304)の用語集を用いて音声認識システム(305)に学習させるためのシステム、方法、およびコンピュータ・プログラムを開示する。この方法は、
スピーチの作成または編集の間に、
・(1701)スピーチのテキストまたはドラフト・テキスト(400)を編集するステップと、
・(1702)スピーチ・テキスト(500)上で、ハイパーリンクを生成すべき複数の適切な語句または単語(501)を選択し、マーキングするステップと、
・(1703)スピーチのためのスピーチ・ハイパーリンク・テーブル(600)を生成するステップと、
・スピーチ・ハイパーリンク・テーブル(600)中に、選択された語句または単語(501)とコンピュータ・ネットワーク(908)に接続されたサーバ(909)に存在するマルチメディア情報またはサービスとの間のハイパーリンクを定義するステップであって、
既に選択されたハイパーリンクされた語句または単語(501)のそれぞれに対して、
・(1704)名前および/または記述(601)(好ましくは、短い記述)を割り当てるステップと、
・(1705)所望のマルチメディア情報またはサービスにアクセスするための、そのネットワーク(908)内での宛先アドレス(602)(例えばURL)を割り当てるステップと、
・(1706)割り当てられた名前(または記述)(601)および/または宛先アドレス(602)をスピーチ・ハイパーリンク・テーブル(600)に格納するステップとを含むステップと、
スピーチ・ハイパーリンク・テーブル(600)にハイパーリンクが定義された後で、
・(1707)話し手側ワークステーション(702)上で実行される音声認識システム(701)をハイパーリンクされた語句(602)、(703)の用語集を用いて学習させ、その語句がスピーチの間に話し手(700)によって発音された場合に、それらのハイパーリンクされた語句を自動的に認識するステップと
を含んでいる。
図18に示したように、本発明はまた、ライブ・スピーチの間に、話し手(800)によってハイパーリンクされた語句(803)が発音されたときそれを認識し、ネットワーク(908)に接続されたスピーチ・サーバ(907)上にスピーチ・ハイパーリンク−タイム・テーブル(906)を生成するとともに、そのテーブルを、認識されたハイパーリンクされた語句(304)、対応するネットワーク・アドレス(すなわち、URL)(303)、およびそのハイパーリンクされた語句が認識されたユニバーサル・タイム(309)の配列(905)を含むレコードを用いて更新するための、話し手側ワークステーション(802)で使用されるシステム、方法、およびコンピュータ・プログラムも開示する。より詳細には、この方法は、
・(1801)ネットワーク(908)に接続されたスピーチ・サーバ(907)上に、スピーチのためのスピーチ・ハイパーリンク−タイム・テーブル(906)を生成するステップと、
スピーチの間に、
・(1802)スピーチを「ワード・スポッティング」して、話し手(800)によるハイパーリンクされた語句(803)の発音を、話し手のワークステーション(802)上で動作し、スピーチのために特に学習させた音声認識システム(801)を用いて認識するステップと、
認識されたハイパーリンクされた語句(803)のそれぞれについて、
・(1803)ユニバーサル・タイム装置を用いて、ハイパーリンクされた語句(903)の認識に対応するユニバーサル・タイム(904)を決定するステップと、
・(1804)レコードを生成するステップであって、
・ハイパーリンクされた語句(903)が認識されたときのユニバーサル・タイム(904)、
・スピーチ・ハイパーリンク・テーブル(600)を使用して認識されたハイパーリンクされた語句(803)の名前または短い記述(601)、および
・スピーチ・ハイパーリンク・テーブル(600)を使用して認識されたハイパーリンクされた語句(803)に対応するネットワーク・アドレス(1005)(すなわち、URL)
を含むレコードを生成するステップと、
・(1805)生成されたレコードを、ネットワーク(908)を介して話し手側ワークステーション(902)からアクセス可能なスピーチ・サーバ(907)に格納されたスピーチ・ハイパーリンク−タイム・テーブル(906)、(1000)に格納するステップと
を含む。
・ハイパーリンクされた語句(903)の認識に対応するユニバーサル・タイム(904)(例えば、2001年5月12日14時23分18秒)、
・ハイパーリンク語句の名前または短い記述(601)(例えば、「レスベラトロル」)、および
・関連付けられたURL(602)(例えば、http://www.ag.uiuc.edu/~ffh/resvera.html)
が、スピーチ・サーバ(907)上にあるスピーチ・ハイパーリンク−タイム・テーブル(906)にどのように送信(905)され格納されるかを示す。なお、最後の2つは、どちらもスピーチ・ハイパーリンク・テーブル(600)から抽出したものである。
・(1003)スピーチの間に、話されたハイパーリンクされた語句(903)を音声認識システム(901)が認識したユニバーサル・タイム、
・(1004)スピーチ・ハイパーリンク・テーブル(600)からコピーされた、認識されたハイパーリンクされた語句(903)の名前または短い記述(601)あるいはその両方、および
・(1005)スピーチ・ハイパーリンク・テーブル(600)からコピーされた、認識されたハイパーリンクされた語句(903)に対応するURL(602)
に対応している。
図19に示したように、本発明はまた、選択ハイパーリンク−タイム・テーブル(1106)を聞き手側装置(1102)上に生成し、そのテーブルに、スピーチの間の聞き手(1100)による興味のあるトピック(1103)の選択(1104)に対応する一連のユニバーサル・タイム(1105)を記録して、スピーチの直後に、または後から、それらのトピックに関連する他の情報を受信するためのシステム、方法、およびコンピュータ・プログラムも開示する。より詳細には、聞き手側装置で使用されるこの方法は、
・(1901)聞き手側装置(1102)上に選択ハイパーリンク−タイム・テーブル(1200)を生成するステップと、
・(1902)選択ハイパーリンク−タイム・テーブル(1200)上に、スピーチ・サーバ(907)に格納されたスピーチ・ハイパーリンク−タイム・テーブル(906)のネットワーク・アドレス(すなわち、URL)(1201)を記録するステップと、
・(1903)話し手(1101)によって発音されたスピーチ(1107)を聴くステップと、
・(1904)スピーチ中の、追加の情報またはサービスを所望する興味のあるトピック(1103)に気づくステップと、
・(1905)この興味のあるトピック(1103)を、聞き手側装置(1102)上で選択コマンド(1104)を入力することによって選択するステップと、
・(1906)現在のユニバーサル・タイム(1105)を、聞き手側装置に組み込まれた、または接続された、(例えば、GPS受信機などの)ユニバーサル・タイム装置を用いて決定するステップと、
・(1907)この現在のユニバーサル・タイム(1105)を選択ハイパーリンク−タイム・テーブル(1106)、(1202)に記録するステップと
を含む。
図20に示したように、本発明は、聞き手(300)がウェブにアクセスし、聞き手が対応する選択(314)をしたときに話されていたハイパーリンクされた語句(304)に関連づけられた関連データまたは情報をウェブから取り出すことを可能にするシステム、方法、およびコンピュータ・プログラムも開示する。より詳細には、この聞き手側装置(1300)で使用される方法は、
・(2001)スピーチ・サーバ(1303)にアクセスするステップと、
聞き手側装置(1300)上にある選択ハイパーリンク−タイム・テーブル(1304)、(1200)に記録されたユニバーサル・タイム(1202)のそれぞれに対して、
・(2002)記録されたユニバーサル・タイムをスピーチ・サーバ(1303)に送信するステップ(1306)と、
・(2003)スピーチ・サーバ(1303)上にあるスピーチ・ハイパーリンク−タイム・テーブル(1302)、(1000)中で、ユニバーサル・タイム(1306)に関連するハイパーリンクされた語句(1004)(ユニバーサル・タイムに話されていたハイパーリンクされた語句)を識別するステップと、
・(2004)スピーチ・サーバ(1303)中のスピーチ・ハイパーリンク−タイム・テーブル(1302)、(1000)から、選択されたハイパーリンクされた語句の名前(または記述)(1004)および宛先アドレス(URL)(1005)取り出すステップ(1307)と、
・(2005)取り出したハイパーリンク名および宛先アドレス(URL)(1307)を聞き手側装置(1300)上の選択ハイパーリンク−タイム・テーブル(1304)、(1402)に格納するステップと
を含み、
さらにこの方法は、
・(2006)選択ハイパーリンク−タイム・テーブル(1502)中で、スピーチ・サーバ(1507)から取り出したハイパーリンクの名前(もしくは、記述)または付随する宛先アドレスを使用してハイパーリンク(1501)を選択するステップと、
・(2007)聞き手側装置(1500)上で動作するブラウザ・プログラムを使用して前記ハイパーリンク(1501)を起動するステップと、
・(2008)選択されたハイパーリンク(1501)に付随する、取り出された宛先アドレス(1503)、(1504)を使用して、ネットワーク(1505)に接続されたサーバ(1506)上にある情報および/またはサービスにアクセスするステップと、
・(2009)ネットワーク(1602)上でアクセスしたサーバ(1603)から情報および/またはサービス(1604)を取り出すステップ(1601)と、
・ブラウザ・プログラムを使用して、取り出した情報および/またはサービス(1604)を聞き手側装置(1600)上に表示するステップと
を含む。
Claims (20)
- コンピュータが実行し、聞き手からアクセス可能なスピーチ・ハイパーリンク−タイム・テーブルをスピーチの間に話し手側装置から生成する方法であって、前記コンピュータが、
話し手によって発音される予定の、事前に定義されたハイパーリンクされた語句を識別するための手段、および前記事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を含むスピーチ・ハイパーリンク・テーブルを検索し、アクセスするステップと、
スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段を取り出すステップと、
スピーチの間に、前記スピーチ・ハイパーリンク・テーブル内の事前に定義されたハイパーリンクされた語句が話し手によって発音された場合に、前記話し手側装置に接続された音声認識システムを用いて当該ハイパーリンクされた語句を認識するステップと、
認識されたハイパーリンクされた語句のそれぞれについて、前記話し手による認識されたハイパーリンクされた語句の発音に対応するユニバーサル・タイムを決定するステップと、
前記スピーチ・ハイパーリンク−タイム・テーブルに新しいレコードを生成するステップと、
前記話し手による認識されたハイパーリンクされた語句の発音に対応する前記ユニバーサル・タイム、前記スピーチ・ハイパーリンク・テーブルから取り出された、前記認識されたハイパーリンクされた語句を識別するための手段、および前記スピーチ・ハイパーリンク・テーブルから取り出された、前記認識されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を前記新しいレコードにコピーするステップと、
を含む方法。 - 前記話し手側装置内に、スピーチ・ハイパーリンク・テーブルを生成するステップと、
前記スピーチ・ハイパーリンク・テーブル内に、事前に定義された語句に関連する情報のアクセス先であるサーバへのハイパーリンクを定義するステップと
を含む、請求項1に記載の方法。 - 前記スピーチ・ハイパーリンク・テーブル内に、事前に定義されたハイパーリンクされた語句に関連する情報のアクセス先であるサーバへのハイパーリンクを定義するステップは、
スピーチの間に、前記話し手によって発音される予定のハイパーリンクされた語句を事前に定義するステップと、
新しく事前に定義されたハイパーリンクされた語句について、
前記スピーチ・ハイパーリンク・テーブル内に新しいレコードを生成するステップと、
前記レコード内に、前記事前に定義されたハイパーリンクされた語句を識別するための手段を割り当て、コピーするステップと、
前記レコード内に、前記事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を割り当て、コピーするステップと
をさらに含む、請求項2に記載の方法。 - スピーチ・ハイパーリンク・テーブルを、前記話し手側装置内に生成するステップが、
前記スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段を前記スピーチ・ハイパーリンク・テーブルに割り当てるステップと、
前記検索し、アクセスするための手段を、前記スピーチ・ハイパーリンク・テーブル内のヘッダにコピーするステップと
をさらに含む、請求項2ないし3のいずれか一項に記載の方法。 - 前記スピーチ・ハイパーリンク・テーブル内に事前に定義されたハイパーリンクされた語句が話し手によって発音された場合に、前記話し手側装置に接続された音声認識システムを用いてその語句を認識するステップが、前記スピーチの前に、前記事前に定義されたハイパーリンクされた語句が話し手によって発音された場合に、当該語句を認識するよう音声認識システムに学習させるステップをさらに含む、請求項1ないし4のいずれか一項に記載の方法。
- 前記スピーチが、テレビまたはラジオの放送番組である、請求項1ないし5のいずれか一項に記載の方法。
- 事前に定義されたハイパーリンクされた語句に関連する情報が前記サーバに存在し、
事前に定義されたハイパーリンクされた語句を識別するための手段が名前および/または記述を含み、
事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段がネットワーク内の宛先アドレスを含み、
前記スピーチ・ハイパーリンク−タイム・テーブルがスピーチ・サーバに存在し、
前記スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段がネットワーク内の宛先アドレスを含む、
請求項1ないし6のいずれか一項に記載の方法。 - 前記ネットワークがインターネットであり、
前記宛先アドレスがURL(Uniform Resource Locator)であり、
事前に定義された語句に関連する情報がウェブ・ページであり、
前記サーバがウェブ・サーバである、
請求項7に記載の方法。 - 前記スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段を聞き手側装置に送信するステップを含む、請求項8に記載の方法。
- 聞き手からアクセス可能なスピーチ・ハイパーリンク−タイム・テーブルをスピーチの間に作成させる話し手側装置であって、
話し手によって発音される予定の、事前に定義されたハイパーリンクされた語句を識別するための手段、および前記事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を含むスピーチ・ハイパーリンク・テーブルを検索し、アクセスする手段と、
スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段を取り出す手段と、
スピーチの間に、前記スピーチ・ハイパーリンク・テーブル内の事前に定義されたハイパーリンクされた語句が話し手によって発音された場合に、前記話し手側装置に接続された音声認識システムを用いて当該ハイパーリンクされた語句を認識する手段と、
認識されたハイパーリンクされた語句のそれぞれについて、前記話し手による認識されたハイパーリンクされた語句の発音に対応するユニバーサル・タイムを決定するステップと、
前記スピーチ・ハイパーリンク−タイム・テーブルに新しいレコードを生成する手段と、
前記話し手による認識されたハイパーリンクされた語句の発音に対応する前記ユニバーサル・タイム、前記スピーチ・ハイパーリンク・テーブルから取り出された、前記認識されたハイパーリンクされた語句を識別するための手段、および前記スピーチ・ハイパーリンク・テーブルから取り出された、前記認識されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を前記新しいレコードにコピーする手段と、
を含む話し手側装置。 - コンピュータが請求項1〜9のいずれか1項に記載のステップを実行するための、コンピュータ実行可能なプログラム。
- コンピュータが画実行し、聞き手側装置で、スピーチの間に話し手によって発音され、ハイパーリンクされた語句を選択し、前記選択されたハイパーリンクされた語句に関連する情報にアクセスする方法であって、前記コンピュータが、
スピーチの間に、話し手によって発音されている語句を選択するための選択コマンドを受け取るステップと、
現在のユニバーサル・タイムを決定するステップと、
現在のユニバーサル・タイムを選択ハイパーリンク−タイム・テーブルに記録するステップとを含み、
さらに前記方法は、
聞き手側装置からアクセス可能な、前記話し手によって発音された事前に定義されたハイパーリンクされた語句のそれぞれについて、前記事前に定義されたハイパーリンクされた語句の発音に対応するユニバーサル・タイム、前記事前に定義されたハイパーリンクされた語句を識別するための手段、および前記事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を含むスピーチ・ハイパーリンク−タイム・テーブルにアクセスするステップと、
前記選択ハイパーリンク−タイム・テーブル内に記録されたユニバーサル・タイムについて、
前記記録されたユニバーサル・タイムに発音された選択されたハイパーリンクされた語句を、前記スピーチ・ハイパーリンク−タイム・テーブル内で識別するステップと、
前記選択されたハイパーリンクされた語句を識別するための手段、および前記選択されたハイパーリンクされた語句を検索し、アクセスするための手段を前記スピーチ・ハイパーリンク−タイム・テーブルから取り出すステップと、
取り出された前記選択されたハイパーリンクされた語句を識別するための手段、および取り出された前記選択されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を選択ハイパーリンク−タイム・テーブルに格納するステップと
を含む方法。 - 前記スピーチのための選択ハイパーリンク−タイム・テーブルを生成するステップを含む、請求項12に記載の方法。
- スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段を受信するステップを含む、請求項12ないし13のいずれか一項に記載の方法。
- ハイパーリンクされた語句に関連する情報が前記サーバに存在し、
ハイパーリンクされた語句を識別するための手段が名前および/または記述を含み、
ハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段がネットワーク内の宛先アドレスを含み、
前記スピーチ・ハイパーリンク−タイム・テーブルがスピーチ・サーバに存在し、
前記スピーチ・ハイパーリンク−タイム・テーブルを検索し、アクセスするための手段がネットワーク内の宛先アドレスを含む、
請求項14のいずれか一項に記載の方法。 - 前記ネットワークがインターネット・ネットワークであり、
前記宛先アドレスがURL(Uniform Resource Locators)であり、
語句に関連する情報がウェブ・ページであり、
前記聞き手側装置がウェブ・ブラウザを含み、
前記サーバがウェブ・サーバである、
請求項15に記載の方法。 - ハイパーリンクされた語句に関連する情報を表示するための、前記ハイパーリンクされた語句を識別するための手段を含む表示コマンドを受信するステップと、
選択ハイパーリンク−タイム・テーブル内で、前記ハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を識別するステップと、
前記情報を取り出して表示するステップと、
を含む、請求項12ないし16のいずれか一項に記載の方法。 - 前記スピーチがテレビまたはラジオの放送番組である、請求項12ないし17のいずれか一項に記載の方法。
- スピーチの間に話し手によって発音され、ハイパーリンクされた語句を選択し、前記選択されたハイパーリンクされた語句に関連する情報にアクセスする聞き手側装置であって、
スピーチの間に、話し手によって発音されている語句を選択するための選択コマンドを受け取って、現在のユニバーサル・タイムを決定する手段と、
現在のユニバーサル・タイムを選択ハイパーリンク−タイム・テーブルに記録する手段と、
聞き手側装置からアクセス可能な、前記話し手によって発音された事前に定義されたハイパーリンクされた語句のそれぞれについて、前記事前に定義されたハイパーリンクされた語句の発音に対応するユニバーサル・タイム、前記事前に定義されたハイパーリンクされた語句を識別するための手段、および前記事前に定義されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を含むスピーチ・ハイパーリンク−タイム・テーブルにアクセスする手段と、
前記選択ハイパーリンク−タイム・テーブル内に記録されたユニバーサル・タイムについて、前記記録されたユニバーサル・タイムに発音された選択されたハイパーリンクされた語句を、前記スピーチ・ハイパーリンク−タイム・テーブル内で識別する手段と、
前記選択されたハイパーリンクされた語句を識別するための手段、および前記選択されたハイパーリンクされた語句を検索し、アクセスするための手段を前記スピーチ・ハイパーリンク−タイム・テーブルから取り出す手段と、
取り出された前記選択されたハイパーリンクされた語句を識別するための手段、および取り出された前記選択されたハイパーリンクされた語句に関連する情報を検索し、アクセスするための手段を選択ハイパーリンク−タイム・テーブルに格納する手段と
を含む、聞き手側装置。 - コンピュータが、請求項12〜18のいずれか1項に記載のステップを実行するためのコンピュータ実行可能なプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP02368106 | 2002-09-27 | ||
PCT/EP2003/009310 WO2004029831A2 (en) | 2002-09-27 | 2003-07-23 | System and method for enhancing live speech with information accessed from the world wide web |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006500665A JP2006500665A (ja) | 2006-01-05 |
JP4378284B2 true JP4378284B2 (ja) | 2009-12-02 |
Family
ID=32039252
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004538824A Expired - Lifetime JP4378284B2 (ja) | 2002-09-27 | 2003-07-23 | ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US7505907B2 (ja) |
JP (1) | JP4378284B2 (ja) |
KR (1) | KR100872191B1 (ja) |
CN (1) | CN100530175C (ja) |
AU (1) | AU2003267006A1 (ja) |
TW (1) | TWI259970B (ja) |
WO (1) | WO2004029831A2 (ja) |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8225335B2 (en) | 2005-01-05 | 2012-07-17 | Microsoft Corporation | Processing files from a mobile device |
US7721301B2 (en) * | 2005-03-31 | 2010-05-18 | Microsoft Corporation | Processing files from a mobile device using voice commands |
US7606856B2 (en) | 2005-11-09 | 2009-10-20 | Scenera Technologies, Llc | Methods, systems, and computer program products for presenting topical information referenced during a communication |
US20080034095A1 (en) | 2006-08-01 | 2008-02-07 | Motorola, Inc. | Multi-representation media event handoff |
US8271268B2 (en) * | 2007-04-18 | 2012-09-18 | Nuance Communications, Inc. | Method to translate, cache and transmit text-based information contained in an audio signal |
US8645143B2 (en) * | 2007-05-01 | 2014-02-04 | Sensory, Inc. | Systems and methods of performing speech recognition using global positioning (GPS) information |
US8775454B2 (en) | 2008-07-29 | 2014-07-08 | James L. Geer | Phone assisted ‘photographic memory’ |
US9128981B1 (en) | 2008-07-29 | 2015-09-08 | James L. Geer | Phone assisted ‘photographic memory’ |
FR2935854B1 (fr) * | 2008-09-11 | 2011-02-18 | Alcatel Lucent | Procede et systeme de communication pour l'affichage d'un lien vers un service a partir d'une expression enoncee en cours de conversation. |
FR2935855B1 (fr) | 2008-09-11 | 2010-09-17 | Alcatel Lucent | Procede et systeme de communication pour la determination d'une sequence de services lies a une conversation. |
GB2466242B (en) * | 2008-12-15 | 2013-01-02 | Audio Analytic Ltd | Sound identification systems |
US8639514B2 (en) * | 2008-12-18 | 2014-01-28 | At&T Intellectual Property I, L.P. | Method and apparatus for accessing information identified from a broadcast audio signal |
JP4565040B2 (ja) | 2009-03-27 | 2010-10-20 | 白石工業株式会社 | 表面処理炭酸カルシウム及びそれを含むペースト状樹脂組成物 |
US8255787B2 (en) | 2009-06-29 | 2012-08-28 | International Business Machines Corporation | Automated configuration of location-specific page anchors |
US8244755B2 (en) * | 2009-06-29 | 2012-08-14 | International Business Machines Corporation | Search engine optimization using page anchors |
US20110218802A1 (en) * | 2010-03-08 | 2011-09-08 | Shlomi Hai Bouganim | Continuous Speech Recognition |
US20120278078A1 (en) * | 2011-04-26 | 2012-11-01 | Avaya Inc. | Input and displayed information definition based on automatic speech recognition during a communication session |
US8589167B2 (en) | 2011-05-11 | 2013-11-19 | Nuance Communications, Inc. | Speaker liveness detection |
US9443518B1 (en) | 2011-08-31 | 2016-09-13 | Google Inc. | Text transcript generation from a communication session |
US9007448B2 (en) * | 2012-02-03 | 2015-04-14 | Bank Of America Corporation | Video-assisted customer experience |
KR102081925B1 (ko) | 2012-08-29 | 2020-02-26 | 엘지전자 주식회사 | 디스플레이 디바이스 및 스피치 검색 방법 |
US8612211B1 (en) | 2012-09-10 | 2013-12-17 | Google Inc. | Speech recognition and summarization |
TW201445340A (zh) * | 2013-05-17 | 2014-12-01 | Hon Hai Prec Ind Co Ltd | 資訊搜索系統及方法 |
US9390708B1 (en) * | 2013-05-28 | 2016-07-12 | Amazon Technologies, Inc. | Low latency and memory efficient keywork spotting |
JP6099046B2 (ja) | 2013-06-11 | 2017-03-22 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 文を検索する装置および方法 |
JP7044633B2 (ja) * | 2017-12-28 | 2022-03-30 | シャープ株式会社 | 操作支援装置、操作支援システム、及び操作支援方法 |
US11037571B2 (en) * | 2019-10-04 | 2021-06-15 | Motorola Solutions, Inc. | Speech-based two-way radio assistant |
US11783817B2 (en) | 2021-05-28 | 2023-10-10 | International Business Machines Corporation | Identification of anomalies in air traffic control communications |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5715367A (en) | 1995-01-23 | 1998-02-03 | Dragon Systems, Inc. | Apparatuses and methods for developing and using models for speech recognition |
US5799063A (en) | 1996-08-15 | 1998-08-25 | Talk Web Inc. | Communication system and method of providing access to pre-recorded audio messages via the Internet |
JPH10133847A (ja) | 1996-10-28 | 1998-05-22 | Casio Comput Co Ltd | 移動端末音声認識/データベース検索/リソースアクセス通信システム |
US5915001A (en) | 1996-11-14 | 1999-06-22 | Vois Corporation | System and method for providing and using universally accessible voice and speech data files |
US6282511B1 (en) | 1996-12-04 | 2001-08-28 | At&T | Voiced interface with hyperlinked information |
US6018710A (en) | 1996-12-13 | 2000-01-25 | Siemens Corporate Research, Inc. | Web-based interactive radio environment: WIRE |
US6224636B1 (en) | 1997-02-28 | 2001-05-01 | Dragon Systems, Inc. | Speech recognition using nonparametric speech models |
US5946653A (en) | 1997-10-01 | 1999-08-31 | Motorola, Inc. | Speaker independent speech recognition system and method |
US6157705A (en) | 1997-12-05 | 2000-12-05 | E*Trade Group, Inc. | Voice control of a server |
US6282512B1 (en) | 1998-02-05 | 2001-08-28 | Texas Instruments Incorporated | Enhancement of markup language pages to support spoken queries |
US6269335B1 (en) | 1998-08-14 | 2001-07-31 | International Business Machines Corporation | Apparatus and methods for identifying homophones among words in a speech recognition system |
JP3252282B2 (ja) * | 1998-12-17 | 2002-02-04 | 松下電器産業株式会社 | シーンを検索する方法及びその装置 |
US6249765B1 (en) | 1998-12-22 | 2001-06-19 | Xerox Corporation | System and method for extracting data from audio messages |
JP2000339345A (ja) | 1999-03-25 | 2000-12-08 | Sony Corp | 検索システム、検索装置および方法、ならびに、入力装置および方法 |
EP1102271B8 (en) * | 1999-11-05 | 2016-12-07 | Sony Europe Limited | Method of generating audio and/or video signals and apparatus therefore |
ATE494612T1 (de) * | 1999-11-09 | 2011-01-15 | Nuance Comm Austria Gmbh | Spracherkennungsverfahren zur aktivierung von internet-hyperlinks |
EP1947649A3 (en) * | 2000-04-05 | 2014-07-09 | Sony United Kingdom Limited | Audio/video reproducing apparatus and method |
EP1962511A3 (en) * | 2000-04-05 | 2010-10-27 | Sony United Kingdom Limited | Audio and/or video generation apparatus and method using a list of content items |
US7062528B2 (en) | 2000-07-14 | 2006-06-13 | Sony Corporation | Method and system for identifying a time specific event |
US20050204385A1 (en) * | 2000-07-24 | 2005-09-15 | Vivcom, Inc. | Processing and presentation of infomercials for audio-visual programs |
US20050193425A1 (en) * | 2000-07-24 | 2005-09-01 | Sanghoon Sull | Delivery and presentation of content-relevant information associated with frames of audio-visual programs |
US6990453B2 (en) * | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
JP2002077865A (ja) | 2000-08-24 | 2002-03-15 | Sanyo Electric Co Ltd | アドレス情報検出装置 |
JP2002157112A (ja) * | 2000-11-20 | 2002-05-31 | Teac Corp | 音声情報変換装置 |
TWI256250B (en) | 2001-05-10 | 2006-06-01 | Ibm | System and method for enhancing recorded radio or television programs with information on the world wide web |
TW540235B (en) | 2001-05-10 | 2003-07-01 | Ibm | System and method for enhancing broadcast programs with information on the world wide web |
US6858353B2 (en) | 2002-07-17 | 2005-02-22 | Taiwan Semiconductor Manufacturing Co., Ltd | Increased-contrast film for high-transmittance attenuated phase-shaft masks |
US7526718B2 (en) * | 2003-04-30 | 2009-04-28 | Hewlett-Packard Development Company, L.P. | Apparatus and method for recording “path-enhanced” multimedia |
-
2003
- 2003-07-23 CN CNB038228289A patent/CN100530175C/zh not_active Expired - Lifetime
- 2003-07-23 JP JP2004538824A patent/JP4378284B2/ja not_active Expired - Lifetime
- 2003-07-23 WO PCT/EP2003/009310 patent/WO2004029831A2/en active Search and Examination
- 2003-07-23 KR KR1020057003143A patent/KR100872191B1/ko not_active IP Right Cessation
- 2003-07-23 US US10/528,175 patent/US7505907B2/en not_active Expired - Fee Related
- 2003-07-23 AU AU2003267006A patent/AU2003267006A1/en not_active Abandoned
- 2003-09-26 TW TW092126724A patent/TWI259970B/zh not_active IP Right Cessation
-
2009
- 2009-03-12 US US12/402,547 patent/US7865367B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR100872191B1 (ko) | 2008-12-09 |
US20050251394A1 (en) | 2005-11-10 |
AU2003267006A1 (en) | 2004-04-19 |
US7865367B2 (en) | 2011-01-04 |
JP2006500665A (ja) | 2006-01-05 |
TW200414021A (en) | 2004-08-01 |
US7505907B2 (en) | 2009-03-17 |
US20090228275A1 (en) | 2009-09-10 |
WO2004029831A2 (en) | 2004-04-08 |
CN100530175C (zh) | 2009-08-19 |
WO2004029831A3 (en) | 2004-09-10 |
TWI259970B (en) | 2006-08-11 |
CN1685339A (zh) | 2005-10-19 |
KR20050047104A (ko) | 2005-05-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4378284B2 (ja) | ワールド・ワイド・ウェブからの情報を使用してライブ・スピーチの機能を拡張するためのシステムおよび方法 | |
CN1524382B (zh) | 用于以万维网上的信息增强播放或记录的节目的系统和方法 | |
CN106462636B (zh) | 解释视频内容中的可听话语信息 | |
US6260011B1 (en) | Methods and apparatus for automatically synchronizing electronic audio files with electronic text files | |
Glass et al. | Recent progress in the MIT spoken lecture processing project. | |
Hauptmann et al. | Informedia: News-on-demand multimedia information acquisition and retrieval | |
US10225625B2 (en) | Caption extraction and analysis | |
US7523036B2 (en) | Text-to-speech synthesis system | |
Van Thong et al. | Speechbot: an experimental speech-based search engine for multimedia content on the web | |
US7697731B2 (en) | Information-processing apparatus, information-processing methods, and programs | |
US20030120748A1 (en) | Alternate delivery mechanisms of customized video streaming content to devices not meant for receiving video | |
US20100057443A1 (en) | Systems and methods for responding to natural language speech utterance | |
US9245017B2 (en) | Metatagging of captions | |
Jones et al. | Experiments in spoken document retrieval | |
EP1391111A2 (en) | System and method for enhancing broadcast programs with information on the world wide web | |
JP2003157288A (ja) | 情報関連付け方法、端末装置、サーバ装置、プログラム | |
JP2004302175A (ja) | 音声認識システム、音声認識方法及び音声認識プログラム | |
WO2006051775A1 (ja) | 携帯型語学学習装置及び携帯型語学学習システム | |
Clements et al. | Phonetic searching of digital audio | |
US8196046B2 (en) | Parallel visual radio station selection | |
KR20050006222A (ko) | 프리젠테이션 타임 테이블 생성 방법, 포일 선택 및액세스 방법, 발표자 장치, 청중 장치 및 컴퓨터 프로그램 | |
Nouza et al. | A system for information retrieval from large records of Czech spoken data | |
Amaral et al. | The development of a portuguese version of a media watch system | |
JPWO2009066397A1 (ja) | 検索装置及び検索システム | |
Heeren et al. | Easy listening: Spoken document retrieval in choral |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060711 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080729 |
|
RD12 | Notification of acceptance of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7432 Effective date: 20080811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20080811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090901 |
|
RD14 | Notification of resignation of power of sub attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7434 Effective date: 20090901 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090914 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120918 Year of fee payment: 3 |