JPH09281988A - Voice synthesizer - Google Patents
Voice synthesizerInfo
- Publication number
- JPH09281988A JPH09281988A JP8089580A JP8958096A JPH09281988A JP H09281988 A JPH09281988 A JP H09281988A JP 8089580 A JP8089580 A JP 8089580A JP 8958096 A JP8958096 A JP 8958096A JP H09281988 A JPH09281988 A JP H09281988A
- Authority
- JP
- Japan
- Prior art keywords
- word
- attribute
- voice
- words
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Circuits Of Receivers In General (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、音声合成装置に関
し、特にFM多重文字放送などを受信して得た、主とし
て漢字文からなる文字列を、高音質で音声合成すること
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice synthesizing apparatus, and more particularly, to voice synthesizing a character string mainly composed of Chinese characters obtained by receiving FM multiplex character broadcasting with high sound quality.
【0002】[0002]
【従来の技術】上記FM多重文字放送の受信より得た、
主として漢字文からなる交通情報は表示に用いられてい
る。自動車に搭載した受信機より得た交通情報は表示で
出力されると同時に音声で出力されるとさらに便利であ
る。運転者は、安全のため、できるだけ前方から目を離
すべきでないからである。2. Description of the Related Art Obtained from the reception of the above FM multiple character broadcasting,
Traffic information consisting mainly of Chinese characters is used for display. It is more convenient if the traffic information obtained from the receiver mounted on the vehicle is output as a display and at the same time as a voice. This is because the driver should not look away from the front as much as possible for safety.
【0003】上記交通情報を音声に合成するものとして
は、上記交通情報の漢字かな混じり文を入力テキストと
して用いることができるテキスト音声合成装置がある。As a device for synthesizing the traffic information into voice, there is a text-to-speech synthesizer capable of using a kanji / kana mixed sentence of the traffic information as an input text.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、FM多
重文字放送から得られた、主として漢字文からなる交通
情報は、表示用のために作られており、目で見るとその
内容が一目瞭然であるが、そのまま音声にしても、助
詞、接続詞、動詞等が省略されており、話言葉として聞
き取りにくいという問題がある。However, the traffic information obtained mainly from the Chinese character sentence obtained from the FM multiple character broadcasting is made for display, and the contents are obvious at a glance. However, even if the voice is used as it is, particles, conjunctions, verbs, etc. are omitted, and there is a problem that it is difficult to hear as a spoken word.
【0005】したがって、本発明は、上記問題点に鑑
み、FM多重文字放送から得られた、主として漢字文か
らなる交通情報を聞き取りやすくする音声合成装置を提
供することを目的とする。Therefore, in view of the above problems, it is an object of the present invention to provide a voice synthesizing device which makes it easy to hear traffic information mainly composed of Chinese characters obtained from FM multiple character broadcasting.
【0006】[0006]
【課題を解決するための手段】本発明は、前記問題点を
解決するために、テキストを言語処理し、音声記号系列
を行い、韻律付与して音声合成を行う音声合成装置にお
いて、FM多重文字放送から得られる交通情報を主とし
て構成する漢字、記号の単語と、各単語にその種類を示
した属性情報を格納する単語辞書と、前記交通情報をテ
キストとして言語処理を行い、属性付きの単語列を抽出
する言語処理部と、予め決められた複数の基本属性パタ
ーンと、この基本属性パターンの基本属性を文法的に結
ぶはめ込みパターンとを有し、抽出された前記単語列の
属性がどの基本属性パターンに帰属するか検索し、検索
結果を基に単語をはめ込みパターンにはめ込むはめ込み
合成部とを備える。この手段により、交通情報を構成す
る主として漢字文の単語が助詞、接続詞、動詞等からな
るはめ込みパターンにはめ込まれて、音声情報として聞
き取りやすい文章となる。In order to solve the above-mentioned problems, the present invention provides an FM multiple character in a voice synthesizing apparatus for linguistically processing a text, performing a phonetic symbol sequence, and adding a prosody to perform voice synthesis. Words of Chinese characters and symbols that mainly constitute traffic information obtained from broadcasting, a word dictionary that stores attribute information indicating the type of each word, and a word string with attributes by performing language processing using the traffic information as text. Which has a plurality of predetermined basic attribute patterns, and an embedding pattern that grammatically connects the basic attributes of the basic attribute patterns, and which basic attribute is the attribute of the extracted word string. It is provided with a fitting and synthesizing unit which searches for whether the character belongs to a pattern and fits a word based on the search result. By this means, the words of the kanji sentence that make up the traffic information are embedded in the embedding pattern consisting of particles, conjunctions, verbs, etc., and the sentence becomes easy to hear as voice information.
【0007】前記はめ込み合成部は、前記記号間に連な
る2つの単語を、前の単語を後の単語の形容詞として、
1つの単語に変換する。この手段により、FM多重文字
放送から多様な表現に対応して、はめ込みを可能にでき
る。前記変換された単語について、音声記号系列を行
い、韻律付与を行う。この手段により、多様な表現に対
応して最適な韻律を与えることが可能になる。The embedding / synthesizing unit defines the two words connected between the symbols as the adjectives of the preceding word and the preceding word.
Convert to one word. By this means, it is possible to embed the FM multiplex character broadcast corresponding to various expressions. A phonetic symbol sequence is applied to the converted words to add prosody. By this means, it becomes possible to give an optimum prosody in correspondence with various expressions.
【0008】前記はめ込み合成部の検索では、抽出され
た前記単語列の属性が前記基本属性パターンに一致しな
くとも、最も近いものがあれば、これに帰属するとす
る。この手段により、はめ込みの適用範囲を広くするこ
とが可能になる。前記はめ込み合成部の検索では、抽出
された前記単語列の属性は、その順番が、前記基本属性
パターンの配列順番と異なる場合には、並び変えて、こ
れに帰属するとみなす。この手段により、同様に、はめ
込みの適用範囲を広くすることが可能になる。In the search of the inset synthesizing unit, even if the attribute of the extracted word string does not match the basic attribute pattern, if there is the closest one, it is attributed to it. By this means, it is possible to widen the application range of the fitting. When the order of the extracted attributes of the word string is different from the arrangement order of the basic attribute pattern, it is considered that the attributes of the extracted word string are rearranged and belong to this in the search by the inset combining unit. This measure likewise makes it possible to widen the application range of the fitting.
【0009】[0009]
【発明の実施の形態】以下本発明の実施の形態について
図面を参照して説明する。図1は本発明に係る音声合成
装置を説明する図である。本図には、FM多重文字放送
を受信するアンテナ1と、受信信号を復調するFM受信
機2と、復調信号のうちFM放送音を出力するスピーカ
3と、復調信号のうち交通情報の漢字文を主として表示
する表示器4と、交通情報の漢字文等を聞き取りやすく
して音声に合成する音声合成部5と、音声合成部5から
の合成音及びFM受信機からの放送音を択一的に選択す
るスイッチ6とからなる。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram for explaining a speech synthesizer according to the present invention. In the figure, an antenna 1 for receiving FM multiplex character broadcasting, an FM receiver 2 for demodulating a received signal, a speaker 3 for outputting FM broadcast sound of the demodulated signal, and a Chinese character sentence of traffic information of the demodulated signal. , A voice synthesizer 5 for synthesizing voice to make it easy to hear Chinese characters and the like of traffic information, and a synthetic sound from the voice synthesizer 5 and a broadcast sound from the FM receiver as alternatives. And a switch 6 for selecting.
【0010】図2は図1の音声合成部5の概略構成を示
す図である。本図に示すように、音声合成部5は、FM
受信機からの文字放送データを入力して漢字文等を単語
属性の混じった単語列に生成する言語解析部51と、単
語の種類を示す属性情報を含み言語解析部51にこの情
報を与える単語辞書52と、言語解析部51により生成
された単語列を、後述するよに聞き取りやすいはめ込み
合成を行うはめ込み合成部53と、はめ込み合成された
文を音声記号に系列化する音声系列化部54と、読み仮
名、アクセント情報、ポーズ、イントネーションの情報
を付与する韻律付与部55とを有する。FIG. 2 is a diagram showing a schematic configuration of the voice synthesizing section 5 of FIG. As shown in the figure, the voice synthesis unit 5 is
A language analysis unit 51 that inputs teletext data from a receiver and generates a Chinese character sentence or the like into a word string in which word attributes are mixed, and a word that includes attribute information indicating the type of word and provides this information to the language analysis unit 51. A dictionary 52, an inset synthesizing unit 53 for performing inset synthesizing of the word string generated by the language analyzing unit 51, which will be easy to hear, as will be described later, and a speech sequencer 54 for sequencing the inset-combined sentences into phonetic symbols. , And a prosody providing section 55 for providing information on phonetic alphabets, accent information, poses, and intonations.
【0011】図3は図2の単語辞書52で単語に付与さ
れる属性の一例を説明する図である。本図に示すよう
に、固有の地名を表す単語には、例えば井萩A、石川町
A、ベイブリッジA、羽田Aのように、属性Aが与えら
れる。一般的な地点を表す単語には、例えば踏切Bのよ
うに、属性Bが与えられる。固有の路線名を表す単語に
は、例えば横羽C、環八Cのように、属性Cが与えられ
る。一般的な道路を表す単語には、例えば線Dのよう
に、属性Dが与えられる。時間を表す単語には、例えば
21分Hのように、属性Hが与えられる。距離を表す単
語には、例えば1.5KIのように、属性Iが与えられ
る。方向を表す単語には、例えば上F、内Fのように,
属性Fを与える(上は「上り」、内は「内回り」を意味
する。)。→を表す記号には、例えば→Kのように、属
性Kが与えられる。( )を表す記号には、例えば
(Z、)Zのように、属性Zが与えられる。FIG. 3 is a view for explaining an example of attributes given to words in the word dictionary 52 of FIG. As shown in the figure, an attribute A is given to a word representing a unique place name, for example, Ihagi A, Ishikawa Town A, Bay Bridge A, and Haneda A. An attribute B is given to a word representing a general point, for example, level crossing B. An attribute C is given to a word representing a unique route name, such as Yokohane C and Ringhachi C. An attribute D is given to a word representing a general road, for example, a line D. An attribute H is given to a word representing time, for example, 21 minutes H. The attribute I is given to the word representing the distance, for example, 1.5 KI. The words that represent directions include, for example, upper F and inner F,
An attribute F is given (upper means “upward”, and inner means “inner turn”). An attribute K is given to the symbol representing →, for example, → K. The attribute Z is given to the symbol indicating (), for example, (Z,) Z.
【0012】単語辞書52への属性付与は、一般的に
は、FM多重文字放送に含まれる単語の種類に対応でき
るように行われる。図4は図2の言語解析部51及びは
め込み合成部53の処理を説明するフローチャートであ
り、図5は図4の処理の第1の例を示す図であり、図6
は図4の処理の第2の例を示す図である。[0012] Generally, attributes are assigned to the word dictionary 52 so as to correspond to the types of words included in the FM multiplex character broadcast. FIG. 4 is a flow chart for explaining the processing of the language analysis unit 51 and the embedded synthesis unit 53 of FIG. 2, and FIG. 5 is a diagram showing a first example of the processing of FIG.
FIG. 8 is a diagram showing a second example of the processing of FIG. 4.
【0013】ステップS1において、言語解析部51に
入力する文字放送データ例(図5(a)、図6(a)参
照)に単語属性付与(図5(b)、図6(b)参照)が
行われる。なお、これらの文字放送データ例が表示器4
に表示される。ステップS2において、K、Zの属性で
文字放送データを切り、新たな単語列を形成する(図5
(c)、図6(c)参照)。In step S1, word attribute assignment (see FIGS. 5B and 6B) is given to the teletext data example (see FIGS. 5A and 6A) input to the language analysis unit 51. Is done. An example of these teletext data is the display 4
Is displayed in. In step S2, the teletext data is cut with the attributes of K and Z to form a new word string (see FIG. 5).
(C) and FIG. 6 (c)).
【0014】ステップS3において、切断処理された新
たな単語の範囲内で、図6(d)に示すように、「井萩
A踏切B」を「井萩踏切B」の属性に変換する。地点
「踏切B」が地名「井萩A」で形容されている場合があ
るためである。このような変換に伴い、固有の路線名
「環八C」を道路「環八D」に変換する。同様に図5
(d)に示すように、路線名「横羽C」を道路「横羽
D」に、地名「石川町A」を地点「石川町B」に変換す
る。「経由L」が地名「ベイブリッジA」で形容される
場合には、「ベイブリッジA経由L」を「ベイブリッジ
L」に変換する。In step S3, "Ihagi A level crossing B" is converted into an attribute of "Ihagi level crossing B" within the range of the new word subjected to the cutting process, as shown in FIG. 6 (d). This is because the point “railroad crossing B” may be described by the place name “Ihagi A”. Along with such conversion, the unique route name “ring eight C” is converted to the road “ring eight D”. Similarly, FIG.
As shown in (d), the route name “Yokohane C” is converted to the road “Yokohane D” and the place name “Ishikawacho A” is converted to the point “Ishikawacho B”. When "route L" is described by the place name "Baybridge A", "Baybridge A route L" is converted to "Baybridge L".
【0015】なお、「横羽C線D」のように道路「線
D」が路線名「横羽」で形容されている場合には、「横
羽線D」のように変換する。ステップS4において、新
たな属性が変換された単語列を属性毎の単語に切る(図
5(e)、図6(e)参照)。ステップS5において、
文字放送データを属性の文例パターンで表す(図5
(d)、図6(d)参照)。When the road "line D" is described by the route name "yokowa" such as "yokohan C line D", it is converted to "yokohan line D". In step S4, the word string in which the new attribute is converted is cut into words for each attribute (see FIG. 5 (e) and FIG. 6 (e)). In step S5,
Teletext data is represented by an example sentence pattern of attributes (Fig. 5
(D), FIG.6 (d)).
【0016】ステップS5において、文例パターンの検
索を行う。図7は図6のステップS5の文例パターンの
検索処理を説明するフローチャートである。ステップS
11において、文例パターンの抽出が完了するのを確認
する。ステップS12において、はめ込み合成部53に
予め格納された文例01、02、…、nnまでの基本属
性パターンを用いて、文例パターンがどの基本属性パタ
ーンに帰属するかを検索する。図5の文例パターンは、
文例01のパターンに最も近く、図6の文例パターン
は、文例02のパターンと一致する。In step S5, a sentence example pattern is searched. FIG. 7 is a flowchart illustrating the sentence example pattern search processing in step S5 of FIG. Step S
In 11, it is confirmed that the extraction of the sentence example pattern is completed. In step S12, the basic attribute patterns up to the sentence examples 01, 02, ... The example sentence pattern in FIG.
The sentence example pattern of FIG. 6 is closest to the pattern of sentence example 01, and matches the pattern of sentence example 02.
【0017】ステップS13において、基本属性パター
ンに合わせて、文例パターンの単語を並べ変える。ステ
ップS6において、以下のような、はめ込み合成データ
生成を行う。音声情報として分かりやすい文とするため
に、はめ込み合成部53に予め文例01、02、…nn
に対して、助詞、接続、動詞等で構成されるはめ込みパ
ターンが格納されており、並び換えられた各単語がこの
はめ込みパターンに、以下のように、はめ込まれる。In step S13, the words of the sentence example pattern are rearranged in accordance with the basic attribute pattern. In step S6, the following embedded composite data generation is performed. In order to make the sentence easy to understand as voice information, the embedded example synthesizer 53 preliminarily prepares sentence examples 01, 02, ... nn.
On the other hand, a fitting pattern composed of particles, connections, verbs, etc. is stored, and each rearranged word is fitted into this fitting pattern as follows.
【0018】図5の例では、横羽の上りは、石川町から
羽田までベイブリッジを経由して21分かかります。
(下線部がはめ込みパターン) 図6の例では、環八の内回りは、井萩踏切から1.5K
mで、外回りは、井萩踏切まで1.5Kmです。 [0018] In the example of FIG. 5, the horizontal wings on rehearsal, via the Bay Bridge from Ishikawa-cho to <br/> Haneda it will take 21 minutes.
In the example of (underlined inset pattern) 6, the inner around the ring bees, 1.5K from Ihagi crossing
In m, outside around is the 1.5K m to Ihagi railway crossing.
【0019】このようにして、得られたはめ込み文が音
声として出力される。このため、聞き取りやすくなり、
FM文字多重放送の交通情報が高音質な合成音に形成さ
れる。The inset sentence thus obtained is output as voice. This makes it easier to hear,
The traffic information of the FM text multiplex broadcast is formed into a high-quality synthesized sound.
【図1】本発明に係る音声合成装置を説明する図であ
る。FIG. 1 is a diagram illustrating a speech synthesizer according to the present invention.
【図2】図1の音声合成部5の概略構成を示す図であ
る。FIG. 2 is a diagram showing a schematic configuration of a voice synthesis unit 5 in FIG.
【図3】図2の単語辞書52で単語に付与される属性の
一例を説明する図である。FIG. 3 is a diagram illustrating an example of attributes given to words in the word dictionary 52 of FIG.
【図4】図2の言語解析部51及びはめ込み合成部53
の処理を説明するフローチャートである。FIG. 4 is a language analysis unit 51 and a fitting synthesis unit 53 of FIG.
5 is a flowchart illustrating the processing of step S1.
【図5】図4の処理の第1の例を示す図である。5 is a diagram showing a first example of the process of FIG.
【図6】図4の処理の第2の例を示す図である。FIG. 6 is a diagram showing a second example of the processing of FIG.
【図7】図6のステップS5の文例パターンの検索処理
を説明するフローチャートである。FIG. 7 is a flowchart illustrating a sentence example pattern search process in step S5 of FIG. 6;
5…音声合成部 52…単語辞書 51…言語解析部 53…はめ込み合成部 5 ... Speech synthesis unit 52 ... Word dictionary 51 ... Language analysis unit 53 ... Inset synthesis unit
Claims (5)
行い、韻律付与して音声合成を行う音声合成装置におい
て、 FM多重文字放送から得られる交通情報を主として構成
する漢字、記号の単語と、各単語にその種類を示した属
性情報を格納する単語辞書と、 前記交通情報をテキストとして言語処理を行い、属性付
きの単語列を抽出する言語処理部と、 予め決められた複数の基本属性パターンと、この基本属
性パターンの基本属性を文法的に結ぶはめ込みパターン
とを有し、抽出された前記単語列の属性がどの基本属性
パターンに帰属するか検索し、検索結果を基に単語をは
め込みパターンにはめ込むはめ込み合成部とを備える音
声合成装置。1. A speech synthesizer for subjecting text to language processing, performing a phonetic symbol sequence, and adding a prosody to speech synthesis, including kanji and symbol words that mainly constitute traffic information obtained from FM multiple character broadcasting, A word dictionary that stores attribute information indicating the type of each word, a language processing unit that performs language processing using the traffic information as text, and extracts a word string with attributes, and a plurality of predetermined basic attribute patterns And a fitting pattern that grammatically connects the basic attributes of this basic attribute pattern, searches which basic attribute pattern the attribute of the extracted word string belongs to, and sets the word fitting pattern based on the search result. A voice synthesizing device having an embedded synthesizing unit to be embedded therein.
なる2つの単語を、前の単語を後の単語の形容詞とし
て、1つの単語に変換することを特徴とする、請求項1
に記載の音声合成装置。2. The embedding / synthesizing unit converts two words connected between the symbols into one word by using a preceding word as an adjective of a succeeding word.
The speech synthesizer according to.
系列を行い、韻律付与を行うことを特徴とする、請求項
2に記載の音声合成装置。3. The speech synthesizing apparatus according to claim 2, wherein a phonetic symbol sequence is performed on the converted words to add prosody.
れた前記単語列の属性は前記基本属性パターンに一致し
なくとも、最も近いものがあれば、これに帰属するとみ
なすことを特徴とする、請求項1に記載の音声合成装
置。4. In the search by the inset synthesizing unit, even if the attribute of the extracted word string does not match the basic attribute pattern, if there is a closest one, it is considered to belong to this. The speech synthesizer according to claim 1.
れた前記単語列の属性は、その順番が、前記基本属性パ
ターンの配列順番と異なる場合には、並び変えて、これ
に帰属するとみなすことを特徴とする、請求項4に記載
の音声合成装置。5. When the attribute of the extracted word string is different from the arrangement order of the basic attribute pattern in the search by the embedding / synthesizing unit, the attribute is rearranged and regarded as belonging to it. The speech synthesis apparatus according to claim 4, wherein:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08958096A JP3219678B2 (en) | 1996-04-11 | 1996-04-11 | Speech synthesizer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08958096A JP3219678B2 (en) | 1996-04-11 | 1996-04-11 | Speech synthesizer |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09281988A true JPH09281988A (en) | 1997-10-31 |
JP3219678B2 JP3219678B2 (en) | 2001-10-15 |
Family
ID=13974739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08958096A Expired - Fee Related JP3219678B2 (en) | 1996-04-11 | 1996-04-11 | Speech synthesizer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3219678B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2012104952A1 (en) * | 2011-02-03 | 2014-07-03 | パナソニック株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
-
1996
- 1996-04-11 JP JP08958096A patent/JP3219678B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2012104952A1 (en) * | 2011-02-03 | 2014-07-03 | パナソニック株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
JP5677470B2 (en) * | 2011-02-03 | 2015-02-25 | パナソニックIpマネジメント株式会社 | Voice reading device, voice output device, voice output system, voice reading method and voice output method |
Also Published As
Publication number | Publication date |
---|---|
JP3219678B2 (en) | 2001-10-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000081892A (en) | Device and method of adding sound effect | |
WO2006008871A1 (en) | Speech synthesizer | |
JPH11231885A (en) | Speech synthesizing device | |
Klabbers et al. | Speech synthesis development made easy: the bonn open synthesis system. | |
JP3270356B2 (en) | Utterance document creation device, utterance document creation method, and computer-readable recording medium storing a program for causing a computer to execute the utterance document creation procedure | |
JPH0420998A (en) | Voice synthesizing device | |
JP3219678B2 (en) | Speech synthesizer | |
KR100386382B1 (en) | Traffic information device with improved speech synthesizer | |
Shah et al. | Bi-Lingual Text to Speech Synthesis System for Urdu and Sindhi | |
US20030018473A1 (en) | Speech synthesizer and telephone set | |
JPH08335096A (en) | Text voice synthesizer | |
JP3060276B2 (en) | Speech synthesizer | |
JP3192981B2 (en) | Text-to-speech synthesizer | |
JP3668583B2 (en) | Speech synthesis apparatus and method | |
JP3626398B2 (en) | Text-to-speech synthesizer, text-to-speech synthesis method, and recording medium recording the method | |
JPH03167666A (en) | Information guiding/offering method | |
JP3115232B2 (en) | Speech synthesizer that synthesizes received character data into speech | |
CN1629933B (en) | Device, method and converter for speech synthesis | |
JPH10228471A (en) | Sound synthesis system, text generation system for sound and recording medium | |
Barros et al. | HMM-based european Portuguese TTS system. | |
JP2005181998A (en) | Speech synthesizer and speech synthesizing method | |
JPH10254470A (en) | Text voice synthesizer | |
JP2001034285A (en) | Model sentence table database for insert voice synthesis and method for generating model sentence table | |
JPH09114807A (en) | Sentence voice synthetic device | |
JP3364820B2 (en) | Synthetic voice output method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20001024 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010703 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090810 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100810 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100810 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110810 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |